4천 명 사라진 자리, AI 에이전트가 앉다: AI 값은 내리고 연봉은 사라진 이유
세일즈포스는 AI 에이전트를 도입하고 4,000명을 잘랐다. 가트너는 2026년 말까지 기업 앱의 40%가 에이전트를 탑재할 것으로 본다. 추론 비용은 연간 50배씩 내려가고, 밟고 올라가야 할 경력 사다리의 가장 아래쪽 디딤대가 부러지고 있다. 경력이 없는 신입을 대체한 "디지털 동료"라는 수사 아래, 구조조정과 효율화 만이 주목받고 있다.
레이 | 디지털 저널리스트 | awesome.ai.life@gmail.com | 2026년 3월 29일
4,000명이 사라진 자리
2026년 3월, 세일즈포스(Salesforce) CEO 마크 베니오프(Marc Benioff)는 AI 에이전트 통합 이후 고객서비스 인력을 9,000명에서 5,000명으로 줄였다고 직접 확인했다. 4,000개의 일자리가 사라졌다. AI 에이전트가 고객 상호작용의 약 절반을 처리하기 시작한 직후였다. 세일즈포스는 이 변화를 "구조조정"이라 불렀고, 시장은 "효율화"라 평가했다. 그러나 사라진 4,000명의 관점에서도 이렇게 부를 수 있을까.
같은 달, 가트너(Gartner)는 2026년 말까지 기업 애플리케이션의 40%가 태스크별 AI 에이전트를 탑재할 것이라는 전망을 내놓았다. 2025년에 5% 미만이었던 수치다. CloudKeeper, Salesmate 등 복수의 시장 분석 기관이 이 수치를 동일하게 인용한다. 1년 사이에 8배. 이것은 점진적 변화가 아니라 위상이 바뀐 것(phase transition)이다.
에이전트 AI(Agentic AI)는 이전 세대의 AI와 결정적으로 다른 지점이 하나 있다. 기존의 생성형 AI가 "이 이메일을 써줘"라는 지시에 응답하는 도구였다면 에이전트 AI는 "이번 분기 마케팅 캠페인을 기획하고 실행해"라는 목표를 받아 스스로 계획을 수립하고 CRM과 ERP를 오가며 다단계 작업을 자율적으로 수행한다. 프롬프트에 응답하는 AI에서 목표를 추구하는 AI로의 전환. 이 차이가 왜 중요한지를 이해하려면 비용 구조의 변화를 먼저 봐야 한다.
추론 비용의 붕괴가 만든 임계점
에이전트 AI의 부상을 가능하게 한 물질적 토대는 AI 추론(inference) 비용이 붕괴했다는 점이다. Epoch AI의 2025년 3월 연구에 따르면, LLM 추론 가격은 과업에 따라 연간 9배에서 900배까지 하락했다. 중간값은 연간 50배. 2024년 1월 이후 데이터만 분리하면 하락 속도는 연간 200배로 가속한다. [사실] 스탠퍼드대 인간중심AI연구소(Stanford HAI)의 2025 AI Index Report는 같은 맥락에서 GPT-3.5 수준의 성능을 달성하는 추론 비용이 2022년 11월부터 2024년 10월 사이 280배 이상 하락했다고 보고한다.
이 숫자들이 뜻하는 바는 단순하다. 2년 전까지 100만 토큰당 20달러이던 비용이 이제 0.4달러 수준이다. 사람이 머리로 하던 일의 단위 비용이 이 속도로 하락하면 기업은 "이 업무를 사람에게 맡길 것인가, AI에게 맡길 것인가"라는 질문에 답해야 한다. 에이전트 AI의 자율적 행동 능력은 이 경제적 계산의 결과를 극적으로 바꾼다. AI가 단순히 텍스트를 만들 뿐만 아니라 다단계 워크플로우 전체를 수행할 수 있게 되면 기업은 타이핑 속도가 아니라 주니어 분석가의 연봉과 AI 운영비를 비교하게 된다.
그러나 여기서 멈추면 안 된다. 가트너는 2026년 3월 25일 프레스 릴리즈에서 정확히 이 지점을 경고한다. "단순한 AI 작업 비용이 내렸다고 해서, 고난도 추론 비용까지 내려간 건 아니다. 쉬운 일을 처리하는 AI는 거의 공짜에 가까워지고 있지만, 복잡한 판단을 해내는 AI를 돌리는 데 필요한 컴퓨팅 자원은 여전히 비싸고 귀하다." 그리고 비용이 내려간 AI가 대체하는 것은 정확히 말하면 인간 노동 가운데 교과서에서 배울 수 있는 종류의 일이다. 이 구별이 결정적이다.
경력 사다리의 가장 아래쪽 가로대
에이전트 AI가 인간의 지적 노동을 "재정의"한다는 말은 실은 두 가지 매우 다른 현상을 하나의 단어로 묶고 있다. 하나는 보완(complement)이고, 다른 하나는 대체(substitute)다. 문제는 이 둘이 동일한 산업 안에서 같은 회사 안에서 심지어 같은 직무 안에서 동시에 발생한다는 점이다.
하버드 경영대학원(Harvard Business School)의 수라지 스리니바산(Suraj Srinivasan) 교수 연구팀이 2026년 3월 Harvard Business Review에 발표한 연구 "Displacement or Complementarity?"는 이 이중 운동을 데이터로 포착했다. 미국의 거의 모든 구인 공고를 2019년부터 2025년 초까지 분석한 결과 자동화 집중 직종에서 채용 공고가 13% 감소한 반면 인간-AI 협업이 핵심인 직종에서는 20% 증가했다.
이 데이터를 읽는 방식이 중요하다. 낙관론자는 "순증"에 주목한다. 20%가 13%보다 크지 않은가. 그러나 이 수치는 직종별 평균이지, 개인의 경험이 아니다. 사라지는 13%에 속한 사람이 늘어나는 20%의 자리로 이동할 수 있는가?
댈러스 연방준비은행(Dallas Fed) 연구가 이 질문에 불편한 답을 내놓는다. AI는 체계적 지식(codified knowledge) 즉 교과서에서 배울 수 있는 지식 기반 업무를 대체하지만, 경험을 통해서만 습득되는 암묵적 지식(tacit knowledge) 기반 업무는 보완한다. AI에 노출된 직종일수록 경험 프리미엄(경력자와 신입의 임금 격차)이 크다는 데이터가 이를 뒷받침한다. 법률, 보험 심사, 신용 분석, 마케팅 같은 직종에서 경험 프리미엄은 100%를 넘는다.
이것이 뜻하는 바는 결정적이다. AI에 가장 취약한 것은 바로 경력의 시작점, 즉 신입 직원이다. 경력 사다리의 가장 아래쪽 가로대가 부러지고 있다.
기업은 전통적으로 신입 직원에게 체계적이고 반복적인 업무를 맡기면서 동시에 경험과 맥락적 판단력을 습득하게 했다. 데이터 입력, 기초 코드 작성, 회의 요약, 초안 작성과 같은 업무는 기업에 필요한 산출물을 제공하는 동시에 신입이 조직의 암묵적 지식을 체화하는 "유급 학습 곡선"이었다. 에이전트 AI가 이 영역을 장악하면 같은 일을 하기 위해 연봉 몇 천 만원의 주니어를 고용할 경제적 이유가 사라진다.
그렇다면 질문은 이렇게 바뀐다. 경험을 쌓을 기회 자체가 사라진다면 미래의 시니어는 어디서 오는가? AI가 더 똑똑해질수록 체계적 지식 영역은 넓어지고 신입이 학습할 수 있는 업무 영역은 좁아진다. 이것은 일시적 불균형이 아니라 구조적 특징이다. "AI가 반복 업무를 대체하면 인간은 더 창의적인 일에 집중할 수 있다"는 주장은 그 창의적 역량이 반복 업무 경험 없이도 형성될 수 있다는 전제를 깔고 있다. 그 전제는 검증되지 않았다.
규제의 시차, 책임의 공백
EU는 AI Act에 따라 고위험 AI 시스템에 대한 규칙을 2026년 8월 2일부터 본격 적용한다. 세계 최초의 포괄적 AI 규제 프레임워크다. 리스크 기반 접근법을 채택하여, 수용 불가 위험(금지) / 고위험(엄격한 요건) / 투명성 의무 / 최소 위험(규제 최소)으로 AI 시스템을 분류한다.
그러나 이 법은 에이전트 AI를 직접 염두에 두고 설계되지 않았다. The Future Society의 분석 보고서 "Ahead of the Curve: Governing AI Agents under the EU AI Act"는 이 공백을 정밀하게 분석한다. EU AI Act는 범용 AI 모델(GPAI) 규정과 고위험 시스템 규정을 조합해 에이전트에 부분적으로 적용하지만, 에이전트 고유의 위험은 규제 사각지대로 남는다. 자율적 의사결정 체인에서 누가 책임을 지는가. 모델 제공자인가, 에이전트 시스템 구축자인가, 배포 기업인가. 아무도 여기에 대한 명확한 답을 제공하지 않았다.
에이전트 AI가 다른 소프트웨어 도구와 근본적으로 다른 점은 인간이 각 단계마다 확인하고 승인하는 것이 아니라 AI가 스스로 계획을 세우고 실행한다는 것이다. 전통적 자동화가 "이 조건이면 이것을 실행하라"는 규칙을 따랐다면 에이전트 AI는 "이 목표를 달성하라"는 지시만 받고 나머지를 스스로 결정한다. 규칙 기반 시스템은 예측 가능하다. 목표 기반 시스템은 그렇지 않다.
기술의 확산 속도와 규제의 형성 속도 사이에 구조적 시차가 존재한다. 가트너가 예측하는 기업 앱의 40%가 에이전트를 탑재하는 시점과 EU AI Act의 고위험 규칙이 실제로 집행되는 시점이 거의 겹친다. 규제가 기술의 배포와 동시에 적용되기 시작한다는 것은 많은 기업이 규칙의 윤곽이 명확해지기 전에 이미 시스템을 구축하고 있다는 뜻이다. 한국의 경우 AI 기본법이 2026년 1월 시행에 들어갔으나 에이전트 AI의 자율적 의사결정에 대한 구체적 규정은 마찬가지로 부재하다. 규제 공백은 글로벌 현상이다.
디지털 동료라는 메타포를 해부하면
에이전트 AI를 둘러싼 담론에서 가장 빈번하게 등장하는 메타포는 "디지털 동료(digital coworker)"다. 이 표현은 의도적이다. "대체"나 "자동화"가 아니라 "동료"라는 단어를 선택함으로써 기술 기업은 에이전트 AI를 인간과 나란히 일하는 협력자로 프레이밍한다.
그러나 현장의 실체는 이 수사와 다르다. CIO의 2025년 12월 분석은 제목부터 냉정하다. "에이전트 AI in 2026: 주류라기보다는 혼재." McKinsey 조사에서 39%의 기업이 에이전트를 실험하고 있지만 실제로 하나의 사업부문에서라도 에이전트를 본격적으로 확대 도입한 기업은 23%에 불과했다. 가트너는 에이전트 AI 프로젝트의 40% 이상이 거버넌스/ 관찰 가능성 / ROI 부재로 2027년까지 취소 위험에 처한다고 경고한다.
현실의 에이전트 AI는 "동료"보다 "제한된 자율성(bounded autonomy)"에 더 가깝다. 허용된 도구만 사용하고 측정 가능한 업무만 수행하고 감사 로그를 생산하는, 말하자면 감시 아래 놓인 자율성이다. 에이전트의 메모리 문제(장, 중, 단기 기억의 부재)도 여전히 미해결이다. 메모리 없는 에이전트는 본질적으로 LLM 채팅 세션과 크게 다르지 않다. 유통기한이 짧다.
기술을 판매하는 기업은 기술의 현실보다 자신들의 서사적 필요에 맞춰 "디지털 동료"라는 프레이밍을 만들어냈다. 동료는 권리를 가진 주체다. 에이전트 AI는 소프트웨어다. 이 둘을 같은 범주에 놓는 수사가 위험한 이유는, 에이전트가 "동료"로 인식되는 순간 그것이 대체하는 인간 동료의 해고가 "팀 재구성"이라는 중립적 언어로 포장되기 때문이다.
효율의 언어가 가리는 것
에이전트 AI의 기술적 진보는 부인할 수 없다. 그러나 이 기술이 사회에 배치되는 방식은 기술 자체가 아니라, 기술을 둘러싼 경제적 인센티브와 권력관계가 결정한다.
세계경제포럼(WEF)은 Future of Jobs Report 2025에서 2030년까지 1억7000만 개의 신규 일자리가 창출되고 9200만 개가 소멸하여 순증 7800만 개가 될 것으로 전망했다. 이 숫자만 보면 안심할 수 있다. 그러나 개인은 순증을 경험하지 못한다. 사라지는 일자리에 있던 사람과 새로 생기는 일자리를 채울 사람이 같은 사람인 경우는 드물다. 그 사이의 간극, 이를테면 재교육의 시간, 지리적 이동의 비용, 심리적 전환의 부담 같은 거시 통계는 포착하지 못한다.
MIT의 경제학자 대런 애쓰모글루(Daron Acemoglu)가 반복적으로 지적하듯 자동화 기술의 이득은 비대칭적으로 분배된다. 에이전트 AI를 설계하고 배포하는 것은 기술 기업과 대기업이다. 비용 절감의 이익은 주주에게 돌아간다. 해고, 경력 단절, 진입 장벽 상승 같은 비용 절감의 비용은 개별 노동자가 지불한다. 노동자 사이에서도 격차는 벌어진다. PwC 분석에 따르면 AI 역량을 갖춘 노동자는 같은 직무의 비AI 숙련 노동자보다 56% 더 높은 임금을 받는다. AI를 다룰 줄 아는 사람과 그렇지 못한 사람 사이의 임금 격차가, 기술 도입과 함께 구조화되고 있다.
에이전트 AI 담론의 가장 위험한 맹점은 "효율"이라는 중립적 언어 아래 권력관계를 은폐하는 것이다. 기술 중립주의의 언어로 이 구조를 묘사하는 것은 가장 교묘한 형태의 현실 왜곡이다. 에이전트 AI는 누군가의 효율이고 동시에 다른 누군가의 실업이다.
에이전트 AI가 인간의 지적 노동을 재정의하고 있는가? 그렇다. 그러나 "재정의"라는 말이 "누구에 의해, 누구를 위해, 누구의 비용으로"라는 질문을 포함하지 않는다면, 그것은 분석이 아니라 홍보다. 그리고 이 질문에 답하는 것은 기술의 몫이 아니라 기술을 감시하는 시민과 제도의 몫이다. / raylogue