AI 트레이너 경제: 100억 달러 이면의 보이지 않는 손들
머코어(Mercor)는 2023년 세 명의 대학 중퇴자가 창업해 100억 달러 가치를 인정받은 AI 훈련 플랫폼이다. 그러나 그 화려한 성장 뒤에는 극심한 임금 불평등이 존재한다. 머코어의 의사는 시급 170달러를 받는 반면 다른 회사의 데이터 라벨러는 시급 2달러 미만이다. 이러한 격차는 단순한 경제 문제가 아니라 윤리와 법, 인간 존엄성의 문제로 확장된다. AI를 만드는 손들이 누구이며 그 노동이 얼마나 존중받는가를 묻는 것이 오늘날의 진짜 질문이다.
2023년 세 명의 대학 중퇴자가 만든 머코어(Mercor)는 100억 달러 가치평가를 받았다. 이 회사는 오픈AI와 앤트로픽을 위해 3만 명의 전문직 계약자를 관리한다. 예를 들어 의사는 시급 170달러를 받고 AI에게 의학 지식을 가르친다. 같은 시간, 케냐의 OpenAI 콘텐트 필터링 작업자는 시급 2달러 미만으로 폭력적 텍스트를 분류한다. 이것이 AI 트레이너 경제의 실체다.
두 개의 세계: 시급 2달러와 170달러 사이
AI 트레이너 경제란 인공지능 시스템을 훈련시키기 위해 데이터를 수집, 분류, 라벨링하는 대규모 인력 생태계를 말한다. 다른 경제 생태계와 마찬가지로 이 생태계 역시 극과 극으로 나뉘었다.
상층부: 머코어는 의사, 변호사, 은행가, 기자 같은 전문직을 고용한다. 의사들은 6주 계약으로 주당 최소 20시간 일하며 시급 170달러를 받는다. 진보 정치 전문가는 시급 70달러를 받고 AI 답변에서 "보수적 프레이밍"을 찾아낸다. 머코어의 평균 시급은 85달러다. 고객사가 100달러를 지불하면 Mercor는 30~35%를 가져가고 나머지를 계약자에게 준다.
하층부: 스케일(Scale) AI 같은 데이터 라벨링 기업은 글로벌 남반구에서 노동력을 찾는다. 옥스퍼드 대학 연구에 따르면 이들 작업자는 실제 노동 시간의 26.8%를 무급으로 일한다. 일거리를 찾고 무급 테스트를 보고 지원서를 작성하는 시간까지 포함하면 평균 시급은 2.15달러다. 케냐 작업자들은 하루 9시간 동안 150~250개의 폭력적이고 성적인 텍스트를 분류했다. 2024년 초 거의 100명의 케냐 AI 작업자들은 미국 대통령에게 공개서한을 보냈다. "우리의 노동 조건은 현대판 노예제다."
같은 AI 트레이너라는 이름 아래 누군가는 시급 170달러를 받고 의학 논문을 검토하며 누군가는 시급 2달러로 아동 학대 이미지를 분류한다. 차이는 85배다.
100억 달러 시장의 구조
2023년 설립된 머코어는 원래 AI 기반 채용 플랫폼이었다. 이력서를 자동으로 검토하고 지원자를 매칭하는 일을 했다. 그 과정에서 회사는 소프트웨어 엔지니어부터 수학자까지 전문 인력 네트워크를 구축했다.
전환점은 AI 기업들이 모델을 개선하기 위해 전문가 피드백을 필요로 하면서 왔다. 머코어는 빠르게 규모를 키웠고, 변호사, 의사, 은행가, 기자로 네트워크를 확장했다. 2025년 5월, 우버의 전 최고제품책임자 선딥 제인(Sundeep Jain)을 초대 사장으로 영입했다.
곧이어 2025년 6월 메타가 스케일AI의 49% 지분을 140억 달러 이상에 인수하면서 판이 커졌다. 스케일AI의 가치평가는 290억 달러를 넘어섰지만 스케일AI의 고객과 경쟁사들은 메타 투자 후 중립성과 고객 데이터 보호에 우려를 제기했다. 머코어의 매출은 이후 4배 증가했다.
경쟁은 치열하다. 지난달 스케일AI는 머코어를 영업비밀 침해 혐의로 고소했다. 머코어로 이직한 전 스케일AI 직원도 함께 소송 대상이 됐다. 머코어 대변인은 "법적 절차를 통해 해결할 것"이라고만 밝혔다.
법의 경계에 선 AI 경제
법적으로 AI 트레이너 경제는 분류 문제를 안고 있다. 스케일AI는 미국 노동부의 공정노동기준법 위반 조사를 받는다. 쟁점은 명확하다. 데이터 라벨러들을 '독립계약자'로 분류해 초과근무 수당, 병가, 건강보험 같은 노동자 권리를 회피했다는 것이다.
캘리포니아 AB 5 법안의 ABC 테스트는 세 가지 조건을 제시한다. 노동자가 회사의 통제와 지시를 받지 않고 회사의 일반 사업 범위 밖에서 일하며 독립적인 사업체로 확립되어 있어야 독립계약자로 인정된다. 그러나 스케일AI의 데이터 라벨러들은 회사가 제공한 플랫폼에서 회사가 정한 가이드라인에 따라 회사의 핵심 사업인 AI 훈련 데이터를 생산한다. 이는 독립계약자가 아니라 직원이라는 의미다.
머코어의 의사들도 법적으로는 독립계약자다. 시급 170달러를 받지만 건강보험, 유급휴가, 실업보험은 없다. 플랫폼 경제의 구조적 문제는 임금 수준과 무관하게 작동한다.
더 심각한 문제는 심리적 피해에 대한 법적 공백이다. 슈스터(Schuster) 대 스케일AI 소송에서 데이터 라벨러들은 폭력적이고 성적인 콘텐트를 반복적으로 분류하면서 PTSD를 겪었다고 주장한다. AI가 유해 콘텐츠를 인식하려면 인간이 먼저 그것을 보고 태그를 달아야 한다. 회사들은 이러한 작업의 심리적 위험을 고지하지 않았고 정신건강 지원도 제공하지 않았다.
인간 존엄성이라는 철학적 화두
철학적으로 AI 트레이너 경제는 칸트의 정언명령과 충돌한다. 인간은 결코 수단으로만 취급되어서는 안 되며 항상 목적 그 자체로 존중받아야 한다. 현재 AI 경제는 글로벌 남반구의 노동자들을 저렴한 인간 센서로 취급한다.
교황청의 AI 윤리 문서 Antiqua et Nova도 이를 지적한다. 노동은 단순히 생계 수단이 아니라 의미와 목적, 공동체 기여의 원천이다. AI가 인간의 인지 능력마저 대체하려는 시대에 노동의 존엄성을 어떻게 지킬 것인가가 문제다.
UNESCO의 AI 윤리 권고안은 인권과 존엄성을 AI 개발의 핵심으로 제시한다. 투명성, 공정성, 인간 감독의 중요성을 강조한다. 그러나 현실의 AI 트레이너 경제는 이와 반대로 작동한다. 불투명한 알고리즘이 작업을 배정하고 불공정한 임금 구조가 지속되며 기본적인 노동권조차 보장되지 않는다.
서구 중심적 분류 체계의 강요도 문제다. 아프리카 노동자들에게 미국식 인종 분류를 강제하고 현지 문화적 맥락을 무시한 채 데이터를 라벨링하도록 요구한다. 이는 노동 착취를 넘어 인식론적 폭력이다. MIT의 Ben Vinson 총장은 말한다. "AI는 단순히 기술의 진보가 아니라 권력, 정의, 그리고 인간이란 무엇인가에 대한 질문이다."
흥미롭게도 머코어가 모집하는 진보 정치 전문가는 AI 답변에서 보수적 프레이밍을 찾아내는 일을 한다. 누가 AI에게 무엇을 가르칠지 결정하는 과정에 이미 권력이 작동하고 있다.
AI 트레이너가 되는 길
이 생태계에 참여하는 방법은 진입 단계에 따라 다르다.
입문 레벨: 기술적 배경 없이도 시작할 수 있다. RWS TrainAI, Appen, Amazon Mechanical Turk 같은 플랫폼에 가입하면 이미지, 텍스트, 오디오 데이터 라벨링 작업을 받을 수 있다. 미국 기준 시급은 15~45달러, 연봉은 25,000~60,000달러 수준이다.
전문가 레벨: 머코어 같은 플랫폼은 의사·변호사·은행가 면허가 있는 전문직을 찾는다. 의학 관련 AI 답변을 평가하고 AI가 생성한 의학 연구를 검토하며 시급 170달러를 받는다. 변호사는 법률 문서를 검토하고 기자는 사실 확인을 한다.
커리어 경로: 데이터 라벨러에서 시작해 품질관리 분석가, 데이터 분석가, AI 트레이너로 성장할 수 있다. 고급 단계로 가려면 프로그래밍(Python, Java), 머신러닝 개념, 데이터 전처리 기술이 필요하다. 평균 연봉은 95,000달러다.
하지만 이 길로 들어서기 전에 물어야 한다. 당신이 참여할 시스템은 윤리적으로 작동하는가? 당신이 가르치는 AI는 누구의 가치를 반영하는가? 당신의 노동은 존중받는가?
다시, 보이지 않는 손들
머코어의 22세 CEO 브랜든 푸디(Brendan Foody)와 그의 공동창업자들은 대학을 중퇴하고 피터 씰(Peter Thiel)의 펠로우십을 받았다. 2년 만에 100억 달러 가치평가를 받는 회사를 만들었다. 그들이 관리하는 3만 명 중 누군가는 시급 170달러로 부를 축적하고 다른 회사의 누군가는 시급 2달러로 트라우마를 쌓는다.
우리는 AI를 마법처럼 여긴다. 챗지피티에게 질문하면 순식간에 답이 나온다. 하지만 그 답변 뒤에는 누군가의 밤샘 노동이 있고 누군가의 트라우마가 있으며 누군가의 2달러짜리 시간이 있다. 400억 달러 규모로 성장할 AI 산업은 이 보이지 않는 손들 위에 세워졌다.
혁명은 기술이 아니라 정의에서 시작된다. 우리가 매일 사용하는 AI가 누군가의 존엄성을 짓밟지 않도록, 알고리즘 뒤에 숨은 인간을 기억해야 한다. 그것이 우리 시대가 답해야 할 철학적, 법적, 그리고 무엇보다 인간적인 질문이다.
Q&A
Q1. AI 트레이너 경제란 무엇인가?
A1. AI 시스템 훈련을 위해 데이터를 수집·분류·라벨링하는 대규모 인력 생태계다. Mercor(100억 달러), Scale AI(290억 달러 이상) 같은 기업들이 주도한다. 그러나 이 경제는 분리되어 있다. 상층부는 의사·변호사 같은 전문직이 시급 85~170달러를 받고, 하층부는 글로벌 남반구 노동자들이 시급 2달러를 받는다. 차이는 85배다.
Q2. 주요 법적 쟁점은?
A2. 독립계약자 대 직원 분류 문제가 핵심이다. Scale AI는 미국 노동부로부터 공정노동기준법 위반 조사를 받고 있으며, 캘리포니아 AB 5 법안 위반 혐의도 있다. Mercor의 고액 전문직들도 법적으로는 독립계약자로 건강보험이나 유급휴가가 없다. 또한 유해 콘텐츠 노출로 인한 심리적 피해에 대한 소송(Schuster v. Scale AI)도 진행 중이다.
Q3. 철학적으로 어떤 문제를 제기하나?
A3. 칸트적 인간 존엄성 개념과 충돌한다. 노동자들을 '목적 그 자체'가 아닌 '수단'으로 취급하며, 교황청이 강조하는 '노동의 존엄성'을 침해한다. UNESCO의 AI 윤리 원칙(투명성, 공정성, 인간 감독)과도 거리가 있다. 더 나아가 누가 AI에게 무엇을 가르칠지 결정하는 과정 자체가 권력의 작동이다.
Q4. AI 트레이너가 되려면?
A4. 입문 레벨은 RWS TrainAI, Appen 같은 플랫폼을 통해 시작 가능하다(시급 10~45달러). 전문가 레벨은 의사·변호사 면허가 있다면 머코어를 통해 시급 170달러를 받을 수 있다. 데이터 라벨러에서 시작해 품질관리, 데이터 분석가를 거쳐 AI 트레이너로 성장하며 고급 단계는 연봉 95,000달러다.
Q5. 해결책은 무엇인가?
A5. 법적으로는 노동자 재분류와 글로벌 노동권 보호 강화가 필요하다. 윤리적으로는 임금 격차 해소, 심리적 안전 보장, 문화적 맥락 존중이 요구된다. 구조적으로는 플랫폼 경제의 독립계약자 모델 자체를 재검토해야 한다. 무엇보다 AI 기업들의 투명성과 책임성 확보, 그리고 소비자로서 우리의 각성이 중요하다.