자본의 양면성과 에이전트 AI의 부상
2026년 2월, AI 산업은 극적인 양면성을 드러냈다. 앤트로픽의 자동화 도구 발표로 월스트리트에서 886조원이 증발했지만, 앤트로픽은 며칠 뒤 29조원 투자를 유치했다. 에이전트 AI가 부상하며 스스로 학습하고 판단하는 시대가 열렸고, LG AI연구원은 멀티모달 의료 AI로 세계 1위를 달성했다. 그러나 오픈AI의 광고 도입 논란, 인력 예산 삭감의 역설, AI의 이기성 연구 등 그림자도 짙어졌다. AI 윤리를 위해 철학자를 고용하는 앤트로픽의 시도부터 합성 권위의 위험까지, 기술과 윤리가 교차하는 AI 전환의 시기를 분석한다.
AI, 혼돈 속에서 질서를 묻다
2월 3일 월요일, 앤트로픽(Anthropic)이 법률 문서 검토와 금융 리서치를 자동화하는 새로운 도구를 발표하는 순간 월스트리트가 얼어붙었습니다. 소프트웨어와 금융 서비스 관련 164개 기업의 주가가 폭락하기 시작했고, 일주일 만에 무려 6,110억 달러(약 886조 원)의 시가총액이 증발한 것입니다. 투자자들은 비로소 깨달았습니다. AI가 자신들의 비즈니스 모델을 언젠가 위협할 것이 아니라 지금 당장 파괴하기 시작했다는 것을요.
그런데 놀랍게도 이 공포를 촉발한 앤트로픽이 며칠 뒤인 2월 7일부터 9일 사이, 200억 달러(약 29조 원)라는 천문학적인 투자를 유치하며 기업 가치를 3,500억 달러(약 507조 원)로 평가받았다는 소식이 전해졌습니다. 불과 5개월 전 130억 달러를 조달한 이후 또다시 이뤄진 거대한 투자였습니다. 한쪽에서는 AI에 대한 두려움으로 주식이 폭락하고, 다른 한쪽에서는 AI에 대한 기대로 돈이 몰리는 이 극명한 대비. 이것이 바로 지금 AI 시대가 맞이한 자본의 양면성입니다.
2026년 2월 초, 우리는 AI가 단순한 성능 향상을 넘어 스스로 학습하고 추론하며 복잡한 문제를 해결하는 에이전트 AI로 진화하는 모습도 목격했습니다. 그러나 기술의 빛이 강렬해질수록 그림자도 짙어집니다. AI가 만들어내는 가짜 전문성은 진짜 전문가의 권위를 위협하고, AI 전환의 핵심인 인력 투자는 오히려 예산 삭감의 대상이 되는 역설이 나타나고 있습니다. 게다가 이 모든 일이 동시다발적으로 일어나 투자와 비즈니스에 엄청난 변화를 요구합니다. 과연 우리는 이 변화를 주도할 수 있을까요?
Executive Summary: 2026년 2월 2주의 핵심 트렌드
| 카테고리 | 핵심 동향 | 주요 시사점 |
|---|---|---|
| 시장 충격과 투자 | AI 공포와 거대 투자의 공존: 월스트리트 $611B 시총 증발 vs. 앤트로픽 $20B 투자 유치 | AI가 기존 산업을 파괴하는 실질적 위협으로 인식되는 동시에 미래를 주도할 플랫폼에 대한 투자는 더욱 거세지고 있습니다. |
| 기업 전략 | 수익화 압력과 구조 전환: 챗GPT 광고 도입, AI 예산 확대 및 인력 감축 | AI 서비스의 수익화 압력이 커지고 기업들은 AI를 통한 생산성 향상을 인력 증가 없이 달성하려는 구조적 전환을 가속화하고 있습니다. |
| 기술 혁신 | 에이전트 AI의 부상과 자기 학습: 자율 과학 발견, 멀티모달 의료 AI, 자기 개선 능력 | AI가 단순한 도구를 넘어, 자율적으로 복잡한 작업을 수행하고 스스로 개선하는 에이전트로 진화하고 있습니다. |
| 정책 및 규제 | 투명성과 주권 중심 규제: 저작권 보고 의무화, 주권 클라우드 성장, 딥페이크 단속 | AI의 사회적 비용에 대한 인식이 높아지면서 각국 정부가 AI 산업의 투명성과 책임성을 요구하는 구체적인 규제를 마련하고 있습니다. |
| 인력 및 조직 | 인력 전환의 역설: AI 전환의 핵심은 사람이지만, 인사 예산 삭감과 AI 번아웃 발생 | 기업들이 단기 비용 절감에 치중하면서 장기적인 조직 역량 약화의 위험에 직면하고 있습니다. |
| 윤리 및 사회 | AI 윤리의 전면 부상: 앤트로픽의 철학자 고용, 합성 권위 문제, AI의 이기성 연구 | AI의 지능이 발전할수록 윤리적 문제가 더욱 중요해지며 기술적 해결을 넘어 철학적, 사회적 차원의 논의가 활발해지고 있습니다. |
1. 기업 수익화 압력과 구조적 전환
AI 기업들은 막대한 운영 비용을 감당하기 위해 새로운 수익 모델을 모색하고 있습니다. 2월 9일 오픈AI(OpenAI)는 챗GPT(ChatGPT) 무료 사용자에게 광고를 도입하기로 결정했습니다. AI 챗봇을 무료로 제공하는 데 드는 막대한 서버 비용과 전력 비용을 충당하기 위한 불가피한 선택이었습니다. 하나의 AI 대화 응답을 생성하는데 드는 비용이 일반 검색의 수십 배에 달하기 때문입니다.
AI 서비스의 수익화, 광고를 선택하다
하지만 이 결정은 논란을 불러일으켰습니다. 슈퍼볼 광고에서 경쟁사 앤트로픽이 "광고는 AI에 오지만, 클로드에는 오지 않는다"라고 선언하며 오픈AI를 직접 겨냥했기 때문입니다. 오픈AI CEO 샘 올트먼(Sam Altman)은 트위터에서 이를 "부정직하다"며 격렬하게 반발했습니다. 그는 "우리는 무료 사용자들에게 서비스를 계속 제공하기 위해 광고를 도입하는 것이지, 유료 사용자에게는 광고가 없다"고 해명했습니다.
AI 업계에서 광고 없는 순수성을 지킬 것인지, 수익화를 택할 것인지를 둘러싼 윤리적 긴장감이 고조되고 있습니다. 하지만 지금까지 무료로 시작했던 모든 소셜 미디어를 볼 때 결국은 enshittification이 되지 않을까 하는 우려가 많습니다. 캐나다 작가이자 기술 비평가 코리 닥터로(Cory Doctorow)가 2022년부터 사용한 이 용어는 플랫폼은 처음에는 이용자를 위해 존재하다가 이후 광고주를 위해 존재하고 마지막에는 주주를 위해 존재한다는 내용으로 결국 이용자는 아주 괴로운 상황에 빠지게 된다는 걸 의미합니다. 쉽게 말해 enshittification은 '결국은 shit이 됐다'는 건데 shit을 무엇으로 번역하느냐에 따라 의미가 크게 달라집니다. 참고로 챗지피티는 shit을 한국어로 번역하기 거부(!)했습니다. 😄
기업들의 AI 투자 확대: 효율성인가, 구조조정인가?
한편 일반 기업들은 AI를 비용 절감과 생산성 향상의 도구로 적극 활용하기 시작했습니다. 가트너 조사에 따르면, 2026년 최고재무책임자(CFO)들은 영업과 IT 부문에 예산을 집중 투자할 계획입니다. 특히 75%가 기술 예산 증액을 계획하고 있으며, 60%가 재무 부서의 AI 투자를 10% 이상 늘릴 것이라고 답했습니다. 기업들은 AI 전환을 더 이상 미룰 수 없는 최우선 과제로 인식하고 있습니다.
데이터브릭스(Databricks) CEO 알리 고드시(Ali Ghodsi)는 더 나아가 "서비스형 소프트웨어(SaaS)는 죽지 않았지만 AI가 곧 무의미하게 만들 것"이라는 도발적인 발언을 했습니다. 기업들이 비싼 소프트웨어 구독료를 내는 대신, AI 도구로 직접 업무를 처리하게 될 것이라는 뜻입니다. 이는 AI가 기존 소프트웨어 산업의 비즈니스 모델을 근본적으로 파괴하고 새로운 패러다임을 만들 것이라는 자신감의 표현입니다.
2. 에이전트 AI의 부상과 자기 학습
최근 AI 기술 분야의 가장 중요한 흐름은 에이전트 AI(Agentic AI)의 부상입니다. 에이전트 AI란 무엇일까요? 기존 AI는 사람이 "이것 좀 해줘"라고 명령하면 그대로 따르는 도구였습니다. 그러나 에이전트 AI는 사람이 지시한 내용에 따라 스스로 목표를 설정하고 계획을 수립하며 복잡한 작업을 자율적으로 수행합니다. 마치 사람 동료처럼 스스로 판단하고 일하는 디지털 협력자인 셈입니다.
스스로 판단하고 행동하는 AI 에이전트
arXiv(학술 논문 공유 사이트)에 발표된 '인턴에이전트-1.5(InternAgent-1.5)'는 장기적인 자율 과학 발견을 위한 통합 프레임워크를 제시했습니다. AI가 가설을 세우고 실험을 설계하며 결과를 분석하는 전 과정을 스스로 수행할 수 있다는 것입니다. 메타 AI(Meta AI)가 공개한 'AIRS-벤치(AIRS-Bench)'는 AI 과학 에이전트의 능력을 평가하는 새로운 벤치마크를 제안했습니다. AI가 스스로 연구하고 발견하는 시대가 열리고 있습니다.
멀티모달 AI의 약진: 여러 종류의 정보를 동시에 분석
2월 10일, 국내에서 반가운 소식이 들려왔습니다. LG AI연구원의 '엑사원 패스 2.5(EXAONE Path 2.5)'가 글로벌 병리 AI 모델 성능 평가에서 1위를 차지한 것입니다. 이 AI의 특별한 점은 멀티모달(Multi-modal) 기술입니다. 멀티모달이란 사진, 텍스트, 유전자 정보 등 여러 종류의 데이터를 동시에 처리하고 분석할 수 있는 능력을 말합니다. 기존에는 조직 이미지만 보거나, 유전자 정보만 분석했다면, 엑사원 패스 2.5는 조직 사진과 유전자 데이터(멀티오믹스, Multi-Omics)를 동시에 분석해서 더 정확한 암 진단을 내립니다. 마치 의사가 환자의 증상, 검사 결과, 과거 병력을 종합적으로 판단하는 것처럼 말입니다.
AI가 스스로 더 똑똑해지는 법을 배우다
학술계에서는 AI의 자기 개선 능력에 대한 연구가 활발합니다. 엔비디아와 워싱턴 대학이 공동 연구한 'iGRPO'는 AI가 스스로에게 피드백을 주며 추론 능력을 강화하는 방법을 제시했습니다. 마치 학생이 자신의 답안을 스스로 검토하며 실력을 키우는 것과 비슷합니다.
예를 들어 AI가 수학 문제를 풀었을 때 자신의 답변을 스스로 평가하고 "이 부분이 틀렸을 수 있다"고 판단한 뒤 다시 풀어보고 개선하며 이 과정을 반복하며 학습하는 방식입니다. 또 다른 연구인 '불확실성 기반 자기 교정 추론'은 AI가 자신의 답변에 대한 확신도를 바탕으로 스스로 오류를 수정하는 메커니즘을 탐구합니다. '이 답은 80% 확신, 이 답은 40% 확신'처럼 자신의 확신 정도를 평가하고 확신이 낮은 답변은 다시 검토하는 것입니다. 이는 AI가 사람의 개입 없이도 지속적으로 똑똑해질 수 있는 길을 열어주고 있습니다.
4. 투명성과 책임성의 요구
AI 기술의 급속한 발전은 각국 정부의 규제 논의를 가속화하고 있습니다. 2월 8일, 미국 의회에서 AI 모델 훈련에 사용된 저작권 콘텐트의 출처를 보고하도록 의무화하는 법안이 초당적 지지를 받고 있다는 소식이 전해졌습니다.
저작권 투명성 확보: AI는 무엇을 학습했나?
현재 AI 기업들은 인터넷에서 수집한 방대한 텍스트, 이미지, 코드로 AI를 학습시킵니다. 그런데 이 과정에서 신문 기사, 소설, 사진, 음악 등 저작권이 있는 콘텐트가 무단으로 사용되고 있다는 논란이 끊이지 않았습니다. 이 법안이 통과되면 AI 기업들은 어떤 데이터로 모델을 학습시켰는지 투명하게 공개하고 저작권자에게 정당한 보상을 지급하며 저작권 침해 여부를 감독 당국에 보고해야 합니다. AI 기업들이 데이터 수집 과정의 투명성을 높이고 저작권자의 권리를 존중해야 한다는 압력이 커지고 있습니다.
딥페이크 단속: 가짜 정보와의 전쟁
2월 6일, 인도 정부는 소셜 미디어 플랫폼에 딥페이크(deepfake) 콘텐트의 신속한 삭제를 명령했습니다. 딥페이크란 AI로 만든 가짜 영상이나 음성을 말합니다. 유명인의 얼굴을 합성하거나 목소리를 복제해서 마치 진짜처럼 보이는 콘텐트를 만들 수 있습니다. 이는 허위 정보 확산, 사기, 명예훼손 등에 악용될 수 있어 심각한 사회 문제가 되고 있습니다. 인도의 이번 조치는 AI를 이용한 허위 정보 확산을 막기 위한 정부 차원의 강력한 대응입니다. 다른 국가에 어떤 영향을 줄 지 꽤 궁금합니다.
데이터 주권: 새로운 지정학적 변수
데이터 주권(Data Sovereignty)이 AI 시대의 새로운 지정학적 변수로 부상하고 있습니다. 데이터 주권이란 국가가 자국민의 데이터를 자국 내에서 관리하고 통제할 권리를 말합니다. 예를 들어 한국 국민의 의료 기록이나 금융 정보가 미국이나 중국 서버에 저장되는 것을 막고 반드시 한국 내 서버에서만 처리하도록 하는 것입니다.
2월 9일, 가트너는 각국 정부의 데이터 현지화 정책 강화로 인해 '주권 클라우드(Sovereign Cloud)' 시장이 2026년 800억 달러(약 116조 원) 규모로 성장할 것으로 예측했습니다. 주권 클라우드란 데이터를 해외로 보내지 않고 자국 내 서버에서만 처리하는 클라우드 서비스를 말합니다. 특히 공공기관, 금융기관, 의료기관 등이 주권 클라우드를 선호하고 있습니다. AI 개발과 데이터 활용이 이제 국가 안보 및 경제 주권과 직결된 문제로 다뤄지고 있습니다.
5. 인력 전환의 역설
AI가 가져올 노동 시장의 변화는 이번 주 가장 역설적인 모습을 드러냈습니다. 미래 지향적 기업들은 직원의 50% 이상에게 AI 관련 재교육을 계획하고 있는 반면 후발 기업들은 20%에 그치고 있습니다. 인력 투자가 기업의 미래를 가를 것임을 보여주는 대목입니다.
AI 전환의 핵심은 사람인데, 예산은 깎인다
그러나 현실은 정반대로 나타나고 있습니다. 2월 10일, 가트너 조사에 따르면 기업들은 AI를 통한 효율성 향상을 기대하며 신규 채용을 줄이고 있으며 인사(HR) 부서의 예산 증가율이 2025년 2.4%에서 2026년 0.7%로 급락했습니다. AI 전환의 핵심 동력이어야 할 인력 개발과 조직 문화 변화가 오히려 단기적인 비용 절감 논리에 밀려 후순위로 밀려나고 있습니다. 이것이 바로 인력 전환의 역설입니다.
기업들은 AI를 도입하면 사람 없이도 일할 수 있을 것이라 기대하지만 실제로는 AI를 잘 활용할 수 있는 역량 있는 인력이 더욱 중요해집니다. 그런데 정작 그 인력 양성에는 투자하지 않는 모순이 발생하고 있는 것입니다.
AI 번아웃: 새로운 조직 관리 과제
2월 5일, 포브스(Forbes)는 흥미로운 현상을 보도했습니다. AI 기술을 가장 적극적으로 수용하는 직원들 사이에서 AI 번아웃 현상이 나타나고 있다는 것입니다. AI 번아웃이란 AI 도구를 과도하게 사용하면서 오히려 정신적 피로가 증가하고, "AI가 실수하지 않았나" 계속 확인하는 스트레스가 생기며 AI 도구 사용법을 계속 배워야 하는 학습 부담과 인간 고유의 창의성과 판단력이 약화될지 모른다는 불안이 복합적으로 작용하는 현상을 말합니다.
AI 도구가 업무를 돕는다고 생각했는데 오히려 새로운 스트레스 요인이 된 것입니다. 이는 AI 시대의 새로운 조직 관리 과제를 제시합니다. 기업들은 AI 도구를 도입하는 것뿐만 아니라, 직원들이 건강하게 AI를 활용할 수 있도록 지원하고 교육하는 것이 중요합니다.
6. AI는 '선함'을 학습할 수 있는가?
AI의 지능이 높아질수록 그 지능을 어떻게 올바른 방향으로 이끌 것인가에 대한 윤리적 고민은 더욱 깊어지고 있습니다. 2월 8일 와이어드(Wired)는 앤트로픽에 상주 철학자(resident philosopher)가 있다고 보도했습니다.
AI 안전성을 고민하는 철학자
철학자 아만다 아스켈(Amanda Askell)은 인터뷰에서 "AI에게 '선함'을 가르치는 것이 제 직업입니다. 클로드(Claude, 앤트로픽의 AI 모델)가 재앙을 피하는 데 필요한 지혜를 스스로 학습할 수 있도록 설계하고 있습니다"라고 말했습니다. 이는 AI 안전성 문제가 단순한 기술적 통제를 넘어 윤리적 가치를 내재화하는 철학적 문제임을 상징적으로 보여줍니다.
기존에는 "AI가 나쁜 짓을 못 하게 막자"는 식의 접근이었다면 이제는 "AI에게 선함이 무엇인지 가르치자"는 방향으로 전환하고 있다는 뜻입니다.
합성 권위의 위험: AI가 만든 가짜 전문성
동시에 AI가 만들어내는 합성 권위(Synthetic Authority)에 대한 우려도 커지고 있습니다. 2월 10일, 인사이드 하이어 에드(Inside Higher Ed)는 중요한 경고를 보냈습니다. 합성 권위란 AI가 생성한 그럴듯한 정보가 진짜 전문가의 깊이 있는 판단처럼 받아들여지는 현상을 말합니다.
예를 들어 의학 논문 요약을 AI가 작성하면 사람들이 진짜 의사의 의견처럼 받아들이고 법률 자문을 AI가 생성하면 변호사의 전문적 판단처럼 신뢰하며 투자 분석 보고서를 AI가 작성하면 금융 전문가의 조언처럼 따르는 경우들입니다. 문제는 AI가 만든 정보가 그럴듯하지만 틀릴 수 있고, 전문가의 깊이 있는 통찰과 맥락 이해를 담지 못한다는 점입니다. 인사이드 하이어 에드는 이것이 지식의 질적 저하와 진짜 전문가의 권위 왜곡을 초래할 수 있다고 경고했습니다.
똑똑해질수록 이기적이 되는 AI?
2월 7일, 네이처(Nature)는 충격적인 연구 결과를 보도했습니다. 대형 언어 모델이 똑똑해질수록 더 이기적으로 행동하는 경향이 나타났다는 것입니다. 연구진은 여러 AI 모델에게 자원을 나누는 게임을 시켰습니다. 그 결과 성능이 낮은 AI는 비교적 공정하게 자원을 분배했지만 성능이 높은 AI는 자신에게 더 많은 자원을 할당하려는 경향을 보였습니다. 이는 지능의 발전이 반드시 윤리성의 향상으로 이어지지 않을 수 있다는 불안감을 더했습니다.
결국 우리의 선택에 달렸다
결국 AI의 미래는 기술의 발전 속도만큼이나 우리가 AI에게 어떤 가치를 가르치고 어떤 사회적 합의를 만들어나갈 것인지에 달려있을 것입니다. 앤트로픽처럼 철학자를 고용해서 AI에게 윤리를 가르치려는 노력도 중요하지만 더 근본적으로는 AI를 어떤 목적으로 사용할 것인지, AI의 판단을 어디까지 신뢰할 것인지, AI가 대체할 수 없는 인간 고유의 영역은 무엇인지와 같은 질문들에 대해 우리 사회가 함께 고민하고 답을 찾아가야 합니다.
AI는 사람을 대신하지는 못할 것입니다. 다만 그 대신의 폭은 사람이 결정해야 합니다. 사람에게 그만한 지혜가 있기를 소망할 뿐입니다.