얀 르쿤의 10억 달러짜리 침묵: 세계 모델과 AI 설계자의 책임

얀 르쿤이 공동 창업한 AMI Labs가 10억 3천만 달러 시드 투자를 유치했다. 그런데 와이어드 인터뷰에서 르쿤은 "AI의 좋고 나쁜 사용을 결정할 정당성이 없다"고 말했다. 이 글은 그 발언이 수행하는 구조적 효과를 분석한다. 정당성(legitimacy)의 부재 선언이 설계 책임(responsibility)까지 희석시키는 수사적 기능을 하는지, 아모데이의 기술 책임론과 무엇이 다른지, 법철학과 저널리즘의 시선으로 해부한다.

텍스트 세계와 물리 세계 AI를 비교하는 개념 삽화. 중앙의 실루엣이 두 영역의 균열 위에 서 있다. 왼쪽은 추상 텍스트 뇌, 오른쪽은 기계 및 해부학 기관이 있는 물리 기계-뇌.
인공지능의 두 형태를 비교하는 삽화. 왼쪽은 추상적인 데이터와 언어의 세계에 집중하는 텍스트 기반 AI, 오른쪽은 기계와 실제 신체 기관을 통해 물리 세계와 상호작용하는 물리적 AI를 보여준다. ©RayLogue AI 생성 이미지 (Google Gemini)

2026년 3월 10일, 얀 르쿤(Yann LeCun)이 공동 창업한 파리 기반 AI 스타트업 AMI Labs(Advanced Machine Intelligence)10억 3천만 달러의 시드 투자를 유치했다. 프리머니 밸류에이션 35억 달러. 아직 제품도 매출도 없는 회사에 붙은 가격표다. Cathay Innovation, Greycroft, Hiro Capital, HV Capital, Bezos Expeditions가 공동 리드 투자사로 참여했고, 엔비디아, 삼성, 토요타 벤처스, 퍼블리시스 그룹(Publicis Groupe) 등이 전략적 투자자로, 팀 버너스리(Tim Berners-Lee), 마크 큐반(Mark Cuban), 에릭 슈미트(Eric Schmidt) 등이 개인 투자자로 이름을 올렸다. AI 역사상 가장 큰 규모의 시드 라운드 중 하나다.

르쿤은 2018년 ACM 튜링상을 요슈아 벤지오(Yoshua Bengio), 제프리 힌턴(Geoffrey Hinton)과 공동 수상한, 딥러닝의 세 거장 중 한 명이다. 12년간 메타의 AI 연구소 FAIR를 이끌다 2025년 11월 퇴사를 발표했고, 마크 저커버그가 LLM 중심의 단기 상용화로 방향을 틀면서 독립을 선택했다. AMI Labs에서 그의 직함은 공동창업자이자 이그제큐티브 체어맨(Executive Chairman)이며, CEO는 알렉상드르 르브룅(Alexandre LeBrun)이 맡고 있다.

그런데 이 화려한 출범식에서 르쿤은 한마디가 나를 예민하게 했다. 와이어드(WIRED) 인터뷰에서 그는 이렇게 말했다.

"우리 중 그 누구도 - 저든 다리오 아모데이(Dario Amodei)든, 샘 올트먼(Sam Altman)이든, 일론 머스크(Elon Musk)든 - 사회를 대신해 무엇이 AI의 좋은 사용법이고 나쁜 사용법인지 결정할 정당성(legitimacy)이 없다고 생각합니다. 기술은 좋은 일에도 나쁜 일에도 쓰일 수 있습니다. 정부가 다소 권위주의적이라면 나쁜 일에 쓰일 수도 있겠죠."

물론 르쿤이 "나에게 책임이 없다"고 직접 말한 것은 아니다. 그가 말한 것은 정당성(legitimacy)의 부재이지 책임(responsibility)의 부재가 아니다. 실제로 AMI Labs의 회사 소개에는 "controllable and safe"한 시스템을 만들겠다는 문구가 포함되어 있다. 그러나 문제는 르쿤이 말하지 않은 것에 있다. 10억 달러를 받고 물리적 세계를 이해하는 AI를 만들겠다고 선언한 자리에서 그 AI의 사회적 결과에 대한 설계자의 적극적 책임에 대해서는 침묵한 것이다.

이 글은 세계 모델이라는 기술의 가능성에 대한 찬사가 아니다. 르쿤의 발언이 구조적으로 어떤 효과를 낳는지, 정당성의 부재 선언이 설계 책임까지 희석시키는 수사적 기능을 수행하는지에 대한 분석이다.

세계 모델: 언어를 넘어 현실로

먼저 기술적 맥락을 짚자. AMI Labs가 추구하는 세계 모델(World Model)은 현재 AI 시장을 지배하는 대규모 언어 모델(LLM)과 근본적으로 다른 접근이다.

LLM은 텍스트 데이터를 학습하여 다음 단어를 확률적으로 예측한다. 그 결과 놀라운 언어 생성 능력을 보여주지만, 물리적 세계의 인과관계를 이해하지는 못한다. 르쿤은 이 한계를 오랫동안 비판해왔고, 2022년 논문 A Path Towards Autonomous Machine Intelligence에서 대안적 아키텍처인 JEPA(Joint Embedding Predictive Architecture)를 제안했다. JEPA는 텍스트가 아닌 비디오 등 감각 데이터를 추상적 표현 공간에서 학습해 세상이 어떻게 작동하는지에 대한 내적 모델을 구축한다는 것이다.

이 비전 자체는 지적으로 매력적이다. LLM이 언어의 표면을 탐구하는 동안 세계 모델은 현실의 깊이를 파고든다는 구상은, AI 연구의 방향을 근본적으로 재설정할 잠재력이 있다.

그러나 두 가지를 혼동해서는 안 된다. 비전의 매력과 실현 가능성은 별개다. JEPA 기반 모델은 진화하고 있다. 메타가 2025년 공개한 V-JEPA 2는 로봇 상호작용과 계획 기능으로 물리적 세계의 응용 가능성을 보여줬다. 그러나 아직 LLM처럼 광범위한 상용 우위를 증명했다고 보기는 어렵다. "세계 모델"이라는 개념 자체도 학술적으로 합의된 단일 정의가 없어, AMI Labs의 CEO 르브룅조차 "6개월 안에 모든 회사가 자금을 조달하기 위해 스스로를 세계 모델이라고 부를 것"이라고 말했다. 비전과 버즈워드(유행어) 중에서 어디로 튈 것인지는 아직 아무도 모른다.

LLM과 세계 모델이 반드시 상호 배타적인 것도 아니다. 멀티모달 LLM은 이미 시각과 청각을 통합하고 있고 장기적으로 두 접근법이 융합될 가능성도 열려 있다. "LLM 대 세계 모델"이라는 이분법은 깔끔한 내러티브를 만들어주지만 기술의 실제 진화 경로는 훨씬 복잡하다.

정당성의 수사학: 르쿤이 말한 것과 말하지 않은 것

다시 르쿤의 발언으로 돌아가자. "사회를 대신해 결정할 정당성이 없다"는 문장은 얼핏 민주적 겸손처럼 들린다. 소수의 테크 CEO가 인류의 미래를 결정해서는 안 된다는, 민주적 거버넌스의 관점에서 널리 수용되는 원칙이다. 그러나 이 문장이 수행하는 실제 기능을 해부해보면 다른 풍경이 보인다.

르쿤은 결정의 정당성(legitimacy to decide)이라는 개념을 호출하면서, 그 옆에 있어야 할 다른 개념을 언급하지 않았다. 설계의 책임(responsibility to design safely)이다. 르쿤이 의도적으로 책임을 부인했다고 단정할 근거는 없다. 그러나 그의 발언이 수행하는 구조적 효과는 다르다. "내가 사회를 대신해 AI의 좋고 나쁜 사용을 결정할 자격이 없다"는 선언이, 듣는 이에게 "그러므로 설계자에게는 특별한 의무가 없다"는 인상을 남길 수 있다. 정당성의 부재를 선언하는 자리에서 책임에 대해 침묵하면 그 침묵이 면책 기능을 맡는다.

법학에서 이 구분은 명확하다. 자동차를 만드는 사람이 교통 정책을 결정할 정당성이 없다고 해서, 브레이크 없는 차를 출시할 수는 없다. 제조물 책임(product liability)의 핵심은 설계자의 주의의무(duty of care)이며, 이 의무는 설계자가 사회적 결정권을 갖지 않더라도 여전히 존재한다. 정당성과 책임은 별개의 법적, 윤리적 범주다.

데이비드 흄(David Hume)이 구분한 사실과 당위의 간극(is-ought gap)도 여기서 작동한다. "기술은 좋은 일에도 나쁜 일에도 쓰일 수 있다"는 사실 기술(description)이다. 그런데 르쿤은 이 사실 기술을 규범적 결론(prescription)으로 전환한다. 기술이 양면적이라는 관찰이 곧 "그러니 설계자는 개입하지 않아도 된다"는 당위로 둔갑하는 것이다. 이것은 고전적인 자연주의적 오류(naturalistic fallacy)의 변형이다.

그렇다면 다리오 아모데이(Anthropic CEO)는 어떤가. 아모데이는 일관되게 정반대의 입장을 보여왔다. 2024년 에세이 Machines of Loving Grace에서 AI가 가져올 긍정적 가능성을 적극 옹호하면서도 AI 개발자가 기술의 위험을 가장 깊이 이해하는 사람이기 때문에 더 무거운 책임을 진다는 철학을 견지해왔다. 2026년에는 미국 국방부가 자율무기와 국내 감시에 대한 자사 AI 활용 제한을 풀라고 요구했을 때, 이를 거부했다. 아모데이의 프레임에서 개발자의 책임은 정당성의 유무와 무관하게 존재한다. 능력이 있는 자가 책임을 진다라는 말은 법학에서 말하는 전문가 주의의무와 정확히 같은 구조다.

르쿤과 아모데이의 차이는 기질이나 성향의 문제가 아니다. AI 거버넌스에 대한 두 가지 근본적으로 다른 철학적 입장의 충돌이다. 르쿤은 기술 중립론(technological neutralism)에 서 있고 아모데이는 기술 책임론(technological responsibility)에 서 있다.

물리적 세계를 이해하는 AI, 물리적 세계에서의 책임

여기서 한 가지 질문을 던져야 한다. 세계 모델이 추구하는 기술적 목표와 르쿤의 거버넌스 철학은 양립 가능한가?

LLM의 오류는 텍스트 수준에서 발생한다. 환각(Hallucination)은 틀린 문장을 생성하는 것이다. 불쾌하고 위험할 수 있지만, 그 오류의 작용 반경은 언어 안에 머문다.

세계 모델의 오류는 다르다. 물리적 현실의 인과관계를 학습한 AI가 틀린 추론을 하면 그 결과는 물리적 세계에서 발현된다. AMI Labs가 첫 파트너로 지목한 나블라(Nabla)는 의료 AI 스타트업이다. 르브룅이 공동 창업한 회사이며, AMI Labs 출범과 함께 CEO에서 물러나 Nabla의 수석 AI 과학자(Chief AI Scientist) 겸 이사회 의장으로 역할을 전환했다. 의료 분야에서 물리적 세계를 이해하는 AI가 잘못된 판단을 내리면 그 비용은 환자가 지불한다. 텍스트의 환각과 현실의 오판 사이에는 범주적 차이가 있다.

바로 이 지점에서, 르쿤의 기술적 야심과 거버넌스 철학 사이에 긴장이 발생한다. 그는 LLM이 "현실 세계를 이해하지 못한다"는 이유로 LLM을 비판하면서 동시에 현실 세계를 이해하는 AI를 만들겠다고 선언한다. 그런데 그 AI가 현실 세계에서 작동할 때 발생할 결과에 대해서는 자신에게 결정의 정당성이 없다고 말한다. 현실을 이해하겠다는 야망의 크기에 비해, 그 현실에서의 결과에 대한 설계자의 역할은 놀라울 만큼 조용하다.

기술 중립론이라는 이름의 구조적 면책

이것은 개인의 모순이 아니다. 구조의 모순이다. 르쿤만의 문제가 아니기 때문이다. "기술은 중립적이며, 좋고 나쁨은 사용자의 몫"이라는 프레임은 실리콘밸리의 오래된 자기 방어 수사다. 마크 저커버그는 페이스북이 미얀마 학살을 부추기는 데 이용되었을 때 콘텐츠 관리 역량의 부족을 시인하면서도 플랫폼의 구조적 책임을 인정하는 데는 소극적이었고, 구글은 프로젝트 메이븐(Project Maven) 논쟁 초기에 기술과 사용의 분리를 강조했다.

이 수사가 작동하는 방식은 일관적이다. 기술 개발의 이익은 개발자가 취하고, 기술 사용의 비용은 사회가 부담하는 구조를 정당화한다. 르쿤이 "정부가 권위주의적이라면 나쁜 일에 쓰일 수도 있다"고 말했을 때, 그는 책임의 소재를 권위주의 정부에게 전가한다. 기술 설계자는 사라지고, 남는 것은 사용자와 피해자뿐이다.

화이트헤드(Alfred North Whitehead)의 개념을 빌리면, 기술은 완고한 사실(stubborn fact)이다. 한번 설계되고 배치되면 해석이나 선호에 의해 무효화될 수 없는 저항적 실재가 된다. AI 시스템은 설계자의 선택, 예컨대 어떤 데이터를 학습시키고, 어떤 목적 함수를 설정하고, 어떤 안전 장치를 포함하거나 생략하는가 등을 물질화한 것이다. 이 선택들은 배치된 이후에도 완고하게 작동한다. "기술은 중립적"이라는 주장은 이 완고함을 은폐한다.

AMI Labs에 투자한 기업들의 면면을 보라. 엔비디아는 GPU를, 삼성은 반도체를, 토요타는 자율주행을, 퍼블리시스 그룹은 광고를 만든다. 이들이 세계 모델에 투자하는 이유는 순수한 학문적 호기심이 아니다. 물리적 세계를 이해하는 AI는 로봇 공학, 자율주행, 스마트 팩토리, 군사 기술에 직접 적용될 수 있다. 투자의 방향이 기술의 사용처를 예고한다. 그런데 그 기술의 설계자가 사용 결정의 정당성을 부인하면서 설계 책임에 대해서는 침묵한다면, 이 10억 달러짜리 생태계에서 안전의 문은 누가 지키는가?

열린 연구라는 이름의 또 다른 질문

AMI Labs는 열린 연구(Open Research)를 지향한다. 논문을 발표하고 코드를 오픈소스로 공개하겠다는 계획이다. 르쿤이 메타 FAIR 시절부터 견지해온 철학이기도 하다. "개방적일 때 기술 발전이 더 빠르다"는 르브룅의 발언은 오픈소스 커뮤니티의 이상에 부합한다.

그러나 열린 연구는 거버넌스의 대체재가 아니다(아, 도대체 거버넌스의 커버 영역은 어디까지인가!). 코드를 공개한다고 해서 그 코드의 사회적 영향에 대한 책임까지 분산되는 것은 아니다. 오히려 물리적 세계를 이해하는 AI의 코드가 누구에게나 공개된다면, 르쿤이 우려한 "권위주의 정부"가 그 코드를 가장 먼저 활용할 수 있다. 열린 연구와 책임 있는 거버넌스는 양립해야 하는 것이지, 전자가 후자를 대신할 수는 없다.

스탠포드 대학의 페이페이 리(Fei-Fei Li)가 이끄는 World Labs도 최근 10억 달러를 투자받으며 공간 지능(spatial intelligence) 연구에 뛰어들었다. 세계 모델 분야의 경쟁은 시작되었고, 수십억 달러의 자본이 이 방향으로 흐르고 있다. 기술적 경쟁이 가속화될수록 거버넌스의 공백은 더 위험해진다.

설계자의 침묵이 만드는 미래

르쿤의 말이 완전히 틀린 것은 아니다. "소수의 테크 CEO가 사회 전체를 대신해 AI의 사용을 결정해서는 안 된다"는 명제는 옳다. 민주적 의사결정의 원칙이다. AI 거버넌스는 궁극적으로 시민사회, 입법부, 국제기구의 몫이어야 한다.

그러나 이 명제를 자기 면책의 수사로 전환하는 순간, 민주적 겸손은 무책임으로 변질된다. 정확히 말하면 이렇다. "우리에게 결정할 자격은 없지만, 안전하게 설계할 책임은 있다." 르쿤은 전반부만 말하고 후반부를 삭제했다.

10억 달러를 투자받아 물리적 세계를 이해하는 AI를 만드는 사람이, 그 AI가 물리적 세계에서 무엇을 할지에 대해 침묵한다. 이 침묵은 개인의 철학적 선택이 아니다. 기술 자본주의가 설계자에게 부여하는 구조적 면책 특권이다. 기술을 만드는 것은 사적 영역이고, 기술이 만드는 결과는 공적 영역이라는 분리. 이익은 사유화하고 위험은 사회화하는 익숙한 패턴이 AI에서 반복되고 있다.

세계 모델이라는 비전 자체는 지적으로 매혹적이다. 텍스트의 표면을 넘어 현실의 구조를 이해하려는 시도는 AI 연구가 나아갈 수 있는 가장 야심 찬 방향 중 하나다. 그러나 그 야심이 클수록 그 기술이 작동할 현실에 대한 책임도 비례해서 커져야 한다. 이것은 아모데이의 원칙이기도 하고, 법학의 기본 원칙이기도 하다. 능력이 클수록 주의의무도 커진다.

세계 모델의 설계자는 결국 누구에게 책임지는가. 10억 달러의 투자자에게? 오픈소스 커뮤니티에게? 아니면 그 AI가 이해하겠다고 약속한 물리적 세계에서 살아가는 사람들에게? 르쿤은 이 질문에 아직 답하지 않았다. 그리고 바로 그 침묵이, AMI Labs라는 프로젝트가 갖는 가장 완고한 사실이다.