인간 중심 AI 선언: 좌파와 우파가 AI 앞에서 손잡은 이유

2026년 3월, 미래생명연구소(Future of Life Institute, FLI)는 Pro-Human AI Declaration을 주도하여 공개합니다. AFL-CIO Tech Institute와 미국 교사 연맹(AFT)부터 MAGA 핵심 논객 스티브 배넌까지, 이념의 스펙트럼을 가로지르는 40개 이상의 조직과 개인이 서명했습니다. 5대 원칙과 34개 세부 항목으로 구성된 이 선언은 AI 거버넌스가 기술 윤리의 영역에서 정치적 연대의 영역으로 이동했음을 보여주는 전환점입니다.

미래적인 로봇의 양손을 작업복을 입은 노동자들과 수트를 입은 남성들이 함께 잡고 있는 모습. 상단에는 'HUMAN CONTROL', 'SHARED PROSPERITY' 홀로그램 텍스트가 떠 있습니다.
인간과 AI의 협력을 상징하는 장면: 노동자와 정치가들이 중앙의 안드로이드 로봇의 손을 잡고, '인간 통제'와 '공동 번영'을 담은 홀로그램 아래 서 있다. ©RayLogue AI 생성 이미지 (Google Gemini)

뉴올리언스의 비밀 회의: 서로를 죽이지 않기 바라며

2026년 1월, 뉴올리언스의 어떤 메리어트 호텔에 약 90명의 인사가 비밀리에 모였습니다. 노동조합 대표와 보수주의 학자가, 진보적 시민운동가와 MAGA 논객이 한 테이블에 앉았습니다. The Verge의 보도에 따르면, 주최 측은 참석자들이 "서로를 죽이지 않기 바랐다"고 표현할 정도로 이질적인 조합이었습니다.

이 자리를 만든 것은 미래생명연구소(FLI)입니다. MIT 물리학 교수 맥스 테그마크(Max Tegmark)가 이끄는 이 비영리 기관은 의도적으로 AI 산업계 핵심 인사, 예컨대 샘 올트먼, 일론 머스크 등을 배제했습니다. 이들을 배제한 까닭은 기술을 만드는 측이 아니라, 기술의 영향을 받는 측이 발언권을 가져야 한다는 의도로 보입니다. 그러니까 배제 자체가 하나의 메시지였습니다. 그리고 2026년 3월 4일, 이 비밀 회의의 결과물이 세상에 공개되었습니다. 인간 중심 AI 선언(The Pro-Human AI Declaration)입니다.

AI 거버넌스가 정치가 된 순간

인간 중심 AI 선언의 가장 중요한 의미는 34개 원칙의 내용이 아닙니다. 좌파와 우파가 AI라는 의제 앞에서 손을 잡았다는 사실 자체입니다. AI 거버넌스는 그동안 기술 윤리 학자들의 학술 세미나나 실리콘밸리 내부의 자율 규제 논의에 머물러 있었습니다. 이 선언은 그 논의를 정치적 연대의 영역으로 끌어올렸습니다. 정치적 연대가 형성되면 입법 압력이 커지는 것이 민주주의의 일반적 경로이지만, 이 연대가 실제로 구체적 입법으로 전환될 수 있을지는 별개의 질문입니다. "AI가 인류를 섬겨야 한다"는 원칙에는 모두가 동의할 수 있지만, "어떻게 섬기게 할 것인가"의 구체적 방법론에서 좌우의 균열이 다시 벌어질 가능성은 높습니다.

갈림길의 두 경로: 대체인가, 증강인가

인간 중심 AI 선언은 "기업들이 AI 시스템을 개발하고 배포하기 위해 경쟁함에 따라, 인류는 갈림길에 섰다(As companies race to develop and deploy AI systems, humanity faces a fork in the road.)"라는 문장으로 시작합니다. 선언은 두 가지 경로를 제시합니다.

한쪽은 대체를 위한 경주(a race to replace)입니다. 인간이 창조자, 상담가, 돌봄 제공자로서의 역할을 기계에 내어주고 대부분의 의사결정은 소수의 기관과 기계에 집중되는 미래입니다. 이번 선언은 이 경로가 사회 안정, 국가 안보, 경제 번영, 시민의 자유, 민주적 거버넌스 모두를 위협한다고 경고합니다.

다른 한쪽은 인간 잠재력의 증강(amplify rather than diminish human potential)입니다. 신뢰할 수 있고 통제 가능한 AI 도구를 통해 인간의 존엄성을 높이고 개인의 자유를 보호하며 전례 없는 번영을 창출하자는 경로입니다.

이 이분법이 단순해 보일 수 있습니다. 그러나 선언의 힘은 추상적 원칙이 아니라 이 이분법을 구체화하는 34개의 세부 항목에 있습니다.

다섯 기둥, 34개 원칙: 구체적 요구의 지형도

인간 중심 AI 선언은 5대 원칙 아래 34개의 세부 항목을 배치합니다. 추상적 선언이 아니라 구체적 정책 요구라는 점에서, 기존의 AI 윤리 선언들과 구별됩니다.

5대 핵심 원칙 주요 세부 항목
1. 인간의 통제권 유지 인간의 통제는 협상 불가(Human Control Is Non-Negotiable). 초지능 개발 경쟁 금지(No Superintelligence Race). 강제 종료 장치 필수(Off-Switch). 자기 복제, 자율 개선, 종료 저항 설계 금지(No Reckless Architectures).
2. 권력 집중 방지 AI 독점 금지(No AI Monopolies). AI가 창출하는 번영의 공유(Shared Prosperity). 주요 전환에 대한 민주적 권한(Democratic Authority Over Major Transitions).
3. 인간 경험 보호 가족, 우정, 공동체 같은 근본적 관계의 대체 금지. AI 생성 콘텐츠 라벨링 의무(Bot-or-Not Labeling). 아동의 감정적 애착 악용 금지.
4. 인간의 주체성과 자유 AI 시스템에 법적 인격 부여 금지(No AI Personhood). 개인 데이터 통제권 보장.
5. AI 기업의 책임과 의무 결함, 허위 표시, 부적절한 안전 통제에 대한 개발자 법적 책임(Developer Liability). AI를 책임 회피의 방패로 사용 금지(No Liability Shield).
  • 위 표는 각 원칙별 주요 항목을 발췌한 것입니다. 전체 34개 항목은 선언 원문을 참조하십시오.

5번 원칙에서 주목할 부분은 '책임 회피의 방패 금지'입니다. 이는 일부 논자들이 책임 전가(responsibility laundering)라 부르는 문제, 즉 "내가 한 게 아니라, AI 시스템이 한 일"이라는 변명을 겨냥했습니다. AI로 인해 발생하는 모든 결과에 대한 최종 책임은 그것을 개발하고 배포한 인간에게 있음을 명확히 한 것입니다.

AI 거버넌스 선언의 계보

인간 중심 AI 선언을 제대로 평가하려면 이전의 시도들과 비교해야 합니다. AI 거버넌스 선언은 이번이 처음이 아닙니다.

2017년 아실로마 AI 원칙(Asilomar AI Principles)은 AI 연구자 중심으로 23개 원칙을 제시했습니다. "AI의 목표는 방향 없는 지능이 아니라 유익한 지능이어야 한다"는 선언이었지만 연구자 커뮤니티 안에 머물렀습니다. 2023년 FLI의 6개월 일시중지 서한(Pause Giant AI Experiments)은 GPT-4급 이상의 AI 훈련을 멈추자고 요청했습니다. 3만 명 이상이 서명했지만, 서한에 서명한 기업 중 실제로 개발을 멈춘 곳은 없었습니다. 2024년 EU AI Act는 세계 최초의 포괄적 AI 규제법으로 시행에 들어갔지만, 집행의 실효성에 대한 의문이 남아 있습니다.

인간 중심 AI 선언이 이 계보에서 새로운 지점은 좌우 연대입니다. 아실로마는 연구자끼리, 일시중지 서한은 기술 우려론자끼리, EU AI Act는 유럽 정치인끼리의 합의였습니다. 인간 중심 AI 선언은 이 정도 폭의 이념적 스펙트럼을 가로지르는 시민사회 연합을 만들어냈다는 점에서 매우 이례적입니다.

기이한 동침의 해부: 누가, 왜 서명했는가

서명자들의 면면을 뜯어보면, 이 연대의 독특한 성격이 드러납니다.

진보 진영에서는 AFL-CIO Tech Institute, 미국 교사 연맹(AFT), 미국 진보민주주의연합(Progressive Democrats of America)이 서명했습니다. AFL-CIO 전체 연맹이 아니라 산하 기술연구소가 조직 서명자로 이름을 올린 것이므로, 이 구분은 중요합니다. 이들에게 AI는 일자리 대체와 노동권 침해의 문제입니다. 보수 진영에서는 기독교 지도자 회의(Congress of Christian Leaders), 가족연구소(Institute for Family Studies), 그리고 스티브 배넌과 글렌 벡 같은 MAGA 핵심 논객이 이름을 올렸습니다. 이들에게 AI는 가족 가치의 해체와 빅테크 권력 집중의 문제입니다. 학계에서는 딥러닝의 선구자이자 튜링상 수상자 요슈아 벤지오(Yoshua Bengio), AI 안전 연구의 대부 스튜어트 러셀(Stuart Russell), 노벨 경제학상 수상자 다론 아세모글루(Daron Acemoglu)가 동참했습니다. 시민사회에서는 소비자 운동의 상징 랄프 네이더, 시그널(Signal) 대표 메레디스 휘태커, 버진그룹 설립자 리처드 브랜슨 경, 전 미국 국가안보보좌관 수전 라이스까지 가세했습니다.

이들이 이념을 넘어 연대한 이유는 하나입니다. AI가 가져올 사회·경제적 변화의 파도가 특정 계층이나 이념에 국한되지 않는, 모두의 삶을 뒤흔들 수 있다는 공통된 위기의식입니다. 일자리의 미래, 자녀의 성장 환경, 민주주의의 작동 방식, 심지어 인간관계의 본질까지 AI는 이 모든 것을 재정의할 잠재력을 가졌습니다. 노동조합은 자동화를 두려워하고, 복음주의 기독교인은 AI가 아이들의 정서적 유대를 대체할 것을 우려하며, 보수주의자는 빅테크의 권력 집중을 경계합니다. 출발점은 다르지만 "AI의 방향을 인간이 결정해야 한다"는 도착점은 같습니다.

오픈소스, 실행력, 그리고 정의의 모호함이 빠졌다

연대의 폭이 넓다는 것은 강점이자 약점입니다. 이 선언에는 세 가지 핵심적인 공백이 있습니다.

첫째, 선언문 본문에서 오픈소스에 대한 언급이 전무합니다. Adafruit의 분석이 짚었듯, 34개 항목 중 단 하나도 오픈소스, 오픈 웨이트, 모델을 로컬에서 실행할 권리, AI 시스템을 검사하거나 수정할 권리를 직접 다루지 않습니다. 다만 서명 조직 중에는 프라이버시 중심 오픈소스 AI 프로젝트인 OpenMined가 포함되어 있어, 연합 내부에 오픈소스 문제의식이 완전히 부재한 것은 아닙니다. 그럼에도 선언문 자체에 이 의제가 빠진 것이 AI 규제 강화 시 대기업 중심 구조를 고착시킬 우려가 있다고 저는 생각합니다.

둘째, 초지능(superintelligence)의 정의가 모호합니다. "초지능 개발 경쟁은 금지되어야 한다"는 강력한 요구이지만, 무엇이 초지능이고 무엇이 아닌지의 기준선이 없습니다. 이 모호함은 실제 입법 과정에서 기업들의 로비에 의해 무력화될 여지를 남깁니다.

셋째, 선언은 실행 메커니즘을 갖추고 있지 않습니다. AI 거버넌스 선언의 역사가 보여주듯 서명만으로는 아무것도 바뀌지 않습니다. 2023년 일시중지 서한에 서명한 기업 중 실제로 개발을 멈춘 곳이 없었던 것처럼 이 선언도 구체적 입법이나 제도적 장치 없이는 상징적 문서로 남을 위험이 있습니다.

여론의 바람: 숫자가 말하는 것

다만 이 선언이 단순한 엘리트의 합의가 아니라는 점을 여론 데이터가 뒷받침합니다. 인간 중심 AI 선언과 함께 공개된 여론조사(NBC News 보도 참조)에 따르면, 미국 유권자 1,004명 중 73%가 조작적 AI로부터 아동을 보호해야 한다고 응답했고, 72%가 AI 피해에 대한 기업의 법적 책임을 요구했습니다. AI 개발 속도와 인간의 통제 중 무엇이 더 중요한지를 묻자, 8대 1의 비율로 인간의 통제를 선택했습니다.

이 숫자는 인간 중심 AI 선언의 요구가 일부 활동가의 과잉 반응이 아니라 대중의 불안에 뿌리를 두고 있음을 보여줍니다. 그리고 정치인이 가장 빠르게 반응하는 것은 여론입니다.

연대는 입법까지 갈 수 있는가

인간 중심 AI 선언은 AI 거버넌스 역사에서 하나의 전환점입니다. 기술 전문가들의 자성적 선언도 한쪽 이념 진영의 규제 요구도 아닌, 정치적 스펙트럼 전체를 아우르는 시민사회의 연합이 구체적 원칙에 합의한, 전례를 찾기 어려운 사건입니다.

그러나 진짜 시험은 지금부터입니다. "AI가 인류를 섬겨야 한다"는 원칙에 모두가 동의할 수 있지만, 초지능의 정의를 누가 내릴 것인지, 개발자 책임의 범위를 어디까지 설정할 것인지, 오픈소스 생태계를 어떻게 보호할 것인지 와 같은 구체적 질문들 앞에서 좌우의 연대가 얼마나 견딜 수 있을지는 미지수입니다.

노동조합은 AI 기업에 대한 강력한 규제를 원할 것이고 보수주의자들은 정부 규제의 팽창을 경계할 것입니다. 34개 원칙이 하나씩 법안으로 전환되는 과정에서 뉴올리언스 호텔 방에서의 악수가 의회 로비에서도 유지될 수 있을까요. 이 질문의 답이 나오는 데는 아마 수년이 걸릴 것입니다.

확실한 것은 하나입니다. AI의 미래를 결정하는 테이블에 더 이상 기술 기업만 앉아 있지 않다는 것. 인간 중심 AI 선언은 그 테이블의 좌석 배치를 바꿔놓았습니다. 문제는 이제 그 테이블에서 실제로 어떤 결정이 내려질 것인가입니다.

마지막으로 한 가지 더. 이러한 논의를 다툴 만한 보수가 한국에 없다는 사실이 가슴아픕니다. AI 3강국을 꿈꾸는 우리나라야 말로 이념에 상관없이 AI의 정도를 토론하고 이론으로 만들고 법제화해야 할 이유가 충분합니다. 극우나 극좌를 제외한, 지극히 정상적인 사고의 사람들이 이러한 기회를 만들 수 있기를 진심으로 바랍니다.