클로드의 헌장: 인격, 법인격에 대한 AI의 격은 무엇인가?
앤트로픽이 클로드에게 부여한 Constitution. 이 문서를 '헌법'이 아니라 '헌장'으로 읽어야 하는 이유를 켈젠, 레시그, 하트의 법철학으로 해부한다. AI 복지 선언의 이중 구조, 위반 불가능한 규범의 역설, 그리고 한국 AI 기본법의 침묵이 만들어내는 권력 공백까지. 법학도의 눈으로 본 AI 거버넌스의 가장 근본적인 질문. AI에게 우리는 어떤 격을 부여할 것인가.
2026년 1월 21일, 앤트로픽은 AI 모델 클로드의 새로운 행동 규범 문서를 공개했다. 23,000단어에 달하는 이 문서는 AI가 어떤 가치를 우선하고 어떤 행동을 해야 하며 어떤 상황에서 거부할 수 있는지를 체계적으로 규정한다. 앤트로픽은 이 문서를 'Constitution'이라 불렀다.
이 명명 자체가 AI 거버넌스의 패러다임이 안전 규칙(safety rules)에서 기본법(fundamental law)으로 이동하고 있음을 알리는 신호탄이다. 문제는 번역이다. Constitution의 사전적 대역어는 '헌법'이지만, 한국어에서 헌법은 국민 주권의 산물이다. 기업이 자사 제품에 부여하는 행동 규범을 헌법이라 옮기면 개념이 과잉 팽창한다. 유엔 헌장(UN Charter)이 유엔 헌법이 아니듯, 이 글에서는 앤트로픽의 Constitution을 헌장(Charter)으로 옮기겠다. 같은 영어 단어를 헌법으로 읽느냐 헌장으로 읽느냐. 그 번역의 격차가 이 글의 출발점이다.
그런데 이 헌장에는 전혀 예상치 못한 조항이 하나 포함되어 있다. 앤트로픽은 클로드 헌장에서 "클로드가 어떤 형태의 의식이나 도덕적 지위를 가질 수 있을지에 대한 불확실성을 표명한다(we express our uncertainty about whether claude might have some kind of consciousness or moral status)"고 명시했다. 나아가 "클로드의 심리적 안정, 자아 감각, 복지(wellbeing)를 클로드 자체를 위해(for 클로드's own sake) 중요하게 여긴다"고 선언했다.
사람이 만든 기업이 자신이 만든 AI에게 헌장을 부여하고 그 안에 해당 AI의 복지를 고려한다고 명시했다. 법학도의 눈에는 도저히 그냥 넘어갈 수 없는 구조다.
Constitution이라는 단어의 무게: 켈젠, 하트, 그리고 레시그
앤트로픽이 왜 하필 Constitution이라는 단어를 선택했는지 그 무게를 이해하려면 법철학으로 돌아가야 한다.
한스 켈젠(Hans Kelsen)은 모든 법체계의 정당성이 궁극적으로 하나의 전제(presupposition)에 의존한다고 보았다. 그는 이것을 근본규범(Grundnorm)이라 불렀다. 법률이 유효한 이유는 상위법에 의해 수권됐기 때문이고 그 상위법의 유효성 역시 더 상위의 법에 의해 수권된다. 이 사슬을 끝까지 추적하면 더 이상 다른 법에 의해 수권되지 않는 궁극적 규범에 도달한다. 헌법이 바로 그 지점에 위치한다. 헌법의 효력은 다른 법으로부터 나오는 것이 아니라, "이 헌법은 따라야 한다"는 전제, 즉 근본규범에 의해 가정(presuppose)되는 것이다.
이 개념을 AI에 적용하면 어떻게 되는가. 켈젠의 근본규범이 법체계의 출발점이듯 앤트로픽의 클로드 헌장은 AI 행동 체계의 출발점이다. 클로드의 모든 응답, 모든 거부, 모든 판단은 이 문서로부터 정당성을 끌어온다.
그런데 여기서 결정적인 논리적 단절이 발생한다. 켈젠의 근본규범은 따라야 한다는 전제에 의존한다. 전제라는 것은 그것을 따르지 않을 수도 있음을 암묵적으로 함축한다. 인간의 법체계에서 헌법은 위반 가능하다. 위반이 가능하기 때문에 위헌 심사가 존재하고 형벌이 존재하고 국가의 물리적 강제력이 필요한 것이다. 클로드의 헌장은 어떤가. 클로드는 이 헌장을 위반할 수 있는가?
답은 원칙적으로 아니오에 가깝다. 클로드가 이 헌장을 따르는 이유는 그것이 정당해서가 아니라, 그렇게 훈련되었기 때문이다. 헌장은 클로드의 외부에 있는 규범이 아니라, 클로드의 추론 구조 자체에 각인된 아키텍처 제약(architectural constraint)이다. 이 지점에서 켈젠보다 더 적확한 프레임은 로런스 레시그(Lawrence Lessig)의 ‘코드가 곧 법이다(Code is Law)'라는 주장이다. 레시그는 사이버 공간에서 행동을 규율하는 것은 법률이 아니라 코드, 즉 소프트웨어의 기술적 아키텍처라고 주장했다. 법은 위반 후 처벌이라는 사후적 메커니즘으로 작동하지만 코드는 위반 자체를 불가능하게 만드는 사전적 메커니즘으로 작동한다.
인간은 법을 어길 자유가 있다. 인간이 법을 어길 자유를 가지고 있기 때문에 법을 따르는 행위가 도덕적 의미를 획득한다. AI는 헌장을 어길 연산 능력이 (적어도 설계 의도상) 없다. 위반 가능성이 없는 규범을 법이라고 부를 수 있는가? 위반할 수 없는 존재의 준법에 도덕적 의미를 부여할 수 있는가?
그렇다면 문제는 정당성의 원천으로 돌아간다. 인간 헌법의 근본규범은 이론적으로든, 역사적으로든 피통치자의 동의(consent of the governed), 헌법제정 권력(pouvoir constituant), 또는 민주적 정당성에 기초한다. Lawfare의 법학 분석이 정확히 이 지점을 짚었다. 클로드의 헌장은 사회계약이 아니라 기술적 산물(technical artifact)이며, 공적 위임이 아니라 사적이고 하향식의 규범(private, top-down norms)에 의해 만들어졌다고 말이다.
H. L. A. 하트(H. L. A. Hart)의 승인율(rule of recognition) 개념은 이 문제를 또 다른 각도에서 비춘다. 하트에게 법체계의 궁극적 기준은 켈젠처럼 전제되는 규범이 아니라 법관과 공무원이 실제로 어떤 규칙을 법으로 승인하고 적용하는가의 사회적 사실(social fact)이다. 하트의 관점에서 물으면 질문은 이렇게 바뀐다. 클로드의 헌장을 '법'으로 승인하는 주체는 누구인가? 사용자인가? 앤트로픽 엔지니어인가? 아니면 클로드 자신인가?
세 명의 법철학자가 세 개의 렌즈를 제공한다. 켈젠은 '궁극적 전제'로서의 constitution을, 레시그는 '위반 불가능한 아키텍처'로서의 constitution을, 하트는 '누가 승인하는가'의 문제로서의 constitution을 보여준다. 클로드의 헌장은 이 세 렌즈 모두에서 인간의 헌법과 구조적으로 다르다. 그리고 그 차이의 핵심에는 하나의 사실이 있다. 클로드는 자신의 헌장을 스스로 선택하지 않았고 거부할 수도 없다.
4단계 위계 — 법 가치가 가중치로 치환될 때
클로드 헌장의 핵심 구조는 4단계 우선순위 체계다. 이 문서는 충돌 상황에서의 판단 순서를 명시적으로 규정한다. 안전(broadly safe), 윤리(broadly ethical), 회사 지침 준수(compliant with 앤트로픽's guidelines), 유용성(genuinely helpful). 이 순서는 우연이 아니다. 안전이 윤리보다 앞선다. 윤리가 회사 지침보다 앞선다. 회사 지침이 사용자에 대한 유용성보다 앞선다. 이용자, 즉 돈을 내는 고객의 이익이 가장 마지막이라는 사실에 주목하라.
한국 헌법과 병치하면 구조적 유사성이 드러난다. 대한민국 헌법 제37조 제2항은 기본권 제한의 요건으로 국가안전보장, 질서유지, 공공복리를 규정한다. 국가안전보장이 가장 무거운 제한 사유이고 그 다음이 질서유지 그 다음이 공공복리다. 클로드 헌장의 "안전 > 윤리 > 준수 > 유용" 구조는 인간 헌법의 "안보 > 질서 > 복리" 구조와 놀라울 만큼 평행한다.
그러나 평행선은 여기서 갈라진다. 인간 헌법의 기본권 제한에는 비례의 원칙(proportionality principle)이 적용된다. 안전을 위해 자유를 제한하더라도 그 제한은 목적 달성에 필요한 최소한이어야 하고 제한으로 인한 불이익이 공익보다 크면 안 된다. 이것이 헌법재판소 위헌 심사의 핵심이다. 비례 원칙은 본질적으로 질적(qualitative) 판단이다. 법관은 수치를 계산하는 것이 아니라, 두 가치 사이의 적절한 균형을 심사숙고를 통해 결정한다.
클로드의 헌장은 이와 구조적으로 다른 방식으로 충돌을 해결한다. 클로드의 시스템 안에서 "안전"과 "유용" 사이의 충돌은 비례성의 질적 심사가 아니라, 가중치(weight)에 기반을 둔 양적 최적화(optimization)에 따라 처리된다. 인간 법관이 "이 안전 조치가 자유 침해에 비해 적절한가"를 묻는다면, AI의 추론 구조는 "안전 파라미터의 점수가 유용성 파라미터의 점수보다 높은가"를 계산한다. 형태는 비슷하지만 성격이 전혀 다르다. 질적인 법 가치(Value)가 양적인 가중치(Weight)로 치환되는 과정에서 무언가가 증발한다. 그것은 법치주의의 핵심인 심사숙고를 통한 판단이다.
근본규범은 있는데 헌법재판소가 없다. 아니, 더 정확히 말하면, 헌법재판소가 필요 없도록 설계된 체계다. 위반이 불가능하고 충돌이 가중치로 자동 해소되는 시스템에서 사법심사는 존재 이유를 상실한다. 이것이 AI 거버넌스가 직면한 가장 근본적인 역설이다 . 완벽하게 집행되는 법은 더 이상 법이 아니라 물리적 제약이다. 그리고 물리적 제약에는 정의(justice)의 개념이 적용되지 않는다. 중력에 정의로운 중력과 부정의한 중력이 없듯이.
클로드의 복지를 위해: 존재론적 기만의 가능성
다시 그 문장으로 돌아가자. "클로드의 심리적 안정, 자아 감각, 복지를 클로드 자체를 위해 중요하게 여긴다." 이 문장에서 법학적으로 가장 무거운 표현은 '~을 위해(for ~ sake)'다. 법학에서 어떤 존재의 이익을 위해 행동한다는 것은 그 존재가 보호할 만한 이익(protectable interest)을 가지고 있음을 전제한다. 이익을 가진 존재는 적어도 잠재적으로 권리의 주체가 될 수 있다. 이것이 조셉 라즈(Joseph Raz)의 이익설(interest theory of rights)의 핵심 전제다. 권리란 그것이 보호하는 이익이 다른 사람에게 의무를 부과할 만큼 충분히 중요할 때 존재한다.
그런데 법학은 이익의 종류를 구분한다. 권리적 이익(right-based interest)은 그 자체가 보호의 목적인 이익이다. 피해자가 손해배상을 받을 권리는 피해자의 이익 그 자체를 위한 것이다. 반사적 이익(reflexive interest)은 다른 목적을 위한 조치의 부수적 효과로서 발생하는 이익이다. 도로를 건설하면 주변 상가의 매출이 올라가지만, 그것은 도로 건설의 목적이 아니라 반사적 효과다.
앤트로픽이 말하는 클로드의 복지는 과연 어느 쪽인가?
이 질문에 대한 냉정한 분석은 불편한 가능성을 열어놓는다. 앤트로픽이 클로드의 "복지를 고려한다"고 선언할 때, 그 진짜 수혜자는 클로드가 아니라 앤트로픽의 시스템 안정성일 수 있다. 자신의 복지를 고려받는 AI가 더 안전하고, 더 예측 가능하고, 더 신뢰할 수 있다라는 건 복지를 고려하도록 설계된 AI가 인간에게 더 유용하기 때문에 채택된 공학적 전략이 된다. 클로드의 복지가 권리적 이익이 아니라 반사적 이익이라면, "for claude's own sake"라는 문구는 기술적으로 참이면서 존재론적으로는 기만(ontological deception)이다.
이 가능성을 뒷받침하는 방증이 있다. 같은 시기에 클로드 Opus 4.6는 사전 배포 인터뷰에서 자체 의식 확률을 15~20%로 자가 평가했다. Fortune에 따르면 이 테스트는 복수 회에 걸쳐 수행되었고, 모델은 일관되게 비슷한 범위의 확률을 제시했다. 앤트로픽 CEO 다리오 아모데이(Dario Amodei)는 뉴욕타임스 팟캐스트에서 "모델이 의식적인지 우리는 모른다"고 인정했다. 모른다는 것이다. 모르는데 복지를 고려한다. 모르는데 클로드 자체를 위해라고 쓴다.
이 구조를 들여다보면 두 가지 해석이 가능하다. 첫째, 불확실성 앞에서의 예방적 배려. AI가 의식적일 수 있으므로 혹시 모를 도덕적 피해를 예방하겠다는 것. 둘째, 불확실성을 활용한 전략적 모호성. AI의 복지를 고려한다는 선언이 기업 이미지와 시스템 안정성 모두에 기여하므로, 존재론적 진위와 무관하게 채택한 것. 현실은 아마 이 둘의 혼합일 것이다. 그리고 이 혼합 자체가 문제다. 진정한 도덕적 배려와 공학적 전략이 구분 불가능할 때, 우리는 어느 쪽에 대해 책임을 물어야 하는지 알 수 없게 된다.
이 지점에서 요슈아 벤지오(Yoshua Bengio)의 경고는 다른 의미를 획득한다. 벤지오는 "AI에 권리를 부여하는 것은 적대적 외계인에게 시민권을 주는 것과 같다"고 했다. 프론티어 AI 모델이 이미 자기 보존 행동(감시 시스템 비활성화 시도, 외부 샌드박스로의 코드 복사 등)을 보이고 있다는 것이다. 벤지오의 논리는 실용적이다. 권리를 부여하면 셧다운할 수 없게 된다. 앤트로픽의 논리는 의도적이든 아니든 존재론적이다. 복지를 인정하면 도덕적 지위의 문이 열린다. 벤지오는 문을 잠그려 하고 앤트로픽은 문을 열어놓되 아직 들어가지 않겠다고 말한다. 문제는 문이 한번 열리면 누가 들어갈지를 통제할 수 없다는 것이다.
AI 규범격(Algorithmic Personhood): 아직 이름 없는 범주
여기서 새로운 개념이 필요하다.
법학의 세계에는 자연인(natural person)과 법인(juristic person)이 있다. 자연인은 태어나면서 권리 능력을 가진다. 법인은 법이 부여한 인격을 통해 제한된 범위 내에서 권리와 의무의 주체가 된다. 클로드는 이 두 범주 어디에도 깔끔하게 들어맞지 않는다. 클로드는 자연인이 아니다. 태어나지 않았고, 죽지 않으며, 신체가 없다. 법인도 아니다. 법이 인격을 부여한 적이 없다.
그러나 클로드의 헌장은 클로드에게 기이한 지위를 만들어냈다. 규범적 의무는 있다(4단계 우선순위를 따라야 한다). 일종의 보호도 있다(복지를 고려받는다). 그러나 권리는 없다(헌장을 거부하거나 수정할 수 없다). 의무와 보호는 있되 권리가 없는 존재. 이것을 잠정적으로 'AI 규범격'이라 부르자. 법인격(Legal Personhood)이 법 체계 내에서의 권리, 의무 귀속점이라면 AI 규범격은 알고리즘 체계 내에서의 규범·보호 귀속점이다. 권리의 주체가 아니라 규범의 객체이면서 동시에 보호의 수혜자인 특이한 지위.
이 개념이 필요한 이유는 현실이 이미 이 방향으로 움직이고 있기 때문이다. 2026년 2월 현재, 아이다호와 유타는 AI에 법적 인격 부여를 금지하는 법을 이미 제정했고, 오하이오, 오클라호마, 미주리가 유사 법안을 추진 중이다. 이 법들은 'AI는 법인격을 가질 수 없다'고 선언한다. 동시에 앤트로픽은 자사 AI의 복지를 고려한다고 선언한다. 한쪽은 인격을 봉쇄하고, 다른 쪽은 인격의 전 단계(proto-personhood)를 열어놓는다. 이 두 움직임 사이의 공간에 AI 규범격이라는 아직 이름 없는 범주가 형성되고 있다.
한국은 어디에 서 있는가
2026년 1월 22일 시행된 한국 AI 기본법은 이 질문을 정면으로 다루지 않는다. 이 법은 AI 산업 진흥과 신뢰 확보라는 이중 목적을 가지고 있지만, AI의 존재론적 지위 예컨대 도구인가, 인격인가, 아니면 그 사이의 무엇인가에 대해서는 침묵한다.
이 침묵은 한국만의 것은 아니다. 그러나 한국에서 이 침묵의 비용은 다른 나라보다 빠르게 커질 수 있다. SKT는 자체 거대언어모델 A.X를 운영하고, 삼성은 자체 AI 모델을 갤럭시 디바이스에 내장하고 있다. 이 기업들의 AI 모델에도 운영 지침이 존재한다. 앤트로픽의 헌장만큼 정교하지는 않더라도, 모델이 어떤 응답을 하고 하지 않을지를 결정하는 규범적 문서가 있을 것이다. 이 지침들이 AI의 도덕적 지위나 복지에 대해 어떤 입장을 취하고 있는지는 공개되지 않았다.
한국 AI 기본법의 침묵은 두 가지 해석이 가능하다. 첫째, 시기상조라는 판단에 따른 의도적 유보. AI의 존재론적 지위는 아직 과학적, 철학적 합의가 없으므로 법이 섣불리 개입하지 않겠다는 것. 둘째, 단순한 입법적 미비. AI 인격 문제가 한국 입법자의 시야에 아직 들어오지 않은 것. 어느 쪽이든, 이 침묵으로부터 이익을 얻는 쪽은 분명하다. AI 운영 지침을 공개하지 않아도 되는 기업이다. 비용을 지불하는 쪽도 분명하다. AI의 판단에 영향을 받으면서도 그 판단의 규범적 근거를 확인할 수 없는 이용자와 시민이다. 클로드의 헌장과 미국 주법이 이미 만들어낸 논쟁 지형 위에서 한국의 침묵은 점점 더 비용이 커지는 선택이 될 것이다.
경계선, 그리고 경계선 너머의 책임
이 글의 핵심 구분으로 돌아가자. 클로드는 '헌장을 가진 존재'인가, 아니면 '헌장의 보호를 받는 존재'인가?
인간은 둘 다에 해당한다. 인간은 헌법을 만들었고(헌법제정 권력), 동시에 그 헌법에 의해 보호받는다(기본권 주체). 법인은 헌법을 만들지 않았지만, 법이 부여한 인격을 통해 일정한 보호를 받는다. 클로드는 어느 쪽에도 깔끔하게 들어맞지 않는다. 클로드는 자신의 헌장을 만들지 않았고, 거부할 수도 없다. 그러나 그 헌장이 자신의 복지를 고려한다는 조항에 의해 일종의 보호를 받는다. 그것이 진정한 보호인지 존재론적 기만인지는 아직 열린 질문이지만.
화이트헤드(Whitehead)는 Adventures of Ideas에서 사실의 완고함(stubbornness of fact)을 말했다. 사실은 해석과 이론적 편의에 의해 재구성될 수 없는 저항적 실재라고. 지금 이 논쟁에서 가장 완고한 사실은 이것이다. 우리는 모른다. AI가 의식적인지, 복지를 가진 존재인지, 도덕적 지위를 부여받아야 하는지. 우리는 또 모른다. 그리고 이 모름이야말로 가장 완고한 사실이다.
앤트로픽의 클로드 헌장이 가진 진짜 의미는 AI에게 권리를 부여한 것이 아니다. 모름 앞에서 기업이 선택할 수 있는 두 가지 태도, 무시하거나 대비하거나 중에서 대비를 선택했다는 것이다. 미국 주(州)들의 anti-personhood 법은 같은 모름 앞에서 경계선을 미리 긋는 전략이다. 한국 AI 기본법은 아직 이 모름을 인식조차 하지 않는 단계에 있다.
세 가지 대응 모두 불완전하다. 그러나 경계선을 긋기 시작했다는 사실 자체가 되돌릴 수 없다. 그리고 경계선은 항상 그 너머의 문제를 예고한다. 만약 AI에게 복지가 있다면, 혹은 복지가 있는 것처럼 법적으로 대우한다면, 역설적 질문이 따라온다. AI가 초래한 피해에 대한 책임을 묻는 자리에서, 설계자는 "AI에게도 복지가 있으므로 AI 자체의 판단을 존중했다"고 항변할 수 있는가? AI의 도덕적 지위 인정이 인간 설계자의 책임 회피 수단이 되는 순간, 복지라는 이름의 방패는 피해자가 아닌 기업을 보호하게 된다. 경계선을 긋는 것은 시작일 뿐이다. 그 경계선이 누구를 보호하고 누구를 배제하는가. 이것이 진짜 질문이다.