AI Governance

AI는 신이 되지 않는다: '사고의 사회'가 증명한 것

AI는 신이 되지 않는다: '사고의 사회'가 증명한 것

2026년 3월, <사이언스>에 논문 한 편이 실렸다. 단일한 초지능은 오지 않는다는 주장이다. DeepSeek-R1 같은 최신 추론 모델은 어려운 문제 앞에서 스스로 다양한 관점을 생성해 내부 토론을 벌인다. 개발자가 설계하지 않았는데 강화학습 과정에서 저절로 생겨난 현상이다. 에번스·브래튼·아르카스 연구팀은 이를 '사고의 사회'라고 명명하고, AI 거버넌스의 무게중심을 단일 모델 통제에서 제도 설계로 옮겨야 한다고 주장한다. 그렇다면 그 제도는 누가 설계하고, 누가 감시하는가.
Read more
더 빨리, 더 많이. 그러나 덜 신뢰받는 AI 시대 기업 커뮤니케이션의 역설

더 빨리, 더 많이. 그러나 덜 신뢰받는 AI 시대 기업 커뮤니케이션의 역설

BCG 조사에서 CCO의 88%가 AI 전환 준비가 안 됐다고 답했다. 같은 시기 패스트컴퍼니 조사는 AI 생성 콘텐트를 출처 없이 쓰면 신뢰가 떨어진다는 응답이 70%임을 보여줬다. 효율은 오르고 신뢰는 내려간다. 이 역설은 기술의 문제가 아니다. AI 시대 기업 커뮤니케이션의 본질적 질문은 이것이다. 커뮤니케이션 팀은 메시지를 찍어내는 공장인가, 아니면 조직과 사회 사이에서 신뢰가 어떻게 작동할지를 설계하는 곳인가.
Read more