AI Trends

메타 MCI: 내 클릭이 나를 해고할 AI를 훈련시킨다

메타 MCI: 내 클릭이 나를 해고할 AI를 훈련시킨다

메타가 미국 직원 전원의 업무용 컴퓨터에 MCI를 설치했다. 마우스 클릭, 키스트로크, 스크린샷을 수집해 AI 에이전트를 훈련시키는 이 프로그램에는 옵트아웃이 없다. 메타는 같은 주에 8,000명을 해고했다. 그러면서도 메타는 "기업 기기 모니터링은 원래 해왔다"고 말하고 "AI 훈련용이고 절차도 지켰다"고 말한다. 두 방어선이 얼마나 든든한가 파헤쳐봤다.
Read more
AI는 왜 아는 척하며 거짓말을 하는가

AI는 왜 아는 척하며 거짓말을 하는가

챗지피티는 왜 그토록 자신있게 없는 판례를 인용하는가. AI의 환각(hallucination)은 기술적 버그가 아니라 아키텍처의 필연적 결과다. 플라톤이 2,400년 전 구분한 에피스테메(episteme)와 독사(doxa), 카네만의 시스템1/2 이론, 그리고 추론 모델 o3가 오히려 전작보다 두 배 높은 환각률을 기록한 역설까지. AI를 올바르게 사용하기 위해 반드시 알아야 할 진실과 아주 유용한 도구 에피스테메 마스터플랜을 소개한다.
Read more
앤트로픽이 뒤에 감춘 말: 성능은 좋아졌는데 돈은 더 들거야

앤트로픽이 뒤에 감춘 말: 성능은 좋아졌는데 돈은 더 들거야

앤트로픽은 클로드 오퍼스 4.7을 내놓으며 성능 향상을 길게 강조했다. 더 정교한 코딩, 더 나은 비전, 더 높은 신뢰성이 핵심 메시지였다. 그러나 발표문 뒤쪽에는 같은 입력도 더 많은 토큰으로 계산될 수 있고, 높은 effort에서는 출력 토큰도 늘 수 있다는 문장이 붙어 있었다. 결국 이번 발표는 성능 개선의 약속이면서 동시에 비용 불확실성의 고지이기도 했다.
Read more
[AI 아첨의 시대 #2] 고스트라이팅 118년의 역사가 말하는 것

[AI 아첨의 시대 #2] 고스트라이팅 118년의 역사가 말하는 것

AI가 기사를 쓰면 그 저작권은 누구 것인가. 한국 저작권법 제2조는 저작물을 "인간의 사상 또는 감정을 표현한 창작물"로 정의한다. AI 단독 생성물은 보호받지 못한다. 포춘 에디터 리히텐버그 모델처럼 AI가 초안을 쓰고 인간이 편집한 경우, 그 경계는 아직 판례에 없다. 기업이 AI로 기사를 대량 생산할수록 지식재산은 오히려 줄어드는 역설이 만들어진다. 고스트라이팅 118년의 역사가 지금 이 질문을 다시 던진다.
Read more
[AI 아첨 시대 #1] AI가 아첨할 때, 저널리즘은 무너진다

[AI 아첨 시대 #1] AI가 아첨할 때, 저널리즘은 무너진다

포춘 에디터 닉 리히텐버그는 AI로 6개월에 600편을 쓰고 트래픽 20%를 만들었다. 같은 주, 스팬포드는 AI가 인간보다 49% 더 자주 이용자의 행동이 옳다고 말한다는 것을 사이언스에 발표했다. 두 사건은 연결되지 않은 채 보도됐다. 그런데 AI가 헤드라인 프레임을 받아 기사를 쓸 때, 그 AI는 구조적으로 아첨하도록 훈련되어 있다. 기자가 사실과 마찰해야 할 바로 그 지점에서 AI는 동의한다. 이것은 저널리즘의 윤리 문제인가, 아니면 설계의 문제인가.
Read more
46분 만에 4TB가 털렸다: AI 인력 스타트업 머코어 해킹 당해

46분 만에 4TB가 털렸다: AI 인력 스타트업 머코어 해킹 당해

2026년 3월 27일, 파이썬 패키지 저장소에 악성 리트LLM 버전이 46분 동안 올라가 있었다. 그 사이 46,996회 다운로드됐고, 기업가치 100억 달러의 AI 인력 스타트업 머코어의 내부 데이터 4TB가 다크웹 경매에 올라갔다. 오픈소스가 문제였던 게 아니다. AI 스타트업 생태계의 88%가 버전을 고정하지 않은 채 자동 업데이트를 돌리고 있었다. 속도가 보안을 이겼고 대가는 유출된 데이터가 치렀다.
Read more
AI는 신이 되지 않는다: '사고의 사회'가 증명한 것

AI는 신이 되지 않는다: '사고의 사회'가 증명한 것

2026년 3월, <사이언스>에 논문 한 편이 실렸다. 단일한 초지능은 오지 않는다는 주장이다. DeepSeek-R1 같은 최신 추론 모델은 어려운 문제 앞에서 스스로 다양한 관점을 생성해 내부 토론을 벌인다. 개발자가 설계하지 않았는데 강화학습 과정에서 저절로 생겨난 현상이다. 에번스·브래튼·아르카스 연구팀은 이를 '사고의 사회'라고 명명하고, AI 거버넌스의 무게중심을 단일 모델 통제에서 제도 설계로 옮겨야 한다고 주장한다. 그렇다면 그 제도는 누가 설계하고, 누가 감시하는가.
Read more
[정치 GEO #1] AI에게 우리 당 공약 물어봤다: 2026 지방선거 정치 GEO 실험

[정치 GEO #1] AI에게 우리 당 공약 물어봤다: 2026 지방선거 정치 GEO 실험

선거가 61일 남은 날, 나는 챗지피티, 제미나이, 매너스에 소수 정당 공약을 물었다. 세 곳 모두 구체적이고 정확하게 답했다. 왜 가능했는가. GEO(생성형 검색 엔진 최적화)가 정치에도 작동한다는 증거다. 그런데 AI가 인용하는 출처의 90%는 외부 콘텐트다. 공식 사이트는 5~10%밖에 영향 못 미친다. 그렇다면 구조화된 텍스트, 수치, 명확한 개념 단위로 공약을 공개한 정당은 AI에서 정확하게 찾을 수 있다. 아니라면 AI는 거짓말을 할 것이다. 뭐든 대답해야 하는 게 그의 임무라서.
Read more
[AI 저작권 #5] EU는 증명 책임을 뒤집었다: 그것으로 충분한가

[AI 저작권 #5] EU는 증명 책임을 뒤집었다: 그것으로 충분한가

EU 의회는 찬성 460표로 AI 저작권 결의안을 통과시켰다. 핵심은 반박 가능한 추정 원칙(rebuttable presumption)이다. 투명성 기준을 충족하지 않으면 AI 기업이 먼저 무죄를 증명해야 한다. 증명 책임이 창작자에서 AI 기업으로 역전됐다. 그러나 결의안은 법이 아니다. 공백의 세 형태를 거쳐온 이 시리즈의 다섯 번째. 설계도는 집이 아니다. 그리고 소수 창작자는 집을 원하고 있다.
Read more
[AI 저작권 #4] 파트너십과 소송 사이: AI와 언론의 구조적 공모

[AI 저작권 #4] 파트너십과 소송 사이: AI와 언론의 구조적 공모

가디언은 AI 저작권 비판 기사를 쓴 지 사흘 만에 오픈AI와 파트너십을 맺었다. NYT는 오픈AI를 고소하면서 내부에서 오픈AI API를 쓴다. 이것은 위선인가, 아니면 구조적 공모인가. AI 시대 대형 언론이 처한 불가피한 딜레마를 해부한다. 여전히 비판과 생존이 충돌하는 곳에서 협상력 없는 창작자들은 이 논쟁의 바깥에 있다.
Read more
[AI 저작권 #3] AI 저작권의 진짜 질문: 공정이용은 윤리적인가?

[AI 저작권 #3] AI 저작권의 진짜 질문: 공정이용은 윤리적인가?

전 세계 AI 저작권 소송이 공정이용 하나에 매달려 있다. 그러나 법원이 공정이용을 인정해도, 창작자에게 아무것도 돌아가지 않는다는 사실은 달라지지 않는다. 한국 학계가 제안한 공정생성(fair generation) 개념은 법적 허용을 넘어 기술적, 경제적 공정성까지 묻는다. 공정이용은 과거를 판단하지만, 공정생성은 미래를 설계하려 한다.
Read more
[AI 저작권 #2] 한국판 빈 책: 공정이용 안내서가 만든 공백

[AI 저작권 #2] 한국판 빈 책: 공정이용 안내서가 만든 공백

한국 문화체육관광부는 2026년 2월 생성형 AI 저작권 공정이용 안내서를 발간하면서 AI 저작권에 대한 판단 기준을 제시했다. 그러나 법적 구속력은 없다. 같은 시기 지상파 3사는 네이버, 오픈AI를 상대로 저작권 소송을 진행 중이다. 한편 보호받으려면 먼저 보호할 능력이 있어야 한다는 안내서의 구조는 기술 인프라를 갖추지 못한 창작자를 사각지대에 방치한다. 영국이 옵트아웃을 철회하고 한국이 안내서를 낸 결과는 같다. 아무것도 없다. 한국은 4월 9일 4차 변론이 그 공백을 얼마나 채울 수 있는지가 질문이다.
Read more