AI Trends

[AI 저작권 #1] 빈 책의 역설: 옵트아웃 철회했지만 아무것도 안 바뀐 까닭

[AI 저작권 #1] 빈 책의 역설: 옵트아웃 철회했지만 아무것도 안 바뀐 까닭

영국 정부가 2026년 3월 AI 저작권 옵트아웃 방식을 공식 철회했다. 작가들이 원한 결과다. 그런데 새 입법도, 규제 기관도, 구속력 있는 라이선스 코드도 없다. 옵트아웃을 막은 것과 창작자를 보호하는 것은 다른 이야기다. 수억 개의 저작물이 이미 학습됐다는 사실은 법적 선택과 무관하게 남는다. 승리처럼 보이는 이 교착을 해부한다.
Read more
4천 명 사라진 자리, AI 에이전트가 앉다: AI 값은 내리고 연봉은 사라진 이유

4천 명 사라진 자리, AI 에이전트가 앉다: AI 값은 내리고 연봉은 사라진 이유

세일즈포스는 AI 에이전트를 도입하고 4,000명을 잘랐다. 가트너는 2026년 말까지 기업 앱의 40%가 에이전트를 탑재할 것으로 본다. 추론 비용은 연간 50배씩 내려가고, 밟고 올라가야 할 경력 사다리의 가장 아래쪽 디딤대가 부러지고 있다. 경력이 없는 신입을 대체한 "디지털 동료"라는 수사 아래, 구조조정과 효율화 만이 주목받고 있다.
Read more
클로드 마이토스와 카피바라 유출: 진짜 문제는 그게 아니다

클로드 마이토스와 카피바라 유출: 진짜 문제는 그게 아니다

앤트로픽의 블로그 CMS 설정 오류 하나로 미발표 자산 약 3,000개가 공개 검색 가능 상태로 노출됐다. 그 안에는 Opus보다 강력한 새 모델 티어 Capybara와 첫 모델 Claude Mythos의 존재가 담긴 초안이 있었다. 앤트로픽은 모델의 존재를 공식 확인했다. 그런데 초안에 담긴 진짜 문제는 모델 스펙이 아니다. "방어자의 속도를 앞지르는 취약점 공격 파도"를 경고한 기업이 정작 자신의 CMS 기본 설정은 확인하지 않았다는 것이다.
Read more
앤트로픽과 국방부의 대결: 법원이 막아선 펜타곤의 AI 보복

앤트로픽과 국방부의 대결: 법원이 막아선 펜타곤의 AI 보복

2026년 3월, 미국 캘리포니아 연방법원이 앤트로픽에 내려진 공급망 위험 지정을 위헌으로 판단했다. 자율무기와 대규모 감시에 AI를 쓰지 않겠다는 원칙을 고수한 기업이 블랙리스트에 오른 사건이다. 국방부 자체 기록은 지정 이유가 국가안보가 아니라 언론을 통한 적대적 방식이었음을 인정했다. 법원은 그 기록으로 지정을 막았다. AI 안전 원칙과 군사 조달 권력의 첫 번째 법적 충돌, 그 판결의 무게를 짚는다.
Read more
AI에게 인용될수록 죽어가는 지식 산업: 브리태니커 소송의 역설

AI에게 인용될수록 죽어가는 지식 산업: 브리태니커 소송의 역설

2026년 3월 13일, 브리태니커와 메리엄-웹스터가 오픈AI를 상대로 소송을 냈다. 핵심은 저작권이 아니다. 챗지피티가 할루시네이션 정보를 만들면서 출처를 '브리태니커'로 붙이는 행위, 즉 상표권(Lanham Act) 침해다. 공정 이용 항변을 우회하는 이 전략이 AI 산업 전체의 책임 구조를 바꿀 수 있다. 258년 지식의 권위가 확률적 답변과 충돌하는 이 소송, 브랜드 저널리즘은 여기서 무엇을 읽어야 하는가.
Read more
우리는 왜 AI에게 고민을 털어놓는가

우리는 왜 AI에게 고민을 털어놓는가

통계청 2025년 사회조사에 따르면 한국 성인 21.2%는 힘들 때 털어놓을 사람이 없다. 같은 시기 캐릭터닷에이아이와 레플리카의 이용자는 수천만을 넘었다. 뭔가 연결고리가 있을까. 인공지능 동반자 산업은 외로움을 파는 게 아니라 말할 구조적 공간이 사라진 틈을 수익화한다. 단기적으로 외로움을 덜어준다는 연구와 장기적으로 고립을 심화시킨다는 연구가 동시에 존재하는 이유, 그리고 우리가 던져야 할 진짜 질문은 무엇일까.
Read more
기업 뉴스룸, AI에게 인용당하는 것이 승리인가 굴복인가

기업 뉴스룸, AI에게 인용당하는 것이 승리인가 굴복인가

온라인 검색의 60%가 클릭 없이 끝난다. 로이터 저널리즘 연구소는 3년 안에 검색 트래픽이 40% 줄어들 것으로 예측했다. AI가 검색의 문지기가 된 세상에서, 기업 뉴스룸의 질문은 단순해진다. AI가 반드시 인용할 수밖에 없는 존재가 될 것인가, 아니면 AI와 상관없이 독자적으로 설 수 있는 존재가 될 것인가. GEO 전략의 두 버전, '지적 알리바이'의 조건, 그리고 인용이 곧 브랜드 가치 상승으로 이어지지 않는 이유까지.
Read more
AI 동질화란 무엇인가: 기업 뉴스룸이 비슷해지는 구조적 이유

AI 동질화란 무엇인가: 기업 뉴스룸이 비슷해지는 구조적 이유

한국 대기업 뉴스룸의 기사는 대동소이하다. 물론 이것은 보도자료 문법이라는 구조 때문에 그럴 수 있다. AI가 도입된 후 달라진 것은 내용의 밀도다. 예전 기사에는 현장 수치와 경쟁자가 있었다. 지금은 선언만 있고 장면이 없다. AI가 현장 없이도 그럴듯한 문장을 만들기 때문이다. 문제는 도구가 아니라 구조다. 위계적 승인이 현장 디테일을 걸러내고, 대행사는 승인자가 좋아하는 포맷을 학습해 반복하고 AI는 그 패턴을 재생산한다. 동질화를 피하는 경로가 없는 건 아니다.
Read more
쓰면서 믿지 않는다? AI 저널리즘과 기업 콘텐트의 향방

쓰면서 믿지 않는다? AI 저널리즘과 기업 콘텐트의 향방

가트너, 클라비요, 어도비, 시프트 브라우저가 연이어 내놓은 조사가 하나의 결론을 가리킨다. 사람들은 AI를 쓴다. 그러나 믿지 않는다. 60%가 매주 AI를 쓰면서 완전히 신뢰한다는 응답은 13%에 그쳤다. 더 날카로운 문제는 따로 있다. 아무 표시 없이 올린 AI 콘텐트를 독자가 나중에 알아챘을 때 떠난다는 것이다. 한국은 이미 2026년 1월 AI 기본법을 시행했다. 숨기는 것은 신뢰를 담보로 잠시 평화를 갖는 것이다. 하지만 이제는 더 이상 감출 수 없다.
Read more
팔란티어, 트럼프, 그리고 책임지지 않는 알고리즘

팔란티어, 트럼프, 그리고 책임지지 않는 알고리즘

2026년 2월 28일, 이란의 미나브 초등학교에 미사일이 떨어졌다. 그날 작동하고 있던 것은 팔란티어의 메이븐 스마트 시스템이었다. 13억 달러짜리 계약, 2만 명의 군사 요원, 3주 동안 6,000개에 가까운 타격 좌표. 팔란티어는 "우리는 도구일 뿐"이라고 한다. 그런데 총과 달리, 이 도구는 스스로 목표물을 고른다. 책임은 누구에게 있는가.
Read more
전쟁에서 AI가 사람을 죽이면 누가 책임지는가

전쟁에서 AI가 사람을 죽이면 누가 책임지는가

2026년 3월, 미 국방부는 앤트로픽을 미국 기업 최초로 공급망 위험이라 지정했다. 표면적 이유는 클로드에 킬 스위치가 내장됐다는 것이었다. 앤트로픽이 클로드를 멈출 스위치로 전쟁 중에 원격 조작할 있다는 우려였다. 그러나 진짜 싸움은 그게 아니었다. 국방부가 무력화하려 한 것은 앤트로픽이 설계 단계에서 모델 안에 심어놓은 윤리적 제약, 즉 특정 명령을 거부하도록 훈련된 AI 자체였다. AI가 살상 결정에 개입할수록, 그 결정에 책임질 인간이 사라진다. 민주주의는 그 책임의 연쇄 위에 서 있다.
Read more