생성AI에서 범용AI로 진화: 인터페이스에서 인프라로
AI는 챗봇에서 범용 인프라로 진화하고 있다. 2020년 언어모델로 시작해 멀티모달 생성으로 확장되었고, 2024년 추론 강화와 에이전트 능력으로 실제 작업을 수행하기 시작했다. 2026년 현재 범용 AI(GPAI)는 여러 산업에 동시 적용되며 인지 능력 인프라로 전환 중이다. 전기가 선택에서 인프라가 되었듯, AI도 2030년대에는 당연한 기반이 될 것이다. 이런 상황에서 국제 AI 안전 보고서는 경고한다. 기술은 이미 출발했지만 사회는 아직 준비되지 않았다.
챗지피티가 처음 등장했을 때 우리는 대화 프로그램, 챗봇이라고 불렀습니다. 질문하면 문장을 이어 답을 만드는 꽤 영리한 자동완성 기능이라고 생각했어요. 기술적으로는 언어모델이라고 했지만 뭔 말인지는 잘 몰랐습니다. 그래요. 사람의 언어를 흉내내는 좀 신기한 물건. 그 이상도 이하도 아니었습니다.
하지만 이 물건(혹은 기능, 기술)은 사실 꽤 오래전부터 개발되고 있었습니다. 이 기술의 핵심은 대답이 아니라 패턴 학습이었거든요. 대량의 데이터를 바탕으로 관계를 추정하는 방식, 즉 규칙이 아니라 확률로 세계를 다시 만드는 방법이었습니다. 처음에는 텍스트만 다뤘기 때문에 우리는 언어 기술로 이해했지만 곧 이 기술은 동일한 방법으로 이미지, 소리, 코드까지 다루게 되었습니다.
이 시기의 경쟁 기준은 명확했습니다. 모델의 크기였죠. GPT-3가 1,750억 파라미터로 등장했고, 곧 딥마인드의 연구모델 Gopher(2,800억), 마이크로소프트가 엔비디아와 같이 작업한 Megatron-Turing NLG(5,300억)가 뒤를 이었습니다. 더 많은 데이터, 더 많은 컴퓨팅. 규모가 늘어나는 것이 곧 기술의 발전으로 이어졌습니다.
2단계: 생성과 멀티모달의 융합(2022~2024)
이제 두번째 단계가 등장합니다. 언어모델이 문장을 만들자 같은 원리가 이미지와 영상으로 확장되었습니다. 2022년 달리2와 스테이블디퓨전이 대중의 상상력을 사로잡았고 2024년 GPT-4가 이미지를 이해하기 시작하면서 텍스트, 이미지, 음성, 영상이 하나의 체계로 통합되었습니다.
기술이 발달한 것이기도 하겠지만 사실 자연스러운 발전이라고 봅니다. 처음부터 문장을 잘 만드는 것이 목적이 아니라 패턴을 학습해 새로운 데이터를 생성하는 시스템이었기 때문입니다. 이른바 모달리티의 시대입니다.
모달리티(modality)란 정보를 표현하고 전달하는 방식을 말합니다. 텍스트, 이미지, 음성, 영상은 각각 다른 모달리티입니다. 사람이 글을 읽고 그림을 보고 소리를 듣는 것처럼 서로 다른 감각 채널로 세상을 인식하는 것과 같습니다.
과거 AI는 단일 모달리티 시스템이었습니다. 텍스트를 처리하는 AI는 번역, 요약, 질문과 답변을 했고 이미지를 처리하는 AI는 얼굴을 인식하거나 객체를 탐지했습니다. 음성 인식 AI는 음성을 이해했습니다. 각각의 AI는 각자 재주를 부렸지만 서로 소통할 수 없었습니다. 텍스트 AI는 이미지를 몰랐고 이미지 AI는 텍스트를 억지로 그렸습니다.
그런데 2023년 멀티모달(multimodal) AI가 등장하면서 시대가 바뀝니다. 하나의 시스템이 여러 모달리티를 동시에 처리할 수 있게 되었습니다. GPT-4는 이미지를 보고 설명하고 그래프를 분석하고 문서를 이해합니다. 제미나이도 텍스트, 이미지, 음성, 영상을 통합 처리합니다. 이것은 단순히 기능이 추가된 게 아닙니다. 각 모달리티는 서로 다른 기술이 아니라 동일한 기초 능력의 다른 표현이었기 때문입니다.
동일한 패턴 학습 원리로 텍스트의 다음 단어를 예측하듯이 이미지의 다음 픽셀을 예측하고, 문장의 문맥을 이해하듯이 이미지의 구조를 이해하고, 글의 스타일을 학습하듯이 그림의 화풍을 학습합니다 인간의 뇌가 눈으로 본 것과 귀로 들은 것을 통합해서 이해하듯이, AI도 텍스트와 이미지와 음성을 하나의 의미 공간에서 처리하기 시작한 것입니다. 이 변화가 중요한 이유는 명확합니다. AI가 특정 감각의 도구가 아니라 통합된 인식 체계를 다루는 기술이라는 사실이 증명되었기 때문입니다.
이 시기의 경쟁 기준은 결과물의 품질이었습니다. 얼마나 자연스러운 텍스트를 만드는지, 사실적인 이미지를 생성하는지가 중요했습니다. 그러나 이 시점까지도 여전히 인간이 명령했고 AI는 응답했습니다.
3단계: 추론과 에이전트의 등장(2024~2026)
2024년 후반부터 등장한 추론 강화 모델(reasoning-enhanced models)은 기존 AI와 근본적으로 다른 작동 방식을 보여줍니다. 오픈AI의 o1, 구글 딥마인드의 제미나이 2.0 Flash Thinking 같은 모델들은 더 이상 즉각적으로 답을 출력하지 않습니다. 문제를 받으면 먼저 생각하기 때문입니다.
내부적으로 여러 추론 경로를 탐색하고 각 경로를 평가하고 더 나은 답을 찾기 위해 계산 자원을 투입합니다. 이 과정은 사람이 복잡한 문제를 풀 때 여러 접근법을 시도해보는 것과 유사합니다. 중요한 것은 이 과정이 훈련 시점이 아니라 실행 시점에 발생한다는 것입니다.
결과는 극적입니다. AIME 2024(미국 수학 경시대회) 문제에서 GPT-4o는 9.3%를 맞혔지만, o1-preview는 74.4%를 달성했습니다. 코드포스(Codeforces) 프로그래밍 대회에서는 상위 11% 수준까지 도달했습니다. 같은 모델 크기, 같은 데이터로 학습했지만 추론 구조의 차이만으로 8배의 성능 향상이 발생한 것입니다.
더 놀라운 사실은 생각 시간과 성능의 관계입니다. 같은 모델이라도 답을 내기 전에 더 오래 생각하면 성능이 올라갑니다. 마치 체스 선수가 1초가 아니라 10분을 생각하면 더 좋은 수를 두는 것과 같습니다. 실제로 실행 시점에 계산량을 10배 투입하면 GPQA(PhD 수준 과학 문제)에서 정확도가 60.3%에서 78%로 상승합니다.
이것은 근본적인 패러다임 전환입니다. 더 이상 얼마나 많이 아는가가 아니라 얼마나 깊이 생각하는가가 능력을 결정하기 시작한 것입니다. 이 변화의 의미는 단순한 정확도 향상이 아닙니다. AI가 아는 것을 출력하는 시스템에서 모르는 것을 탐색하는 시스템으로 바뀌었다는 뜻입니다.
에이전트: 도구를 사용하는 AI
여기에 에이전트 능력이 결합됩니다. 2025년 들어 AI 모델들은 외부 도구를 사용하기 시작했습니다. 웹을 검색하고 코드를 실행하고 데이터베이스를 조회하고 API를 호출합니다. 앤트로픽의 클로드가 컴퓨터를 직접 조작하고 구글의 제미나이가 지메일과 구글독스를 통합 제어합니다.
그러면서 AI의 역할이 근본적으로 바뀌었습니다. 과거 AI는 질문에 답변만 했습니다. "이메일을 어떻게 쓰면 좋을까?"라고 물으면 "이렇게 쓰세요"라고 조언을 했습니다. 지금은 다릅니다. "이메일 보내줘"라고 입력하면 실제로 이메일을 작성하고 전송합니다. AI가 조언자에서 실행자로 바뀐 것입니다.
경쟁 기준의 전환: 크기에서 설계로
이 단계에서 경쟁의 기준이 또다시 바뀌었습니다. 예전에는 누가 더 큰 AI를 만드는가가 중요했습니다. 더 많은 돈과 컴퓨팅 자원을 가진 쪽이 이겼습니다. 지금은 같은 AI를 누가 더 잘 사용하는가가 핵심입니다. 시스템을 어떻게 설계하는지, 도구를 어떻게 연결하는지, 작업을 어떻게 분배하는지가 성능을 결정합니다.
비유하자면 더 큰 엔진을 만드는 경쟁에서 같은 엔진을 더 효율적으로 사용하는 경쟁으로 바뀐 것입니다. AI의 성능은 더 큰 모델이 아니라 후처리, 추론 과정, 도구 연결, 실행 시 계산을 분배하는 과정에서 달라집니다.
AI들의 협업
게다가 AI는 혼자 일하지 않고 팀으로 일합니다. 하나의 AI가 모든 것을 처리하는 것이 아니라 여러 전문화된 AI들이 협력해서 복잡한 작업을 수행합니다. 보고서를 작성한다면 하나의 AI는 인터넷에서 정보를 수집하고 다른 AI는 수집된 정보를 분석하고 또 다른 AI는 차트와 그래프를 생성하고 마지막 AI는 최종 문서를 작성하고 오류를 검증합니다.
각자 전문 분야가 있고 협력해서 결과를 만들어냅니다. 마치 회사에서 각 부서가 협력하는 것과 같습니다. 이것을 에이전트 오케스트레이션(agent orchestration)이라고 부릅니다. 오케스트라를 지휘하듯이 여러 AI를 조율한다는 의미입니다. 이 능력이 핵심 경쟁력이 되었습니다. 그리고 여기서 범용AI(General-Purpose AI, GPAI)라는 개념이 등장합니다.
4단계: 범용성을 향한 이동 (2026-)
용어의 명확한 구분
혼동을 피하기 위해 두 가지 개념을 먼저 정리해야 합니다. AGI(Artificial General Intelligence)는 사람이 할 수 있는 모든 지적 작업을 사람 이상으로 수행하는 AI를 의미합니다. 자기 인식, 의식, 진정한 창의성까지 포함하는 개념으로 아직 달성되지 않았으며 언제 달성될지도 불확실합니다. 뭐, 누군가는 거의 왔다고 말하기도 해서 이견이 좀 있는 개념입니다. 반면 범용AI(GPAI, General-Purpose AI)는 여러 영역에 적용 가능하지만 모든 영역을 지배하진 않는 AI입니다. 특정 응용 분야에 특화되지 않고 다양한 맥락에 적응할 수 있으며 2026년 현재 이미 현실화되어 있습니다.
2026년 국제 AI 안전 보고서는 범용AI를 "광범위한 인지적, 물리적 작업을 수행할 수 있으며, 특정 응용 분야에 특화되지 않고 다양한 맥락과 환경에 적응할 수 있는 AI 시스템"으로 정의합니다. 2026년 현재, 우리는 AGI에 도달하지 않았습니다. 그러나 범용AI는 이미 현실입니다.
범용성의 의미: 적응력
범용AI는 단순히 모든 것을 잘하는 AI가 아닙니다. 핵심은 적응력입니다. 기존 AI는 특정 작업을 위해 설계되었습니다. 이미지 인식 AI, 번역 AI, 추천 알고리즘은 각각 자기 영역에서만 작동했습니다. 그러나 현재 세대의 대형 언어모델은 다릅니다. 하나의 모델이 법률 문서 분석, 의료 진단 보조, 소프트웨어 개발, 과학 논문 작성, 금융 리스크 평가를 동시에 수행합니다.
2026년 기준 이런 모델들의 능력 범위는 이미 상당합니다. 거의 모든 주요 언어에서 전문가 수준의 이해와 생성이 가능하고 20개 이상의 프로그래밍 언어로 실제 버그를 수정하고 시스템을 설계합니다. PhD 수준의 물리, 화학, 생물 문제를 해결하고 대학원 수준의 수학 증명과 복잡한 계산을 수행하며 이미지, 영상, 음성을 통합해서 처리합니다.
더 중요한 것은 전이 학습 능력입니다. 한 분야에서 학습한 패턴을 다른 분야에 적용할 수 있습니다. 의료 데이터로 학습한 진단 추론 방식이 법률 사례 분석에도 적용되고, 코드 디버깅 전략이 과학 실험 설계에도 유효합니다. 사람 전문가가 여러 분야의 경험을 통합해서 문제를 푸는 방식과 유사한 능력이 나타나고 있습니다.
산업 구조의 재편
이 변화는 산업 구조를 근본적으로 바꿉니다. 과거에는 산업마다 별도의 AI 솔루션이 필요했습니다. 금융에는 리스크 평가 모델, 의료에는 진단 보조 시스템, 법률에는 판례 검색 엔진, 제조에는 품질 관리 비전 시스템이 각각 따로 개발되었습니다. 지금은 하나의 범용 모델이 여러 산업에 동시에 배포됩니다. 금융 회사가 의료 회사와 동일한 기초 모델을 사용합니다. 차이는 모델이 아니라 프롬프트와 데이터와 작업 흐름입니다.
AI는 소프트웨어 제품이 아니라 인지 능력 인프라가 되어갑니다. 전기나 인터넷처럼, 특정 용도가 아니라 모든 용도에 적용 가능한 범용 자원이 되는 것입니다. 더 이상 우리 회사에 맞는 AI를 찾는 게 아니라, 우리 회사가 범용 AI를 어떻게 활용할 것인가를 묻게 됩니다.
인프라가 된 지능
챗봇에서 범용 AI까지 흐름은 인터페이스에서 표현으로, 행동으로, 그리고 인프라로 이동하는 과정이었습니다. 처음 우리는 AI에게 말을 걸었습니다. 다음에는 AI로 콘텐트를 만들었습니다. 지금은 AI가 일을 수행합니다. 그렇다면 다음 단계는 무엇일까요?
전기의 교훈
전기가 처음 등장했을 때 사람들은 전기를 사용했습니다. 공장에 전기 조명을 설치할지 말지 고민했고, 가정에 전기를 들여올지 결정했습니다. 전기는 선택 가능한 신기술이었습니다. 증기기관과 경쟁하는 여러 옵션 중 하나였습니다.
지금 우리는 전기를 사용한다고 생각하지 않습니다. 그냥 존재합니다. 스위치를 누르면 불이 켜지고 콘센트에 꽂으면 기기가 작동합니다. 전기 없는 현대 사회를 상상할 수 없습니다. 전기는 선택이 아니라 당연한 전제가 되었습니다.
AI도 같은 경로를 밟고 있습니다
기업이나 조직에 따라 다르지만 2023년에는 AI를 도입했습니다. 우리 회사에 ChatGPT를 쓸까? AI 번역 도구를 살까? 이 업무에 AI를 적용할까? 선택의 문제였습니다. AI를 도입하고 3년이 지난 2026년에는 AI가 기본값이 되었습니다. 고객 서비스 시스템은 AI 챗봇을 전제로 설계되고 의료 영상 판독 워크플로우는 AI 1차 스크리닝을 포함하고, 법률 리서치는 AI 검색 없이는 경쟁력을 잃고 소프트웨어 개발은 AI 코드 어시스턴트와의 협업이 표준이 됩니다.
아마도 2030년대에는 AI가 당연한 전제가 될 것입니다. 금융 시스템은 AI 리스크 평가를 전제로 설계되고, 의료는 AI 진단 보조를 기본값으로 삼고 물류, 교육, 행정, 연구개발 모두 AI 기반 추론과 자동화를 전제로 재구성될 것 같습니다. 그때가 되면 AI를 쓸까 말까? 하는 질문 자체가 사라집니다.
의식적 설계의 필요성
문제는 우리가 그 전환을 의식적으로 설계하느냐, 무의식적으로 받아들이느냐입니다. 전기가 인프라가 되는 과정에서 우리는 표준을 만들었습니다. 전압 규격, 안전 기준, 배전 시스템, 이용자 보호 장치가 없었다면 전기는 편리함만큼이나 위험했을 것입니다.
AI도 마찬가지입니다. 범용 AI가 인프라가 되기 전에 우리는 질문해야 합니다. 누가 AI 시스템의 결정을 감독할 것인가? 어떤 영역에서는 인간의 최종 판단이 필수적인가? AI의 오류나 편향을 어떻게 모니터링하고 교정할 것인가? 위험한 용도에 대한 접근을 어떻게 통제할 것인가? AI 능력이 소수에게 집중되는 것을 어떻게 방지할 것인가?
범용 AI 시대는 이미 시작되었습니다. 하지만 우리는 아직 그것을 통제할 준비가 되어 있지 않습니다. 이제는 사회가 따라가야 합니다. 어쩌면 우리는 조금 늦었을 지도 모릅니다.