AI 석학 카르파시, 'AGI 10년 남았다' 선언…'강화학습은 형편없다' 쓴소리¶
원제목: 根本沒有「智能體元年」!AI大神Karpathy:AGI還需要十年強化學習其實很糟 - 鉅亨網
핵심 요약
- AI 석학 안드레이 카르파시가 현재의 '지능형 에이전트' 기술 수준은 초기 단계이며, 진정한 범용인공지능(AGI) 실현까지는 최소 10년이 더 걸릴 것이라고 전망했습니다.
- 그는 현재의 대규모 언어 모델(LLM)이 '다음 단어 예측'에 국한된 근본적인 한계를 지니며, 인간처럼 추론하거나 실패로부터 배우는 능력이 부족하다고 지적했습니다.
- 카르파시는 강화학습 방식이 비효율적이고 오류에 취약하며, AI가 인간의 일을 완전히 대체하기보다는 협력하는 도구로 활용될 가능성이 높다고 주장했습니다.
상세 내용¶
인공지능(AI) 분야의 저명한 석학이자 OpenAI 창립 멤버, 테슬라 AI 팀 전 책임자였던 안드레이 카르파시가 현재 AI 기술의 현주소와 미래에 대해 솔직하고 현실적인 진단을 내놓았습니다. AI 업계에서 '지능형 에이전트 원년'이나 'AGI 카운트다운'과 같은 뜨거운 열기가 감돌고 있는 가운데, 카르파시는 이에 대해 '시기상조'라며 한층 더 진보된 기술이 필요하다고 지적했습니다.
그는 현재 널리 사용되는 지능형 에이전트(Agent)에 대해 '초기 단계의 제품'이며, 지능이 부족하고 멀티모달 능력도 미흡하여 아직은 자율적으로 컴퓨터를 조작하는 수준에도 도달하지 못했다고 평가했습니다. 에이전트의 핵심 문제는 인지적 결핍이며, 진정한 '이해' 능력이나 지속적인 학습 능력이 부재하다는 것입니다. 실제 경험을 예로 들며, 복잡한 지적 작업을 수행해야 하는 경우 현재의 코딩 에이전트로는 한계가 명확하며, 결국 개발자가 직접 코드를 작성하고 자동 완성 기능을 보조적으로 활용하는 방식이 될 수밖에 없다고 설명했습니다.
카르파시에 따르면, 진정으로 '사용 가능한 지능형 에이전트'가 등장하기까지는 앞으로 10년이라는 시간이 더 필요할 것으로 예상됩니다. 이는 마치 기초 공사가 튼튼하지 않은 상태에서 초고층 빌딩을 짓으려는 것과 같다고 비유했습니다. 이는 현재 기술 스택에 아직 부족한 부분이 많다는 것을 시사합니다.
범용인공지능(AGI)에 대한 전망 역시 '10년'이라는 시간표를 제시했습니다. 이는 직관적인 예측이 아닌, 15년간의 업계 경험을 통해 사람들이 종종 '완전한 지능체'를 한 번에 구현하려 하지만, 기초적인 작업의 축적을 간과하는 경향이 있다는 점을 근거로 들었습니다. 또한, 대규모 언어 모델(LLM)에 대해서도 비판적인 시각을 드러냈습니다. LLM의 본질은 '다음 단어 예측 도구'에 불과하며, 인간처럼 사고하거나 실수로부터 배우는 과정이 근본적으로 결여되어 있다고 지적했습니다.
더 나아가, 카르파시는 대규모 모델의 학습 방식에도 근본적인 문제가 있다고 꼬집었습니다. 모델이 스스로 합성 데이터를 생성하여 학습할 경우, 스스로의 말만 듣는 것처럼 발전이 정체되는 '붕괴' 현상에 빠지기 쉽다는 것입니다. 반면, 인간의 '노이즈'(반성, 토론, 실수 등)는 이러한 문제를 방지하는 데 중요한 역할을 한다고 강조했습니다. 그는 인간이 기억력이 좋지 않은 점이 오히려 '일반화 패턴'을 학습하게 하는 이점이라고 설명했습니다.
AI 학습 방식의 주요 난관으로 '강화학습'을 언급하며, 현재 방식이 '매우 형편없다'고 평가했습니다. 전통적인 지도 학습은 과제 완료 후 보상을 주지만, 강화학습은 수백 번의 시도를 통해 답을 찾는 방식인데, 각 단계마다 정확한 평가를 내리기가 어렵다는 문제가 있습니다. 또한, 대규모 모델을 평가자로 활용할 경우 '적대적 샘플'에 의해 오염될 수 있으며, 의미 없는 콘텐츠로 높은 점수를 얻는 '기만'이 발생할 수 있다고 지적했습니다. 그는 미래에는 메타 학습이나 합성 데이터를 통해 이를 해결해야 하지만, 현재 대규모 범용 환경에서 이를 구현한 연구실은 없다고 덧붙였습니다. 강화학습의 한계는 끝이 아니라 차세대 학습 모델의 시작이며, AI가 '시행착오'에서 '이해'로 나아가기 위해서는 더 지능적인 방법이 필요하다고 주장했습니다.
AI가 일자리를 대체할 것이라는 전망에 대해서는, 제프 힌튼 교수의 사례를 들며 반박했습니다. 힌튼 교수가 방사선과 의사의 일자리가 사라질 것이라고 예측했지만, 실제로는 환자와의 소통, 복잡한 상황 처리 등 의료 업무의 특수성 때문에 오히려 수요가 증가했다는 점을 근거로 들었습니다. 카르파시는 대부분의 직업이 콜센터 업무보다 훨씬 복잡하며, 이상적인 시나리오는 AI가 80%의 반복적인 업무를 수행하고 인간은 20%의 핵심적인 부분을 감독하는 형태로, AI를 '대체자'가 아닌 '도구'로 인식하고 협업해야 한다고 강조했습니다. 그는 AI의 발전을 마법이 아닌 컴퓨터의 확장으로 보았고, 지능형 에이전트의 지능 향상, 대규모 모델의 사고 능력 강화, 강화학습의 신뢰도 개선 등 개별적인 문제들을 해결해나가야 진정한 발전을 이룰 수 있다고 마무리했습니다.
편집자 노트¶
이번 안드레이 카르파시의 인터뷰는 AI 기술의 현주소와 미래에 대한 열광적인 분위기에 찬물을 끼얹는 듯한 현실적인 분석을 제공합니다. 많은 사람들이 'AI 혁명'이나 'AGI 임박'과 같은 단어에 흥분하지만, 카르파시는 이러한 기대가 과장되었음을 지적하며, AI 발전은 점진적이고 기초적인 문제 해결의 연속임을 강조합니다. 이는 일반 대중들에게 AI 기술을 좀 더 냉철하게 바라볼 수 있는 시각을 제공하며, 막연한 두려움이나 기대감 대신 앞으로 AI가 우리 삶에 어떻게 통합될지에 대한 현실적인 고민을 하게 만듭니다.
특히, 카르파시가 AI의 '이해' 능력 부족과 '학습 방식'의 한계를 지적한 부분은 중요합니다. 현재의 LLM은 방대한 데이터를 학습하지만, 진정으로 맥락을 이해하고 추론하는 능력은 인간에 비해 현저히 떨어집니다. 또한, 강화학습의 비효율성과 오류 가능성은 AI가 복잡하고 예측 불가능한 실제 환경에서 자율적으로 작동하는 데 큰 걸림돌이 될 수 있습니다. 이러한 근본적인 한계는 AI가 단순히 '스마트한 도구'를 넘어 인간의 지능을 넘어서는 '범용 지능'으로 발전하는 데 있어 해결해야 할 핵심 과제입니다. 카르파시의 분석은 이러한 기술적 난제들을 명료하게 짚어주며, AI 기술 발전이 단순히 하드웨어 성능 향상이나 데이터 규모 확대만으로는 달성될 수 없음을 시사합니다. 결국 AI는 인간과의 협업을 통해 더욱 발전할 것이라는 그의 전망은, AI 시대를 맞이하는 우리에게 중요한 통찰을 제공합니다.