AI 선구자 벵기오, 힌튼, '초지능' 개발 금지 서명… 미래 통제권 확보 촉구¶
원제목: Canadian AI pioneers Yoshua Bengio and Geoffrey Hinton join global call to ban ... - BetaKit
핵심 요약
- AI 분야의 세계적인 선구자인 요슈아 벵기오와 제프리 힌튼이 '초지능' 개발 금지를 촉구하는 공개 서한에 동참했음을 알림.
- 이번 공개 서한은 AI 기업들이 인류의 지능을 능가하는 '초지능' 개발을 가속화함에 따라 발생할 수 있는 경제적, 안보적, 실존적 위험을 경고하고 있음을 강조함.
- 안전하고 통제 가능한 AI 개발에 대한 광범위한 과학적 합의와 대중의 강력한 참여가 선행되어야 한다는 점을 핵심 요구사항으로 제시하고 있음을 설명함.
상세 내용¶
인공지능(AI) 분야의 저명한 선구자인 캐나다의 요슈아 벵기오와 제프리 힌튼이 '초지능' 개발을 금지해야 한다는 국제적인 움직임에 동참했습니다. 이들은 AI가 인간의 모든 인지 능력을 뛰어넘는 '초지능'으로 발전할 경우 발생할 수 있는 심각한 위험에 대한 우려를 표명했습니다. 벵기오와 힌튼은 이미 인공 일반 지능(AGI), 즉 AI가 다양한 분야에서 인간 수준의 지능을 달성하는 가상적인 미래 시나리오에 대해 오래전부터 위험성을 경고해 왔습니다. 이번 공개 서한은 인류의 집단적 미래를 형성할 결정에 대해 대중이 훨씬 더 강력한 발언권을 가져야 한다는 점을 강조하고 있습니다.
퓨처 오브 라이프 인스티튜트(Future of Life Institute)가 주관한 이 공개 서한에는 현재까지 1,500명 이상의 저명 인사들이 서명했습니다. 여기에는 컴퓨터 과학자, 정치인, 종교 지도자, 예술가 등 다양한 분야의 전문가들이 포함되어 있습니다. 서명자들은 많은 선도적인 AI 기업들이 향후 10년 내에 거의 모든 인지 작업에서 인간을 훨씬 능가하는 초지능을 개발하는 것을 목표로 하고 있다고 지적했습니다. 이러한 목표는 인간의 경제적 불필요, 권력 상실, 자유 및 존엄성 침해, 안보 위험, 심지어 인류 멸종 가능성까지 포함한 광범위한 우려를 야기하고 있습니다.
이들은 초지능 개발을 '안전하고 통제 가능하며, 대중의 강력한 지지를 얻을 수 있다는 광범위한 과학적 합의'가 이루어질 때까지 금지할 것을 촉구하고 있습니다. 벵기오 교수는 올해 초 에이전트 AI 시스템을 위한 안전 장치를 구축하기 위해 비영리 단체 LawZero를 설립했으며, 이 단체의 많은 기여자들과 벵기오가 설립한 AI 연구소 Mila의 회원들도 이번 서한에 서명했습니다.
벵기오 교수는 서명과 함께 "초지능을 향해 안전하게 나아가기 위해서는 오작동이나 악의적인 사용을 통해 사람들을 해칠 수 없는 AI 시스템을 근본적으로 설계하는 방법을 과학적으로 결정해야 한다"고 강조했습니다. 그는 또한 "우리의 집단적 미래를 형성할 결정에 대해 대중이 훨씬 더 강력한 발언권을 갖도록 해야 한다"고 덧붙였습니다. 힌튼 교수 또한 AI 시스템에 대한 선구적인 연구로 노벨상을 수상한 인물로, 최근 몇 년간 AI 개발에 대한 제한을 요구하며 벵기오 교수와 함께 목소리를 내왔습니다.
이 공개 서한에는 힌튼과 벵기오 외에도 전 캐나다 문화부 장관, Mila의 CEO, 유명 뮤지션인 그라임스 등 수십 명의 캐나다 인사들이 참여했습니다. 또한 스티브 워즈니악(애플 공동 창업자), 리처드 브랜슨(버진 그룹 창업자), 해리 왕자 부부, 배우 스티븐 프라이와 조셉 고든 레빗 등 예상치 못한 다양한 분야의 인사들이 서명 대열에 합류했습니다. 힌튼 교수는 노벨상 수상 연설에서도 기술 기업들이 '단기적인 이익'을 좇고 있다고 비판하며 AI 안전 위험에 대처하기 위한 '긴급하고 강력한 관심'을 촉구한 바 있습니다.
편집자 노트¶
이번 뉴스는 단순히 몇몇 유명 학자들이 AI의 미래에 대해 걱정한다는 차원을 넘어섭니다. 우리 일상생활과 직결될 수 있는 인공지능, 특히 우리보다 훨씬 뛰어난 능력을 가진 '초지능'의 등장이 얼마나 심각한 문제로 인식되고 있는지를 잘 보여주는 사례입니다. 제프리 힌튼, 요슈아 벵기오 같은 AI 분야의 '대부'들이 직접 나서서 개발 금지까지 촉구한다는 것은, 이들이 단순히 기술 발전을 넘어 인류의 존립에 위협이 될 수 있는 잠재적 위험을 심각하게 보고 있다는 증거입니다.
핵심은 '초지능'이라는 개념입니다. 현재 우리가 접하는 AI는 특정 작업에 특화된 '좁은 AI'지만, '초지능'은 인간의 모든 지적 능력을 뛰어넘는 범용적인 능력을 갖춘 AI를 의미합니다. 이는 마치 인류가 스스로를 통제할 수 없는 강력한 존재를 만들어내는 것과 같다고 볼 수 있습니다. 따라서 이들 선구자들은 기술 발전 자체를 막으려는 것이 아니라, 이러한 초지능이 '안전하게' 개발되고 '통제 가능'하며 '대중의 동의'를 얻어야 한다는 강력한 메시지를 던지고 있습니다. 이는 AI 기술 발전의 속도만큼이나, 혹은 그 이상으로 '안전'과 '윤리'에 대한 논의가 시급함을 시사합니다.
앞으로 우리는 AI 기술 발전에 대한 윤리적, 사회적 논의가 더욱 활발해지는 것을 보게 될 것입니다. 또한, AI 기술을 개발하는 기업뿐만 아니라 정부, 국제기구, 시민 사회 모두가 AI의 미래 방향성을 결정하는 데 더 깊이 관여하게 될 가능성이 높습니다. 이번 공개 서한은 단순히 경고를 넘어, AI의 미래를 우리가 어떻게 만들어갈 것인지에 대한 근본적인 질문을 던지고 있으며, 이러한 논의는 우리 사회 전반에 걸쳐 중요한 영향을 미칠 것입니다.