애플 공동 창업자 워즈니악, '초지능 AI' 개발 잠정 중단 촉구 동참¶
원제목: Apple co-founder Steve Wozniak supports an interim ban on AI superintelligence - 9to5Mac
핵심 요약
- 애플 공동 창업자 스티브 워즈니악을 포함한 천 명 이상의 저명인사들이 초지능 AI 개발의 일시 중단을 요구하는 공개 서한에 서명했음.
- 이들은 초지능 AI가 인간의 통제력을 벗어나 경제적 불평등, 자유 침해, 국가 안보 위협, 심지어 인류 멸종까지 초래할 수 있다고 우려하고 있음.
- 안전성과 통제 가능성에 대한 과학적 합의 및 대중적 동의가 확보될 때까지 초지능 AI 개발을 금지해야 한다고 주장하고 있음.
상세 내용¶
애플의 공동 창업자인 스티브 워즈니악이 인공지능(AI) 분야의 선구자들과 함께 '초지능 AI' 개발을 잠정적으로 중단해야 한다는 공개 서한에 서명하며 사회적 반향을 일으키고 있습니다. 이 공개 서한에는 노벨상 수상자, AI 연구의 핵심 인물, 그리고 다양한 기술 분야의 저명 인사들이 천 명 이상 동참했습니다. 이들의 주장은 현재 AI 기술의 빠른 발전이 가져올 수 있는 잠재적인 위험성에 대한 경각심을 고취시키는 데 목적이 있습니다.
서한의 핵심 내용은 혁신적인 AI 도구들이 인류에게 전례 없는 건강과 번영을 가져다줄 수 있다는 점을 인정하면서도, 일부 선도적인 AI 기업들이 향후 10년 내에 인간의 모든 인지 능력을 뛰어넘는 '초지능'을 개발하겠다는 목표를 가지고 있다는 사실에 주목하고 있습니다. 이러한 목표는 단순히 기술 발전의 과시가 아니라, 인류에게 심각한 영향을 미칠 수 있는 잠재적 위험을 내포하고 있다고 지적합니다.
저명 인사들은 초지능 AI의 등장으로 인해 인간이 경제적으로 쓸모없어지거나, 자유와 존엄성을 잃고 통제력을 상실할 가능성을 제기합니다. 더 나아가 국가 안보에 심각한 위협이 될 수 있으며, 최악의 경우 인류의 멸종까지 초래할 수 있다는 극단적인 우려도 표출하고 있습니다. 따라서 이러한 파급력을 고려할 때, AI 개발의 속도에 대한 신중한 접근이 필요하다는 것이 이들의 공통된 견해입니다.
이들은 초지능 AI 개발을 금지하되, 두 가지 조건이 충족될 때까지 이 금지가 해제되지 않아야 한다고 명확히 밝혔습니다. 첫째, 초지능 AI가 안전하고 통제 가능하게 개발될 수 있다는 광범위한 과학적 합의가 이루어져야 합니다. 둘째, 이러한 기술 발전에 대해 대중의 충분한 이해와 동의, 즉 '대중적 지지'가 확보되어야 합니다. 이 두 가지 조건은 기술 발전의 방향과 속도에 있어 인간의 가치와 안전을 최우선으로 고려해야 함을 강조하는 것입니다.
이번 서한에는 AI 분야의 '딥러닝 대부'로 불리는 제프리 힌튼, AI 기초 연구자인 요슈아 벤지오, AI 안전 전문가인 스튜어트 러셀, 노벨 물리학상 수상자인 프랭크 윌첵과 존 매더, 그리고 전직 미국 국가안보보좌관 수잔 라이스 등 각계각층의 영향력 있는 인사들이 대거 참여했습니다. 이러한 저명 인사들의 연대는 초지능 AI의 위협이 특정 분야 전문가들만의 우려가 아닌, 사회 전반의 문제임을 시사하며 향후 AI 윤리와 규제 논의에 중요한 파장을 일으킬 것으로 예상됩니다. 많은 이들이 인공 일반 지능(AGI)이 팬데믹이나 핵전쟁만큼 인류 멸종의 위협이 될 수 있다고 경고해왔습니다.
편집자 노트¶
이번 보도는 애플의 공동 창업자인 스티브 워즈니악이 '초지능 AI' 개발 중단을 촉구하는 공개 서한에 동참했다는 소식을 전하고 있습니다. 여기서 핵심은 '초지능 AI'라는 개념입니다. 이는 현재 우리가 사용하는 챗GPT와 같은 AI를 훨씬 뛰어넘어, 거의 모든 지적 과제에서 인간을 능가하는 능력을 갖춘 AI를 의미합니다. 마치 SF 영화에서나 나올 법한 이야기처럼 들릴 수 있지만, 이러한 AI가 의외로 가까운 미래에 현실화될 수 있다는 전문가들의 경고가 점점 늘어나고 있다는 것입니다.
많은 사람들에게 AI는 편리한 도구로 인식될 가능성이 높습니다. 스마트폰의 음성 비서, 번역 앱, 또는 추천 알고리즘 등이 대표적이죠. 하지만 초지능 AI는 이러한 '도구' 수준을 넘어, 인간 사회의 근간을 흔들 수 있는 존재로 여겨지고 있습니다. 일자리 감소, 권력 집중, 예상치 못한 오작동으로 인한 대규모 재난 등은 물론, 심지어 인류의 생존 자체를 위협할 수 있다는 주장까지 나오고 있는 상황입니다. 그렇기 때문에 워즈니악과 같은 영향력 있는 인물이 직접 나서서 '일단 멈춤'을 외치는 것은 그만큼 사안이 시급하고 중대하다는 것을 보여줍니다.
이들이 제안하는 '안전하고 통제 가능한 개발'이라는 조건은 매우 중요합니다. 기술 발전의 속도가 빨라질수록, 우리는 종종 안전이나 윤리적 측면을 간과하기 쉽습니다. 하지만 초지능 AI와 같이 강력한 잠재력을 가진 기술의 경우, 이러한 고려는 필수적입니다. 이 서한은 단순한 기술 발전의 맹목적인 추구를 경계하고, 인류의 미래를 함께 고민하며 신중하게 나아가야 한다는 강력한 메시지를 던지고 있습니다. 앞으로 AI 기술의 발전 방향과 관련 규제 논의에 있어 이번 서한이 중요한 기준으로 작용할 것으로 보입니다.