콘텐츠로 이동

기술 억만장자들이 '종말 대비' 벙커를 짓는 이유는? AI 재앙은 과장인가

원제목: Ultra-wealthy prepping: Why are tech billionaires building doomsay bunkers?

핵심 요약

  • 일부 기술 분야 억만장자들이 AI 재앙, 기후 변화, 전쟁 등 미래의 위협에 대비해 벙커와 비밀 기지를 건설하거나 사들이고 있음은 사실임.
  • 전문가들은 현재의 AI 기술 수준으로는 인간 수준 또는 그 이상의 범용 인공지능(AGI)이 임박했다는 주장이 과장되었거나 마케팅의 일환일 가능성이 높다고 보고 있음.
  • AGI의 위험보다는 현재 AI 기술이 야기하는 편향, 허위 정보, 일자리 감소, 빅테크의 권력 집중 등 실질적인 문제에 더 집중해야 한다는 의견이 제기되고 있음.

상세 내용

최근 마크 저커버그, 샘 알트먼, 리드 호프먼 등 일부 유명 기술 분야 억만장자들이 자신들의 안전을 위해 벙커를 짓거나 비밀스러운 부지를 매입하며 '종말 대비'를 하고 있다는 소식이 전해져 세간의 궁금증을 자아내고 있습니다. 이러한 움직임은 AI, 기후 변화, 혹은 전쟁으로 인한 다가올 재앙에 대해 이들이 무언가 특별한 정보를 가지고 있는 것이 아닌가 하는 추측을 불러일으키고 있습니다. 그러나 BBC의 새로운 보고서에 따르면, 이러한 두려움은 실제 현실보다 과장되었거나 근거가 부족할 가능성이 높다고 지적합니다.

특히 범용 인공지능(AGI), 즉 인간과 동등하거나 그 이상의 지능을 가진 AI의 출현 가능성에 대한 논의는 실제로 그것이 임박했다기보다는 일종의 과장된 마케팅이나 홍보에 가깝다는 것이 전문가들의 중론입니다. 그럼에도 불구하고, 억만장자들은 외딴 지역의 안전한 주택이나 벙커에 '투자'하는 것을 멈추지 않고 있습니다. 예를 들어, 마크 저커버그는 하와이에 거대한 지하 벙커를 포함한 복합 단지를 건설 중인 것으로 알려졌지만, 그는 이를 '종말 대비 벙커'라고 부르는 것을 부인하고 있습니다. 링크드인의 창립자인 리드 호프먼 역시 뉴질랜드 등지에 '종말 보험'으로 소유한 부동산이 있다고 공개적으로 인정했습니다. 이러한 억만장자들의 행동은 자연스럽게 사회 붕괴, 기후 재앙, 또는 통제 불능의 AI로부터 자신들만은 안전하게 살아남으려는 시도로 대중의 추측을 자극하고 있습니다.

일부 실리콘밸리 내에서는, 첨단 AI를 개발하는 사람들 중에서도 이 기술이 어디로 향할지에 대해 진심으로 두려움을 느끼는 이들도 있습니다. OpenAI의 공동 창립자인 일리야 수츠케버는 'AGI를 출시하기 전에 반드시 벙커를 지을 것'이라고 말했다고 전해집니다. AGI의 잠재적 위험성을 경고하는 사람들은 AGI가 일단 존재하게 되면 예측 불가능하거나 통제하기 어려워 인류에게 위험할 수 있다고 주장합니다. 이러한 우려는 핵전쟁, 팬데믹, 기후 붕괴, 사회 불안 등 더 광범위한 시나리오와 결합되어, 부유한 이들이 호화로운 벙커에서 이러한 위기를 피해 갈 수 있을 것이라는 생각으로 이어지고 있습니다.

샘 알트먼, 데미스 하사비스, 다리오 아모데이와 같은 일부 기술 리더들은 10년 이내에 AGI가 도래할 수 있다고 믿는 반면, 사우샘프턴 대학교의 컴퓨터 과학 교수인 웬디 홀 교수는 이러한 예측을 단순한 과장이라고 일축합니다. 그녀는 BBC와의 인터뷰에서 우리가 진정한 인간 지능에 가까워지기까지는 아직 많은 기술적 돌파구가 필요하다고 말했습니다. 그녀는 현재의 AI 기술은 놀랍지만, 인간의 지능과는 거리가 멀며, 데이터를 분석하고 추론을 흉내 낼 수는 있어도 진정한 이해나 의식, 감정을 가지고 있지 않다고 설명했습니다. 따라서 'AGI가 임박했다'는 많은 이야기는 마케팅, 자기 홍보, 혹은 투자 유치를 위한 수단일 가능성이 높다고 지적합니다.

더욱이, AI 안전성 문제는 정부 차원에서도 엇갈린 대응을 보이고 있습니다. 미국은 바이든 행정부에서 AI 안전 테스트를 규제하려 했으나, 트럼프 행정부는 이를 혁신에 대한 장애물이라며 철회했습니다. 영국은 AI 위험을 연구하기 위해 AI 안전 연구소를 설립하는 등 각국이 AI에 대해 다양한 접근 방식을 취하고 있습니다. 일부 과학자들은 '초지능 AI'에 대한 논의가 이미 존재하는 편향, 허위 정보, 일자리 감소, 빅테크 기업으로의 권력 집중과 같은 보다 시급한 문제로부터 주의를 분산시킨다고 경고합니다. 닐 로렌스 교수는 'AGI'라는 용어 자체가 맥락에 따라 달라지는 지능의 특성상 무의미하다고 주장하며, 특정 종류의 '일반 지능'은 존재하지 않는다고 말합니다. 그는 마치 비행, 항해, 운전을 모두 똑같이 잘하는 '인공 일반 차량'을 상상하는 것과 같다고 비유하며, 이는 현실적이지 않다고 덧붙였습니다. 따라서 그는 판타지 수준의 AI를 걱정하기보다는, 현재 AI가 이미 사회, 경제, 권력 구조에 어떤 영향을 미치고 있는지에 집중해야 한다고 강조합니다. 궁극적으로 억만장자들의 '종말 대비'는 강력한 기술을 통제력을 잃을지도 모른다는 실제적인 두려움과 부와 신중함을 과시하는 일종의 지위 과시가 혼합된 것으로 보입니다. 과학계의 일반적인 합의는 AGI와 '초지능'이 가까운 미래에 도래할 가능성은 낮으며, 우리는 벙커를 필요로 하기보다는 현재 AI가 사회를 어떻게 변화시키고 있는지에 대해 더 걱정해야 한다는 것입니다.


편집자 노트

기술계의 슈퍼 부자들이 자신들의 안전을 위해 벙커를 짓는다는 이야기는 단순한 흥미거리를 넘어, 우리 사회가 첨단 기술, 특히 AI의 발전에 대해 얼마나 깊은 불안감을 가지고 있는지를 보여주는 단면입니다. 많은 사람들이 'AI가 인간을 대체하거나 통제하지는 않을까?' 하는 막연한 두려움을 느끼고 있는데, 이러한 억만장자들의 행동은 이러한 불안감을 더욱 증폭시키는 것처럼 보일 수 있습니다.

하지만 이 기사는 이러한 불안감이 현재 기술 수준에서는 다소 과장되었을 수 있음을 시사합니다. AI 전문가들은 인간 수준의 범용 인공지능(AGI)이 당장 눈앞에 닥친 현실이라기보다는, 아직은 먼 미래의 이야기이거나 기술 발전을 가속화하기 위한 마케팅 수단으로 활용되고 있다고 보고 있습니다. 즉, 'AI 재앙'이라는 드라마틱한 시나리오보다는, 현재 우리가 이미 마주하고 있는 AI의 사회적, 윤리적 문제들에 더 주목해야 한다는 점이 중요합니다. 예를 들어, AI의 편향성 문제로 인한 차별, 딥페이크와 같은 기술을 이용한 허위 정보 유포, 혹은 AI 발전에 따른 일자리 감소 등이 우리 삶에 더 직접적인 영향을 미치고 있습니다.

결론적으로, 이 기사는 억만장자들의 벙커 건축이 그들이 실제로 다가올 종말을 예측하기보다는, 불확실한 미래에 대한 투자이자 동시에 부와 영향력을 과시하는 하나의 수단일 수 있다고 분석합니다. 우리 일반 대중에게는 이러한 뉴스가 AI에 대한 과도한 공포심을 조장하기보다는, 현재 AI 기술의 한계와 우리가 실질적으로 대응해야 할 문제들에 대한 균형 잡힌 시각을 갖도록 돕는 계기가 될 것입니다. AI 기술은 계속 발전하겠지만, 그 방향성을 우리가 어떻게 설정하느냐에 따라 미래는 달라질 것입니다. 벙커보다는 현명한 규제와 사회적 합의가 우리에게 더 필요한 이유입니다.



원문 링크