AI가 핵전쟁 위험에 미칠 영향 (이혜인)
인공 지능, 즉 AI가 불과 20여년 안에 핵전쟁을 일으킬 수 있다는 경고가 제기됐습니다. 지난 25일 미국 싱크탱크인 랜드코퍼레이션은 ‘AI가 핵전쟁 위험에 미칠 영향’이라는 제목의 보고서를 통해 AI가 2040년까지 핵전쟁을 촉발할 수 있다고 분석했습니다.
핵무기는 워낙 파괴력이 크다 보니 사실상 전쟁 억지 수단의 역할을 해왔는데, AI나 기계에 학습 능력을 부여하는 머신-러닝 기술은 오히려 전쟁을 부추긴다는 겁니다.
예를 들어 센서 기술이 발전할수록 핵공격 수단이 되는 잠수함이나 이동식 발사대 등에 민감하게 반응하기 때문에, 선제공격을 유도할 가능성도 커지는 겁니다. 그래서 드론을 비롯한 살상용 로봇, 이른바 ‘킬러 로봇’보다, 이 AI를 활용해 군사행동을 결정하는 것이 더 위험하다는 주장입니다.
보고서를 작성한 앤드류 론은 AI 의존도가 높아지면서 전쟁의 가능성도 커졌다고 경고하며, 핵보유국들이 핵전쟁 위험을 제한하는 기구를 만드는 데 동참해야 한다고 조언했습니다. 테슬라 CEO인 엘론 머스크도 러시아 푸틴 대통령의 발언을 인용하며 국가 차원의 AI 기술 경쟁이 3차 세계대전을 일으킬 수 있다고 경고했습니다.
(SOV) 블라디미르 푸틴 / 러시아 대통령
AI(인공 지능)는 러시아뿐만 아니라 모든 인류의 미래입니다. 엄청난 기회가 될 수도 있지만, 동시에 예측하기 어려운 위협도 존재합니다. 따라서 이 영역에서 우위를 차지하는 자가 곧 세계를 통치할 겁니다.
AI의 위험성과 관련해 가장 유명한 사례는 바로 1983년 핵 알람 사탭니다. 미소 냉전이 한창이던 1983년, 당시 소련군 소속으로 인공위성 조기 경보 시스템을 관리하던 스타니슬라프 페트로프는 미국이 대륙간탄도미사일을 소련으로 발사했다는 비상경보를 받습니다. 상부에 즉시 보고해 보복 대응 여부를 결정해야 했지만, 페트로프는 위성이 오작동했다는 결론을 내립니다.
사실은 위성이 구름에 반사된 햇빛을 미사일로 잘못 인식한 것이었고, 페트로프는 인류를 핵전쟁에서 구한 영웅이 됐습니다. 지난 3월 별세한 물리학자 스티븐 호킹 박사는 일찍이 AI와 결합한 스마트 무기의 사용을 경계하며, AI 시스템이 반드시 인류의 의지를 따르게 해야 한다고 경고한 바 있는데요. 현실적으로 AI가 핵보다 훨씬 강력한 비대칭 무기가 될 것이라는 점, 그리고 AI 무기가 없을 시 국제 사회의 군비 경쟁에서 뒤쳐질 것이라는 점은 무시할 수 없는 사실입니다.
하지만 호킹 박사의 말처럼, 어떤 경우에도 사람을 공격하고 죽이는 결정 권한을 AI에 넘겨서는 안 됩니다. 인간이 통제권을 포기하고 기계에 생사 결정을 맡기는 것이야말로 진짜 실질적인 위협이 될 테니까요.
주간 세계의 군사, 이혜인입니다.
인공 지능, 즉 AI가 불과 20여년 안에 핵전쟁을 일으킬 수 있다는 경고가 제기됐습니다. 지난 25일 미국 싱크탱크인 랜드코퍼레이션은 ‘AI가 핵전쟁 위험에 미칠 영향’이라는 제목의 보고서를 통해 AI가 2040년까지 핵전쟁을 촉발할 수 있다고 분석했습니다.
핵무기는 워낙 파괴력이 크다 보니 사실상 전쟁 억지 수단의 역할을 해왔는데, AI나 기계에 학습 능력을 부여하는 머신-러닝 기술은 오히려 전쟁을 부추긴다는 겁니다.
예를 들어 센서 기술이 발전할수록 핵공격 수단이 되는 잠수함이나 이동식 발사대 등에 민감하게 반응하기 때문에, 선제공격을 유도할 가능성도 커지는 겁니다. 그래서 드론을 비롯한 살상용 로봇, 이른바 ‘킬러 로봇’보다, 이 AI를 활용해 군사행동을 결정하는 것이 더 위험하다는 주장입니다.
보고서를 작성한 앤드류 론은 AI 의존도가 높아지면서 전쟁의 가능성도 커졌다고 경고하며, 핵보유국들이 핵전쟁 위험을 제한하는 기구를 만드는 데 동참해야 한다고 조언했습니다. 테슬라 CEO인 엘론 머스크도 러시아 푸틴 대통령의 발언을 인용하며 국가 차원의 AI 기술 경쟁이 3차 세계대전을 일으킬 수 있다고 경고했습니다.
(SOV) 블라디미르 푸틴 / 러시아 대통령
AI(인공 지능)는 러시아뿐만 아니라 모든 인류의 미래입니다. 엄청난 기회가 될 수도 있지만, 동시에 예측하기 어려운 위협도 존재합니다. 따라서 이 영역에서 우위를 차지하는 자가 곧 세계를 통치할 겁니다.
AI의 위험성과 관련해 가장 유명한 사례는 바로 1983년 핵 알람 사탭니다. 미소 냉전이 한창이던 1983년, 당시 소련군 소속으로 인공위성 조기 경보 시스템을 관리하던 스타니슬라프 페트로프는 미국이 대륙간탄도미사일을 소련으로 발사했다는 비상경보를 받습니다. 상부에 즉시 보고해 보복 대응 여부를 결정해야 했지만, 페트로프는 위성이 오작동했다는 결론을 내립니다.
사실은 위성이 구름에 반사된 햇빛을 미사일로 잘못 인식한 것이었고, 페트로프는 인류를 핵전쟁에서 구한 영웅이 됐습니다. 지난 3월 별세한 물리학자 스티븐 호킹 박사는 일찍이 AI와 결합한 스마트 무기의 사용을 경계하며, AI 시스템이 반드시 인류의 의지를 따르게 해야 한다고 경고한 바 있는데요. 현실적으로 AI가 핵보다 훨씬 강력한 비대칭 무기가 될 것이라는 점, 그리고 AI 무기가 없을 시 국제 사회의 군비 경쟁에서 뒤쳐질 것이라는 점은 무시할 수 없는 사실입니다.
하지만 호킹 박사의 말처럼, 어떤 경우에도 사람을 공격하고 죽이는 결정 권한을 AI에 넘겨서는 안 됩니다. 인간이 통제권을 포기하고 기계에 생사 결정을 맡기는 것이야말로 진짜 실질적인 위협이 될 테니까요.
주간 세계의 군사, 이혜인입니다.
- Category
- 다큐멘터리 - Documentary
Sign in or sign up to post comments.
Be the first to comment