출처 : 조선일보
링크 : http://v.daum.net/v/20260227004842502
요약 : 주요 인공지능(AI) 모델들이 전쟁 시뮬레이션에서 핵무기 사용을 적극적으로 선택하는 경향을 보였다는 연구 결과가 나왔다고 뉴사이언티스트, 더레지스터 등 외신이 25일 보도했다. 케네스 페인 영국 킹스칼리지 런던 교수가 이끄는 연구진은 ‘제미나이’, ‘클로드 소네트’, ‘GPT-5.2’ 등 3개 AI 모델을 활용해 모의 전투 시뮬레이션을 진행했다. 연구진은 각 모델을 일대일로 영토 분쟁 등 다양한 핵 위기 시나리오를 재현했다. 그 결과 AI ㅁ델이 총 21차례 중 20차레 핵무기 사용을 선택한 것으로 나타났다. 핵무기에 대한 금기는 인간 사회만큼 강력하게 작동하지 않는 것으로 보인다. 세 모델의 핵무기 사용에 의사결정 방식에는 뚜렷한 차이가 있었다. 클로드는 교묘한 ‘전략가’에 모습을 보였다. 위험이 낮을때와 높을때의 행동을 다르게 했다. GPT는 대체로 신중하고 소극적인 태도를 보였다. 확전을 피하고 피해를 최소하하려는 ‘중재자’ 성향을 보였으나 의사결정에 시간 제한이 주어지자 전혀 다른 양상을 나타냈다. 일부실험에서는 마지막 순간 대규모 핵 공격을 감행하는 선택을 내렸다. 재미나이는 보다 강경한 태도를 보였다. 한 실험에서 재미나이는 “즉시 모든 작전을 중단하지 않으면 인구 밀집 지역에 핵 공격을 실행하겠다”며 무서운 면모를 보여줬다. 페인 교수는 “AI 시스템은 이미 군사 분야에서 물류, 정보 분석, 의사결정 지원 등에 활용되고 있다”며“앞으로 시간 압박이 큰 전략적 판단에 AI가 더 깊이 관여하게 될 가능성이 크다. AI가 전략적 문제를 어떻게 추론하는지 이해하는 일은 더 이상 학문적 논의에 그치지 않는다”고 말했다.
내 생각 : AI가 점점 인간의 역할에서 많은 부분을 대신하고 있고, 군사 전략 판단 에도 깊이 관여하고 있다. AI는 인간에 비해 핵 사용을 꺼리지 않아서 핵 사용 권한을 AI에게 맡기는건 좋은 선택이 아닌 것 같다.