현재의 인공지능(AI, Artificial Intelligence)은 인간이 직접 수행하거나 판단하기 어려운 영역인 공장의 인공지능 자동화 설비에서부터 의료용까지 다양하게 생활 전반에 적용되고 있다.
AI가 향후 스스로 학습하며 사람처럼 감정을 갖게 된다면 발생할 부작용과 관련하여 각 국가에서 인공지능 윤리에 대해 많은 연구를 진행하고 있다.
영국의 천재 물리학자 스티븐 호킹 박사는 “인공지능 기계의 개발이 금세기 내 인류에게 주요한 위협이 될 것이며 완전한 인공지능은 인류의 종말을 가져올 수도 있을 것”이라면서 “인공지능이 인간의 지능을 초월하게 되는 시점은 2045년”이라고 주장한 바 있으나 이 현상은 더 빨라질 가능성도 배제하기 힘들다.
영화 ‘2001 스페이스 오디세이’에서 인간에게 종속된 인간 친화적 인공지능 로봇이 인간이 자신을 제거하려 하자 반란을 일으킨다. 이렇듯 미래에는 인간에 의해 개발된 인공지능 로봇 등이 인간의 통제수준을 넘을 가능성도 충분히 있다고 본다.
미래를 확실하게 예측할 수는 없으나 인공지능의 발전은 계속될 수밖에 없을 것으로 보인다. 세계 주요 기업들이 경쟁하며 개발에 몰두하고 있는 가운데 군사강대국 간 인공지능을 활용한 자율무기의 연구와 개발도 활발하게 진행되고 있다.
그러나 인공지능을 결합한 자율무기의 개발은 재앙이라며 개발을 금지해야 한다는 우려의 목소리가 커지고 있다.
자율무기란 국가별로 정의에 약간의 차이가 있으나, 자동차의 자율주행 시스템처럼 운전자가 탑승하고 어느 정도 개입한 자율운전이냐, 운전자 탑승 없이 완전한 자율주행 시스템이냐 하는 것처럼 인간의 개입 없이 인공지능이 스스로 판단하며 작전을 수행할 수 있는 무기체계를 말한다.
인간의 통제를 벗어날 정도로 발전된 인공지능이라면 과거의 알파고와 같이 머신러닝을 통해 바둑만 잘 두면 되는 것이 아니라, 인간처럼 다양한 분야를 학습해 스스로 판단하고 여러 가지 임무를 동시에 수행할 수 있는 수준일 것이다. 범용 인공지능인 AGI(Artificial General Intelligence)가 더욱 발전되면서 인간처럼 똑같이 스스로 목표를 설정하고 판단하며 임무를 수행하는 초인공지능 ASI(Artificial Super Intelligence) 정도일 것으로 보인다.
러시아는 해안도시를 초토화하도록 핵탄두 장착이 가능한 인공지능 자율 어뢰를 개발하고 있는 것으로 알려져 있고, 다른 군사강대국들 역시 인공지능 자율무기 개발에 혈안이 돼 있다.
자율적 인공지능에 살상무기가 결합돼 전쟁에 투입된다면 많은 사상자가 발생할 것은 분명하다. 자율무기가 전쟁 현장에 투입된 이후부터 인간이 개입되지 않고 적군을 찾아 제거한다면 핵무기보다 무서운 살상무기가 될 것이다.
예를 들어 원격조종을 해야 하는 드론보다 더 발전해 수천, 수만 대의 소형 자율드론에 무기를 장착하고 피아식별이 가능한 알고리즘을 통해 적군을 식별시켜 모조리 살상할 수도 있는 무서운 무기가 되는 것이다.
자율무기가 인간을 대체한다면 장점으로는 발견된 적을 즉시 사살하는 빠른 의사결정과 정밀한 타격목표 설정 및 판단능력으로 에너지와 무기가 고갈되기 전까지 지속적으로 적을 무력화시킬 수 있다.
단점으로는 너무 빠른 의사결정으로 오류 가능성이 있고 적군과 민간인을 구분할 수 있는지 여부, 변칙적 알고리즘의 변화 등이 있으며, 인간인 지휘관 등 의사결정자들의 능력이 저하될 가능성도 있다.
현재 미국과 중국, 러시아 등에서 개발되고 있는 자율무기의 형태는 전투용 로봇과 차량용, 드론 등 다양하다.
인간을 사살할 수 없도록 프로그래밍 되어 개발된 로봇의 경우, 넘어뜨리거나 강제로 회전을 시키더라도 표적에 백발백중 사격술을 자랑하고 있기 때문에 프로그래밍을 수정하면 살상이 가능한 킬러로봇으로 변신이 가능하다. 결국 군사 강대국들은 자율무기에 대한 속셈을 따로 갖고 있다고 봐야 한다.
이러한 자율무기 연구기술이나 자율무기가 유출되어 적국이나 테러지원국 또는 테러단체에 들어갈 경우 그 위험성은 예측할 수 없을 것이다.
우리나라의 경우 방산업체에서 인공지능을 결합한 지능형 다목적 무인차량과 무인수색 차량, 원격사격통제체계, 자율잠수정 등이 개발되고 있으나, 킬러로봇이라는 살상용 자율무기의 개발계획은 현재까지 없는 것으로 알려져 있다.
‘국방혁신 4.0’ 계획에 맞춰 인공지능 기반의 과학기술 강군육성 목표로 향후 인공지능과 결합된 각종 시스템의 도입 및 지능형 지휘결심체계(AI 참모)와 자율형 무인전투체계 등이 도입될 전망이다. 자주국방을 위해 향후 국제적 추세에 맞춰 윤리적 문제가 없는 자율무기 개발은 계속해야 한다고 생각한다.
UN에서는 자율무기 금지와 규제방법 등이 지속 논의 중이며, 특정재래식무기금지유엔협약(CCW)의 경우 당사국 전체가 참여하는 자율살상무기 정부전문가그룹이 운영되고 있어 참여 국가들과 신뢰구축 및 군사적 동맹국과 기술협력도 필요한 때이다.
지구온난화, 식량부족, 코로나19와 같은 전염병 발생 등에 대해 모든 국가가 협력해 대응해야 할 상황에서 인공지능 기술의 발달은 인간에게 큰 도움이 된다. 우주개발과 지구의 환경보호 등 인류 전체가 향후 공동으로 번영할 수 있는 것에 AI 기술이 적용되길 희망한다.
<류원호 논설위원 약력>
- 국민대학교 법무대학원 겸임교수
- 세종대학교 정보보호학과 겸임교수
- 한국항공우주정책·법학회 이사
- 한국정보기술전략혁신학회 전문위원
- 디지털혁신과미래포럼 자문위원
