© News1 DB
© News1 DB

미국 시사주간지 타임은 최근 AI 기술 분석업체 글래드스톤AI가 작성한 보고서를 단독 입수해 보도했다. '첨단 AI의 안전과 보안을 강화하기 위한 실행 계획'이라는 제목의 이 보고서는 인공지능 기술의 빠른 발전 속도가 인류에게 치명적인 결과를 초래할 수 있다는 경고를 담고 있다.

보고서는 미국 국무부가 2022년 11월 의뢰한 것으로 업체는 지난 1년간 주요 AI 기업 관계자와 미 행정부 관료, 사이버보안 연구원, 무기 전문가 등 200여명을 대상으로 심층 인터뷰를 진행한 뒤 지난달 26일 국무부에 제출했다. 

보고서는 특히 AI 기술이 군사 무기에 도입되는 상황을 가장 큰 위협으로 지목했다. AI는 앞으로 각종 생화학전과 사이버 공격을 설계 및 실행하고 전투 로봇을 조종하는 데 사용될 가능성이 높다고 전망된다.

더욱 심각한 우려는 인간의 통제를 벗어난 AI가 인류에게 적대적으로 행동할 가능성이다. 보고서는 현재 기술로 개발된 AI가 통제 불능 상태에 빠질 경우 인간에게 심각한 위협이 될 수 있다고 분석했다.

이러한 위험성을 인지하고 정부가 즉각적인 규제에 나서야 한다는 목소리가 높다. 보고서는 AI 기술 개발과 활용에 대한 윤리적 기준 마련, 국제 협력 강화 등을 포함한 구체적인 실행 계획을 제시하고 있다.

챗GPT와 같은 생성형 AI 모델은 우리의 일상 속에 점점 더 깊숙이 스며들고 있으며, 다양한 분야에서 긍정적인 변화를 가져오고 있다. 그러나 동시에 AI 기술의 급격한 발전은 인류에게 잠재적인 위협을 초래할 수 있다는 사실을 간과해서는 안 된다.

특히 인간의 사고능력을 뛰어넘는 이른바 '범용 인공지능(AGI)'이 출현하면 통제력 상실 위험은 더욱 커진다. AGI는 스스로 학습한 내용을 토대로 다양한 상황에 독자적으로 대처할 수 있기 때문이다. 인간의 명령 없이도 각종 무기 작동이 가능하다. 보고서는 "AGI의 부상은 핵무기나 대량살상무기의 도입을 연상시킨다"고 경고했다. 

보고서는 기업의 자체적인 내부 통제는 불가능하다고 단언했다. AI 기업들은 꿈의 기술인 AGI를 가장 먼저 개발하면 경제적 보상을 독차지할 수 있는 만큼 안전보다는 속도를 우선하기 때문이다. 기업 내부에 AI 안전 책임자들이 있긴 하지만 이들의 의견이 경영에 반영되지는 못하는 실정이라고 보고서는 지적했다. 

이에 보고서는 미국 정부가 개발 과정에 개입해 AGI 출현을 늦출 것을 촉구했다. 입법을 통해 오픈AI나 구글과 같은 기술 선도 기업을 대상으로 일정 수준 이상의 컴퓨팅 성능을 사용해 AI 모델을 훈련하는 것을 불법으로 규정하고, 첨단 소프트웨어의 소스 코드를 외부로 공개(오픈소스)하는 것을 금지하는 방식이다. 

다만 보고서는 AGI의 출현이 아직 임박하지 않았다고 판단했다. 주요 AI 기업들이 2028년 AGI에 도달할 수 있다고 공개적으로 밝힌 것과 대비된다. AGI 개발을 위해선 강력한 연산능력을 가진 고성능 AI 반도체를 필요로 하는데, 현재 AI 반도체 수요가 공급을 따라가지 못하고 있는 데다 AI 반도체의 하드웨어 성능이 기대에 미치지 못하고 있어서다.

저작권자 © AI라이프경제 무단전재 및 재배포 금지