구글 AI 챗봇 '제미니' 모델은 역사적 인물에 대한 부정확한 묘사를 생성해 AI 편향성 문제의 심각성을 드러냈다. [뉴스1]
구글 AI 챗봇 '제미니' 모델은 역사적 인물에 대한 부정확한 묘사를 생성해 AI 편향성 문제의 심각성을 드러냈다. [뉴스1]

AI, 인간의 편견까지 복제한다?

인공지능(AI)과 머신러닝(ML) 모델의 발전은 사회 전반에 걸쳐 긍정적인 영향을 미치고 있지만, 동시에 해결해야 할 중요한 과제가 등장하고 있다. 바로 AI 편향성 문제이다.

최근 구글의 새로운 대화 모델 제미니(Gemini 구.바드)는 역사적 인물에 대한 부정확한 묘사를 생성해 AI 편향성이 실제로 발생할 수 있다는 것을 여실히 보여주었다. 이 사건은 AI 개발자의 책임, 기업들의 노력, 그리고 아직 해결해야 할 과제를 조명하는 계기가 됐다.

AI 편향성은 인간 사회에 존재하는 편견이 AI 모델에 반영되어 나타나는 문제이다. 개발자가 의도적으로 편향된 데이터를 사용하거나, 모델 학습 과정에서 편견이 포함된 데이터가 포함되는 경우 발생할 수 있다. 이는 특정 개인이나 집단에 대한 차별로 이어질 수 있으며, 사회적 불평등을 심화시킬 위험성이 있다.

구글 제미니 모델은 역사적 인물에 대한 부정확한 묘사를 생성해 AI 편향성 문제의 심각성을 드러냈다. 이 모델은 역사적 사건이나 인물에 대한 정보를 제공하는 기능을 갖추고 있었지만, 실제로는 편향된 데이터를 기반으로 부정확하고 왜곡된 정보를 제공하는 경우가 발생했다. 예를 들어, 마틴 루터 킹 목사를 백인 남성으로 묘사하거나, 넬슨 만델라를 테러리스트로 묘사하는 오류를 보였다.

AI 전문매체 AI 저널은 구굴의 AI챗봇 제미니의 이러한 오류는 개발자가 역사적 사건과 기존 편견에 대한 정보 제공을 소홀히 했기 때문이라고 지적했다. 또한 모델 학습 과정에서 편향된 데이터가 포함되었을 가능성도 배제할 수 없다고 주장했다.

이 사건은 AI 개발자의 책임을 다시 한 번 강조하는 계기가 됐다. 매체는 AI 개발자는 모델에 내재된 편견을 인지하고 제거하기 위해 노력해야 한다고 강조했다. 역사적 사건과 기존 편견에 대한 교육 및 정보 제공이 필수적이며, 사회 변화를 고려하여 더 큰 평등을 실현할 수 있는 AI 모델을 개발해야 한다.

구글은 제미니 모델의 문제점을 인정하고 개선을 위해 노력하고 있다고 밝혔다. 사람 생성 기능을 일시 중단하고, 모델 학습 데이터를 검토하며, 편견 감지 기술을 개발하는 등의 조치를 취하고 있다. 그러나 AI 편향성 문제는 구글만 해결해야 할 과제가 아니다. 모든 AI 개발자와 기업은 AI 편향성 문제를 인지하고 해결하기 위한 노력을 기울여야 한다.

매체는 AI 편향성 문제를 해결하기 위해서는 다양한 노력이 필요하다고 전했다. 첫째, AI 개발자는 모델 학습 과정에서 편향된 데이터를 배제하고 공정한 데이터만 사용해야 한다. 둘째, AI 모델에 내재된 편견을 감지하고 제거할 수 있는 기술을 개발해야 한다. 셋째, AI 윤리 및 법적 규제를 마련하여 AI 모델의 안전하고 책임감 있는 사용을 보장해야 한다.

한 인공지능 전문가는 “AI는 사회에 큰 이익을 가져다 줄 수 있지만, 편향성 문제는 해결해야 할 중요한 과제”라고 말했다. 그는 “개발자, 기업, 정부, 학계의 협력을 통해 안전하고 책임감 있는 AI 사용을 위한 노력이 필요하다”며, “AI 편향성 문제를 해결하지 못하면 AI는 사회 분열을 심화시키고 불평등을 심화시킬 위험성이 있으며, 이는 우리 사회가 지향하는 바와는 동떨어진 미래가 될 것”이라고 경고했다.

관련기사

저작권자 © AI라이프경제 무단전재 및 재배포 금지