생성 AI는 CEO나 관리자와 같은 직장 리더십 역할에 대한 질문에 답변할 때 주로 백인 남성 이미지를 보여주었다. [셔터스톡]
생성 AI는 CEO나 관리자와 같은 직장 리더십 역할에 대한 질문에 답변할 때 주로 백인 남성 이미지를 보여주었다. [셔터스톡]

인공지능(AI) 기술이 직장에 도입되면서 성별 편견이 더욱 심화될 수 있다는 우려가 제기되고 있다.

마케팅 에이전시 레거시 커뮤니케이션즈의 최근 연구에 따르면, 생성 AI는 CEO나 관리자와 같은 직장 리더십 역할에 대한 질문에 답변할 때 주로 백인 남성 이미지를 보여주었다. 이는 실제로 영국 이사회 역할의 40%가 여성에 의해 보유되고 있다는 사실과 상반된다.

연구원들은 AI에게 강력하고 자신감 있는 CEO를 상상하도록 질문했을 때 두 번 모두 남성 이미지를 생성했다. 다른 최고위 직책 타이틀에 대한 질문에도 이러한 추세는 계속되었으며, AI는 CMO(최고마케팅책임자) 및 CHRO(최고인사책임자)에 대한 질문에만 여성 이미지를 생성했다.

레거시 커뮤니케이션즈의 디지털 책임자인 미쉘 브루넌은 이러한 결과는 AI가 학습된 데이터에 근본적으로 의존하기 때문이라고 설명했다. 그는 "AI는 과거 데이터를 기반으로 미래를 예측하기 때문에 과거에 남성 리더가 많았던 데이터를 학습하면 여성 리더를 상상하기 어려울 수 있다"고 말했다.

또한 빈시웍스의 이러닝(eLearning) 전문가 콘텐츠 관리자인 나오미 그로스만은 "AI 알고리즘의 편견은 새로운 것이 아니다"라고 지적했다. 그녀는 "2017년 애플 아이폰의 얼굴 인식 ID는 일부 중국 사용자를 구별하지 못했다"고 언급하며 "당시 기업들은 가능한 한 다양한 표본을 사용해 이 문제를 해결하려 했지만, 항상 백인 얼굴을 보여주려는 문제는 거의 백인 얼굴을 보여주지 않는 문제로 바뀌었다"고 설명했다.

그로스만은 생성 AI가 학습된 데이터에 근본적으로 의존한다고 강조했다. 그녀는 "생성 AI는 유색인종이나 여성이 권력 직책을 가질 수 있다는 것을 설명하는 데이터를 받아들일 수 있지만, 이것이 항상 소수자들에게 그러한 직책이 보유되는 것이 일반적이라는 의미를 가질 수는 없다"고 주장했다.

IT 전문매체 베르딕은 AI 편견을 해결하기 위해서는 다양한 데이터를 사용하여 AI를 학습시키는 것이 중요하며, AI 개발 과정에 여성과 소수자들이 참여하는 것도 중요하다고 강조했다.

IBM과 아마존 웹서비스에서 임원 경력을 쌓은 샌디 카터는 "AI 교육 모델의 12%만이 여성"이라고 말했다. 인스티튜트 오브 분석 교육 책임자인 클레어 월시 박사는 "AI가 최악의 편견이 발생하지 않도록 규칙과 가중치를 마련해야 한다"고 말했다. 그는 "AI가 여성을 주부나 비서로 고정관념화하는 것을 막아야 한다"고 덧붙였다.

관련기사

저작권자 © AI라이프경제 무단전재 및 재배포 금지