인공지능이 다양성과 포용성 향상에 기여한다.@news1
인공지능이 다양성과 포용성 향상에 기여한다.@news1

인공지능은 직장에서의 다양성과 포용성 향상에 기여하고 고용 과정을 개선하는 동시에, 이러한 도구의 사용이 법적 위험과 무의식적 편견을 상속할 수 있다는 우려를 낳고 있다.

인공지능(AI)은 기사 헤드라인에서 슈퍼볼 광고까지 지배를 확대해나가고 있다. 

리틀러는 직장에서 AI의 사용은 이력서를 스캔하고 필터링하는 것과 지원자를 평가하는 AI 주도의 화상 인터뷰를 포함해 고용 과정 전반에 걸쳐 매우 다양한 방식으로 빠르게 확장되고 있다고 보도했다.

적절하게 설계되고 지원된다면, AI는 사람들이 가장 보람 있는 직업을 찾고 회사와 가장 가치 있고 생산적인 직원을 일치시키는 데 도움을 줄 수 있다.

마찬가지로, AI는 직장에서 다양성, 포함 및 접근성을 향상시키는 것으로 나타났다.

AI 도구는 몇 가지 주목할 만한 방식으로 다양성을 높이는 데 도움을 줄 수 있다.

무엇보다도, AI 도구는 인간의 요소를 제거할 수 있으며, 따라서 적어도 이론적으로 채용 및 기타 취업 결정과 관련된 주관성을 제거해 기술과 경험이 있는 후보자가 선발 과정을 통해 역할을 발전시키는 데 가장 적합하도록 도울 수 있다.

특히, AI는 후보자에 대한 특정 정보를 익명화할 수 있으며, 후보자의 이름과 같은 특정 보호된 계층과 관련될 수 있는 특성이 평가 과정에서 고려되지 않을 가능성을 줄인다. AI 도구는 후보자가 특정 기술 테스트를 통과하거나 특정 지표를 충족한 후에만 생체 정보를 표시해 인터뷰한 후보자의 다양성을 증가시키는 것으로 나타났다.

AI 기반 가상 인터뷰는 또한 편견이 프로세스에 스며들지 않도록 인터뷰를 표준화함으로써 다양성을 높이는 데 도움을 줄 수 있다.

AI 도구는 스크립트를 따를 가능성이 더 높은 반면, 인간은 인터뷰 스크립트에서 벗어나는 경향이 더 높다.

또한 AI 기반 챗봇은 모든 후보자가 동등한 경기장에 있고 채용 과정에서 중요한 정보와 리소스에 동등하게 액세스할 수 있도록 지원자 질문에 일관된 정보를 제공함으로써 다양성을 향상시키는 데 도움을 준다.

이러한 리소스는 지원자의 배경에 관계없이 지원자를 돕는 데 매우 유용할 수 있다.

다양성 목표를 발전시키기 위해 채용 과정에서 인공지능을 사용하는 것의 이점에도 불구하고, 인공지능의 사용에 어려움이 없는 것은 아니다.

인공지능 도구가 의도적이든 비의도적이든 보호되는 계층을 차별하기 위해 사용될 경우 법적 위험이 발생할 수 있다.

대부분의 경우, 의도하지 않은 차별 위험이 있다. 위에서 언급했듯이 인공지능 도구의 사용은 인간의 요소를 제거할 수 있지만 인공지능 도구가 단순히 기존의 편견을 상속(또는 악화시킬 수도 있음)할 우려가 있다.

인공지능 도구가 과거의 차별적 의사 결정을 반영하는 데이터에 대해 훈련되면, 다양성을 촉진하는 것이 목표일지라도 의도하지 않게 이러한 편견을 영구화할 수 있다. 이것은 인공지능 도구의 ‘쓰레기, 쓰레기 배출’ 문제로 알려져 있다.

또 다른 잠재적인 법적 위험은 인공지능 도구가 보호되는 계층에 불균형적으로 영향을 미치는 방식으로 후보자를 평가하기 위해 중립적인 기준을 사용하는 경우다.

예를 들어, 코로나19 팬데믹 이후, 많은 고용주들은 통근 거리가 짧을 경우 지원자가 사무실에 갈 가능성이 높기 때문에 지원자를 사무실에 더 가깝게 유치하고 모집하기를 원했다.

그러나 이러한 경우, 지리적 거리로 지원자 풀을 제한하는 것은 의도하지 않은 차별을 초래할 수 있기 때문에 법적 위험이 발생한다. 예를 들어, 우편번호는 종종 인종 및/또는 민족 그룹과 높은 상관 관계가 있다.

또 다른 우려는 AI 도구를 사용해 진화하는 법적 환경이다. 실제로 AI 도구의 꾸준한 구현과 빠른 발전은 주 및 지역 수준의 고용 상황에서 AI 사용을 규제하는 조치를 포함해 감독 강화를 위한 제안의 증가로 이어졌다.

예를 들어, 뉴욕시에는 고용주가 고용 및 승진 결정에 사용하는 모든 AI 도구를 사용하는 것을 규제하는 광범위한 AI 고용법이 있다.

이 법은 AI를 사용해 뉴욕시에서 일자리 또는 승진을 지원하는 후보자를 선별하는 고용주에게 매년 편향 감사를 실시하고 감사 결과의 요약을 발표했다.

또한, 후보자에게 AI가 사용되고 있음을 알리고 숙박 또는 대체 선택 절차를 요청할 수 있는 선택권을 줄 것을 요구한다.

이 법은 투명성을 촉진하고 고용주에게 후보자 선별 과정에서 의도하지 않은 편향을 감지하고 수정할 수 있는 기회를 제공하기 위한 것이다.

고용주는 고용 차별 위험을 완화하는 AI 도구를 활용해 고용의 다양성을 높이는 조치를 취할 수 있다.

고용주는 지원자 풀의 크기와 다양성을 향상시키는 것과 같이 AI 도구가 달성하는 데 도움이 될 수 있는 구체적인 다양성 목표를 식별하는 것으로 시작할 수 있으며, 이는 적절한 도구의 선택을 안내한다.

선택된 AI 도구는 투명성과 공정성으로 유명한 도구여야 한다. AI 도구 사용 방법뿐만 아니라 적용과 관련된 제한 사항에 대한 교육은 관련 위험을 예방하는 효과적인 방법이 될 수 있다.

고용주는 의도적인 오용 또는 잠재적인 차별 결과를 사전에 식별하기 위해 AI 사용 및 프로세스를 모니터링하고 감사할 수 있다.

고용주는 또한 빠르게 발전하는 분야이기 때문에 AI 법률 및 소송을 추적할 수 있다. 진화하는 법적 환경에 대한 상황 인식은 미래에 점점 더 중요해질 것이다.

마지막으로 고용주는 적절한 가드레일이 있고 AI가 책임감 있고 법적으로 준수하는 방식으로 사용될 수 있도록 AI 정책과 관행을 시행하는 것을 고려해야 한다.

이러한 정책, 관행 및 가드레일의 과제는 인간의 판단에 의해 포착되고 맥락화될 수 있는 뉘앙스와 비교해 보다 다양한 작업장을 육성할 수 있는 AI의 잠재력 사이의 균형을 맞추는 것이다.

그러나 정책, 권장 관행 및 훈련을 활용하는 예방적이고 다각적인 접근 방식은 객관성을 보장하고 편향이 의도하지 않게 AI 프로세스에 스며들지 않도록 하는 데 중요하다.

저작권자 © AI라이프경제 무단전재 및 재배포 금지