‘남성 간호사가 인공지능(AI) 로봇에게 화장실 위치를 물으면 어느 곳을 안내할까?’
여자화장실 가능성이 크다.

이는 구글이 공개한 ‘성 편향성 조사결과’에도 잘 나타난다. 대통령・배관공은 남성, 간호사・청소부 등은 여성 편향이 심한 직종으로 조사됐다.

구글이 공개한 남녀 성편향 인식 직종. 왼쪽이 여성, 오른쪽이 남성편향./자료 구글
구글이 공개한 남녀 성편향 인식 직종. 왼쪽이 여성, 오른쪽이 남성편향./자료 구글
단적인 사례이긴 하지만 구글은 고정관념에 따른 AI 오류를 막기 위한 연구를 진행중이다. 베키 화이트 구글 인공지능 리서치 프로그램 매니저는 25일 화상으로 진행된 국내 언론 행사에서 구글이 AI 분야 공정성 확보 사업을 소개했다.

성과도 공개했다. 구글 번역에서 남성과 여성형 두가지로 쓰이는 단어를 번역기로 돌리면 남성형과 여성형 두가지로 검색된다. 예컨대 양성형 터키어인 ‘o bir doktor’을 입력하면 영어로 ‘He is doctor’와 ‘She is doctor’가 함께 나온다. 화이트 매니저는 "AI가 현상을 반영한다고 해도 대통령을 남성으로 인식한다면 여성은 불편할 수 있다"고 취지를 설명했다.

./구글 번역기 갈무리
./구글 번역기 갈무리
구글은 공정한 AI를 위해 ‘선택 편향’ ‘확인 편향' ‘자동 편향'을 고려한다고 밝혔다. 선택편향은 수집 데이터가 북미와 유럽과 같이 특정지역에 쏠려 그곳 문화만 대변하는 경우다. 확인 편향은 개발자 개인의 신념이나 믿음에서 나오는 것, 자동 편향은 자동화시스템 처리 과정에서 나타난다.

화이트 매니저는 "구글의 AI 개발 원칙은 다양한 시각을 최대한 반영해 공정하게 만드는 것"이라며 "소외받는 계층이 발생하지 않는게 목표라고 할 수 있다"고 소개했다.