구글이 인공지능(AI) 기술을 무기나 부당한 감시 활동 등에 사용하지 않겠다는 지침을 마련했다. 수천 명의 구글 직원은 미 국방성(펜타곤)이 추진 중인 인공지능을 이용한 드론 타격률 증가 프로그램에 구글이 참여할 수 있다는 소식에 항의 운동을 펼쳤다. 순다 피차이 구글 최고경영자(CEO)는 직원들의 비판을 수용했다.

피차이 CEO는 7일(현지시각) 구글 공식 블로그를 통해 "AI 분야 리더로서 올바른 일을 해야 한다는 책임감을 느낀다"면서 구글 인공지능 개발 원칙 7가지를 발표했다.

순다 피차이 구글 CEO. / 조선일보DB
순다 피차이 구글 CEO. / 조선일보DB
구글이 국방성의 파일럿 프로그램 '메이븐(Maven)'에 참여한다는 소식이 전해진 후, 구글 직원 4000여명은 해당 프로젝트에서 철수할 것을 요구하는 탄원서를 경영진에게 보냈다. 메이븐은 인공지능을 사용해 비디오 이미지를 분석하고, 이를 활용해 드론 타격률을 높이는 프로젝트다. 국방성은 반란 및 테러 방지에 비디오 분석 기술을 사용한다.

피차이 CEO는 "인류에 위해를 일으킬 가능성이 있는 AI 기술 개발은 하지 않을 것이다"라고 약속했다. 그는 특히 "인명 피해를 유발하는 무기 또는 기타 기술이나 국제적으로 통용되는 인권을 위반하는 감시, 정보 수집 등을 위해 AI 기술을 개발하는 것은 아니다"라고 강조했다.

앞서 구글은 2019년 만료되는 메이븐 프로젝트 계약을 갱신하지 않을 것이라고 약속했다. 구글 직원 총회에서도 메이븐이 논의 테이블에 오르자 직원 달래기에 나선 것이다.

구글은 인공지능이 ▲사회에 도움이 되고 ▲불공정한 편견을 만들거나 강화하지 않으며 ▲안전하게 제작하고 테스트 되고 ▲사람에게 기술에 관한 설명할 책임을 지고 ▲개인정보를 보호하면서▲높은 수준의 과학적 우수성을 유지하고 ▲이런 원칙에 부합하는 용도로 사용할 수 있어야 한다는 등 7원칙을 내세웠다.

뉴욕타임스(NYT)는 "구글은 이미지 인식 소프트웨어가 흑인을 고릴라고 분류하는 등 AI와 관련된 위험을 경험했다"며 "이타적인 목표를 가지는 것에 자부심을 느끼는 구글에 인공지능 가이드라인은 당연하다"라고 평가했다.