마이크로소프트와 아마존·구글·페이스북이 손잡은 이유…"윤리적 AI 함께 만들자"

북마크 완료!

마이페이지의 ‘북마크한 기사’에서 읽으실 수 있습니다.

북마크한 기사 보러가기 close
입력 2019.03.07 17:56
"인공지능(AI)은 국가 경계를 넘어 보편적으로 활용되고 있다. 여러 국가들이 AI 윤리와 관련해 통일된 입장을 취하는 것이 중요해졌다."

7일 인공지능법학회와 KAIST 인공지능연구소, 신용현 바른미래당 의원 주최로 국회에서 열린 ‘인공지능의 윤리적 개발동향과 입법대응과제’ 정책 세미나에서 안토니 쿡 마이크로소프트 아시아지역 법무정책 총괄매니저는 "아시아 지역 IT 기업들도 AI 윤리 관련 파트너십 구축이 필요하다"고 제언했다.

이와 관련해 마이크로소프트와 아마존, 구글, 페이스북 등 글로벌 IT기업이 참여한 협의체인 ‘파트너십 온 AI’가 지난 2016년 만들어졌다. 개인정보 유출과 사생활 침해 등 AI로 발생하는 각종 사회적 문제가 대두되자 윤리적 AI 기준 및 활용 방안을 공동으로 논의하자는 취지다. 한국 기업 중엔 삼성전자가 참여하고 있다.

안토니 총괄 매니저에 따르면 마이크로소프트는 기술 개발에서 ▲공정성 ▲신뢰성 ▲개인정보보호 ▲포괄성 ▲투명성 등의 원칙을 세웠고 이를 기준 삼아 거버넌스 위원회에서는 이용자 사례를 검토해 발생할 수 있는 각종 윤리적 문제를 분석한다고 설명했다. 필요하면 사내에 기술활용 가이드라인을 제정하기도 한다.

마이크로소프트는 사내 AI 기술 활용 방향을 논의하기 위해 거버넌스 위원회도 운영 중이다. 자체 개발한 기술의 사회 파급력을 정확히 분석하기 위해 거버넌스 위원회에는 엔지니어와 변호사를 포함, 사회과학 전공자 등 다양한 배경을 가진 전문가들이 활동한다.

안토니 쿡 마이크로소프트 아시아지역 법무정책 총괄 매니저가 국회 토론회에서 기조연설에 나섰다./ IT조선
국내에서도 사회 곳곳에 인공지능(AI)이 스며들고 있는 가운데, 윤리적 AI를 만들 공론화 기구가 필요하다는 지적이다. 최근 개인정보 유출과 사생활 침해 등 AI 활용을 둘러싼 사회적 문제가 잇따르면서다.

기업이 AI 활용의 윤리적 영향을 자율적으로 검토하려는 노력도 중요하지만, 결국 민관학 등 관계기관이 함께 AI 활용 방향에 의견을 모아야 한다는 의견이 나왔다.

선지원 정보통신정책연구원 부연구위원도 "향후 제기될 수 있는 윤리 문제에 대비해 민관학이 협력해 프레임워크를 구축, 관계자들이 자율적으로 대응할 수 있는 협의 기구를 만들어 운영하는 것이 필요하다"고 제언했다.

이날 토론회에서는 성급한 AI 관련 규제 완화나 입법은 피할 것을 주문했다. 안토니 총괄매니저는 "이미 기존 법에도 AI 기술 활용에 적용할 내용이 충분하다"며 "우리에게는 새로운 환경에 적용할 법 해석이 필요한 것"이라고 선을 그었다.

신용현 의원은 "실질적으로 인공지능 개발 규제를 푸는 것도 좋지만 먼저 가이드라인을 만들고 어떻게 나아갈 수 있을지 길을 인도하는 것도 중요하다"며 "인류 발전을 위한 AI 활용 방안을 고민해야 할 시점"이라고 전했다.

이수영 카이스트 AI연구소장은 "사람과 관련된 모든 일에 AI가 연결될 수 밖에 없는데다 현재 AI 발전 속도가 너무 빠르다"며 "인류에 도움이 될 수 있도록 AI를 활용하려면 개발자와 정치인뿐 아니라 각계 각층 관계자들이 모두 모여 활용 방향을 논의해야 한다"고 말했다.




0
주요 뉴스
지금 주목할 뉴스