AI·사람 간 ‘공진화’ 가속…AI 악용 사례 늘어
‘명확한 AI윤리·법 필요’ 전문가 한 목소리

인공지능(AI)이 보편화되면서 우리 삶에 본격적으로 녹아든다. 관련업계는 인간과 AI 간 '공진화(共進化, 서로 밀접한 관계를 갖는 둘 이상의 종이 상대 종의 진화에 상호 영향을 주며 진화하는 현상)'가 시작됐다고 평가한다. 사람은 AI를 사용하며 새로운 가능성을 마주했고 새로운 경험에서 나온 데이터는 AI를 더 발전시키기 때문이다.

AI 옹호론자들은 이를 이유로 더욱 편하고 인간에게 이로운 세상이 열릴 것이라고 전망한다. 반면 AI 부정론자들은 사기, 테러 등 범죄 도구로 AI 활용 사례가 늘고 있는 데다가 인간을 위협하는 미래가 그려질 수 있다며 우려한다. 명확한 AI 윤리와 법의 필요성이 필요한 이유이자 신중한 접근이 중요한 배경이다.

인공지능과 사람이 함께 발전하고 있다. /iClickArt
인공지능과 사람이 함께 발전하고 있다. /iClickArt
인간과 AI 사이의 공진화에 이목이 집중된 건 단연 바둑의 역할이 컸다. 2016년 알파고 쇼크 이후 바둑계는 절치부심하며 AI로부터 바둑을 배웠다. 당시 알파고는 기존에 없던 전략을 내놨고, 수천년 바둑 역사에 새로운 가능성을 제시했다. 바둑 업계 관계자는 "많은 기사가 AI 기보로 공부하고 전략을 준비한다"며 "초반 몇 수는 AI와 비슷하다고 느껴질 정도다"라고 말했다.

예술 분야에도 사람과 AI의 만남이 이어진다. AI그래픽 기업 펄스나인은 AI아트를 선보였다. AI아트는 특정 테마를 학습한 AI가 밑그림을 그리고, 사람이 마감하는 방식이다. 최근에는 AI아이돌로 영역을 확장했다. 최근에는 이를 바탕으로 태국에 진출했다.

그간 사회에서 관심이 부족한 영역의 활용도 눈길을 끈다. 지난해 AI는 일손이 부족한 농어촌에서 사용되기 시작해 고급 상품 생산 길을 열었다. 제주도는 귤과 월동작물 관리에 AI를 도입했다. 포항시는 포항공과대학교와 연어 양식을 위한 AI 개발에 나섰다. 부산시는 양식장을, 전라북도는 스마트 팜을 구축하는 등 전국 농어촌은 맞춤형 AI개발 및 도입에 열 올리고 있다.

제주도 관계자는 "AI도입으로 고품질 생산이 기대된다"며 "지금 당장의 성과보다는 몇 년 동안 쌓인 데이터로 고도화된 AI 완성이 더 큰 목표다"라고 전했다.

사기·감시·암살 등 악용 사례 등장…구체적인 AI윤리·제도 필요 ↑

AI가 잘못 사용되는 사례도 늘고 있다. 특히 범죄 도구로 사용되기 시작하며 AI윤리와 제도 도입을 요구하는 목소리가 커지고 있다.

대표적인 기술이 ‘딥페이크’다. 딥페이크는 타인의 얼굴을 정교하게 합성하는 AI기술이다. 성 착취물·가짜 뉴스·주가 조작 등에 악용될 소지가 높다. 우리나라는 지난해 6월 성폭력처벌법 개정으로 딥페이크 영상물에 관한 처벌 근거를 마련하고 11월까지 총 7명을 검거했다. 특히 피해자는 모두 10대인 것으로 알려져 AI범죄에 경각심을 일깨웠다.

12월 24일 영국 방송 채널4는 딥페이크 경각심 제고를 위해 영국의 엘리자베스 2세 여왕을 가짜로 만들어, 거짓 크리스마스 성명을 냈다. /영상 갈무리
12월 24일 영국 방송 채널4는 딥페이크 경각심 제고를 위해 영국의 엘리자베스 2세 여왕을 가짜로 만들어, 거짓 크리스마스 성명을 냈다. /영상 갈무리
또 AI가 영상 대신 목소리를 복제해 보이스피싱 등에 악용하는 범죄도 늘고 있다. 2019년 영국의 한 에너지 기업은 AI 보이스피싱으로 22만유로(약 2억9000만원)의 피해를 입었다. AI가 사장의 목소리를 똑같이 흉내냈기 때문이다. 사장으로부터 전화를 받았다고 생각한 직원은 "사장과 목소리가 같았다. 특유의 독일 사투리까지 정확했다"라고 해명했다.

AI 기술 발전으로 딥페이크를 넘어 가상인물을 실제처럼 만들자, 이를 악용하는 사례도 있다. 올해 3월 미국 체스게임 개발 회사 ‘레지움’은 투자자를 공개 모집했다. 레지움이 밝힌 개발팀 중 일부가 가짜라는 의혹에 휩싸이자, 투자자 모집을 중단했다. 하지만 기업은 이미 3만3000달러(약3700만원)의 투자금을 조성한 뒤였다.

감시나 암살에도 이용된다. 12월 9일 워싱턴포스트는 화웨이와 중국 정부가 중국 소수민족인 위구르족을 감시하는 AI를 테스트했다고 화웨이 내부 문건을 통해 보도했다. 해당 AI는 군중 속에서 위구르족을 발견하면 경찰에 연락을 할 수 있다.

또 이란 정부는 11월 이스라엘 측이 모센 파크리자데 핵과학자 암살에 AI를 활용했다고 주장했다. 이란은 "그의 부인은 무인 원격 공격임에도 총알 한 발도 맞지 않았다"며 "AI가 인식한 뒤 공격한 것으로 보인다"라고 발표했다.

이처럼 AI가 악용되기 시작하자 세계 AI전문가들은 AI알고리즘에 관한 윤리와 법 제정에 나섰다. 이미 유럽은 2018년 GDPR(유럽연합 일반 데이터 보호 규칙)을 도입해 사람에 직접적인 영향을 주는 AI알고리즘은 충분히 설명해야 한다는 조항을 포함했다. MIT(매사추세츠 공과 대학)는 올해 구체적인 AI정책 도입을 목표로 하는 ‘AI정책포럼’을 출범했고, 한국, 미국 등 14개국이 참여한 협의체 GPAI는 ‘책임성있는 인공지능’ 개발에 나섰다.

우리나라도 AI윤리 정립에 나서며 AI와 사람의 공진화 방향성 잡기에 나섰다. 12월 24일 과학기술정보통신부는 30개 주요 과제로 구성된 인공지능 법·제도·규제 로드맵을 발표했다. 로드맵의 목표는 ‘사람 중심의 인공지능 시대 실현’이다.

과기정통부 관계자는 "AI기술 확산으로 다양한 산업 분야에서 융합되면서 AI로 의사결정이 이뤄지는 경우도 늘었다"며 "로드맵으로 AI의 법적 근거를 명확히 해 개인의 권리를 지킬 수 있을 것이다"라고 밝혔다.

송주상 기자 sjs@chosunbiz.com