한국 인공지능 산업계는 연초 발생한 ‘이루다’ 사태로 곤혹을 치뤘다. 이루다 개발사인 스캐터랩은 이루다 서비스 제공을 위해 자사가 운영하는 앱 서비스인 ‘텍스트앳’과 ‘연애의 과학’에서 수집한 카카오톡 대화를 사용했는데, 정보제공 동의를 제대로 받지 않은 것으로 나타나 윤리 문제로 퍼졌다. 무려 60만명에 이용자 관련 카카오톡 대화 속 이름, 휴대전화번호, 주소 등 개인정보가 포함된 정보가 이루다 고도화에 활용됐다.

스캐터랩 측은 1억원이 넘는 과징금과 과태료 처분을 받으며 사태가 일단락됐지만, 아직도 여파가 남았다. 정부는 제2의 이루다 사태 발생을 막기 위해 인공지능에 대한 신뢰성을 높이는 전략을 만드는 등 후속 노력에 나섰다.

윤성로 4차산업혁명위원회 위원장(왼쪽)과 최영진 개인정보보호위원회 부위원장 모습. 4차산업혁명위원회는 13일 서울시 중구 서울중앙우체국에서 열린 4차산업혁명위원회 제22차 전체회의를 개최했다. / 4차산업혁명위원회
윤성로 4차산업혁명위원회 위원장(왼쪽)과 최영진 개인정보보호위원회 부위원장 모습. 4차산업혁명위원회는 13일 서울시 중구 서울중앙우체국에서 열린 4차산업혁명위원회 제22차 전체회의를 개최했다. / 4차산업혁명위원회
대통령 직속 4차산업혁명위원회는 13일 서울시 중구 서울중앙우체국에서 제22차 전체회의를 열고 ‘신뢰할 수 있는 인공지능 실현전략’, ‘미공개 핵심데이터 개방’ 등 총 4개의 안건을 상정 의결했다.

신뢰할 수 있는 인공지능 실현전략 정책은 과학기술정보통신부가 관련 부처와 함께 만든 안건이다. 인공지능 서비스는 사회 전반에서 빠르게 도입되지만, 예상치 못한 사회적 이슈가 발생해 우려가 크다. 이루다 사태가 대표적인 예다.

일각에서는 인공지능에 대한 막연한 두려움이 불신으로 확산되는 모습을 보인다. 기업 입장에서는 인공지능 윤리기준 자체가 추상적인 개념이라 서비스 개발에 어려움을 겪는다. 정부 차원의 인공지능 윤리기준 구체화가 필요한 상황이다.

김경만 과기정통부 인공지능기반정책과장은 "인공지능 신뢰성을 정의한 사례는 드물다"며 "윤리기준을 실천하고 이용자의 인공지능 수용성 향상하는 것을 인공지능 신뢰성이라고 정의해 안을 마련하게 됐다"고 말했다.

정부가 마련한 신뢰 할 수 있는 인공지능 실현전략의 비전・목표・추진전략 소개 표 / 4차산업혁명위원회
정부가 마련한 신뢰 할 수 있는 인공지능 실현전략의 비전・목표・추진전략 소개 표 / 4차산업혁명위원회
과기정통부는 2025년까지 신뢰할 수 있는 인공지능을 구현하기 위해 3대 전략과 전략 내 10대 실행과제를 단계적으로 추진한다.

3대 전략으로는 ▲신뢰 가능한 인공지능 구현 환경 조성 ▲안전한 인공지능 활용을 위한 기반 마련 ▲사회 전반 건전한 인공지능 의식 확산 등이 있다.

정부는 신뢰 가능한 인공지능 환경 조성을 위해 우선 인공지능 제품·서비스 구현 단계별로 신뢰 확보 체계를 마련한다. 제품·서비스 구현은 크게 개발, 검증, 인증 단계로 나눠 볼 수 있다.

정부는 개발 단계에서 어떤 기준을 만족해야 신뢰를 확보할 수 있을지 확인 가능한 개발 가이드북을 제작해 보급한다. 가이드북은 초안 작성 후 전문가와 함께 공개 토론을 거쳐서 완성한다. 인공지능 분야에는 개인정보보호를 이유로 규제를 주장하는 의견과 초기 기술 단계에서 규제를 강화하는 것은 바람직하지 않는다고 보는 의견이 있다. 김경만 과장은 "여러 의견을 수렴해 합의를 이룬 후 가이드북을 만들겠다"고 말했다.

검증 단계에서는 가이드북 준수한 신뢰성 확보 여부와 그 수준을 평가할 수 있는 검증체계를 마련할 예정이다. 신뢰성 확보됐는지 사전 검증을 하면 이용자 입장에서 믿고 쓸 수 있을 것이라고 봤다. 마지막 인증 단계에서는 검증체계를 통과한 제품·서비스를 민간에서 자율 기준을 도입하게 해 인증·공시하도록 지원할 방침이다.

중소기업·스타트업을 위해 인공지능 구현 목적의 ‘데이터 확보-알고리즘 학습-검증’을 통합 지원하는 플랫폼도 만든다. 정부는 2018년부터 AI 허브를 통해 공공데이터를 개방했다. 이제는 알고리즘 학습과 검증까지 한 곳에 모아 지원하는 플랫폼을 만들 예정이다.

두 번째 전략은 인공지능의 안전한 활용을 위한 학습용 데이터의 신뢰성을 높이는 것이다. 정부는 AI 허브를 통해 자연어·헬스케어·자율주행 등 다양한 영역의 데이터 170종을 상반기 내 순차적으로 공개한다. 2025년까지 1300종을 선보이는 것이 목표다. 공정성을 위반하거나 개인정보보호, 저작권을 침해하지 않는 데이터만 선별 공개한다. 선별 기준을 공개하고 검증된 데이터만을 개방해 쓸 수 있도록 할 예정이다.

‘데이터 확보 → 알고리즘 학습(컴퓨팅) → 검증’ 원스탑 지원 플랫폼 구성안 / 4차산업혁명위원회
‘데이터 확보 → 알고리즘 학습(컴퓨팅) → 검증’ 원스탑 지원 플랫폼 구성안 / 4차산업혁명위원회
건전한 인공지능 의식 확산을 위한 윤리 교육도 강화한다. 김경만 과장은 "일반 시민에게도 인공지능 윤리 교육을 할 수 있도록 교육부와 논의하며 인공 지능 윤리 체계를 만들고 있다"고 말했다.

시민뿐 아니라 인공지능 개발자 맞춤 체크리스트도 보급한다. 가령 ‘인공지능 개발 단계에서 사회에 존재하는 선호의 다양성, 이용자 간 수용 능력 차이를 고려하였는가’라는 체크리스트 문항을 가이드북에 포함시켜 개발 단계서부터 윤리 준수 여부를 자율적으로 점검할 수 있도록 한다.

조경식 과기정통부 제2차관은 "이루다 사건으로 인공지능 신뢰성에 대해 생각해보는 계기가 됐다"며 "국민과 기업이 인공지능 사용·개발 과정에서 피해를 보지 않도록 신뢰 기준을 명확히 하고 지원하겠다"고 밝혔다.

박영선 인턴기자 0sun@chosunbiz.com