2차 AI 윤리정책 포럼서 스캐터랩 개발 점검표 공유

북마크 완료!

마이페이지의 ‘북마크한 기사’에서 읽으실 수 있습니다.

북마크한 기사 보러가기 close
입력 2022.06.08 14:00
과학기술정보통신부는 인공지능 윤리를 사회적으로 확산하고 민간의 자율규제 환경을 조성하기 위한 논의의 장을 열고자 정보통신정책연구원(KISDI)과 한국정보통신기술협회(TTA)와 함께 8일 서울 중구 한국프레스센터에서 제2차 윤리정책 포럼을 개최했다.

인공지능 윤리정책 포럼은 인공지능의 윤리적 개발과 활용을 위한 논의를 촉진하기 위해 올해 2월 처음 출범했다. 산업계를 비롯해 인공지능, 윤리, 교육, 법제도, 공공 등 다양한 분야의 전문가 30명이 제1기 포럼위원으로 활동하고 있다.

포럼은 세부적으로 제1분과: 인공지능 윤리체계 확산(이하 윤리분과), 제2분과: 인공지능 신뢰성 확보 기술 기반 마련(이하 기술분과), 제3분과: 인공지능 리터러시 및 윤리 교육 강화(이하 교육분과) 등 총 3개의 분과로 구성됐다.

이번 포럼에서는 AI 챗봇 ‘이루다’를 개발한 스타트업 ‘스캐터랩’의 ‘스캐터랩 AI 챗봇 윤리점검표’ 개발 추진 현황 발표를 시작으로, 각 분과에서 그간 논의해온 유네스코 인공지능 윤리 권고, 민간의 인공지능 신뢰성 확보 지원 방안, 인공지능 윤리교육 현황 등을 공유하고, 향후 인공지능 윤리 정책의 추진방안을 집중 논의했다.

현재 시범 운영 중인 ‘이루다 2.0’의 주요 개선사항과 함께, 스캐터랩이 자체적으로 준수하고자 하는 윤리점검표 초안을 공유했다. 윤리분과에서는 2021년 11월 채택된 유네스코 ‘인공지능 윤리 권고’의 주요 내용을 살펴보고 국가적 차원의 대응책을 논의했다. ‘인공지능 윤리기준 자율점검표’의 활용도 제고 차원에서 기업 현장 적용을 통한 개별·구체화 방안도 검토했다.

기술분과에서는 인공지능 제품·서비스의 개발 과정에서 신뢰성 확보 여부를 기술적으로 검증해볼 수 있는 ‘신뢰할 수 있는 인공지능 개발안내서’를 시범 적용하면서 제기된 현장의 목소리를 전했다. 검증의 효과성, 현장 적용의 애로 사항 등을 공유하고, 컨설팅 제공, 자가 검증도구 구축 등 기업의 인공지능 신뢰성 확보 지원 방안을 논의했다.

교육분과에서는 인공지능 윤리교육 현황을 살펴보고, 초·중·고 대상 인공지능 윤리교재 개발 진행 상황을 공유했다. ‘인공지능 윤리 콘텐츠 개발 기준’에 바탕을 둔 초·중·고 대상 인공지능 윤리교재는 학습자의 발달 특성을 고려해 활동지, 체험 학습, 주제 학습 등으로 구성될 예정이다.

박윤규 과기정통부 차관은 "국민 모두가 인공지능 산업 발전 혜택을 고루 누리기 위해서 인공지능에 대한 신뢰 확보가 중요한 만큼, 인공지능 생태계에 참여하는 구성원 모두가 적극적이고 주체적인 자세로 관심을 기울이고 의견을 내는 것이 무엇보다 필요하다"며 "앞으로 포럼 등을 통해 양방향 소통을 더욱 강화하고, 이를 바탕으로 인공지능 윤리에 대한 사회적 합의를 마련해 나갈 것이다"고 말했다.

류은주 기자 riswell@chosunbiz.com


0
주요 뉴스
지금 주목할 뉴스