유럽연합(EU)이 인공지능(AI)과 데이터 산업의 선두주자로 거듭나기 위해 ‘신뢰’ 최우선의 정책을 펼친다. AI를 사용하는 시민에게 반발이 없어야, 내수 시장이 마찰이 없고 안정적인 개발 기반이 된다는 것이다.

올 2월 EU는 'EU 인공지능 백서'와 'EU 데이터 전략'을 발표했다. AI 개발이나 EU에서 활용 방안 등이 포함된 청사진으로 ‘유럽판 디지털 뉴딜’을 위한 선제 작업이다.

한국정보화진흥원(NIA)이 최근 발표한 '데이터 경제 시대 EU의 대응 보고서'에 따르면, 독일과 프랑스를 AI를 미래 유망산업으로 판단하고, 2022년까지 2조원, 2025년까지 4조원 규모로 투자한다.

EU가 지원과 규제 아래 AI 산업 육성에 나섰다. /IT조선
EU가 지원과 규제 아래 AI 산업 육성에 나섰다. /IT조선
EU 소속 회원국이 2027년까지 AI를 위한 70개가 넘는 공동 행동에 나선다. 여기에는 미국 IT기업 공세를 견제하기 위한 의무도 포함되어 있다.

AI 기반을 위해서 시민-근로자-중소기업을 중심으로 디지털 혁신도 이어간다. 시민에게는 디지털 교육을 통해 AI 인식 제고 및 자발적인 정보 기반 의사결정 촉진을 제공하고, 근로자에게는 AI 활용을 위한 다양한 지원도 한다. 중소기업은 AI를 활용할 수 있도록 AI-온-디맨드 플랫폼을 강화하여, 현장에서 필요한 AI를 제공한다.

EU, 적절한 규제로 신뢰 만든다

EU 인공지능 백서는 AI 활성화를 위한 정책 지원만으로 구성되지 않았다. 'AI 규제 프레임 워크'를 통해 명확한 규제에도 나선다.

시작은 문제 인식이다. EU는 AI로 발생할 수 있는 문제에 대한 명확한 정의가 필요하다며, 크게 기본권 위협과 안전 위협으로 분류했다. AI가 편견과 차별을 학습할 수 있고, 제품과 서비스에 내재된 AI가 판단을 제대로 내리지 못할 수도 있다. 또한, AI 특성상 판단 근거를 역추적하기 어려운 점도 위협 요소로 꼽혔다.

이를 규제하기 위해, EU는 '데이터'와 '알고리즘'을 명확하게 구분했다. 여기에 규제가 기업에 과도한 부담이 되지 않도록 AI 시스템 중 일부를 '고위험군'으로 분류하고, 그에 따른 조치를 명시했다.

AI는 만능 열쇠가 아니다. /픽사베이
AI는 만능 열쇠가 아니다. /픽사베이
고위험 AI 시스템은 ▲ 학습 데이터(개인 정보를 보호하고 차별을 학습하지 않도록 조치해야 함) ▲ 기록 보관(잠재적으로 문제 될 수 있는 AI 작동 및 결정을 역추적 가능해야 함) ▲ 정보 제공(AI와 상호작용임을 알려야 함) ▲ 견고성 및 정확성(AI가 의도한 결과를 재현해야 함) ▲ 사람의 감독(AI에 인간이 적절하게 개입할 수 있어야 함) ▲ 원격 생체 인식에 대한 구체적 요구사항 등 총 6가지다.

특히, 유럽집행위는 생체 인식 데이터에 대해 사용의 정당성과 안전장치가 없거나 적절하지 않다면, 사용을 엄격하게 금지하고 있다. 해당 데이터는 시민의 핵심적인 기본권이라는 유럽집행위의 판단이다.

고위험 시스템은 시장에 나서기 전 적합성 평가를 받아야 하며, 고위험이 아닌 AI 시스템에 대해서는 자율 라벨링 제도를 실시한다.

EU가 규제를 통한 신뢰 기반 AI생태계 조성에 나선 배경은 시장의 AI 수용을 촉진하기 위함이다. 적절한 규제가 없는 AI 확산은 시민들에게는 정보 불균형을 초래하고, 기업은 법적 불확실성에 빠질 수 있다.

우창완 NIA 정책기획팀 선임은 "AI 규제 프레임 워크는 앞으로 EU 방향성 중 하나"라며 "대외적으로는 중국과 미국 등 플랫폼 기업에 EU 시민 데이터를 지키기 위함"이라고 말했다.

그는 이어 "EU는 2018년부터 시행 중인 GDPR(유럽연합 일반 데이터 보호 규칙) 등으로 개인 정보 보호를 중요하게 여긴다"며 "대내적으로는 지속 가능한 AI 발전을 위한 것"라고 덧붙였다.

송주상 기자 sjs@chosunbiz.com