인공지능(AI) 혁명의 시대, 개인정보보호위원회의 존재감이 커지고 있다.

실제 개인정보보호위원회는 출범 5년 만에 국민 인지도가 출범 1인차인 2021년 23.6%에서 올해 50.9%로 상승했다. 10명 중 9명은 개인정보위가 중요한 기관이라고 평가했다(개인정보위 자체 조사, 2024년).

특히 국민이 해당 기관에 가장 바라는 과제로는 ‘AI 관련 개인정보 보호 강화’를 꼽았다. 기술 발전의 최전선에서 개인의 프라이버시를 지켜달라는 기대다.

이 같은 요구는 단지 여론의 흐름이 아니라, 구조적 변화에 따른 필연적 현상이다. 챗GPT로 촉발된 생성형 AI 기술은 기존 개인정보 처리 방식에 근본적인 충격을 줬다.

과거에는 ‘수집-이용-제공’이라는 선형적 흐름이 개인정보 처리의 주된 틀이었다. 하지만 생성형 AI는 ‘학습-추론-생성’이라는 비선형적 패러다임을 제시했다. 이 과정에서 AI는 학습 데이터로 활용된 개인정보를 기반으로 맞춤형 결과를 만들어내거나, 개인정보로 오인될 수 있는 정보를 생성한다. 이에 따라 프라이버시 침해 우려가 커지고 있지만, 아직 명확한 규율 체계는 마련되지 않았다.

고학수 개인정보위 위원장이 “기존 개인정보 규율로는 생성형 AI 변화를 담기 어렵다”고 밝힌 것도 이런 문제의식에서 비롯된 것이다. 다만, 생성형 AI 가이드라인이 7월 말 발표 예정인 점을 감안하면 기술 발전 속도에 비해 정책 대응은 여전히 느리기만하다.

실제 미국, 유럽연합(EU) 등은 이미 AI 개발·운영 시 개인정보 보호를 핵심 원칙으로 삼아 제도 정비에 속도를 내고 있다. 한국 기업들이 불확실한 규제로 인해 혁신을 주저하거나, 해외 법제를 기준 삼아 움직여야 하는 상황은 정책 신뢰를 약화시킨다.

지금 개인정보위에는 기존의 ‘사후 규제’ 중심에서 ‘선제적 가이드라인’ 중심으로의 전환이 요구된다. 혁신을 억누르는 규제가 아니라, 안전한 활용을 유도하는 가이드라인이 필요하다는 뜻이다.

예컨대, 규제 샌드박스를 통해 개인정보 관련 AI 기술을 안전하게 실험할 수 있는 환경을 마련하거나, 기술기업·학계·시민사회의 의견을 수렴한 실효성 있는 규율 체계를 만드는 방식이 현실적이다.

AI 기술력을 키우는 것만으로는 글로벌 경쟁에서 살아남을 수 없다. 국민이 신뢰할 수 있는 AI 생태계가 뒷받침돼야 한다. 미국은 기술력으로, 중국은 데이터 규모로, 유럽은 규제 표준으로 AI 시장을 선도하고 있다. 한국은 ‘신뢰 기반의 AI’를 국가 전략으로 삼아야 한다.

이를 위해 개인정보위는 단순한 규제기관을 넘어, AI 시대의 핵심 전략 기관으로서의 역할을 자임해야 한다. 개인정보 보호와 AI 혁신이 대립하는 것이 아니라, 조화를 이룰 수 있다는 것을 입증하는 것, 그것이 이 기관에 주어진 시대적 책무가 아닐까 싶다.

홍주연 기자
jyhong@chosunbiz.com