MS 막강한 AI 모델 ‘GPT-3', 유료화 나서
막대한 자본 투입으로 단일 플랫폼화 예상
산업계 "한번 채택시 계속 종속될 수밖에 없을 것"

인공지능(AI) 산업이 막대한 ‘자본의 힘’에 의해 움직일 수 있다는 우려가 나온다. 우리 기업이 기술로 따라가려 해도 이미 시장을 선점한 미국·중국이 막대한 자본으로 플랫폼화를 한다면 우리가 쉽사리 따라가기 힘들 것이란 지적이다. 이미 AI원천 기술에서 이런 현상이 나타난다는 주장도 제기됐다.

21일 업계에 따르면, 마이크로소프트(MS)가 수익화에 나선 인공지능(AI)모델 ‘GPT-3’에 관해 AI업계는 역대급 성능에 대한 호평과 함께 AI기술의 자본주의 종속을 걱정한다. 일각에서는 대응책을 내놓아야 한다는 의견을 내놨지만, 국내외 기술 격차를 고려하면 쉽지 않다는 평가가 이어지고 있다.

 / Unico24
/ Unico24
GPT-3는 그동안은 접할 수 없던 탁월한 성능의 NLP(자연어처리) AI 모델이다. 실제로 다수 외신은 정확한 수치가 공개되지 않은 GPT-3 1회 학습 비용만을 약 50억~150억원으로 추산한다.

NLP를 대표하는 BERT는 한 번의 학습에 약 800만원의 비용이 소요되는 점을 고려하면 천문학적인 차이다. GPT-3의 뛰어난 성능 배경에는 막대한 자본이 있는 것이다.

특히 이 과정에서 막대한 자본이 소요되는데 우리 기업들이 주체하지 못할 정도의 자본을 보유한 미국 기업과의 경쟁에서 살아남을 수 있느냐는 의문이 나온다.

이경일 솔트룩스 대표는 "심층 신경망, 기계학습에는 수많은 데이터와 연산이 필요하다. 필요한 장비와 전기 소모량도 무시할 수 없다"며 "누가 자본금이 많고, 데이터도 많으면서 운용할 수 있는지가 중요한 문제가 됐다"라고 설명했다.

현행 딥러닝(기계학습의 한 종류)기반 AI개발이 자본력과 직접적인 관계가 있다는 주장이다. 알파고와 같은 기계학습은 투입되는 양질의 데이터와 AI성능이 직결되는 만큼, 자본력에서 밀리면 경쟁에서 도태될 수 밖에 없다는 분석이다.

이 대표는 자본주의가 AI개발에 지대한 영향을 끼치는 것에 "기업 대 국가의 문제로 번질 가능성이 있다"면서도, "전문가들도 ‘베네피셜AI(인간의 삶에 직접적으로 도움 되는 AI)’나 ‘설명 가능한 AI(AI 판단 근거를 인간이 이해할 수 있게 제공하는 AI)’ 등을 통해 대안을 고민 중"라고 밝혔다.

이어 그는 "걱정되는 부분은 둘 중 어느 방향의 발전이 빠른가다. 충분한 사회적 합의가 필요한 시점"라고 덧붙였다.

"세밀한 특화 기술과 창의력에서 새로운 가능성 기대"

IT 공룡기업과의 직접적인 대결을 피해야 한다는 주장도 나온다. 삼성전자가 구글 플레이스토어 플랫폼을 활용해 스마트폰 단말기를 판매했듯이, 주도권을 빼앗기더라도 새로운 시장을 만들 수 있다는 것이다.

 AI시장이 막강한 자본으로 무장한 미국 주도로 전개될 수 있다는 우려가 나온다. 사진은 최근 국립국어원이 개최한 AI 미래를 논의하는 좌담회 모습 /IT조선 DB
AI시장이 막강한 자본으로 무장한 미국 주도로 전개될 수 있다는 우려가 나온다. 사진은 최근 국립국어원이 개최한 AI 미래를 논의하는 좌담회 모습 /IT조선 DB
이연수 엔씨소프트 실장은 "밸류 체인(기술 등 경쟁적 지위를 파악하고 유리한 지점을 찾는 모형)을 고려할 때"며 "NLP도 세분화할 수 있다. 특정 감정을 잘 담는 감성 AI나 특정 언어처리나 이해 분야 기술 등 모듈화된 전문성 할 수 있다"라고 설명했다. 예를 들어 자동차 업체 중 특정 부품 전문 기업이 있는 것과 같다.

이를 위한 창의적인 접근도 주문했다. 강인호 네이버 책임리더는 "현재 AI는 만능이 아니다. 특정 분야에서 경쟁력을 가질 수 있다"며 "정말 필요한 분야에 AI 접목하고, 개발하는 게 필요하다. 아직은 자신 있다. 더 창의적인 서비스를 선보이겠다"라고 설명했다.

<용어설명> GPT-3
OpenAI에서 개발한 인공지능 모델이다. GPT(Generation Pre-trained Transformer)-3는 딥러닝을 이용해 사람이 사용하는 텍스트를 만들어내는 AI 모델로, ‘-3’에서 알 수 있듯이 3번째 버전이다. 총 1750억개의 변수를 보유하고 있다. 이 변수는 2020년 5월 도입된 GPT-2보다 2배 이상 많다. 반년도 안돼 변수를 두배 이상 늘린셈이다. GPT-3는 언어 문제풀이, 글짓기, 사칙연산, 번역, 주문에 따른 간단한 웹 코딩 등으로 알려져 있다. GPT-3로 생성된 문장은 사람이 작성한 것과 구별하기 힘든 것으로 전해진다.

송주상 기자 sjs@chosunbiz.com