AI 경제의 지속가능한 발전 조건
챗 GPT로 대표되는 생성형 인공지능(AI)은 새로운 차원의 AI다. 단백질 3D 구조를 정확히 예측하는 딥마인드의 ‘알파폴드’나 220만개의 신소재 구조를 탐색해냈다는 ‘구글놈’ 같은 딥러닝 AI 시스템이 테크를 위한 테크라고 한다면, 생성형 AI는 인간을 위한 테크에 가깝다. 인간 고유의 창의성과 지적 능력을 발휘하는 생성형 AI는 경제는 물론 사회 전반에 혁신적 변화를 일으키고 있다.
AI를 통한 생산성 향상은 기업의 미래 경쟁력을 결정하는 중요한 요소다. 매킨지는 생성형 AI가 전문지식을 사용하는 직역이나 관리직의 생산성을 34% 향상시킬 것으로 예측한 바 있다. 이미 콜센터나 마케팅·광고업체, 정보통신( IT)업체 등에서는 AI가 인력을 대체하고 있다. AI는 복잡한 대외 환경에서 기업의 준법위험을 분석하고 대응하는 데 활용될 수도 있다. 수출 통제나 경제 제재 조치에 저촉되는지를 판단하거나 공급망 규제에서 요구되는 탄소발자국 계산을 수행할 수 있다.
IT 강국 한국, AI 경쟁력은 뒤처져
AI 시장 규모도 빠르게 확장되고 있다. 의료·헬스케어, 클라우드 등 데이터 사업, 핀테크 등 광범위한 분야에 AI 투자가 행해지고 있다. 2029년까지 AI 솔루션 시장의 규모만 최소 500억 달러에 달할 것으로 예상된다. 제조업에 AI가 창출하는 부가가치만 2조6000억 달러에서 4조4000억 달러 수준에 이를 것으로 추산한다. 지난 9일 미국 라스베이거스에서 개최된 세계 최대 IT기술 전시회 ‘CES 2024’에서는 AI 전문기업이 아닌 헬스케어와 화장품, 소비재 유통기업, 전통 제조업체까지도 AI를 적용한 다양한 서비스와 제품을 내놨다. AI가 모든 산업과 일상에 스며드는 ‘AI 유비퀴터스’ 시대가 도래하고 있다.
AI 주도권을 잡기 위한 국가 간 경쟁도 치열하다. AI 강국인 미국과 중국은 물론, 싱가포르·영국·프랑스·캐나다·인도·사우디아라비아·아랍에미리트 등도 AI 산업을 적극 지원하고 있다. IT 강국인 한국은 AI에서 만큼은 주도권을 잡지 못하고 있다. 영국 토토스 인텔리전스가 집계한 한국의 글로벌 AI 경쟁력 순위는 세계 6위지만, 민간 투자와 인재 경쟁력 부문의 순위는 각각 18위, 12위에 불과하다. AI 산업에 대한 민간 투자와 기술 혁신을 이끌 인재 양성에 국가 역량을 집중해야 할 필요가 있음을 보여준다.
그러나 AI 산업 발전을 투자와 기술혁신만으로 이룰 수 없다. AI 사용이 확산할수록 AI 개발과 사용에 따른 사회적·안보적 위험도 커질 수밖에 없고, 이에 상응한 규제와 책임이 따라올 수밖에 없다. AI를 둘러싼 규제와 책임을 함께 고려하지 않고는 AI 산업이 제대로 발전할 수 없다.
무엇보다 AI와 관련해 발생하는 수많은 법률문제를 이해하고 대응하는 것이 AI 혁신에 중요하다. 대량의 텍스트와 오디오, 비디오, 심지어 코딩자료를 학습하는 생성형 AI는 타인의 창작물을 허가 없이 사용할 수 있다. 실제로 미국에서는 생성형 AI가 출시되자마자 개발사를 상대로 수십 건의 저작권 침해 소송이 제기됐다. AI가 만들어낸 창작물이 누구에게 귀속되는지, AI 창작물에 저작권이나 특허권을 부여할 수 있는지도 문제가 되고 있다.
AI 민사책임법 도입 서두르는 EU
기업의 인사 관리나 업무 배정 같은 의사 결정에 사용되는 AI 혹은 자율주행차 등에 투입된 AI로 인해 피해를 본 개인은 누구를 상대로 어떤 책임을 어떻게 물을 수 있을 것인가. 이런 문제는 기존 법체계에서 명쾌하게 해결하기 어렵다. 유럽연합(EU)은 AI에 특유한 문제를 고려해 종전의 손해 배상 법리나 입증 책임을 수정한 AI 민사책임법 도입을 서두르고 있다.
사회와 안보에 대한 AI의 위험을 방지하기 위한 정부 규제도 속속 도입되고 있다. AI 산업은 합리적 규제의 틀 안에서 건강하게 발전할 수 있다.
AI가 초래하는 사회적 위험에는 가짜뉴스와 딥페이크(특정 인물의 가짜 영상이나 왜곡된 이미지), 차별, 개인정보 침해, 일자리 소멸 등이 있다. 특히 거짓 정보와 딥페이크는 사회 구성원간의 신뢰를 무너뜨리고, 공정 선거를 기반으로 하는 민주주의 체제를 위태롭게 할 수 있다. 11월 대선을 앞둔 미국이나 4월 총선이 코앞에 닥친 한국에서는 가짜뉴스와 딥페이크 유포 가능성에 법 집행기관이 바짝 긴장하고 있다.
궁극적으로 AI가 터미네이터 영화에 나오는 스카이넷처럼 인간의 통제를 벗어나 인류 종말을 초래할 수 있을지에 대한 논쟁은 계속되고 있다. 인간의 통제를 벗어난 파괴적인 초지능 AI는 나올 수 없다고 주장하는 과학자도 있지만, 많은 AI 개발자는 거대언어모델 AI가 발현하는 창의적 능력을 예측할 수 없는 경우가 많으며 AI의 내부 작동을 이해하거나 통제할 마땅한 기술도 없음을 고백하고 있다. 결국 인류 종말의 위험도 배제할 수는 없다.
AI 신뢰성 검증이 규제 핵심
조 바이든 미 대통령이 지난해 10월 30일 공표한 ‘인공지능의 무해하고 안전하며 신뢰할 수 있는 개발 및 사용에 관한 행정명령’은 지금까지 제기된 모든 AI 위험을 수용하면서 10여개 관련 정부 부처와 기관에 각자의 소관 분야에서 AI 위험을 분석하고 대응 방안을 마련할 것을 명하고 있다. 특히 미 상무부 산하 국가표준기술원(NIST) 등에 대해서는 270일 이내에 AI의 위험을 평가하고 AI의 신뢰성을 검증할 절차와 기준을 마련하도록 요구하고 있다. 가장 위험도가 높은 소위 ‘이중용도 파운데이션 모델’(군사 안보나 경제 안보, 국민 건강을 위협하는 용도로 사용될 수 있는 AI 모델) 개발자에게는 엄격한 레드팀 테스트(모의 적군 시험)를 실시하도록 요구하고 있는 것도 눈에 띈다.
이처럼 국가 안보에 대한 AI의 위협을 중시하는 미국의 AI 행정명령은 개인정보 보호 등 개인의 권리 보호에 방점을 두는 EU의 AI법이나, 사회주의 체제 보호를 우선시하는 중국의 AI 법령과 대비된다. 하지만 어느 국가나 AI 개발자 스스로 또는 국가기관을 통해 AI의 위험을 평가하고 검증하는 규제 방식을 취한다는 점에서는 대동소이하다. 결국 AI 위험을 분류하고 그에 맞춰 AI 시스템의 신뢰성을 평가하는 세부 기준(Standards)과 절차를 수립하는 것이 AI 규제의 핵심임을 알 수 있다.
AI의 본격적인 등장으로 최근 디지털 규범의 방향이 바뀌고 있다는 점도 주목할 일이다. 미국은 지금까지 디지털 협상에서 데이터의 자유로운 이동을 보장하고, 서버 현지화 요구를 금지하며, 정부가 기업의 소스코드 제공을 요구해서는 안 된다는 입장을 취해왔다. 그런데 지난해 10월 미국은 세계무역기구(WTO) 디지털 협상에서 이와 같은 원칙을 더는 지지하지 않는다고 선언했다. 종래의 원칙이 거대 AI 기업(빅 테크)의 독과점을 견제하고 AI 알고리즘을 받아 AI 시스템의 신뢰성을 검증하겠다는 AI 규제 방향과 맞지 않았기 때문일 것이다. 아이러니하게도 이로써 미국의 디지털 정책은 데이터 이동을 제한하고 기업의 소스코드 제공을 요구하는 중국의 입장과 큰 차이가 없게 됐다.
미·중 경쟁, AI 발전 구도 결정할 수도
AI를 둘러싼 미·중 패권경쟁도 AI 경제의 발전 구도를 결정하는 요소다. AI는 군사 용도로 사용할 수 있는 전형적인 ‘이중용도’ 기술로 미·중 기술패권 경쟁의 중심에 설 수밖에 없는 운명이다. 지난해 10월 미국 정부는 중국에 AI 반도체를 공급하는 엔비디아 등 미국 반도체 기업의 강한 반발에도 첨단 반도체 제조 장비와 첨단 컴퓨팅 반도체(소위 AI 반도체) 등의 대중 수출을 전면 금지하는 조치를 단행했다. 또한 미국의 AI 행정명령에서는 생성형 AI의 학습 훈련에 필수 인프라인 미국의 클라우드 서비스에 중국 업체의 접근을 제한하는 규정을 두고 있다.
앞으로 미국의 대중 AI 기술 통제는 더 강화되고 확대될 가능성이 크다. 따라서 반도체 등 AI 공급망에 참여하고 있는 한국 기업은 미·중 경쟁이 글로벌 AI 비즈니스 환경에 미치는 영향을 염두에 둬야 한다.
AI는 그 내재한 위험으로 인해 국내·외 각종 규제와 법률적 책임을 피할 수 없다. AI에 의한 혁신은 일정한 규제 환경과 법률체계 안에서 이뤄질 수밖에 없다. AI를 개발하는 엔지니어나 AI에 투자하고 이를 사용하는 기업은 AI 기술은 물론 관련 규제와 법률을 함께 이해하지 않으면 안 된다. AI 관련 규제와 법률은 안전하고 신뢰성 있는 AI 경제를 구축하고 AI 산업이 지속해서 발전할 수 있게 하는 필요조건이다. 건강한 AI 생태계를 만들기 위해 정부는 물론 AI 엔지니어, 기업, 법률가가 함께 협력해야 하는 이유다.
김두식 테크앤트레이드 연구원 상임대표·변호사