혁신 신기술 AI와 인류의 공존이 지속되려면 AI에 대한 신뢰와 안전을 확보하기 위한 원칙들이 정립되어야 한다. 그 시작점은 ‘AI윤리’이다. 모든 신기술이 보편적으로 따르는 윤리 원칙인 공공성과 책무성은 AI에서도 중요하다. 또한 AI가 가지는 차별적인 특성인 자율성과 지능성에 대응하여 AI의 통제성과 투명성도 중요한 AI 윤리원칙이다. |
딥페이크 사건과 윤리 지체 현상 2024년 여름, 아동 청소년을 중심으로 벌어진 텔레그램 딥페이크 사건은 사회를 떠들썩하게 했다. 국회는 모처럼 뜻을 모아 관련 법을 개정하여 딥페이크 법죄자들에 대한 처벌을 강화했다. 교육청은 본 사안을 학폭위(학원폭력대책심의위원회)에 상정하여 해당 학생들에게 정학과 퇴학 조치를 내렸다. 이번 사태의 근본적인 원인은 소위 윤리 지체 현상”에 있다.[1] 기성세대에게 AI는 아직도 미래 기술이다. AI에게 어떤 부작용과 역기능이 있는지 아직 모른다. 반면에 우리 아이들에게 AI는 현재 기술이다. 아이들의 삶 속 깊숙이 AI 서비스가 자리잡고 있다.[2] 아이들에게 있어서 딥페이크는 신기한 장난이었다. 친구의 사진을 순식간에 음란물로 바꾸어 주는 ‘지인능욕’은 새로운 놀잇거리였다. 아이들에게 AI 윤리를 교육해 준 어른도 학교도 없었다. 현재 기술을 미래 기술로만 바라본 어른들의 “윤리 지체 현상”이 고스란히 아이들에게 피해로 전가된 사건이다. 혁신 기술 AI의 양면성과 AI 윤리 우리 사회는 디지털 전환(DX, Digital Transformation)이 진행 중이다. 디지털 기술은 업무의 효율성을 높여주고, 생활의 편익을 증진한다. 더 많은 경제적 이득을 제공하고 새로운 부와 가치를 창출한다. 건강 증진과 수명 연장에도 도움을 줄 뿐만 아니라 다양한 소통을 기반으로 집단 지성을 가능하게 해준다. 그럼에도 디지털 기술은 생각지도 못한 부작용과 역기능을 수반한다. 디지털 전환의 중심에 AI가 있다. AI의 순기능이 크면 클수록, 부작용과 역기능도 비례하여 커진다. 이러한 AI의 부작용과 역기능에 대비하기 위해 AI 윤리가 필요하다.[3] 여기에 몇 가지 질문이 따른다. 첫 번째 질문. 왜 법이 아니고 윤리냐는 것이다. 독일 법학자 엘리네크의 말처럼 “법은 윤리의 최소한”이며, 미국 대법관 얼 워런은 “법은 윤리라는 바다 위를 떠다니는 배”라고 했다. 훌륭한 법의 전제 조건이 사회적으로 충분하게 성숙한 윤리인 것이다.[4] AI와 같은 디지털 신기술은 발전 속도가 너무 빨라서 문자화된 법으로 모든 문제를 다 다룰 수 없다. 법은 문자로 기술된 것들로 적용된다. 반면에 윤리는 인간 안에 있는 양심을 기반으로 모든 상황에서 작동한다. 윤리적 성숙 과정 없이 입법이 먼저 이루어질 경우, 부작용이 심각해질 수 있다. 두 번째 질문은, 왜 처음부터 AI 윤리냐는 것이다. 그 이유는 디지털 기술의 비가역성 때문이다. AI와 같은 디지털 기술이 제공하는 순기능은 워낙 강력하다. 그래서 부작용과 역기능이 심각해져도 원래 상대로 돌아가기 힘들다는 것이다. 스마트폰 과다 사용으로 사람들이 중독되고 피폐해지며 심지어 죽음으로 내몰리는 경우가 있다고 해서 스마트폰 없는 세상으로 돌아갈 수는 없다. AI가 도입되는 시작 단계부터 AI윤리룰 논의하고 확산시켜야 하는 이유다. 보편적인 원칙으로서의 AI 윤리 어떤 신기술이 출현하여 사회에 변화와 혁신을 일으킬 경우, 이 신기술을 우리 사회가 수용하기 위한 보편적인 윤리 원칙들이 있다. 그 중 하나가 공공성(publicness)이다. 소수가 아닌 인류 전체의 번영에 도움이 되는 기술이어야 한다는 원칙이다. 공공성 안에는 초점을 달리하는 세부 원칙들이 존재한다. 예를 들어, 소수에 대한 차별과 편견이 존재하지 않아야 한다는 공정성(fairness), 서로 다르게 사고하며 살아가는 인류 모두를 소중히 인정하는 다양성(diversity), 해당 기술에서는 소외될지언정 혜택에서는 소외되지 않도록 해야 한다는 포용성(inclusiveness) 등이 그것이다. 이런 원칙들은 공공성의 일부이거나 공공성의 다른 모습이다. 두 번째 보편적 원리는 책무성(accountability)이다. 신기술을 활용하여 기회를 만들고 신사업을 이끄는 퍼스트 무버(first mover)에 적용되는 원칙이다. 퍼스트 무버들은 신기술을 도입하여 새로운 가치와 경제적 부를 창출할 수 있다. 반면 인간과 사회에 위해를 초래할 수도 있다. 이러한 위해에 대해서는 신기술을 활용한 행위 주체가 모든 책임을 져야 한다. 이를 ‘책임성(responsibility) 원칙이라 한다. 이에 비해 ‘책무성’은 책임성을 포괄하는 보다 넓은 의미이다. 신기술로 인한 사고가 일어나면 손해배상을 즉각 진행하는 것은 책임성에 부합한 행동이다. 반면에 사고가 날 때마다 원인을 규명하여 피해자에게 설명하고 사고가 재발하지 않도록 개선하는 행동은 책임성을 넘어선 책무성에 속한다. 이러한 책무성과 동일선상에서 등장하는 원칙이 안전성(safety)과 보안성(security)이다. 안전성은 AI가 정상적으로 작동하면서도 예상치 못한 행동이나 상황으로부터 사람, 재산 또는 환경에 피해를 주지 않도록 보장하는 것이다. 반면에 보안성은 외부의 악의적인 공격과 침해로부터 AI가 보호되어야 함을 의미하며 크게는 안전성에 포함되는 원칙이다. 최근에 안전성은 AI에 대한 신뢰성(trustworthiness)을 위한 선결 조건으로 인용된다. 그래서 영국, 미국, 캐나다, 일본에 이어 우리나라도 안전성을 내세운 AI 안전 연구소(AISI, AI Safety Institute)를 개설하여 AI에 대한 신뢰성 확보에 대한 국가적 연구를 추진하고 있다. 제조물책임법에서는 제조물 하자로 인한 사고의 책임을 제조자에게 부과한다. 그러나 AI는 자율적으로 동작하고 판단하므로 사고 발생에 따른 책임을 전적으로 AI 제조자(개발자)에게만 묻기 곤란해진다. 그렇다고 AI 이용자에게 전적을 책임을 지울 수도 없다. 자율주행차의 경우, 이용자에게 사고 책임을 물을 수 없는 레벨 4와 5에서 운행하는 도중에 교통사고가 발생했다고 가정해 보자.[5] 이 경우 누가 책임져야 하는가? 보험사가 사고의 책임을 담당하여 보상하도록 할 수도 있지만, 보험료는 궁극적으로 이용자의 부담이라는 문제가 있다. 그래서 AI의 책무성과 책임성이라는 관점에서 AI를 독립된 행위 주체로 인정하자는 제안까지 나오기도 한다. 차별화된 특성에 기반한 AI 윤리 원칙 다른 디지털 신기술에 비하여 AI가 가지는 차별화된 특성 때문에 차별화된 AI 윤리 원칙이 요구된다. AI의 가장 두드러진 차별성은 자율성(autonomy)이다. 유럽연합(EU)이 제정하여 2024년 8월 1일부터 시행에 들어간 AI법에서도 자율성을 AI의 핵심 특성으로 기술하고 있다. AI는 인간의 개입 없이도 스스로 움직이고 결정한다. 이러한 AI의 자율성에 대응하는 윤리 원칙이 통제 가능성(controllability)이다. 어떤 AI도 인간에 의한 통제가 가능해야 한다. 궁극적인 자율성을 거진 AI가 SF 영화에 등장하는 초지능(superintelligence)이다. [6] 이 초지능이 인간의 통제를 벗어나는 위험은 공상이 아니라 조만간 실현 가능할지 모른다. 이러한 우려가 현실화되는 시점이 바로 레이 커즈웨일이 말한 특이점(singularity)이다.[7] 이런 초지능 AI를 바라보는 두가지 시각이 대립하고 있다. AI가 인류의 멸망을 초래할 수도 있으므로 처음부터 AI를 잘 통제해야 한다는 이른바 두머(doomer) 그룹과. 그렇게 걱정할 바가 아니라는 부머(boomer) 그룹이 그것이다. 아직은 부머그룹이 주류 세력이다. 이 둘은 기업 현장에서 부딪히기도 한다. 예컨대 2023년 11월 챗GPT를 만든 OpenAI의 샘 알트만 대표(부머)를 전격 해고했던 이사회는 제프리 힌튼 교수의 수제자 일리야 슈츠케바 기술이사(두머)가 주도했다.[8] AI의 통제성을 확보하기 위한 기술적 조치로서 킬 스위치(kill switch)가 거론된다. 그러나 지금 수준의 컴퓨터에서는 킬 스위치가 통할지 모르지만, AI가 발전을 거듭해서 범용인공지능(AGI) 단계에 들어서고 스스로 초지능으로 진보할 경우는 이야기가 달라진다. 킬 스위치와 관련된 모든 사물 인터넷(IoT)를 AI가 보안 차원에서 스스로 차단하여 킬 스위치를 무력화할 가능성이 크다. 최근 갈수록 늘어나는 자동차 급발진(UWA) 사고는 “바퀴 달린 컴퓨터”가 통제를 벗어났기 때문에 발생한 것일 수도 있다. 하물며 앞으로 이보다 더 고도의 자율성을 가진 AI가 출현할 때 과연 인간이 그런 AI를 통제할 수 있을지는 미지수이다. AI의 또 다른 차별화된 특성은 지능성(intelligence)이다. 최근 AI는 각 분야의 전문가보다 우수함을 증명해 왔다. AI의 70년 발전사를 보면 3번의 하이프 사이클(hype cycle)이 존재한다. 앞선 두 번의 하이프 사이클에서는 AI의 성능이 기대만큼 미치지 못하여 침체기, 즉 겨울기로 이어졌다. 그런데 지금 여름기를 향하고 있는 3번째 하이프 사이클에서는 AI의 지능성이 훨씬 향상되었다. 세계 체스 챔피언을 AI가 이겼고, 세계 바둑 챔피언도 이겼으며, 미국 전체 퀴즈왕도 현격한 차이로 이겼다. 최근에 등장한 생성형 AI는 모든 분야에서 우수한 인간보다 더 우수할 수 있음을 보여준다. 그러나 그렇다고 해서 이러한 AI의 지능성을 인간이 그냥 인정하고 무조건 수용할 수는 없다. 특히 개인의 진로와 운명을 결정하는데 있어서 AI가 개입하거나 주도한다면 더더욱 그렇다. 입사 여부를 결정하는 AI 면접관, 비자 승인 여부를 결정하는 AI 외교관, 유죄 여부를 판단하는 AI 재판관이 그런 예다. 이처럼 어지간한 전문가보다 똑똑한 AI의 지능성에 상응하는 윤리 원칙은 투명성(transparency)이다. AI가 어떤 기준과 원칙으로 동작하는지 그 내부를 인간이 이해할 수 있도록 훤히 보여주어야 한다는 원칙이다. 그리고 이처럼 똑똑한 AI의 결정으로 운명과 진로가 바뀐 당사자에게 왜 그런 결정을 AI가 내렸는지 설명해 줄 수도 있어야 한다. 이것은 설명 가능성(explainability)이다. 우리나라 개인정보보호법 제37조 2항에도 이와 관련된 내용이 추가되었다. 최근 AI는 대부분 딥러닝 기반으로 데이터를 학습한 후 동작한다. 초창기 챗GPT만 해도 딥러닝의 결과를 1,750억 개의 파라미터 값에 보관하고 있었으며, 최신 거대언어모델(LLM)의 경우 파라미터는 1조 개를 넘긴다. 따라서 AI가 어떻게 해서 특정 출력을 생성하고 판단을 내렸는지 기준을 제시하고 내부 과정을 설명해 줄 수 있는 설명 가능한 AI(XAI)는 기술적으로 큰 부담으로 남아 있다.[9] 생성형 AI에 특화된 윤리 원칙 2022년 11월 거대언어모델(LLM) 기반의 생성형 AI 챗GPT가 공개된 이래, 수많은 생성형 AI가 봇물 터지듯이 공개되었다. AI가 사람처럼 글도 쓰고, 그림도 그리고, 영상도 제작하는 등 창작활동을 하면서, 새로운 윤리 이슈와 원칙이 부상되었다. 가장 뜨거운 부분은 저작권 보호(copyright protection) 원칙이다. 이는 윤리를 넘어 법 원칙이기도 하다. 대다수의 AI는 우수한 학습력을 자랑하고자 인터넷상에 존재하는 모든 데이터를 다 학습했다고 공표했었다. 그런데 그런 AI가 생성하는 합성 산출물(synthetic output)의 표현에 기존 저작물과 유사한 표현이 나타나기 시작했다. 저작권 침해 여부를 판단할 때 확인하는 중요한 두 기준인 ‘인과성’과 ‘실질적 유사성’에 AI가 모두 부합하는 셈이다. 생성형 AI가 학습 과정에서 사용한 방대한 데이터가 사회 공익을 위한 공정 사용(Fair Use)에 해당하는지 아니면 저작권 침해에 해당하는지의 법적 논쟁은 더 지켜봐야 한다. 아울러 AI가 생성한 합성 산출물은 누구에게 저작권을 부여할지도 논의 대상이다. 이처럼 저작권 보호는 생성형 AI의 새로운 윤리 원칙으로 부각되고 있다. 생성형 AI에 특화된 또 하나의 AI 윤리 원칙은 구별 가능성(discriminability)이다. AI가 생성한 글, 그림, 영상이 워낙 정교하고 진짜 같아서 인간의 저작물과 구분이 힘들어 사회적으로 일어나는 혼란을 줄이기 위한 원칙이다. 2024년 텔레그램 딥페이크 사건도 크게 보면 구별 가능성 윤리 원칙을 따르지 않아서 생긴 사건이다. AI 합성 생성물에 꼬리표(labeling)를 부착하거나 워터마크를 삽입하는 것, AI로 만들었다고 공개 선언을 하는 것(disclosure)은 모두 구별 가능성 원칙을 따르는 조치이다. 구별 가능성 원칙은 앞선 투명성 원칙을 생성형 AI에 특화한 것으로도 볼 수 있다. 우리는 이미 AI와 공존하는 사회에 접어들었다. AI는 기대 이상의 순기능을 발휘하며 새로운 혁신 동력이 될 것이다. 그렇지만 AI의 순기능 못지않게 잠재적인 위험에 기반한 부작용과 역기능으로 인해 성장에 발목을 잡힐 수도 있다. 모처럼 다시 맞이한 AI 여름기가 혹시나 겨울기로 다시 접어든다면, 그것은 AI의 성능이 기대보다 우수하지 못해서가 아니라 AI에 대한 우리 사회의 신뢰성이 무너졌기 때문일 것이다. AI 윤리는 인류와 AI의 공존이 중단되지 않도록 하기 위한 예방적 대안이다. AI 윤리는 공존의 시작 단계부터 중요하게 고려되어야 하며 사회적 공론의 장에 꾸준히 올려져야 한다.
Endnotes [ 1 ] 김명주 (2024. 9. 25), “[세상읽기] 딥페이크 사태가 남겨준 교훈”. 경기일보. [ 2 ] Tortois Media (2024), “The Global AI Index”. https://www.tortoisemedia.com/intelligence/global-ai [ 3 ] 김명주 (2017), “인공지능 윤리의 필요성과 국내외 동향”. ⟪정보와 통신⟫, 34권 10호, 45-54쪽. [ 4 ] 김명주 (2024), “인공지능의 잠재적 위험과 국제적 규제 동향”, ⟪문명과 경계⟫, Vol.8, 43-77쪽. [ 5 ] SAE International (2021. 3. 3), “Levels of Driving Automation”, https://www.sae.org/blog/sae-j3016-update [ 6 ] Bostrom, N. (2014). “Superintelligence: Paths, Dangers, Strategies”, Oxford University. [ 7 ] Kurzweil, R. (2005), “The Singularity is Near: When Humans Transcend Biology”. Viking. [ 8 ] 타타임즈 TV (2023. 11. 6), “일론 머스크도 ‘팽’했던 오픈AI 이사회, 그들은 왜? (김명주 서울여대 교수)”, https://www.youtube.com/watch?v=o4NNzgL7Yj8&t=53s [ 9 ] Longo, Luca; et al. (2024). "Explainable Artificial Intelligence (XAI) 2.0: A manifesto of open challenges and interdisciplinary research directions". Information Fusion.
|