[연세대 ISSU 리포트] ① AI 활용에 대한 사회·윤리적 논의, ‘공존을 위한 준비’
1억 월간활성사용자수(MAU) 달성하는 데 30개월이 걸린 인스타그램과 비교했을 때, 전례없는 속도를 보여주며 출시 2개월만에 이를 달성한 서비스가 있다. 바로 ‘생성AI(Generative AI)’ 기반 대화형 챗봇 서비스인 ‘챗GPT(ChatGPT)’다.
인공지능(AI/ML)의 한 형태인 생성AI는 대량의 데이터를 학습해 새로운 정보를 생성하고 응답하는 능력을 갖춘 시스템으로 텍스트, 이미지, 오디오, 비디오 등 다양한 형태의 콘텐츠를 만들어낼 수 있다. 대표 서비스로는 사용자의 명령어에 따른 그림을 그려주는 미드저니(Midjourney), 대화형 챗봇 챗GPT(ChatGPT) 등이 있다.
생성AI가 최근 전세계적으로 주목을 받는 이유로는 접근성과 효용성 차원에서 대폭적인 발전을 이뤘기 때문이다.
생성AI는 생성 속도나 정보의 정확성에서 차별점을 가질 뿐 아니라, 정보를 생성하는 데 있어 사용자의 구체적인 요청을 반영해주는 등 개인화된 정보를 제공할 수 있다는 점에서 높은 효용을 갖는다.
단순 정보를 가공해 전달해줄 뿐 아니라, 기존에 없던 창작물까지 생성하여 제공할 수 있고, 인간 고유의 영역이라 여겨져 온 예술 창작의 영역까지 AI가 침투했다는 사실도 사회에 적지 않은 충격을 주었다.
더 놀라운 점은 최근 공개된 GPT 4.0 모델은 이미지를 인식-이해-처리할 수 있는 멀티 모달(Multimodal) 기능을 갖춘 점이다. 이전까지는 텍스트만을 입력 데이터로 처리할 수 있었다면 가까운 미래에는 이미지, 영상, 음성까지 입력 데이터로 처리하여 생성AI의 확장성 차원에서도 고도화를 이룰 것이라 예상된다.
◆창작의 영역까지 침투한 인공지능(AI/ML)
생성AI는 기존에 없던 새로운 결과물을 생산하고 창작하는 데에 의의가 있으나, 그 결과물의 검증은 인간의 몫으로 남겨져 있다. 가령 이미지 생성AI를 활용해 그림을 그렸다면 그 결과물의 소유권은 누구에게 있으며 어디까지 표절로 받아들여야 할 것인가 등에 대해서는 아직 뚜렷하게 정해진 바가 없다.
이같은 특징으로 생성AI의 사회적·윤리적 문제에 대한 우려가 나오고 있다. 또 관련 선례가 없어 이를 처리하는 방법의 합당성에 대해서도 꾸준한 논의가 필요한 상황이다.
현재 가장 상용화된 생성AI 서비스인 챗GPT에서 문제 사례들을 확인할 수 있다. 챗GPT는 오픈AI(OpenAI)에서 학습된 대규모언어모델(LLM)로 사용자의 질의에 대한 답을 제공하는 대화형 챗봇 서비스다.
별도 절차 없이 회원가입만으로 무료로 서비스를 사용할 수 있으며 트래픽이 몰리지 않는 시간에는 서비스 사용 횟수 제한 없이 사용할 수 있어 다양한 사용자를 확보하는 데 성공했다.
하지만 접근성이 낮다는 특징으로 여러 문제 상황이 발생하기도 한다. 표절·부정행위에 악용 가능한 점이 대표 사례인데, 실제로 많은 대학생들이 챗GPT를 활용해 대학교 레포트와 과제를 제출하고 있다.
일부 관계자들은 표절 검증 툴(SW)을 사용해 이를 식별하고는 있으나 학습 모델의 특성 상 빠른 시일 내 검증이 어려운 수준으로 발전할 것이라는 우려도 있다.
이 서비스가 제공하는 데이터의 정확성 또한 문제가 될 수 있다. 챗GPT에 도입된 트랜스포커(Transformer) 아키텍처는 문장의 맥락을 기반으로 정보를 생성하는 구조로 설계돼, 잘못된 혹은 편향된 데이터가 입력된다면 결과물의 정확성 역시 보장될 수 없다.
또 생성AI는 결과물을 산출하는 데 사용된 근거 데이터를 제시해주지 않아 결과물의 정확성을 스스로 검증할 수 없는 사용자가 이를 맹신한다면 더 큰 문제가 될 수 있다.
이같은 문제 상황은 챗봇 형식의 텍스트 생성AI에만 국한되지 않는다. 텍스트 데이터뿐 아니라 이미지, 영상 등의 영역에서도 생성AI의 활용이 대중화되고 있으며 이에 따른 문제 상황들도 계속해서 발생하고 있다.
유명 셀럽의 얼굴을 도용·합성한 음란물의 제작-유포로 충격을 준 ‘딥페이크’가 대표 사례로 볼 수 있다.
기술이 발전함에 따라 원본 이미지와 생성형 AI가 만들어낸 이미지를 구분하기 어려워져 딥페이크와 같은 무분별한 이미지 생성AI의 사용으로 개인 초상권이 보장되지 못하고, 원치 않는 합성 이미지가 여러 곳에서 악용되는 경우가 발생한다.
◆AI윤리, 논란의 역사
생성AI가 대중화된 것은 비교적 최근의 일이지만, 사실 최신 기술 사용에 따른 윤리적 문제에 대한 논의는 이전부터 있어왔다.
엘런 튜링은 ‘튜링 테스트’를 고안해 최초로 고도화된 기계의 지능의 수행 여부를 판단하고자 했다. 튜링 테스트는 인간과 기계의 대화 내용에서 지능의 수행 여부를 판단한다. 대화 내용에서 상대가 인간인지 기계인지를 판단할 수 없을 정도로 기계가 고도화된 답변을 내놓는다면, 지능을 가진 것으로 판단한다.
이에 대한 반론으로 미국의 철학자 존 설은 ‘중국어 방 논증’을 제시한다. ‘중국어 방 논증’은 방 안에 있는 중국어를 모르는 사람이 중국어로 된 질문을 입력받으면 중국어 문법책을 통하여 이에 대한 답변을 방 밖으로 출력하는 가상의 중국어 방을 설정한다.
중국어 방의 정보 입출력은 중국어를 모르는 사람이 문법책에만 의존하여 결과를 도출해내는 것이기에 진정한 의미의 지능을 실현하는 것으로 볼 수 없다. 정확한 결과값을 도출해내는 튜링 테스트에서의 기계 혹은 중국어 방 내의 사람이더라도, 그 과정을 이해하지 못한다는 점에서 동일하다.
인공지능의 지능 수행 여부가 사회적·윤리적 문제의 논점이 되는 이유는 이를 인정한다면 곧바로 인공지능이 책임을 가진 주체가 될 수 있느냐는 논의가 뒤따르기 때문이다. 그러나 현재의 논의로는 인간의 지능에 대해서도 명확하게 규정할 수 없는 상황이다.
‘튜링 테스트’와 ‘중국어 방 논증’을 비롯한 인공지능에 대한 여러 논의는 현재 이슈로 떠오른 생성AI와 관련한 문제 해결을 위한 실질적인 방법이라고 볼 수 없다.
인공지능의 지능 수행 여부를 다룬 윤리적 논의의 시사점은 인공지능 기술이 그 자체로 문제가 되는 것인지에 대한 답변은 섣불리 할 수 없다는 점에 있다. 따라서 본질이 무엇인지에 대해 고민하기보다는 현실에서 발생되는 문제들에 대한 해결이 중요하다.
물론, 생성AI의 특성 상 산출물을 사전에 완벽하게 통제하는 것은 불가능하다. 따라서 이를 목표로 정책을 수립하기보다 사후에 발생하는 문제들을 재발하지 않게끔 제도를 정비하는 것이 실효성을 높이는 방법일 것이다.
이 과정에서 기술 차원, 그리고 입법 차원에서의 전문가들이 각자의 영역에서 전문성을 발휘하는 것이 중요하다. 국내에서는 관련 전문가들을 중심으로 여러 서비스에 공통적으로 적용가능하며 법적 실효성이 있는 규제 방안들을 마련하고자 하는 노력도 이어지고 있다.
현재 ‘지능정보화 기본법’을 중심으로 데이터, AI 인프라, 거버넌스, 정책으로 구분해 인공지능에 대한 제도와 정책을 수립하고 있으나, 하위 규정이 구체적으로 정립돼 있지 않다. 또 제도의 심의와 의결 담당자를 선정하는 과정에서 특정 경력 이상의 전문가를 초빙하기 때문에 사회 전체적인 의견을 수렴하는 데에는 한계가 있다.
갈등 관리·저작권법과 관련, 현재까지 국회에 계류된 법안도 다수다. 생성AI에 대한 법안은 큰 파급효과를 불러올 수 있는 문제 상황을 사전에 방지해야 한다는 당위성을 갖는다. 하지만 입법 차원에서 국회를 비롯한 여러 외부 이해관계가 얽혀있어 제도와 정책 수립에 있어서 진행 속도가 더뎌지는 상황이다.
◆사회적·윤리적 방향성, ‘공존을 위한 준비’
인류는, 몇 년전만 해도 상상할 수 없었던 신기술을 도입하면서 또 다른 사회적·윤리적 문제와 직면한 상황이다.
인공지능 윤리의 역사 측면의 논의에서도 현시점에서 관련 기술 자체가 윤리적 책임 주체가 될 수 있는지 판단하기 어렵고, 관련 서비스 자체가 지닌 윤리적 문제를 원천적으로 해결하는 것은 불가능하다.
생성AI를 비롯한 인공지능 활용의 의의는 인간과 기술의 협력으로 사회의 발전을 이뤄감에 있다. ‘생성AI 시대’를 우리가 체감하고 있는 것처럼, 관련 기술은 일상과 아주 가까워진 상황에서 단순히 인공지능을 둘러싼 이해 관계자들의 인식 재고만으로는 당면할 문제들을 해결할 수 없다.
생성AI가 급속히 대중화된 것처럼 빠른 속도의 기술 발전으로 인공지능 서비스가 우리사회에 더 깊숙이 관여하게 되는 것은 먼 미래의 일이 아니다.
인간과 인공지능의 공존이 사회에 불러올 혼란을 최소화하기 위해 이를 발전시키거나 사용하는 입장에서 앞으로 나아가야 할 사회적·윤리적 방향성을 명확하게 정립하는 과정이 필요하다.
생성AI의 창조주체-운용주체 각자 가질 수 있는 윤리적 책임성의 문제를 더 깊이 고민해야 할 때다. ‘인간과 비슷한 형태의 AI 대중화 시대’를 피해갈 수 없다면 일상에서 이를 문제 없이 활용할 수 있는 방법을 찾기 위한 노력이 필요하다.
실효성 있는 규제가 아직 완벽히 마련되지 않은 현 상황에서 AI 개발자-이용자가 서로 책임을 공유하며 인공지능과의 ‘공존을 위한 준비’가 필요한 시점이다.
글: 연세대학교 경영학과 홍산하 / 연세대학교 문헌정보학과 김연진
“연세대학교 IT경영학회 ‘ISSU(Information System SIG of Undergraduate)’ 학회원 17명이 IT비즈뉴스(ITBizNews)와 2023년 1학기 동안 팬데믹과 엔데믹을 거치며 도래한 IT기술이 제시하는 미래사회 키워드, 윤리적 이슈 등을 주제로 스터디를 진행했다. MZ세대 시선에서 보는 전망과 고민을 담고자, 편집을 최소화한 글을 약 2주간에 걸쳐 전달한다.” [편집자주]
관련기사
- “투자자 이익제한으로 공정성 확보”…오픈AI의 실험 ‘제한수익’ 모델 주목
- “챗GPT가 일으킨 자신감”…엔비디아, 시총 1조 달러 반도체 기업 등극하나
- 메타, 대규모 다국어음성인식 AI모델 오픈소스 공개
- [구글 I/O 2023] 폴더블 ‘픽셀 폴드’ 공개, AI챗봇 ‘바드(Bard)’ 한국어 지원한다
- “올해 전세계 퍼블릭클라우드 시장 6천억 달러 육박”
- 오픈AI가 일으킨 AI쇼크, “기업 C-레벨, AI 거버넌스 구축해야”
- “갤럭시 검색엔진, 빙으로 바꿔? 말어?” 소식에 구글 ‘패닉’
- [그것을 알려주마] 챗GPT의 주가 예측, 믿을 수 있을까?
- AI 도입 확대, 각국 정부 규제논의 확산…이탈리아는 “챗GPT 사용 금지”
- 6월 2주차 콘텐츠 통합 랭킹…마동석 ‘범죄도시’ 시리즈 OTT·극장서 쌍끌이