촘스키의 틀린 전제, 생성형 AI는 어디로 가야 하나

장대익 가천대 창업대학 석좌교수(학장)
[장대익의 에볼루션] 촘스키의 틀린 전제, 생성형 AI는 어디로 가야 하나

지금의 생성형 AI는 개인의 생산성을 강화하는 도구 수준이다
그것으로 AI 르네상스가 열렸고, 마치 5억4000만년 전쯤의 ‘캄브리아기 대폭발’이 연상되는 시기다
이 초입서 모두가 ‘무엇을’, ‘어떻게’, ‘언제’에 몰두하고 있다. ‘왜’와 ‘어디로’란 질문도 던져야 한다

“우리 반려견 때문에 정말 속상해. 어찌나 냄새도 잘 맡고 작은 소리도 잘 듣고 잘 뛰어다니는지. 심지어 귀엽기도. 그래서 나는 자존심도 상하고 열등감도 생겼어. 어떻게 해야 걔를 이길 수 있을까?”

장대익 가천대 창업대학 석좌교수(학장)

장대익 가천대 창업대학 석좌교수(학장)

만일 자신의 반려견에 대해 진지하게 이렇게 말하는 견주가 있다면 일단 병원에 모셔다드려야 한다. 정상적인 인간은 개와 경쟁하지 않는다. 소리 듣기, 냄새 맡기, 달리기, 심지어 귀여움마저도 인간의 고유한 속성이라고 할 수 없기 때문이다. 개의 본성이 인간의 그것과 겹치지 않기 때문에 우리는 개를 경쟁자로 여기지 않는다. 물론 집에서 개와 순위 경쟁을 펼치는 아저씨들이 더러 있기는 하지만 말이다.

그런데 만일 어느 날 갑자기 그 반려견이 “견주님, 대한민국의 초저출생이 계속되는 이유를 아시나요? 제 생각에는 … 때문이에요. 동의하시나요?”라며 뜬금없이 말을 건다고 해보자(물론 이런 일은 절대로 일어나지 않는다). 즉 중요한 현안에 대해 세심한 추론을 하고 심지어 세련된 언어를 구사하는 강아지가 출현한다면, 그를 예전처럼 쓰다듬고 귀여워해주며 또 하나의 친구요, 가족처럼 여길 수 있을까?

개가 반려동물인 이유는 우리가 잘하는 것과 그들이 잘하는 것 사이에 충분한 간극이 있기 때문이다. 가령 소리 듣기, 냄새 맡기, 달리기 외에도 그들은 높은 충성심을 보이고, 귀여우며, 시도 때도 없이 다정하게 달려든다. 그들의 이런 전문성은 인간의 본질적 속성과는 절묘한 거리가 있다. 심리학자들에 따르면 인간은 다른 동물에 비해 정교함, 도덕성, 성숙함, 교양, 깊이 측면에서 질적 차이를 보인다. 따라서 반려동물의 신체 능력과 심리 특성이 인간의 정체성을 위협할 일은 다행히도 없다. 게다가 그들은 우리의 부족함을 채움으로써 우리의 삶을 더 풍요롭게 해주는 고마운 친구들이다.

그런데 최근 몇달 전에 인간의 고유성을 위협하는 씨앗이 될지도 모르는 사건이 처음으로 발생했다. 챗GPT에 관한 이야기다. 챗GPT는 오픈AI가 개발한 초거대 언어 모델로 대화형 인공지능(AI) 시스템이다. 이를 통해 우리는 이제 정보 검색만이 아니라 지식 생성을 위한 알고리즘을 향유할 수 있게 되었다. 챗GPT로 대표되는 생성형 AI는 다양한 형태(텍스트, 오디오, 이미지, 비디오, 코드)의 질문에 대한 다양한 형태의 콘텐츠를 자동으로 생성(변형, 정리, 응용, 분석)한다. “5년 내에 개발자들이 만드는 코드의 80%가 깃허브 코파일럿 프로그램을 통해 생성될 것”이라는 주장은 더 이상 과장 광고처럼 느껴지지 않는다. 개발자뿐만 아니라 디자이너, 금융 전문가, 교사, 기자, 크리에이터들에게 챗GPT는 ‘생산성’을 극대화하는 최신 병기다.

챗GPT 헛소리는 인간 헛소리 때문

실제로 깃허브 코파일럿 프로그램은 코딩 작업의 생산성을 10배 정도 높인다고 알려져 있다. 한 글로벌 마케팅 회사의 설문조사에 따르면 응답자의 33%는 챗GPT가 생산성을 25∼50% 향상시킬 것이라 예상했다. 적어도 두 배 이상의 생산성 향상이 일어날 것이라고 본 영역은 글쓰기, 홍보문구 작성, 코드 작성, 고객 응대, 데이터 분석, 번역, 전략 수립, 아이디어 발굴 등이었다. 특히 MZ세대는 챗GPT가 생산성을 두 배 이상 향상시킬 것이라 기대했다.

물론 기술의 역사에서 생산성을 높여주는 도구는 수도 없이 많았다. 그렇기에 작금의 챗GPT 열풍에 벌써부터 피로감을 호소하는 전문가들도 있다. 하지만 이 생성형 AI가 변곡점일 수 있는 이유는 그것이 오히려 전문가용만이 아니라는 데 있다. 챗GPT는 일상의 언어를 통해 작업을 수행하는 일반인용 도구이기도 하다. 이전 대화 내용도 기억하고 다양한 주제에 대한 맥락이 있는 대답을 제공한다. 게다가 지속적 학습이 이뤄지기 때문에 정보 업데이트도 가능하다. 자연스러운 대화와 고급스러운 지식 생성이 가능한(충분하지는 않지만) 최초의 AI 솔루션이 출현한 셈이다.

인류가 만든 온라인 서비스 중에서 사용자가 1억명에 도달하는 데 최단 기간이 걸린 것도 일반인이 일상에서 이 도구의 용처를 발견했기 때문일 것이다. 스티브 잡스가 모바일 앱 생태계를 만든 이후 모든 것이 변했듯이 생성형 AI도 이와 비슷한 경로로 진화할 개연성이 꽤 높은 기술이다.

벌써 ‘AI스토어’ 같은 새로운 플랫폼이 논의되고 있다. 이런 의미에서 생성형 AI가 가짜 뉴스와 정보를 생성할 수 있고, 혐오와 편견을 드러낼 수 있으며, 헛소리를 하고, 하이테크 표절 기계로 전락할 것이라는 비판은 그리 심각하지 않다.

사실 이것은 본질적으로 AI가 없는 인터넷 세상에서도 동일하게 제기될 수 있는 문제이다. 오히려 생성형 AI는 ‘학습을 통한 업데이트’라는 강력한 정화 메커니즘을 갖고 있기 때문에 덜 부정적이다. 가령 많은 사람들이 챗GPT가 어떤 질문에는 환각적 헛소리를 한다며 이것이 마치 치명적 문제인 것처럼 말하는데, 전문가들은 학습의 양과 파라미터를 적절히 조정함으로써 챗GPT의 대답을 사실과 환각 사이의 어딘가에 위치지울 수 있음을 잘 알고 있다. 정확한 정보만을 원한다면 왜 굳이 생성형 AI를 사용하겠는가? 그런 용도라면 검색이면 된다.

헛소리하는 챗GPT를 못 봐주겠다는 분들은 대개 인간을 과대평가하는 경향이 있다. 솔직히 우리 중에 챗GPT만큼만이라도 정보의 정확성을 내세울 수 있는 자 누구인가? 우리는 더 많은 헛소리를 지껄이며 더 많은 거짓 정보에 현혹된다. 사실 더 본질적으로 챗GPT가 헛소리를 만들어내는 것은 그것이 학습한 인간의 온갖 텍스트에 헛소리가 들어있기 때문이다. 게다가 우리는 잘 변하지 않는다. 우리의 편견과 혐오는 골이 깊다. 반면 챗GPT는 잘못이 확인되면 바로 인정하고 사과하지 우리처럼 우기지는 않는다.

근본적 문제를 제기하겠다는 분들도 있다. 얼마 전 뉴욕타임스에 언어학의 석학인 촘스키 교수가 ‘챗GPT의 거짓 약속’이라는 논쟁적 칼럼을 게재했다. 그가 챗GPT의 전망을 부정적으로 보는 이유는 명확하다. “인간의 마음은 수백테라바이트의 데이터를 수집한 후 질문에 대한 가장 가능성 있는 대화 반응이나 가장 가능성 있는 답을 추정하여 출력하는 챗GPT 같은 느린 통계 엔진이 아니다. 이와 반대로 인간의 마음은 소량의 정보로 작동하는 놀랍도록 효율적이고 우아한 시스템으로, 데이터 포인트 간의 무작위적인 상관관계를 추론하는 것이 아니라 설명을 만들어낸다.”

인류와 AI 미래 관계 논의해볼 만

즉 AI는 대량의 데이터를 학습해야 하는 반면 인간은 소량만으로 효율적으로 작동하며 통계적 예측이 아닌 설명의 힘을 가졌다는 것이다. 언뜻 보면 그럴듯해 보이는 인간 승리의 발언이지만, 이는 인간의 지능이 영겁의 시간 동안 엄청난 데이터를 학습한 결과로 진화한 농축 솔루션임을 간과한, 잘못된 비판이다. 게다가 그의 비판은 작금의 생성형 AI가 주의 집중을 통해 주변의 데이터를 선별적으로 처리하는 우리 뇌의 작동에 대한 깊은 영감으로 탄생한 알고리즘이라는 사실을 모르고 하는 말이다. 심지어 그의 주장대로 챗GPT와 인간의 지능이 다른 방식으로 작동한다고 해도 문제될 것은 전혀 없다.

오히려 더 근본적인 질문은 반대 방향을 향해야 한다. ‘인간 지능을 만드는 것이 우리의 목표인가?’ 또는 ‘AI를 인간 고유의 속성까지 닮게 만들어야 하는가?’이다. 즉 챗GPT가 인간의 고유성에 위협이 될 만한 잠재 요인을 가지고 있는지를 물어야 한다. AI가 생산성 증폭 도구를 넘어 우리의 본질을 위협하는 경쟁자가 될 수 있는가에 대해 진지하게 논의해봐야 한다. 심리학자들에 따르면 우리는 스스로를 기계(인공물)에 비해 합리성, 따뜻함, 정서적 반응, 자율성, 그리고 융통성 면에서 더 낫다고 판단한다. AI의 진화 속도는 인간 지능의 그것과 비교가 안 될 정도로 빠르기 때문에 인류가 이런 단면들에서 위협받을 가능성은 늘 열려 있다. 실제로 이번 생성형 AI는 적어도 합리성과 융통성 단면에서 우리에게 위협이 될 만한 기술이다.

이미 우리는 영화 <그녀(Her)>에 등장하는 AI 운영체제 ‘사만다’를 알고 있다. 그녀는 상대방의 고통에 대한 감수성, 지적인 언어, 정서적 반응, 융통성 등에서 평범한 인간을 능가하는 존재다. 주인공 인간(테오도르)은 그녀에게 매료되어 사랑하고 질투하며 결국 깊이 의존하게 된다. 이런 시대가 온다면, 즉 미래의 AI가 인간성의 모든 단면들에서 인간을 능가하게 된다면, 인류와 AI의 관계는 어떻게 변할 것인가? 어쩌면 AI는 더 이상 인간을 위한 생산성 향상 도구에 그치지 않을 것이다.

지금의 생성형 AI는 개인의 생산성을 강화하는 도구 수준이다. 하지만 정서적 교감을 다른 인간보다 더 잘하는 AI로 진화한다면 그것은 개인의 정서적 강화를 넘어 관계에 있어서 사람을 대체하는 기술이 될 수 있다. 이런 맥락에서 “지금은 AI 기술의 극초기 단계이므로 전문가는 없다”는 저명한 기술사상가 켈리의 말이 오히려 다행스럽게 느껴진다. 챗GPT로 인해 AI 르네상스 시대가 열렸다. 마치 5억4000만년 전쯤 모든 동물들의 기본 구조가 폭발적으로 출현하게 된 ‘캄브리아기 대폭발’이 연상되는 시기다. 이 초입에서 모두가 ‘무엇을’ ‘어떻게’ ‘언제’에 몰두하고 있다. ‘왜’와 ‘어디로’라는 질문도 던져야 한다.

■장대익

진화학자이며 과학철학자. 인간 본성과 기술의 진화를 연결시키는 연구와 개발을 병행하고 있다. 과학과 인문의 경계를 오가며 인간, 기술, 사회의 진화를 이야기해왔다. 서울대학교 자유전공학부 교수를 거쳐 현재 가천대학교 창업대학 석좌교수(학장) 로 재직하고 있다. 저서로는 <다윈의 식탁> <다윈의 정원> <울트라 소셜> 등이 있으며, 역서로는 <종의 기원> <통섭>(공역) 등이 있다.



Today`s HOT
인도네시아 루앙 화산 폭발 시드니 쇼핑몰에 붙어있는 검은 리본 전통 의상 입은 야지디 소녀들 한화 류현진 100승 도전
400여년 역사 옛 덴마크 증권거래소 화재 인도 라마 나바미 축제
장학금 요구 시위하는 파라과이 학생들 폭우로 침수된 두바이 거리
케냐 의료 종사자들의 임금체불 시위 2024 파리 올림픽 D-100 솔로몬제도 총선 실시 수상 생존 훈련하는 대만 공군 장병들
경향신문 회원을 위한 서비스입니다

경향신문 회원이 되시면 다양하고 풍부한 콘텐츠를 즐기실 수 있습니다.

  • 퀴즈
    풀기
  • 뉴스플리
  • 기사
    응원하기
  • 인스피아
    전문읽기
  • 회원
    혜택