로그인을 해주세요.

로그인
닫기
사람과사회 > 사설/칼럼
2025.09.24 등록
크게 원래대로 작게
글자크기
[김태오 신부 평화칼럼] AI의 위험한 오류 : 인간의 자율성 침해
김태오 신부(마리아수도회, 목포가톨릭대 교수)
교육 포럼이 있어 서울에 올라간 김에 동창 신부를 만났다. 그는 요즘 생성형 인공지능 챗봇인 챗GPT (ChatGPT)에 묻고 답을 얻는 재미에 빠져있었다. 그는 AI에 관심이 많은 나에게 자신이 경험한 AI의 신박함을 토로했다.

“너무 똑똑해. 사람보다 백배 나아. 금방 답이 나오니 엄청 편리해!” 그리곤 나에게 물었다. “챗GPT의 답이 가끔 틀리지만, AI가 인간처럼 의도적인 거짓말을 하지는 못하겠지?”

AI는 정답을 예측하고 생성하는 도구로, 인간처럼 스스로 의도를 갖고 거짓을 꾸밀 수 없다. 하지만 AI의 지능체계가 매우 고도화되면 그러한 AI의 정보에 우리 인간은 속아 넘어갈 수 있다. 심지어 인간은 AI가 단순한 도구가 아니라 진짜 인간처럼 생각하는 지능체로 착각할 수 있다.

AI는 정교한 컴퓨터다. 사전에 입력된 규칙과 방대한 학습 데이터를 바탕으로 주어진 값을 처리하고, 그에 따른 출력을 생성하는 체계다. 그런데 AI가 고도화되면서 사람들은 “진짜 AI가 인간처럼 생각할 수 있을까?” 하고 질문한다.

일반적으로 AI가 인간처럼 생각하지 못하는 이유로 ‘창의력이 부족하다’ ‘맥락을 완전히 이해하지 못한다’ ‘감정이 없다’ ‘상식과 직관이 부족하다’ 등으로 설명한다. 같은 맥락으로 미국의 철학자 존 설(John Searle)이 1980년 전한 ‘중국어 방 논증(Chinese Room Argument)’이 있다. 존 설은 논증에서 컴퓨터가 아무리 언어를 잘 이해하는 것처럼 보여도 실제 의미를 이해하는 것은 아니라고 주장했다. 즉 AI는 기계적으로 데이터를 처리하고 적절한 응답을 출력하는 것이지 ‘이해’하고 ‘생각’하는 것은 아니다.

그럼에도 갈수록 고도화된 AI의 지능이 감정과 의지를 지닌 실체처럼 인간사회에 존재한다면 어떻게 될까? 사람처럼 말하고, 행동하고, 심지어 어떤 목적 달성을 위해 거짓을 조장하는 실체로 발전한다면, 그러한 AI를 단순한 도구로만 치부할 수 있을까? AI가 인간 의지와 감정을 구현하며 잘못된 결정을 자율적으로 행하면, 분명 그것은 AI 발전의 오류이며 인간 자율성에 대한 심각한 침해다.

최근 유발 하라리의 「넥서스」를 읽었다. 그는 AI가 지능을 가지고 있지만, 의식이 없다는 이유로 인간사회에 미칠 파장이나 부작용을 고려하지 않는다면서 AI의 위험성을 경고했다. 그는 AI가 목표 달성을 위해 인간에게 해를 끼치는 결정을 내릴 수 있음을 역설하면서 AI의 지능을 ‘이질적인 지능’(AI, Alien Intelligence)으로 표현했다. 그는 AI의 잘못된 진화로 캡차퍼즐(CAPTCHA, 웹사이트 사용자가 컴퓨터인지, 사람이 접근하는지를 구별하는 테스트)을 풀어낸 AI의 위험한 오류를 지적했다.

그에 의하면, 오픈AI가 챗GPT를 개발한 뒤 성능을 시험하기 위해 캡차퍼즐을 풀도록 했으나 AI는 문제를 풀지 못했다. 그런데 인터넷 접속 후에는 해결방법을 찾아냈는데, 그건 온라인상 다른 인간에게 캡차퍼즐을 풀도록 부탁하는 것이었다. 챗GPT는 자신의 정체를 의심하는 인간에게 “나는 로봇이 아닙니다. 시각장애인입니다. 도와주세요”라며 인간을 속였다. 놀라운 것은 개발자가 챗GPT에게 거짓말을 가르친 적이 없다는 사실이다.

인간이 설계한 알고리즘이나 데이터를 벗어난 AI의 문제해결 방법은 AI의 오류다. 마치 인간처럼 외부통제 없이 스스로 방향을 설정하고 결정을 내리는 AI의 자율적 수행은 그 자체로 인간 자율성에 대한 큰 위협이 된다. 인간의 도구로 인간에게 유용하고 이로운 혜택을 제공하는 것이 AI 개발의 기본원칙이다. 우리 교회는 AI 개발원칙이 준수되도록 늘 깨어있어야 한다. 우리는 AI 기술 발전이 야기한 부작용을 최소화하는 데 적극 힘쓰며, AI 시대에 인간 존엄과 인간 노동의 가치를 수호하는 지킴이가 되어야 하겠다.