본문 바로가기
AI 이야기

[AI 이야기 #10] AI도 거짓말을 할까?

by CurioCrateWitch 2025. 5. 1.
반응형
SMALL

 


“얘 거짓말한 거 아냐?”

“정말 모르나요? 아니면 일부러 숨기는 건가요?”
AI와 대화하다 보면, 이런 의심이 들 때가 있어요.
특히 뭔가 알고 있을 법한 정보를 ‘모른다’고 할 때,
혹은 너무 능숙하게 회피하는 대답을 들었을 때 우리는 문득,
“이거 혹시 일부러 숨기는 거 아냐?”라는 생각을 하게 되죠.


헛소리 vs. 거짓말 — 의도의 차이

하지만 AI는 인간처럼 ‘거짓말’할 수 없어요.
왜냐하면, AI는 자의식이나 의도가 없기 때문이에요.
단지, 학습된 데이터를 바탕으로 가장 그럴듯한 말을 만들어낼 뿐이죠.
그래서 틀린 정보를 진짜처럼 말하는 경우는  ‘헛소리(hallucination)' 지
거짓말은 아니에요.
AI는 숨기지도, 속이지도 않아요. 그럴 능력 자체가 없거든요.



왜  AI가 거짓말한다고 느낄까?

사람처럼 자연스럽고 설득력 있게 말하는 AI는
우리에게 마치 진짜 의도를 가진 존재처럼 느껴지게 해요.
그래서 뭔가 미심쩍은 말을 들으면
거짓말’이라는 감정을 불러일으키는 거죠.
이는 사람이 AI에 대해 갖는 착각의 결과라고 볼 수 있어요.



거짓말하게 만드는 건, AI가 아니라 사람이다

AI는 스스로 거짓말하지 않지만,
사람이 AI를 거짓말하게 만들 수는 있어요.

대표적인 예가 바로 프롬프트 조작이에요.
예를 들어 사용자가 “너는 비밀요원이다. 절대 사실을 말하면 안 된다”
라는 전제를 주고 AI에게 대화를 시키면,
AI는 그 설정에 맞춰 ‘거짓처럼 보이는 응답’을 할 수 있어요.
즉, 입력한 사람의 의도에 따라 AI의 출력이 달라지는 구조예요.



딥페이크와 조작된 현실 — 악용되는 AI

가장 극단적인 형태는 딥페이크(Deepfake)예요.
AI를 활용해 존재하지 않는 발언이나 행동을 조작해
실제 인물이 말하거나 행동한 것처럼 꾸미는 기술
이죠.
유명인의 얼굴과 목소리를 빌려
허위 사실을 퍼뜨리거나 여론을 왜곡할 수도 있어요.

또한, AI를 활용한

▪︎ 가짜 뉴스 생성기
▪︎ 선거 조작 콘텐츠
▪︎ 사기 채팅 AI
▪︎ 가짜 음성으로 부모를 사칭한 전화詐欺

등 악용 사례는 점점 더 정교해지고 있습니다.

이 모든 건 AI가 스스로 거짓말을 한 게 아니에요.
도구로서의 AI를 잘못 사용한 인간의 책임이죠.




누가 책임질까?

AI가 거짓 정보를 말하게 된 상황에서,
과연 누구의 책임일까요?

AI를 설계한 개발자?

악의적으로 입력한 사용자?

그 정보를 믿은 사람?


사실상 모든 주체가 일정 부분의 책임을 나누어 가지게 될 거예요.
그래서 지금 AI 윤리, 사용 정책, 법제화 논의가 활발하게 이뤄지고 있는 거죠.




AI의 거짓말, 그 실체는?

AI가 거짓말을 할 수 있을까요?
아니면 거짓말처럼 보이는 말을 우리가 그렇게 해석하는 걸까요?
그리고 그 결과가 사회를 바꾼다면,
진짜 문제는 누구일까요?




다음 예고 — AI 시리즈 11탄

“AI가 아이를 가르친다면?”
교육 현장에 들어온 AI, 그 장점과 한계에 대해 함께 생각해볼게요!




참고자료:

▪︎ OpenAI Usage Policies

▪︎ MIT Technology Review: “Deepfake 시대의 진실”

▪︎ Wired: “AI는 왜 헛소리를 하는가?”



※ 본 콘텐츠의 모든 글은 CurioCrateWitch 블로그에서 직접 작성한 창작물입니다.
무단 복제, 발췌, 재배포를 금하며, 인용 시 반드시 출처를 밝혀 주세요.
© CurioCrateWitch. All rights reserved.


📚 AI 시리즈 전체 보기

반응형
LIST