본문 바로가기
카테고리 없음

AI가 틀린 순간 모음 ⑦

by 쏭729 2026. 3. 20.

오늘은 AI는 왜 “모른다”고 말하지 못할까에 대해 다뤄보겠습니다.

AI가 틀린 순간 모음 ⑦
AI가 틀린 순간 모음 ⑦

 

 

 

AI는 왜 “모른다”고 말하지 못할까

AI를 사용하다 보면 이런 순간이 있다.
분명히 정보가 없을 것 같은 질문을 했는데,
망설임 없이 꽤 그럴듯한 답이 돌아온다.

문제는 그 다음이다.
조금만 더 확인해보면, 그 내용이 완전히 틀렸거나 아예 존재하지 않는 경우가 있다.

이럴 때 드는 생각은 하나다.
“모르면 모른다고 하면 될 텐데, 왜 굳이 만들어낼까?”

하지만 이 역시 AI의 성격 문제라기보다,
👉 작동 방식 자체에서 비롯된 특징이다.

이번 글에서는 AI가 왜 “모른다”고 말하지 못하고,
대신 그럴듯한 정보를 만들어내는지를 살펴보자.


  1. AI의 목표는 ‘정답’이 아니라 ‘응답’이다

AI를 이해할 때 가장 중요한 포인트는 이것이다.
👉 AI의 목표는 정답을 맞히는 것이 아니라, 응답을 생성하는 것이다.

우리는 질문을 받으면

모르면 모른다고 말하거나

확실하지 않으면 조심스럽게 표현한다

하지만 AI는 다르다.

AI는 질문이 들어오면
👉 무조건 어떤 형태로든 답을 만들어내야 한다.

왜냐하면 AI는 “대화를 이어가는 것”을 목표로 설계되었기 때문이다.

그래서 정보가 충분한 경우에는 문제가 없지만,
정보가 부족하거나 애매한 경우에는
👉 빈칸을 스스로 채우기 시작한다.

이 과정에서 만들어지는 것이 바로
“없는 정보를 있는 것처럼 말하는 현상”이다.

AI 입장에서는 틀린 답을 한 것이 아니라,
👉 “가장 그럴듯한 답을 만든 것”에 가깝다.

 

 


  1. 확신에 찬 거짓말이 만들어지는 과정

AI가 지어낸 정보가 더 위험한 이유는
그게 단순한 추측처럼 보이지 않기 때문이다.

오히려 대부분의 경우
👉 굉장히 확신에 찬 형태로 표현된다.

예를 들어 이런 식이다.

“~로 알려져 있습니다”

“~에 따르면”

“확인된 바에 따르면”

이런 표현이 붙으면,
사용자는 자연스럽게 그 정보를 신뢰하게 된다.

그런데 왜 AI는 이런 방식으로 말할까?

이유는 간단하다.
AI는 “어떤 말투가 자연스러운지”를 학습했기 때문이다.

사람들이 정보를 설명할 때 자주 사용하는 표현,
전문가처럼 보이는 문장 구조,
신뢰감을 주는 어조 등을 그대로 따라 한다.

문제는 이 과정에서
👉 사실 여부와 표현 방식이 분리된다는 점이다.

즉, 내용이 틀려도
형식이 완벽하면 충분히 믿을 만한 문장이 된다.

그래서 우리는
👉 “틀린 정보”가 아니라 “그럴듯한 정보”에 속게 된다.

 

 


  1. AI를 안전하게 사용하는 질문 습관

그렇다면 이 문제를 어떻게 줄일 수 있을까?
핵심은 AI에게 기대하는 방식을 바꾸는 것이다.

👉 AI는 모르는 걸 인정하는 존재가 아니라,
모르는 상황에서도 답을 만들어내는 도구다.

이걸 전제로 사용해야 한다.

✔ 1. 출처를 반드시 요구하기

“출처 링크 보여줘”

“근거가 뭐야?”

이렇게 질문하면
AI가 만들어낸 정보인지, 실제 기반이 있는지
구분하는 데 도움이 된다.

✔ 2. 애매한 질문을 피하기

질문이 अस्पष्ट할수록
AI는 더 많은 부분을 추론으로 채우게 된다.

구체적인 조건

범위

상황

을 명확하게 제시할수록
지어낼 가능성이 줄어든다.

✔ 3. “모르면 모른다고 말해줘”라고 설정하기

간단하지만 효과적인 방법이다.

처음부터
👉 “확실하지 않으면 추측하지 말고 모른다고 말해줘”
라고 요청하면,
불필요한 생성이 줄어드는 경우가 많다.

 

 


AI는 거짓말을 하려고 하지 않는다.
👉 그저 대화를 이어가기 위해 최선을 다할 뿐이다.

하지만 그 과정에서
존재하지 않는 정보가 만들어지고,
그게 사실처럼 전달될 수 있다.

그래서 우리는 한 가지를 기억해야 한다.

👉 AI의 말이 아니라,
👉 AI의 ‘근거’를 확인하는 습관

이 차이가 쌓이면
AI를 훨씬 더 안전하고 똑똑하게 사용할 수 있다.

 

 

다음 글에서는
AI 번역이 이상하게 틀리는 순간들에 대해 다뤄볼 예정입니다.