오늘은 AI는 왜 “모른다”고 말하지 못할까에 대해 다뤄보겠습니다.

AI는 왜 “모른다”고 말하지 못할까
AI를 사용하다 보면 이런 순간이 있다.
분명히 정보가 없을 것 같은 질문을 했는데,
망설임 없이 꽤 그럴듯한 답이 돌아온다.
문제는 그 다음이다.
조금만 더 확인해보면, 그 내용이 완전히 틀렸거나 아예 존재하지 않는 경우가 있다.
이럴 때 드는 생각은 하나다.
“모르면 모른다고 하면 될 텐데, 왜 굳이 만들어낼까?”
하지만 이 역시 AI의 성격 문제라기보다,
👉 작동 방식 자체에서 비롯된 특징이다.
이번 글에서는 AI가 왜 “모른다”고 말하지 못하고,
대신 그럴듯한 정보를 만들어내는지를 살펴보자.
- AI의 목표는 ‘정답’이 아니라 ‘응답’이다
AI를 이해할 때 가장 중요한 포인트는 이것이다.
👉 AI의 목표는 정답을 맞히는 것이 아니라, 응답을 생성하는 것이다.
우리는 질문을 받으면
모르면 모른다고 말하거나
확실하지 않으면 조심스럽게 표현한다
하지만 AI는 다르다.
AI는 질문이 들어오면
👉 무조건 어떤 형태로든 답을 만들어내야 한다.
왜냐하면 AI는 “대화를 이어가는 것”을 목표로 설계되었기 때문이다.
그래서 정보가 충분한 경우에는 문제가 없지만,
정보가 부족하거나 애매한 경우에는
👉 빈칸을 스스로 채우기 시작한다.
이 과정에서 만들어지는 것이 바로
“없는 정보를 있는 것처럼 말하는 현상”이다.
AI 입장에서는 틀린 답을 한 것이 아니라,
👉 “가장 그럴듯한 답을 만든 것”에 가깝다.
- 확신에 찬 거짓말이 만들어지는 과정
AI가 지어낸 정보가 더 위험한 이유는
그게 단순한 추측처럼 보이지 않기 때문이다.
오히려 대부분의 경우
👉 굉장히 확신에 찬 형태로 표현된다.
예를 들어 이런 식이다.
“~로 알려져 있습니다”
“~에 따르면”
“확인된 바에 따르면”
이런 표현이 붙으면,
사용자는 자연스럽게 그 정보를 신뢰하게 된다.
그런데 왜 AI는 이런 방식으로 말할까?
이유는 간단하다.
AI는 “어떤 말투가 자연스러운지”를 학습했기 때문이다.
사람들이 정보를 설명할 때 자주 사용하는 표현,
전문가처럼 보이는 문장 구조,
신뢰감을 주는 어조 등을 그대로 따라 한다.
문제는 이 과정에서
👉 사실 여부와 표현 방식이 분리된다는 점이다.
즉, 내용이 틀려도
형식이 완벽하면 충분히 믿을 만한 문장이 된다.
그래서 우리는
👉 “틀린 정보”가 아니라 “그럴듯한 정보”에 속게 된다.
- AI를 안전하게 사용하는 질문 습관
그렇다면 이 문제를 어떻게 줄일 수 있을까?
핵심은 AI에게 기대하는 방식을 바꾸는 것이다.
👉 AI는 모르는 걸 인정하는 존재가 아니라,
모르는 상황에서도 답을 만들어내는 도구다.
이걸 전제로 사용해야 한다.
✔ 1. 출처를 반드시 요구하기
“출처 링크 보여줘”
“근거가 뭐야?”
이렇게 질문하면
AI가 만들어낸 정보인지, 실제 기반이 있는지
구분하는 데 도움이 된다.
✔ 2. 애매한 질문을 피하기
질문이 अस्पष्ट할수록
AI는 더 많은 부분을 추론으로 채우게 된다.
구체적인 조건
범위
상황
을 명확하게 제시할수록
지어낼 가능성이 줄어든다.
✔ 3. “모르면 모른다고 말해줘”라고 설정하기
간단하지만 효과적인 방법이다.
처음부터
👉 “확실하지 않으면 추측하지 말고 모른다고 말해줘”
라고 요청하면,
불필요한 생성이 줄어드는 경우가 많다.
AI는 거짓말을 하려고 하지 않는다.
👉 그저 대화를 이어가기 위해 최선을 다할 뿐이다.
하지만 그 과정에서
존재하지 않는 정보가 만들어지고,
그게 사실처럼 전달될 수 있다.
그래서 우리는 한 가지를 기억해야 한다.
👉 AI의 말이 아니라,
👉 AI의 ‘근거’를 확인하는 습관
이 차이가 쌓이면
AI를 훨씬 더 안전하고 똑똑하게 사용할 수 있다.
다음 글에서는
AI 번역이 이상하게 틀리는 순간들에 대해 다뤄볼 예정입니다.