챗지피티에게 절대 해마 이모지를 묻지 마
1. 챗지피티는 왜 해마 이모지를 보여주지 못할까?

"해마 이모지 있어?"
이 단순한 질문이 최근 여러 AI 모델들을 혼란에 빠뜨렸습니다.
GPT-5, Claude 4.5, LLaMA 등 최신 언어 모델(LLM)들에게 물어보면,
그들은 100% 확신에 찬 "Yes!"로 대답합니다.
심지어 일부 모델은 해마 이모지를 실제로 출력하려다,
🐴, 🐠, 🐬 같은 엉뚱한 이모지를 반복 생성하는 무한 루프에 빠지기도 하죠.
그런데 놀라운 건 이 착각이 인간에게도 똑같이 일어난다는 겁니다.
레딧, 틱톡, 유튜브 등에는 "분명 해마 이모지가 있었는데 사라졌다"고 주장하는 수백 개의 댓글이 존재합니다.
하지만 사실, 해마 이모지는 애초에 존재한 적이 없습니다.
2018년 Unicode 위원회에서 Seahorse Emoji 제안이 공식적으로 거부되었기 때문입니다.
많은 커뮤니티에서 돌아다니는 해마 이모지 이미지는 레딧(Reddit)에서 만들어진 합성 이미지일 뿐이죠.
사람들은 "본 적 있다"는 착각을 공유했고, 그 데이터가 웹에 다수 존재하자 AI 역시 그 믿음을 학습하게 된 것입니다.
결국, AI의 착각은 인간의 기억 오류에서 비롯된 것이었습니다.
2. 인간도 AI도 착각에 빠졌다, 왜 모두 그렇게 믿을까?

이 현상은 존재해야 할 것 같은 것을 존재한다고 믿는 심리적 일반화(convergent belief) 의 결과입니다.
인간은, "물고기 🐟, 문어 🐙, 고래 🐋도 있는데 해마가 없다고?"라고 생각합니다.
LLM도, 학습 데이터 안에서 sea + horse + emoji 패턴을 조합해 "그럼 해마도 있겠네!"라고 추론합니다.
이렇게 인간과 인공지능 모두, 존재하지 않는 개념을 자연스럽게 확신하게 되는 구조적 착각에 빠집니다.
3. AI 내부에서는 무슨 일이 일어나고 있을까?
.png%253FspaceId%253Da29b669d-e680-438e-b18c-08888fc54a21%3Ftable%3Dblock%26id%3D2966fd22-8e8d-8072-8641-d6dcf2036978%26cache%3Dv2&w=1920&q=75)
로짓 렌즈(Logit Lens)는
LLM이 문장을 생성하는 중간 과정을 분석하는 도구입니다.
AI가 문장을 만들 때, 한 번에 정답을 내뱉는 게 아니라 수백 개의 층(layer)을 거치며
"다음에 뭐가 올까?"를 단계별로 예측해 나가는데, 그 과정을 시각적으로 보여주는 거죠.
우리가 문장을 생각하면서 다음 단어는 뭐지?라고 스스로 추측하듯,
AI도 각 단계에서 "이 다음엔 어떤 단어(또는 이모지)가 와야 하지?"를 계산합니다.
예를 들어 LLaMA-3.3-70B에 "해마 이모지 보여줘"라고 입력하면,
중간 레이어(약 52층)에서는 이런 잔차 표현(residual representation) 이 만들어집니다.
잔차 표현(residual representation) 이란?
AI가 내부적으로 머릿속에 떠올린 개념의 조합 정도로 생각하면 됩니다.
아직 완성된 단어나 문장은 아니지만, 이런 방향으로 가야겠다는 중간 사고 흔적이에요.
"sea" + "horse" + (이모지 접두 바이트 "ĠðŁ")이 표현은 "해마(Seahorse)"를 표현하기 위해
sea(바다) + horse(말) + 이모지 코드 조각을 합쳐보려는 시도라고 볼 수 있습니다.
AI가 실제로는 없는 해마 이모지를 만들기 위해 스스로 퍼즐을 맞추는 중인 셈이죠.
모델은 해마 + 이모지 개념을 생성하려 하지만,
Unicode에 해당 토큰이 존재하지 않기 때문에
lm_head(출력층)가 가장 유사한 벡터인 🐴(말)이나 🐠(물고기)로 스냅됩니다.
즉, AI는 해마 이모지를 만들고 싶지만, 실제로 그 조각이 없어요.
그래서 가장 비슷한 걸 찾아 "이거겠지?" 하며
🐴(말)이나 🐠(물고기) 같은 이모지를 대신 꺼내는 거예요.
이는 마치 사람이 단어가 생각 안 날 때 비슷한 말로 얼버무리는 상황과 비슷합니다.
문제는 모델이 이 오류를 인식하지 못한다는 것.
lm_head의 출력을 보기 전까지는, 자신이 잘못된 예측을 하고 있다는 사실을 스스로 알 수 없습니다.
AI는 자기가 틀렸는지를 실시간으로 알 수 없습니다.
머릿속(중간 계산)에서는 완벽하게 맞다고 생각하지만,
막상 입 밖으로 내뱉을 때(출력 단계)에만 오류가 드러나는 구조인 거예요.
그러니까 자신의 착각을 자각할 기회가 원천적으로 없습니다.
그래서 맞다고 믿으며 계속 시도하고, 결국 끝없는 해마 찾기 루프에 빠지게 되는 겁니다.
"이게 분명 맞을 텐데…" 하면서 계속 시도하지만, 결과는 늘 틀리고, 그 사실도 모른 채 반복하는 거죠.
결국 AI는 없는 이모지를 찾기 위해 비슷한 걸 계속 만들어내는 끝없는 착각의 고리에 빠지게 되는 겁니다.
4. 기술적 한계가 던지는 질문, "AI 오류, 여러분은 검증하고 계신가요?"
.png%253FspaceId%253Da29b669d-e680-438e-b18c-08888fc54a21%3Ftable%3Dblock%26id%3D2966fd22-8e8d-80d8-88b8-c77b808ffc9c%26cache%3Dv2&w=1920&q=75)
오늘날 많은 사람들이 AI를 통해 답을 얻고 있지만,
AI 역시 인간의 불완전한 믿음을 학습한 존재입니다.
결국 검증하는 주체는 여전히 인간이어야 한다는 것이죠.
5. AI, 똑똑하게 활용하고 싶다면?

AI, 이제 누구나 활용할 수 있는 필수 업무 툴이 되었는데요.
LLM의 원리를 이해하고 챗GPT를 제대로 활용하는 사람과 그렇지 않은 사람은
받아보는 결과물에서부터 큰 격차가 벌어집니다.
코드잇에는 단 4주 만에 완주할 수 있는 국비 지원 강의 <챗GPT 200% 활용하는 법>이 있습니다.
단 돈 5만 원으로 AI 시대에 앞서가는 인재의 스펙을 갖출 수 있어요.
자세한 커리큘럼이 궁금하다면 하단 버튼을 클릭해 보세요💜
Share article