
ChatGPT에 해마 이모지에 알려달라고 하면 답변을 찾지 못하는 현상이 발생합니다.
ChatGPT에게 해마 이모지에 대해 알려달라고 하면 오류가 발생합니다.
(물론, 실제 오류는 아닙니다. 그렇게 보인다는거죠.)
이런 이유는 실제 공식적인 해마 이모지가 유니코드 상에 존재하지 않기 때문입니다. 그런데, 왜 ChatGPT는 이모지가 없다는 답변을 찾는데 어려움을 겪는 걸까요? 추론 과정에서 AI는 해마를 동물로 인식하지만, 해마에 해당하는 정확한 이모지가 없으니 유사한 동물을 제시했다가 아예 없다고 답변하는 복잡한 과정을 무한 루프를 돌 듯이 헤매게 됩니다.
이런 현상은 사람이 겪는 여러 착각 중에 '인지 부조화 현상'과도 비슷합니다.
'만델라 효과'라고 부르는 이것은 사람들이 해마 이미지가 있다고 착각하는 데이터가 여기저기 널려있기 때문에 발생해요. 만델라 효과는 실제 넬슨 만델라는 2013년에 사망했지만, 많은 사람들이 2010년에 사망했다고 믿었기 때문에 발생하는 집단적 오기억(Collective false memory)을 말합니다. 진실도 아니고 실존했던 사건이 아님에도 많은 사람들이 거짓된 현상을 기억하는 것을 가리키죠. 대중 사이들이 왜곡된 정보나 사실을 믿고, 그걸 재생산 하면서 그것이 사실로 여겨지게 되는 것이 원인으로 여겨집니다.
대표적으로 미국인들은 알루미늄의 철자를 Aluminum으로 알고 있는데, 실제 Aluminium이 맞습니다. 험프리 데이비스가 알루미늄을 명명할 때 Aluminum 이라고 지었고, 나중에 i를 영국에서 추가한 것일 뿐이라고 믿는거죠. 그렇다보니 미국인들은 '알루미넘'이라고 발음하고, 유럽인들은 '알루미니움'이라고 발음합니다. 화학 명칭에서도 이런 물질은 ium을 붙이는 것이 일반적으로 저는 당연히 영국 사람편을 들겠습니다.
알루미늄에 대한 미국인의 프라이드 대결인가요? < 출처 : @matt rife >
결국, ChatGPT가 해마 이모지는 존재하지 않는 답을 내놓긴 하겠습니다만, 재미난 건 자연어 처리 모델에서는 일부 희귀하거나 모호한 주제에 대해서는 추론 결과의 결과값이 확률적으로 어떤 것이 정답인지 확정할 수 없는 경계치에서 존재한다는 겁니다. 지구인들이 공동의 착시현상을 믿거나, 자기들끼리 환각 현상을 만들어 놓으면 AI조차 그 환각현상에서 자유롭지 못한 것을 보여주는 결과가 아닐까요? 매우 철학적인 재미난 현상이 아닐 수 없습니다.
그런 면에서 제가 언급한 알루미늄, 그거 미국인들은 i를 빼고 쓰고, 영국인들은 i를 넣고 씁니다. 미국 사람들이 틀린게 아닙니다. 하지만, 제가 저렇게 써놓으면 다들 그런 줄 믿겠죠. 저도 오늘 지구인들의 지식 데이터베이스에 환각 현상을 +1 해두었네요. 후훗!! (미국은 제발 피트 말고 미터법을 좀 써라!)
전체 사이트에서 댓글·관련 글을 함께 보시려면
이야기 공장에서 보기 →