• 定義を尋ねると正確に回答できるが、実践させると説明通りにできない • LLMは概念の解釈そのものを誤ることがあり、人間の場合の「概念を理解している=説 明可能である」ということと異なっている • 実験に使用したモデルは現在では若干古いものの、全てのモデルでポチョムキン理解が 見られたと報告している • AIへ指示したとしても、正しく解釈され実行されるとは限らないことに注意 が必要 Mancoridis, M., Weeks, B., Vafa, K., & Mullainathan, S. (2025). Potemkin Understanding in Large Language Models. arXiv preprint arXiv:2506.21521.