【概要】 AI(LLM)が司法試験やプログラミングで人間を凌駕するスコアを出す現在、私たちは「AIは物事を深く理解している」と錯覚しがちです。しかし、最新の研究(Mancoridis et al., 2025)は、これが単なる「見せかけの理解(ポチョムキン理解)」である可能性を指摘しています。
本スライドでは、AIにおける「理解の幻影」の正体を解き明かすとともに、AIツールへの過度な依存が人間側にもたらす「ポチョムキン・エンジニア(中身を理解せずにコードを書く者)」の出現という危機について分析します。
【主な内容】
ポチョムキン・パラドックスとは: 定義は完璧だが、応用で致命的なミスを犯すLLMの特異な性質。
Vibe Codingの罠: ロジックの欠如した開発がもたらす、セキュリティリスクと有能感の錯覚。
アンチ・ポチョムキン・カリキュラム: AIを「義足」ではなく「議論の相手」にするための、具体的な学習・教育手法(眼球コンパイル、ソクラテス式対話など)。
【対象者】
AIツールを日々の業務で活用しているエンジニア
AI時代のエンジニア教育・採用に携わるマネージャー
LLMの「知能」の正体について深く知りたい方