Vaswani et al. "Attention Is All You Need" (2017) — arXiv:1706.03762 ・Subword: Sennrich et al. (2016), SentencePiece: Kudo & Richardson (2018) ・Word2Vec: Mikolov et al. (2013) — arXiv:1301.3781 ・BERT: Devlin et al. (2018) — arXiv:1810.04805 ・Lost in the Middle: Liu et al. (2023) — arXiv:2307.03172 ・HNSW: Malkov & Yashunin (2016) — arXiv:1603.09320 ・RAG: Lewis et al. (2020) — arXiv:2005.11401 ・GraphRAG: Microsoft Research ・Self-RAG / Corrective RAG ・BM25: Robertson & Zaragoza "BM25 and Beyond" ・RRF: Cormack et al. "Reciprocal Rank Fusion" ・dbt Semantic Layer — docs.getdbt.com/docs/build/semantic-models ・OWL 2: W3C — w3.org/TR/owl2-overview ・Palantir Ontology — palantir.com/docs/foundry/ontology/overview/ ・Toyota O-Beya — Microsoft News / Microsoft DevBlogs (Cosmos DB) ・直感 LLM ハンズオンで動かして学ぶ大規模言語モデル入門,Jay Alammar (著), Maarten Grootendorst (著), 中山 光樹 (翻訳) (著),2025 — 本教材は 2026 年 2 月改訂版です —