Upgrade to Pro — share decks privately, control downloads, hide ads and more …

TowardThinkingMachine_GoogleDeepMind_LanguageEvolutionPapers.pdf

 TowardThinkingMachine_GoogleDeepMind_LanguageEvolutionPapers.pdf

E84069fe78442e1b075192bf9cee5e81?s=128

connection_automated_ai

June 23, 2018
Tweet

Transcript

  1. Thinking Machineに向けて DeepMindのLanguage evolution論文を中心に ~ AIによる概念と推論ロジックの自律獲得 ~ 2018/8 (last updated

    on 2018/8/2) connection_automated_ai
  2. Thinking Machine研究開発の状況 - 1つ目の視座 - ( Google DeepMind社の動静 )

  3. はじめに 人間とはまったく異なる自らの概念と言語を、AIマシンが手に入れつつある。 Googleが4億ドルを投じて買収したといわれる、イギリスのベンチャー企業 DeepMind社の一室で、そのような世界を実現させつつある研究が行われている。

  4. はじめに AIが、みずからのセンサ(=感覚器官)で捉えた「情報の海」から、人間とは異なる 独自の「事物」概念や「感覚」概念、抽象「観念」を生成し、 それらの概念や観念どうしを組み合わせて、新しい別の概念を生み出していく(概 念合成 Concept synthesis)初歩的な段階に、同社が到達しつつある事実が、 同社が学術誌と論文アーカイブに公開した研究成果(論文)から、浮かび上がっ てきました。

  5. はじめに さらに、そのAIは、センサ(=感覚器官)で捉えた「情報の海」から、人間による手 助けを借りずに、自力でうみだした独自の「事物」概念、「感覚」概念、抽象「観念」 といったものを、 仲間である他のAI (Machine)に伝達し、互いの認識や考え・意図や目的を共有す ることができる、人間とは異なるAI自身の言語(記号体系)までも、うみだす能力 があることが、DeepMindが行った一連の実証実験(計算シミュレーション)の中で 明らかになりました。

  6. はじめに この、「AI Machineの群れ(集団)」の内部で共有された「言語」は、 同社が行った徹底した解析の結果、ある条件のもとで、英語や日本語といった、 人間が、「人間の歴史」の中で生み育ててきた、私たちにとって、「既知の言語」 と、 文法構造や表記揺れ、曖昧性といった、いくつかの点で、共通する言語構造 をもっていることも、新たに判明しつつあります。

  7. はじめに こうした実験(計算機シミュレーション)は、まだ試行回数が少ないため、 統計学的に十分なサンプル数をもって、「AI集団の言語」と「人間の言語」との類似 性について、確証をもって議論を展開するためには、なお、さらなる条件下での実 験を積み重ねていくことが必要だと考えられますが、 少なくとも、ある条件の組合せが成立していた「何例か」の実験の結果の限りでは、 「人間という炭素系生命体」では『ない』「体と脳」をもつ「人工知性体」も、 復数のAI Machineどうしで意思の疎通を図ろうと、努力した結果、 「人間のそれと構造的に類似した概念と言語」に「収束しうる」ことが、示された形

    です。
  8. はじめに DeepMindは、「この発見」をもとに、 「どのような環境状況(問題文脈)」のなかで、 (複数の)AI(Machine)どうしをコミュニケーションさせると、 人間にとって理解可能な、「十分に人間の言語に似た」言語が AI(Machine)の集団内部で発生して、「AI自身の共有言語」として共有されるのか、 「環境状況が備えるべき条件」を解明する研究に、すでに着手し始めています。

  9. はじめに その研究の先に、DeepMindが見すえているのは、 「人間」が、「言葉」のやりとりを通じて、意思の疎通を図ることのできる 「AI (Machine)」を生み出すことで、 「人」と「AI」が協力しあいながら、日常生活の課題や、社会の問題解決に取り組む ことができる状況の到来です。

  10. はじめに 個体としてのAIや、群れ(集団)としてのAIが、獲得した「言語」を用いて、 どの程度の「論理的な思考」(推論規則にもとづく推論)を行えるかに目を転じると、 概念どうしの「関係」を思考する「関係性推論」(Relational reasoning)や、 3段論法や背理法などの論理思考を行うための土台となる「論理規則」や、 原因と結果の「因果観念」といった「思考のロジック」・「思考の規則」について、 「人間とは異なる」「推論規則のようなもの」を、そうしたAIが、「生成」するまでには、 まだ至っていないと推定されます。

  11. はじめに しかしながら、 世界中の大学の研究チームが、精度を競いあっている「AIによる文章題の読解問 題」(Machine Reading Comprehension)技術競技コンテストでは、 復数の文書にまたがった断片的な知識を、論理的につなぎあわせて、論理に基 づいた思考を行うことで、 与えられた復数の文書を手がかりに、質問に対する正答にたどりつくためのアル ゴリズムの研究が広く行われていることを念頭におくと、

  12. はじめに こうした技術の積み重ねが、 センサ画像データから「事物の概念」を生成し、さらに、「世界」を説明するために 必要となる「新しい概念」を、すでに獲得済みの「概念」どうしを自在に組み合わせ ることで、次々につむぎだしていく「概念合成」能力を持ち、 「世界」について自らが持つ「認識」を、独自の言語を用いて、仲間の別のAIマシン に伝達する術(すべ)を持ちつつあるDeepMind社のAIのさらなる機能拡張に活か された場合、 その能力は、広い意味での論理的な思考にまで及ぶ可能性が開けてくることが、 予想されます。

  13. はじめに このスライドは、ロンドンでいま静かに進行している、AIによる概念と言語の獲得 に向けた動きを調査した結果と、 我が国発の2つの研究アプローチが、ロンドンのDeepMind社とは異なる方法で、 AIによる「独自の概念と言語」の獲得を達成する可能性を、 同時に紹介することで、 民間企業と学術研究機関における、「概念と言語を操るAI」の研究開発状況に ついて、ひとつの暫定的な見通しを提示するものです。

  14. Thinking Machine研究開発の状況 - 2つ目の視座 - ( 日米比較によって、見えてきた複線的アプローチの重要性 )

  15. はじめに DeepMind社の研究動向と、我が国の研究動向を互いに比較した今回の調査の 結果、 文部科学省の研究プロジェクトや、東京大学や慶應義塾大学など、 我が国の復数の学術研究機関では、 機械がもつ「身体」(=センサー系とモーター系)のあり方(物質的な条件)が、 その機械に宿る「概念」や「想念」・「価値観」や「思考のロジック(推論規則)」 をうみだす「揺りかご」(地盤、胎盤)として、いかなる役割を果たすのかという 主題に対して、 DeepMind社よりも、正面から深く向き合っている姿が垣間見えてきました。

  16. はじめに 機械がもつ「身体」と、その機械に宿る「概念」と「思考のロジック(推論規則)」 との関わり方に、正面から取り組む日本のアプローチは、 視覚(センサ)や聴覚(センサ)、皮膚感覚(圧力センサ)や温度(センサ) や身体動作感覚(筋繊維感覚)といった、機械の「身体」に張り巡らされた 種類のことなる「復数の感覚器官」から、いかにして、 バラバラではない、「ひとつに統合された」ひとまとまりの「自己の感覚」や「周囲の 空間の感覚」や「運動感覚」が、発生してくるかを、今後、解明していく上で、

  17. はじめに 「考えるAI Machine」(Thinking Machine)が備える「べき」『個別の』知的機能を、 ひとつずつ、個別に研究に取り組んできたDeepMind社よりも、 研究面で、一歩も二歩も、先んじている可能性を指摘できます。

  18. はじめに DeepMind社の研究の進め方を、あえて、短い言葉で表現できるとすれば、 ・ 最初から、ある特定の「個別の機能」をもつように設計する意図をもって、 別々の研究班が、相互に孤立して、バラバラに、設計開発した 個々の「単一機能特化型アルゴリズム」どうしを、 ・ あとから、配線でつなぎあわせて、ひとつの「考えるAI Machine」を組み上 げる(組成する)

    戦略です。
  19. はじめに それに対して、「身体性」や、「カオス的遍歴」といった発想や生命観に立脚する 日本勢がとるアプローチは、 ・ 「たったひとつ」の「胚」から、すべてが始まり、 ・ 「胚」がもつ物理的な初期条件や、周囲の環境からの刺激といった「制約条件」に導かれて、 最初、「ひとつの胚」だったものが、「復数」の「個別」の「機能」をもつ、 (個別の情報処理を担う)復数の「細胞集団系」へと、 徐々に「機能分化」していく結果、

    ・ ある時点で、「ひとつの個体」としての「考えるAI Machine」が、脳神経系から全身 の感覚・運動系を構成する「無数」の「知的情報処理機構」(神経細胞集団)が 織りなす「系」総体として、出現する、 戦略として、考えることができます。
  20. はじめに このように、DeepMind社とは異なる方向性を備えた、日本勢がもつ発想の特徴 としては、 知的情報処理が成立する現象を、「ある秩序だった情報処理が成立する状態」 から、「別の秩序だった情報処理が成立する状態」へと、数学的に事前に予想す ることの難しい、「カオス的遍歴」と呼ばれる、軌跡を辿って、時間の進行とともに、 動的に遷移していく「動的な運動」『原理』として、捉える視点 を、さらなる際立った特徴として、指摘することができるかもしれません。 「カオス結合系」といった考え方を含む「複雑系科学」の研究は、 我が国が1990年代以前から、(米国のサンタフェ研究所と並び立つ)世界の研

    究の中心地の地位を踏み固めてきた分野です。
  21. はじめに 世界的には、研究のブームが過ぎ去ったかに見える「複雑系科学」の研究です が、 我が国では現在、文部科学省のプロジェクトや東京大学の研究室を始め、復数 の研究チームが、それぞれ並行して、 猿から人への進化の過程において、知性が発生した過程 (「認知革命」の発生メカニズム)を研究するための総合プロジェクトが進行して います。

  22. はじめに この学際的なプロジェクトは、 考古学や、 (猿の頭蓋骨や、言葉の発声器官の「再現」を目指す)顎や歯などの解剖学や、 社会学、遺伝学、分子生物学と、知性の計算機シミュレーションといった、 復数の学問分野の研究者を結集させた学際的な研究で、まさに我が国の学術 研究会の研究能力を結集させたプロジェクトとして期待することができます。

  23. はじめに 「猿から人の知性が誕生した過程」についての洞察から、 その現象の発生メカニズムを記述する数学的表現(アルゴリズム)を獲得するこ とで、我が国から、 DeepMindとは異なる発生原理・成長原理にもとづく 「考えるAI Machine」(Thinkin Machine) が出現するシナリオを考えることは、技術的には、十分、可能です。 しかしながら、我が国は、基礎・応用研究面での若手研究者の人口の減少と

    いった、技術面での課題以外にも、復数の社会経済的な課題に直面しています。
  24. はじめに それは、米欧勢に、加えて、中国勢と比べて、 圧倒的に劣勢に立たされている貧弱な研究予算と、 計算機環境を含む研究施設の充実度 の問題です。 また、産業界を巻き込んで、学術的な研究成果を、産業市場にいち早く市場投 入して、市場シェアをとるスピード力に加えて、日本勢のAI Machineを、 ISOやIEEEなどの世界の「業界標準規格」として、市場の「ルール化」、産業・通商 界の「制度化」まで持ち込み、「勝利」を「固定化」させるために求められる

    (ドイツが強いとされる)業界標準規格・ルール策定能力も、 技術力以外に求められる力として、我が国にとって課題として重くのしかかって います。
  25. 本編

  26. 古き良きAI (GOFAI) • 人間が定義したオントロジー(Entity および、Entity 間の関係) に対して、 • 人間が定義した論理体系(1階述語論理、2階述語論理、様相論理、時相論理 etc.)

    を推論する論理プログラミング機構(演繹、帰納、アブダクションetc.) を適用することで、 ・ 新しい知見を得る。 (例) (定義済みの知見) ソクラテスは人間だ & (定義済みの知見) 人間は死ぬ => (新知見)ソクラテスは死ぬ
  27. 目指すべきAI (Thinking Machine) • AIが「データの海」から、独自に定義したオントロジー(Entity、Entity 間の関係) に対して、 • AIが独自に定義した論理体系(なんらかの論理公理体系) を推論する論理プログラミング機構(演繹、帰納、アブダクションetc.)

    を適用することで、 ・ 新しい知見を得る。
  28. 目指すべきAI (Thinking Machine) 「人が生み育てた」 事物概念・推論規則とは異なる (1) 人間にとって「未知」の「事物概念」・「抽象概念」 (例1) 「視覚」と「聴覚」の中間にある主体的な感性概念と、それを表現する記号列(Symbol label)

    (例2) 「猫」と「ねずみ」の中間にある生命体の「概念」(事物概念)と、それを表現する記号列 (例3) 時間の流れの感覚概念を前提におかない何らかの「因果関係」・「原因・結果」の観念と、その表現記号列 (2) 人間にとって「未知」の「新種」の論理公理体系 (例3)の「因果観念」などで構築された、何らかの(数理論理学的に成立しうる)論理公理体系(推論ロジック) → 「参考資料 論理公理体系とは何か」スライドを参照。
  29. 目指すべきAI (Thinking Machine) 「人が生み育てた」 事物概念とは異なる (1) 人間にとって「未知」の「事物概念」・「抽象概念」 (例1) 「視覚」と「聴覚」の中間にある主体的な感性概念と、それを表現する記号列(Symbol label)

    (例2) 「猫」と「ねずみ」の中間にある生命体の「概念」(事物概念)と、それを表現する記号列 (例3) 時間の流れの感覚概念を前提におかない何らかの「因果関係」・「原因・結果」の観念と、その表現記号列 ( AIが、「データの海」から、 「思考の素材」(事物概念・抽象概念 = 論理推論の対象項・Entity)を、 (人間とは無関係に) 独自に形成・生成する段階
  30. 目指すべきAI (Thinking Machine) 「人が生み育てた」 推論規則とは異なる (2) 人間にとって「未知」の「新種」の論理公理体系 (例3)の「因果観念」などで構築された、何らかの(数理論理学的に成立しうる)推論規則、論理公理体系 → 「参考資料

    論理公理体系とは何か」スライドを参照。 AIが、「データの海」から、 「思考のロジック」 (複数の概念(Entity)間の関係性を定義する推論規則・論理公理体系) を、 (人間とは無関係に) 独自に形成・生成する段階
  31. 2018年現在:AI研究開発の到達段階 (Google DeepMindの2つの論文) AIによる「データの海」からの「思考のロジック」の自律的な獲得 AIによる「データの海」からの「思考の素材」の自律的な獲得

  32. 2018年現在:AI研究開発の到達段階 (Google DeepMindの2つの論文) AIによる「データの海」からの「思考のロジック」の自律的な獲得 AIによる「データの海」からの「思考の素材」の自律的な獲得 “language evolution” と呼ばれる研究領域 における最新の研究成果

  33. 2018年現在:AI研究開発の到達段階 (Google DeepMindの2つの論文) (ICLR 2018) Edward Choi et.al., Compositional Obverter

    Communication Learning from Raw Visual Input
  34. AIによる「データの海」からの「思考のロジック」の自律的な獲得 AIによる「データの海」からの「思考の素材」の自律的な獲得 “language evolution” 領域 における最新の成果 (ICLR 2018) Edward Choi

    et.al., Compositional Obverter Communication Learning from Raw Visual Input
  35. AIによる「データの海」からの「思考のロジック」の自律的な獲得 AIによる「データの海」からの「思考の素材」の自律的な獲得 (ICLR 2018) Edward Choi et.al., Compositional Obverter Communication

    Learning from Raw Visual Input
  36. 「データの海」からの「物質的な形」と「色」の概念 (事物概念) を指示する記号表現の獲得 (人間は、介在しない) 「データの海」からの自律的な物体輪郭抽出 人間が介入しない、 AI独自の(視覚描像と結びついた)物体概念の生成 (ICLR 2018) Edward

    Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  37. 【 タスク設定 】 【 一般物体認識タスク部分 】 ・ 2体のAgentが、3次元物体のraw pixel データを眺めている。

    ・ (人間による「物体と背景の境界線」などのアノテーション付与のされていない)画素データ(raw pixel data)から、 2体のAgentが、それぞれ独立して、「背景」と「物体」(1つ or 複数)との区別を行う(各物体の輪郭検出=物体抽出)する。 【 「机」や「椅子」などの物体概念の生成 + 「机」や「椅子」それぞれの視覚描像(背景との境界線の同定) の生成】 ・ Speaker役とListener役、それぞれのAgentが、試行のたびに見ていた物体が、各Agentにとって、主観的にどう見えていた かを、raw pixelデータを画像処理したCNNモデルの内部パラメータの値から、(人間に分かるように)可視化した。 【 2者間の(”shared”)Language evolutionタスク部分】 ・ 自分(Speaker役のAgent)が見ている物体(の色と形)を、記号表現で、別のAgent(Listener役Agent)に伝える。 ・ Listener役にAgentは、自分が見ている物体と、Speaker役が見ている物体が、(アングルや光の当たり方や、物体の大きさの違いは あっても) 同じ種類(形と色の2つの属性で一致するか)を、「Speaker役からのメッセージ」だけを頼りに、判断する。 ・ 2体のAgentは、Speaker役とLister役の役まわりを交互に交代する。(交代を試行回数分だけ、繰り返す) ・ 正解率を高める方向に、Speaker役モデルがもつメッセージ生成GRUモデルの内部パラメータを更新していく (BP:誤差逆伝播法) ・ 2体のあいだで、同一の記号体系が共有されている度合いを、2体のSpeaker役が生成したメッセージどうしの ジャッカード距離で定量的に評価する。 ・ 特定の色と形を表現する際に、複数のSpeaker役Agentが発見した記号表現列があれば、その記号列を除去する。 (ICLR 2018) Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  38. 【 一般物体認識タスク部分 】 ・ 2体のAgentが、3次元物体のraw pixel データを眺めている。 ・ (人間による「物体と背景の境界線」などのアノテーション付与のされていない)画素データ(raw pixel

    data)から、 2体のAgentが、それぞれ独立して、「背景」と「物体」(1つ or 複数)との区別を行う(各物体の輪郭検出=物体抽出)する。 【 「机」や「椅子」などの物体概念の生成 + 「机」や「椅子」それぞれの視覚描像(背景との境界線の同定) の生成】 ・ Speaker役とListener役、それぞれのAgentが、試行のたびに見ていた物体が、各Agentにとって、主観的にどう見えていた かを、raw pixelデータを画像処理したCNNモデルの内部パラメータの値から、(人間に分かるように)可視化した。 (ICLR 2018) Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  39. 【 2者間の(”shared”) Language evolutionタスク部分】 (ICLR 2018) Edward Choi et.al., Compositional

    Obverter Communication Learning from Raw Visual Input
  40. 2体のAI Agentsの間で共有された 「人の言葉」とは異なる「独自の新言語」 2体の間で、「この言葉、分かる?」という試行錯誤 を繰り返した結果、「共有された新言語」の成立をみた。 【 試行回数 40回目】 (1) 2体のAgentは、すべての色と形の物体を、

    1種類の名詞=「記号列」で記述する。 (2) それぞれのAgentは、互いに相手に理解できない 「自分だけの言葉」をつむぎだしている。 【 試行回数 6,940回目 】 (1) 各Agentは、「赤色の球体(の物体)」を表現する記号列として、 (他の色と形の物体と区別された)「なんらかの記号列」 を獲得している。 (2) 同上。
  41. 2体のAI Agentsの間で共有された 「人の言葉」とは異なる「独自の新言語」 【 試行回数 16,760回目】 (1) 「何種類かの色と形をした物体」に関して、 2体のAgentsが、「共有された」表現記号列 を獲得している。

    (2) ブラケット「{ }」の部分は、いわゆる「表記ゆれ」が発生 していると、解釈することができる。
  42. イタリック体の記号列 : 形状を表現する記号列 ロマン体の記号列 : 色を表現する記号列 【 2体のAI Agentsの間でだけ、共有された独自の新言語 】

    「記号の割り当て規則」と「文法構造」(単語・品詞構造) を、「人間の視点」から「解読」を試みた結果 【 推定 : 単語単位への分解 】 「色を記述する単語」と「形を記述する単語」 への分解 (単語の出現順序から、 『「色」+「形」といった文法構造』 が見えてくる。) (参考) 人間の言葉 英文: 形容詞+名詞 / 仏文: 名詞 + 形容詞
  43. 【 推定 : 記号の割り当て規則 】 それぞれの色と、それぞれの形 を表現する記号列の出現規則(パターン) 【 2体のAI Agentsの間でだけ、共有された独自の新言語

    】 「記号の割り当て規則」と「文法構造」(品詞構造) を、「人間の視点」から「解読」を試みた結果
  44. 【 Zero-shot learning 】 「未知語」への対応能力 灰色に塗りつぶした「形(Boxなど)と色(Blueなど)の組み合わせ」は、学習時に学習させなかった。 → この「未学習」・「未体験」の物体を、AIが獲得した言語体系の中で、 なんらかの記号表現で表現できるかどうかを検証した。

  45. 【 Zero-shot learning 】 「未知語」への対応能力 灰色に塗りつぶした「形(Boxなど)と色(Blueなど)の組み合わせ」は、学習時に学習させなかった。 → この「未学習」・「未体験」の物体を、AIが獲得した言語体系の中で、 「学習済みの概念」を表現する「獲得済みの記号列」どうしを、概念合成・記号合成させることで、 (「獲得済みの単語=記号列」の「新しい組み合わせ方」で)表現できる能力を有していることが確認された。

  46. 「思考のロジック」(推論規則) の生成レベル ・ まだ、概念合成(concept synthesis)の段階にとどまっている。 ・ 因果推論や、関係性推論(relational reasoning)のレベルには手が届いていない。

  47. 【 論文末尾に書かれた「今後の研究ロードマップ」 】 用語の定義、タスク定義、評価指標等が提案されている

  48. 【 論文末尾に書かれた「今後の研究ロードマップ」 】 用語の定義、タスク定義、評価指標等が提案されている

  49. Language evolution 研究 ー Obverter 論文の登場以前の状況 -

  50. 先行研究1 ・ 特定のタスクにひもづいた言葉を学ばせる ・ 「教師データ」として与えるのは、「人間の言葉」? 【 以下、Obverter 論文より抜粋 】 Edward

    Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  51. 先行研究2 ・ AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない (「記号系列」( a sequence of discrete

    symbols )こそが 「人間並み」の言語といえる) 【 以下、Obverter 論文より抜粋 】 Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  52. 先行研究2 AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない ・ Jakob Foerster, Yannis M Assael,

    Nando de Freitas, and Shimon Whiteson. Learning to communicate with deep multi-agent reinforcement learning. In NIPS, pp. 2137–2145, 2016. ・ Angeliki Lazaridou, Alexander Peysakhovich, and Marco Baroni. Multi-agent cooperation and the emergence of (natural) language. In ICLR, 2017.
  53. 先行研究2 AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない ・ Sainbayar Sukhbaatar, Rob Fergus, et

    al. Learning multiagent communication with backpropagation. In NIPS, pp. 2244–2252, 2016. ・ Emilio Jorge, Mikael Kageback, and Emil Gustavsson. Learning to play guess who? and inventing a grounded language as a consequence. arXiv preprint arXiv:1611.03218, 2016.
  54. 先行研究3 ・ 人間の手によって、行われた、 「画像のこの領域にはこの物体が映っている」 「別のその領域には別のこの物体が映っている」 という、画像の中に出現する「物体の輪郭検出」 = 「物体認識」(それが何であるか)= 物体概念の生成 を、AIは受身的に受け取る(入力される)のみ。

    ・ AIは、人の手で行われた「画像の意味づけ」=「画像に何(物体概念)が、どの位置に映っているのか」 を、天下り的に与えられるだけの研究にとどまっている。 【 以下、Obverter 論文より抜粋 】 Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  55. 先行研究3 AIは、人の手で行われた 「画像の意味づけ」=「画像に何(物体概念)が、どの位置に映っているのか」 を、天下り的に与えられるだけの研究にとどまっている。 ・ Igor Mordatch and Pieter Abbeel.

    Emergence of grounded compositional language in multi-agent populations. arXiv preprint arXiv:1703.04908, 2017. ・ Satwik Kottur, Jose MF Moura, Stefan Lee, and Dhruv Batra. Natural language does not emerge ’naturally’ in multi-agent dialog. In EMNLP, 2017.
  56. (論文) (AAAI 2018) Igor Mordatch & Pieter Abbel, Emergence of

    Grounded Compositional Language in Multi-Agent Populations
  57. 【 もう1つのDeepMind論文 】

  58. 2018年現在:AI研究開発の到達段階 (Google DeepMindの2つの論文) (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input
  59. 【 もう1つのDeepMind論文 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input
  60. 【 もう1つのDeepMind論文 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 【 この論文が発見した事実 】 AI自身が(人間とは無関係に)生成する言語(communication protocol)が、どれだけ構造化の度合いが高い文法規則をもつかは、 そのAIが、(人間による物体輪郭アノテーション付与なしの) raw pixel data (raw sensorimotor data)を(自分のセンサーで)眺めた結果、 そこに、どれだけ複雑な「物体(事物)間の関係構造」の存在を見出すか(認識(同定)するか)によって、左右される。 the degree of structure found in the input data affects the nature of emerged protocols corroborate the hypothesis that structured compositional language is most likely to emerge when agents perceive the world as being structured.
  61. はじめに この、「AI Machineの群れ(集団)」の内部で共有された「言語」は、 同社が行った徹底した解析の結果、ある条件のもとで、英語や日本語といった、 人間が、「人間の歴史」の中で生み育ててきた、私たちにとって、「既知の言語」 と、 文法構造や表記揺れ、曖昧性といった、いくつかの点で、共通する言語構造 をもっていることも、新たに判明しつつあります。 再掲

  62. はじめに こうした実験(計算機シミュレーション)は、まだ試行回数が少ないため、 統計学的に十分なサンプル数をもって、「AI集団の言語」と「人間の言語」との類似 性について、確証をもって議論を展開するためには、なお、さらなる条件下での実 験を積み重ねていくことが必要だと考えられますが、 少なくとも、ある条件の組合せが成立していた「何例か」の実験の結果の限りでは、 「人間という炭素系生命体」では『ない』「体と脳」をもつ「人工知性体」も、 復数のAI Machineどうしで意思の疎通を図ろうと、努力した結果、 「人間のそれと構造的に類似した概念と言語」に「収束しうる」ことが、示された形

    です。 再掲
  63. 【 もう1つのDeepMind論文 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 【 この論文が発見した事実 】 AI自身が(人間とは無関係に)生成する言語(communication protocol)が、どれだけ構造化の度合いが高い文法規則をもつかは、 そのAIが、(人間による物体輪郭アノテーション付与なしの) raw pixel data (raw sensorimotor data)を(自分のセンサーで)眺めた結果、 そこに、どれだけ複雑な「物体(事物)間の関係構造」の存在を見出すか(認識(同定)するか)によって、左右される。 the degree of structure found in the input data affects the nature of emerged protocols corroborate the hypothesis that structured compositional language is most likely to emerge when agents perceive the world as being structured.
  64. 【 もう1つのDeepMind論文 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 【 2つの実験を行った 】 【 実験1 】 「人間が作成したVisAデータセット」を、「教師」用データとして、AIに「学ばせる」 【 実験2 】 「人間によるアノテーション付与」なしのraw pixel data(raw sensorimotor data)を、AIに与える。
  65. 【 実験1 】 【 実験1 】 「人間が作成したVisAデータセット」を、「教師」用データとして、AIに「学ばせる」  (画像データ中に何が映っているのか)人間の手で、物体(concepts)を定義されている。 →

    raw pixel dataからの、「人間による」disentangled by human)  (人間の手で)定義された物体が、事前に定義された11個の属性のうち、どれに該当し、どれに該当しないかがアノテーション付け されている。 → (各物体について、人間による属性切り出しと属性該否の実行。Disentanglement by human) 人間が定義した 物体属性 ◦ × は 各 属 性 の 該 否
  66. 【 実験2 】 【 実験2 】 「人間によるアノテーション付与」なしのraw pixel data(raw sensorimotor

    data)を、AIに与える。  raw pixel dataのなかの、どの領域に、何の物体が映っているのか を、AI自身が自律的に判断する ( -> 物体概念の獲得 + その物体概念の視覚描像が出現している位置(範囲)の同定)  物体概念一般には、いかなる属性の集合が想定でき、画像の中に見出したそれぞれの物体は、 個々の属性のどれに該当するのかを、AI自身が自律的に判断する。 disentangled by AI theirselves (with no human helps & instructions)
  67. 【 実験1・2共通 】 「実験1」と「実験2」で、用いるアルゴリズムはまったく同じ。 Speaker役:1つの物体の視覚画像を与えられて、そこに「見出した」物体を指し示す「記号列」を生成する。 Listner役: (Speaker役が発した)「記号列」(message)だけを頼りに、「5つの物体」が映った画像データのなかから、 Speaker役が「見ていた」物体が、「どれか」を当てる。(identiryする) Speaker役が発する記号列を構成する「記号」(文字、Symbol)の種類は、100種類(100「文字」)を上限とする。 ←

    (理由) Kottur et.al. (2017)によって、文字数が多すぎると、生成される「言語」は、 記号を組み合わせることで、無限に多くの新しい概念を表現する「概念合成力」 をもたない「言語」となることが判明しているため。
  68. 【 実験1・2共通 】 Speaker役が発する記号列を構成する「記号」(文字、Symbol)の種類は、100種類(100「文字」)を上限とする。 ← (理由) Kottur et.al. (2017)によって、文字数が多すぎると、生成される「言語」は、 記号を組み合わせることで、無限に多くの新しい概念を表現する「概念合成力」

    をもたない「言語」となることが判明しているため。
  69. 【 参考 】 文字数が多すぎると、生成される「言語」は、 記号を組み合わせることで、無限に多くの新しい概念を表現する「概念合成力 をもたない「言語」となることを発見した。 showing that while most

    agent-invented languages are effective (i.e. achieve near-perfect task rewards), they are decidedly not interpretable or compositional. In essence, we find that natural language does not emerge ‘naturally’, despite the semblance of ease of natural-language-emergence that one may gather from recent literature
  70. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 【 実験1 】 人間が物体輪郭+属性該否の情報をアノテーション付けした Inputデータを受けて、 【 実験2 】 人間によるアノテーションなしの画素データ(raw pixel data)を Inputデータとして受けて、 Encoder-decoderモデルを用いて、 単語(に相当する、人間の言語とは異なる、独自の「記号」) を、「単語(に相当)」単位に、1単語(相当)ずつ、生成する。 Speaker 役のAgent の役割
  71. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speaker 役のAgent の設計構成(アルゴリズム)
  72. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Listener 役のAgent の設計構成(アルゴリズム)
  73. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speaker 役のAgentのパラメータと、Listener 役のAgentのパラメータを、 ひとつの損失関数式のなかで、同時に学習する。 Speaker 役Agentのパラメータと、 Listener 役Agentのパラメータは、 互いに独立している。 【 報酬関数 】 Speaker 役の発したメッセージを、 Listener 役が理解して、 Speaker役が画像データ中に、何の物体を 見出していたのか、認識共有できたら、 1を返す。認識共有に失敗したら、0を返す。
  74. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speaker 役のAgentのパラメータと、Listener 役のAgentのパラメータを、 ひとつの損失関数式のなかで、同時に学習する。 Speaker 役Agentのパラメータと、 Listener 役Agentのパラメータは、 互いに独立している。 【 Speaker 役の行動価値関数(方策関数 π) 】 「行動」: 自分が見出した物体を指示する記号列を発声 (generate)する「行動」。 【 Listener 役の行動価値関数(方策関数 π) 】 Speaker役が発した記号列が表現(指示)している 「物体」が、目の前にある5つの物体のうち、 「どの物体か」を、指し示す「行動」
  75. 【 実験1で行ったこと(1) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input AIが、自身が独自に生成する記号体系(言語体系)を用いて、「1つの物体」を表現する際に、 用いることができる「文字」(Symbol)記号の個数(「文字数」)に上限を設けた。 3パターンの制限を設定し、それぞれの(制約)条件の下で、 生み出される言語体系の特性を、相互に比較した。
  76. 【 実験1(1)の結果 】 「ひとつの物体」を指示する「名詞」として、 「2文字」以内の文字数しか、用いることのできない 「言語」を、AI (Speaker Agent)に生成させたところ、 たった「31種類の記号列」で、 学習用データセット(Visaデータセット)に含まれていた

    363種類の物体カテゴリ(concepts)を表現可能な 「言語」が生成された。
  77. 【 実験1(1)の結果 】 この言語がもつ表現力は、 文脈(context)から、情報を推定することを要求する ことで、数多くの物体概念(concepts)を、 より少ない語彙(vocabulary)で表現可能な「言語」 が生成された(誕生した)ことを、示している。 文脈から、「ことば」の意味内容を特定(収束)させる、 「あいまいさ」(ambiguity)を兼ね備えた「言語」

  78. 【 実験1(1)の結果 】 「ひとつの物体」を指示する「名詞」として、 「5文字~10文字」以内の文字数まで用いることが できるよう、制約条件の厳しさを緩和したところ、 Listener Agent が、Speaker Agent

    が発した記号列 が、「いかなる物体」を表現しているのかを、解探索 する上で、(探索可能な)解空間の次元数が増えた。 その結果、正解率が上昇した。
  79. 【 実験1(1)の結果 】 なお、このとき、 「1つの記号列」が表現することのできる 「物体概念の件数」は、平均して、1件にまで減少した。 (言葉のもつ「あいまい性」が消失し、言葉の意味内容 が、より明確になり、言葉を聴いた者は、 対象を「一意に特定」できるようになった。

  80. 【 実験1で行ったこと(2) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input AIに見せる物体郡の配置のパターンを、より現実の世界で遭遇する状況に近い設定にした。 具体的には、種類のことなる事物が、でたらめに、ランダムに並んでいるのではなく、 同じカテゴリに属する事物が、近くに並んで出現する(共起する)状況を再現した。 その上で、事物の配置関係が、完全に「ランダム」な状況であるとき (=先行研究では、事物の並びは、一様分布(uniform distribution)と呼ばれる統計分布に従って、出現する設定) と、似たカテゴリの事物が、近くにまとまって出現する、上記の現実的な状況とで、 このSpeakerがうみだす言語の特性がどう変化し、その言葉を聞いたListenerが、Speakerが見ていた物体 を正しく理解できた割合(正解率)がどう変化したのかを、比較検証した。
  81. 【 実験1で行ったこと(2) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speakerには、ひとつの事物が写っている画像しか見せないが、 Listenerに見せる事物は、「Speakerが見ている事物(1つ)」と、「Speakerが見ていなかった4つの事物」(distractors) の合計5つでる。 今回、後者の4つの事物(不正解の事物)について、 種類のことなる事物が、でたらめに、ランダムに並んでいる状況と、 同じカテゴリに属する事物が、近くに並んで出現する(共起する)状況 (=一様分布ではない、特定の統計分布に従って出現する状況) の2つの状況を用意した。
  82. 「一様分布」ではなく、 似た属性の事物が、よりまとまって近くに出現するという「現実に近い状況」を設定した場合、 「似た属性の事物が、よりまとまって近くに出現する」ために、 「正解の事物(1つ)」を「不正解の事物(4つ)」と見分けるのが、より困難になった。 この結果、正解率は、40%にとどまった。 (ListenerがSpeakerの発する言葉を、理解しようと試行錯誤した時間は、短かった。 つまり、すぐに諦めた。) 【 実験1(2)の結果 】

  83. 「一様分布」ではなく、 似た属性の事物が、よりまとまって近くに出現するという「現実に近い状況」を設定した場合、 「似た属性の事物が、よりまとまって近くに出現する」ために、 「正解の事物(1つ)」を「不正解の事物(4つ)」と見分けるのが、より困難になった。 この結果、正解率は、40%にとどまった。 (ListenerがSpeakerの発する言葉を、理解しようと試行錯誤した時間は、短かった。 つまり、すぐに諦めた。) 【 実験1(2)の結果 】

    Contet-dependentな状況を設定した場合 のほうが、より少ない試行錯誤(試行) を繰り返した段階で、早めに諦めて、 低い正解率(獲得「報酬」値)にとどまり、 低迷する結果となった。
  84. 次に考察したのは、 Speakerが、同じ記号列で表現した物体は、物体として、(人間から見て)どれだけ似ているのか? という問題である。 【 実験1(2)の結果 】

  85. 4つの「不正解の物体」が、一様分布に従って(ランダムに)配置されている場合、 Listenerは、Speakerが見ていた物体と、そうでない物体を識別できるようにするために、 Speakerに対して、物体それ自体の属性(色や形状)を、明確に記号で表現してくれるように、 圧力をかけた。(損失関数の数式を通じて) 【 実験1(2)の結果 】

  86. それに対して、4つの「不正解の物体」が、 一様分布以外の(ランダムでない)統計分布に従って配置されている場合、 Listenerは、Speakerが見ていた物体と、そうでない物体を識別できるようにするために、 Speakerに対して、「物体それ自体の属性(色や形状)」よりも、むしろ、「事物の共起関係」 (the visual co-occurrences)を、明確に記号で表現してくれるように、 圧力をかけた。(損失関数の数式を通じて) 【 実験1(2)の結果

  87. 以上の結果、実験環境を設定する際に、「不正解の物体(4つ)」の出現分布が、 どのような統計分布に従って選び出されるものとして、状況を設定するかという外生的な要因 (実験を実施する人間の側の決定)によって、 AI Agent が 生み出す言語(the emerged language)が帯びる特性が、影響を受けることが判明した。 (例:

    the semantics of ambiguous or homonym words in the languate. どのような物体を、「親しい意味カテゴリに属する事物概念」に所属する事物として、 その言語は、「同義語」で言い表したり、(曖昧性をもつ)同一の表現で言い表すかの性質 【 実験1(2)の結果 】
  88. 【 実験1で行ったこと(3) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speakerが、これまで見たことのない「未知の事物」が目の前に出現した(認識した、発見した)ときに、 (未知の物体をみるよりも過去に)、すでに獲得済みの事物概念と(それを指す)言葉(語彙)の範囲内(言語体系内)で、 その「未知の事物」を言語で表現することができるのか、言語のもつ「概念合成力」の大きさを定量評価した。
  89. 【 実験1で行ったこと(3) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input これまで見たことのない「未知の事物」を構成するために、 Unigram chimeras シナリオとuniform chimeras シナリオの2つの状況設定を用意した。
  90. 【 実験1で行ったこと(3) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 加えて、さらに踏み込んで、Speakerに、これまで発したことのない(Listenerが聞いたことのない) 記号列を、発してもらうようにした。(未知の記号列)
  91. (ICLR 2018) Angeliki Lazaridou et.al., Emergence of Linguistic Communication from

    Referential Games with Symbolic And Pixel Input Speakerが発したこれまで発したことのない「未知の記号列」は、 過去に発声したことのある「語彙」と、 過去に見られた「接頭辞や接尾語の変化規則」や「語の活用規則」など、過去の言語構造がもっていた言語規則 と一貫性のあるルールで、新たに生み出された表現(新語)だった。 【 実験1(3)の結果 】
  92. 【 実験1で行ったこと(4) 】 「似た記号列」は、(人間から見て)「似た物体」に対応づけられていたかの可視化検証

  93. 【 実験1で行ったこと(4) 】 「似た記号列」は、(人間から見て)「似た物体」に対応づけられていたことが確認された

  94. 【 実験1(4)の結果 】

  95. 【 実験2で行ったこと 】 「人間によるアノテーション付与」なしのraw pixel data(raw sensorimotor data)を、AIに与える。  raw

    pixel dataのなかの、どの領域に、何の物体が映っているのか を、AI自身が自律的に判断する ( -> 物体概念の獲得 + その物体概念の視覚描像が出現している位置(範囲)の同定)  物体概念一般には、いかなる属性の集合が想定でき、画像の中に見出したそれぞれの物体は、 個々の属性のどれに該当するのかを、AI自身が自律的に判断する。 disentangled by AI theirselves (with no human helps & instructions)
  96. 【 実験2で行ったこと 】 「人間によるアノテーション付与」なしのraw pixel data(raw sensorimotor data)を、AIに与える。  raw

    pixel dataのなかの、どの領域に、何の物体が映っているのか を、AI自身が自律的に判断する ( -> 物体概念の獲得 + その物体概念の視覚描像が出現している位置(範囲)の同定)  物体概念一般には、いかなる属性の集合が想定でき、画像の中に見出したそれぞれの物体は、 個々の属性のどれに該当するのかを、AI自身が自律的に判断する。 disentangled by AI theirselves (with no human helps & instructions)
  97. 【 実験2で行ったこと 】 Game A : 「不正解の物体」が 19個 ある状況設定。 Game

    B : 「不正解の物体」が 1個しかない状況設定。 Game C : 「不正解の物体」が1個あり、Speaker と Listener は互いに異なる位置から、物体を見ている。 Game D : Cの設定に加えて、物体の色を5種類(Cは8種類)に減らし、3種類の特定の形状をした物体を取り除いた状況設定。 4つの状況設定で、実証実験を行った。
  98. 【 実験2の結果 】 Speakerが生成した言語は、与えれた環境条件(取り組んだ問題状況)で良い成績を上げるという、 唯一の目的に特化した、問題状況にオーバーフィット(過学習)したものである様子が伺えた。

  99. 【 実験2の結果 】 安定して、一般的(な状況や問題文脈で通用する)言語を生み出すためには、 学習環境もまた、十分に複雑である必要があることがわかった。 (例: 物体伝達タスクでは、見える物体は、属性や位置関係が十分に入り組んだ、込み入ったものであること)

  100. 【 実験2の結果 】

  101. 【 実験2の結果 】

  102. Language evolution 研究領域 2本の論文を執筆した研究者 (所属: DeepMind) Angeliki Lazaridou 氏

  103. Language evolution 研究領域 2本の論文を執筆したLazaridou氏 (所属: DeepMind) 【 本人のウェブページ 】 URL

    : http://angelikilazaridou.github.io/ URL : http://angelikilazaridou.github.io/research/
  104. Language evolution 研究領域 2本の論文を執筆したLazaridou氏 (所属: DeepMind) 【 Google Scholar 】

    URL : https://scholar.google.it/citations?user=BMgUIC0AAAAJ&hl=en (被引用数 最多論文)
  105. Language evolution 研究領域 2本の論文を執筆したLazaridou氏 (所属: DeepMind) 【 Google Scholar 】

    URL : https://scholar.google.it/citations?user=BMgUIC0AAAAJ&hl=en (直近の発表論文)
  106. 汎用人工知能(AGI)を目指す論文も書いている Lazaridou氏 (所属: DeepMind) Marco Baroni et.al., COMMAI: Evaluating the

    First Steps Towards a Useful General AI URL :https://arxiv.org/pdf/1701.08954.pdf
  107. (関連論文) (NIPS 2017) Serhii Havrylov & Ivan Titov, Emergence of

    Language with Multi-agent Games: Learning to Communicate with Sequences of Symbols
  108. (関連論文) (NIPS 2017) Serhii Havrylov & Ivan Titov, Emergence of

    Language with Multi-agent Games: Learning to Communicate with Sequences of Symbols (左図) AIが生成した「視覚描像」(物体輪郭)と「記号表現」のペア (右図) AIのモデル・アーキテクチャ図
  109. 「AI独自の言葉」 を 「人間の言葉」 に 対応づける( 接地させる, ground )方法の開拓

  110. はじめに DeepMindは、「この発見」をもとに、 「どのような環境状況(問題文脈)」のなかで、(複数の)AI(Machine)どうしをコミュ ニケーションをさせると、 獲得される「(AI自身の)言語」が、人間にとって理解可能な、「十分に人間の言語 に似た」言語となるのか、 「環境状況が持つ条件」を解明する研究に、すでに着手し始めています。 再掲

  111. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 「AI独自の言葉」 を 「人間の言葉」 に 対応づける( 接地させる, ground ) 方法の開拓 Lazaridou氏が、FAIR(Facebook AI Research)に在籍していた頃の研究成果
  112. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language この論文が発する問い (研究の主題) 「人間が直感的に理解しうる構造」の「意味概念」を指示する「AI自身の言語」 が形成されるためには、言語が生成される環境要因として、 どのような要因(条件)が、必要であるのか?
  113. AIと人間が、それぞれ独自の「概念」と「言語」を持ちながらも、 互いに意思の疎通を図る上で、必要とされる研究 (AIがつむぎだした)記号に込められた「意味」=「概念」を、 人間にとって、理解のしやすいものに近づける (AIがつむぎだした)記号=「ことば・言語」を、 人間が理解しうるものに近づける 「人間が直感的に理解しうる構造」の「意味概念」を指示する「AI自身の言語」 が形成されるためには、言語が生成される環境要因として、 どのような要因(条件)が、必要であるのか?

  114. 目指すのは、AIと人間が、互いに意思の疎通を図る道を切り開くこと

  115. 目指すのは、AIと人間が、互いに意思の疎通を図る道を切り開くこと

  116. AIと人間が、互いに意思の疎通を図る道を開く (AIが、他のAIに対して) 「ある物体」を説明するために、AIが発した「言葉」に込められた「物体属性概念」(word meanings) が、 人間が同じ物体を見たときに、その物体が帯びる「視覚的な性質」(semantic properties)として、 人間が直感的(intuitively)」に理解できる「属性概念」 になるためには、「AIどうしのメッセージ伝達ゲーム」が、どのような課題設定状況・問題設定状況(game environment)

    の中で行われたらよいのか、を解明(explore)する。 (AIがつむぎだした)記号(”agents’ code)=「ことば・言語」 を、 「人間の言葉・言語」に近づける 「人間が直感的に理解しうる構造」の「意味概念」を指示する「AI自身の言語」 が形成されるためには、言語が生成される環境要因として、 どのような要因(条件)が、必要であるのか? intuitive semantic properties of images.
  117. (AIが、他のAIに対して) 「ある物体」を説明するために、AIが発した「言葉」に込められた「物体属性概念」(word meanings) が、 人間が同じ物体を見たときに、その物体が帯びる「視覚的な性質」(semantic properties)として、 人間が直感的(intuitively)」に理解できる「属性概念」になる ためには、「AIどうしのメッセージ伝達ゲーム」が、どのような課題設定状況・問題設定状況(game environment) の中で行われたらよいのか、を解明(explore)する。

    「人間が直感的に理解しうる構造」の「意味概念」を指示する「AI自身の言語」 が形成されるためには、言語が生成される環境要因として、 どのような要因(条件)が、必要であるのか? assigned to meanings that make intuitive sense in terms of our [ human-being’s own ] conceptualization of the world.
  118. 「人間が直感的に理解しうる構造」の「意味概念」を指示する「AI自身の言語」 が形成されるためには、言語が生成される環境要因として、 どのような要因(条件)が、必要であるのか?

  119. 「人間が直感的に理解しうる構造」の「意味概念」を指示する「AI自身の言語」 が形成されるためには、言語が生成される環境要因として、 どのような要因(条件)が、必要であるのか?

  120. 「人間が直感的に理解しうる構造」の「意味概念」を指示する「AI自身の言語」 が形成されるためには、言語が生成される環境要因として、 どのような要因(条件)が、必要であるのか?

  121. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language (人間の指図を受けずに、) 複数のAI Agentどうしが、互いの認識を伝達しようとする「言語伝達ゲーム」 (multi-agent coordination communication games)という状況文脈の中で、 「言語も概念もなにもない白紙の状態」(start as blank slates)から、互いの認識を伝達し合おうと試行錯誤する過程 を通じて、共有された「物体属性概念」と、それを指示する言葉が、立ち現れてくるプロセスを研究する
  122. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language (人間の指図を受けずに、) 複数のAI Agentどうしが、互いの認識を伝達しようとする「言語伝達ゲーム」 (multi-agent coordination communication games)という状況文脈の中で、 「言語も概念もなにもない白紙の状態」(start as blank slates)から、互いの認識を伝達し合おうと試行錯誤する過程 を通じて、共有された「物体属性概念」と、それを指示する言葉が、立ち現れてくるプロセスを研究する
  123. 検証方法

  124. AIが紡ぎだすことのできる言葉の語彙の数には、上限が設けられる。(制約条件の設定) a message from a fixed, arbitrary vocabulary 状況設定

  125. 「会話ゲーム」の課題設定は、Obverter 論文ほかと同じ (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and

    the Emergence of (Natural) Language Sender が発するメッセージ(見ている物体を指し示す「名詞」)は、『ひとつの記号』(=1文字)
  126. 先行研究2 ・ AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない (「記号系列」( a sequence of discrete

    symbols )こそが 「人間並み」の言語といえる) 【 以下、Obverter 論文より抜粋 】 Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input 再掲
  127. 先行研究2 AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない ・ Jakob Foerster, Yannis M Assael,

    Nando de Freitas, and Shimon Whiteson. Learning to communicate with deep multi-agent reinforcement learning. In NIPS, pp. 2137–2145, 2016. ・ Angeliki Lazaridou, Alexander Peysakhovich, and Marco Baroni. Multi-agent cooperation and the emergence of (natural) language. In ICLR, 2017. 再掲
  128. 「会話ゲーム」の課題設定は、Obverter 論文ほかと同じ (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and

    the Emergence of (Natural) Language Sender と Receiver は、互いに「言語の共有化」を試行錯誤できるように、 (強化学習において「報酬」が与えられるように、) 各試行回ごとに、 「Senderが発した言葉(=1文字で表現された「名詞」)」 を、 「Receiver が正しく理解できたかどうか」の「成功」・「失敗」の報酬ラベル(1:成功、0:失敗) を受け取る。
  129. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language Sender が発するメッセージは、記号集合ベクトルの中で「該当する記号」だけ「1」が立つ、 one-hot vector で表現される。
  130. AIが生成する(各target画像を指し示す)「名詞」=『記号1文字』は、 K件の「記号集合」(=文字集合)から、選択される。 (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and

    the Emergence of (Natural) Language 要素数 K(個)の記号集合は、以下のいずれかであるかは、論文で明示されていない。 【 可能性1 】 人間によって、天下り的に与えられる。 【 可能性2 】 (複数の)AIどうしがコミュニケーションを行う相互過程の中から、おのずと(内生的に)生成される。
  131. AIが生成する(各target画像を指し示す)「名詞」=記号列を構成する「記号」は、 K件の「記号集合」(=文字集合)から、選択される。 (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and

    the Emergence of (Natural) Language a message from a fixed, arbitrary vocabulary 以下の “from … arbitrary vocabulary” という記述を見るかぎりでは、【 可能性2 】 だろうか? 【 可能性1 】 人間によって、天下り的に与えられる。 【 可能性2 】 (複数の)AIどうしがコミュニケーションを行う相互過程の中から、おのずと(内生的に)生成される。
  132. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language Receiver は、Sender が発した「1文字」が、「どの物体」を指し示していたのかを推定する。 Receiver の「頭の中」は、 「Senderから受け取った1文字」と「目の前にある2つの物体のそれぞれ」との「内積(ドット積)」 で表現される。 内積値の大きい「記号・物体ペア」を構成する「物体」を、「Senderが見ていた物体」と結論付ける。
  133. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 損失関数の定義 と 学習方法
  134. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 2種類のSender を 考える。 ( Agnostic sender & Informed sender ) 緑色の枠で囲まれた「物体描像」が、 Sender が、「言葉で表現するよう」 課題を与えられた、Target 物体 Receiver は、この物体を選択できたら、 正解
  135. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 2種類のSender を 考える。 ( Agnostic sender & Informed sender ) Sender の前には、必ず左側に Target が置かれる。 Receiver は、どちらの物体が正解(Target)か 左右の位置で判断できないように、 「正解」(Target)と「障害物」(Distractor)の 左右の位置が、ランダムに配置される。
  136. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 2種類のSender を 考える。 ( Agnostic sender & Informed sender )
  137. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 2種類のSender を 考える。 ( Agnostic sender & Informed sender ) Informed sender は、 目の前にある「2つの物体描像」を「総体的に」眺める。 The resulting feature maps are combined through another filter has an inductive bias towards combining the two images dimensionby-dimension
  138. ・ Agnostic sender と Informed sender のいずれも、試行回数 5,000 ゲーム目で、収束した。 ・

    Informed sender の方が、より早く収束した。 検証結果
  139. ・ Agnostic sender が、「物体」を表現するためにつむぎだした「名詞」は、2文字で構成されていた のに対して、Informed sender がつむぎだした「名詞」は、より多くの文字数であった。 ・ ゲームに登場した「物体」は、(人間の目から見て) 463種類あったので、

    「自然な言葉」を話す知性体 (a natural-language-endowed sender)は、1つの名詞を記述するのに、 多くの異なる文字を使用するのが、自然である。 ・ 「名詞」の記号列(symbols)と「物体描像」(image pairs)の組み合わせの出現頻度度数を調べたところ、 「ほとんどの名詞が、同義語であるか、冗長な言い回しの語句であるに過ぎない可能性」 は、棄却された。 検証結果
  140. ・ AIが生成した「言葉」が持つ「概念意味構造」(semantic properties of the emergent communication protocol) を理解するために、「記号」(=「名詞」に相当)(symbols)と、その「記号」が指示する「視覚描像」(images) との対応関係(relationship)を可視化して調べた。

    検証作業 もしも、現れてきた「言語」が、高度に抽象化された意味概念を表現する語句を獲得できていたとしたら、 (人間の目でみて)「同じ物体カテゴリ」に属する「物体」(“兵器”や“哺乳類”など)を指示する言葉は、 同一の語句(記号列)であるはずである。「銃剣」と「銃」は、 同じ語句で表現されるはずであり、「牛」と「銃」とが、同じ語句で言い表されることは起き得ないはずである。
  141. ・ 「視覚描像」の「各部分」ごとに、その「部分」を Sender AI が「見た」ときに、もっとも頻繁に活性化した「記号列」を調べた。 ・ その上で、「同じ記号列」が活性化した「視覚描像の部分領域」を、AIが「同じ意味概念に属する物体」(の視覚描像)と いう認識を抱いたものと解釈して、「同じ意味概念に属する物体」のクラスターを可視化した。 ・ その後、各クラスターの「純度」(purity,

    100%がもっとも純度が高く、事物の分類タスクが完全な精度で実現した際のクラスター)を計測し、 物体をランダムに分類した場合のクラスターの「純度」と比べた。 検証作業
  142. ・ 「クラスター」の精度は、“物体を完璧にカテゴリ分類できた場合に出現するはずのクラスタ“には遠く及ばないものの、 「偶然」(chance)、出来上がった分類結果よりも、よい出来栄えであった。 ・ また、Informed sender が(同じ文字列(=「名詞」)を割り当てることで)カテゴリ分けした「各物体の群れ集合」(クラスタ) の(カテゴリ)分類の精度は、Agnostic senderによるカテゴリ分類よりも、クオリティ(「純度」)が高かった。 検証結果

  143. ・ 「クラスター」の精度は、“物体を完璧にカテゴリ分類できた場合に出現するはずのクラスタ“には遠く及ばないものの、 「偶然」出来上がった分類結果よりも、よい出来栄えであった。 ・ また、Informed sender が(同じ文字列(=「名詞」)を割り当てることで)カテゴリ分けした「各物体の群れ集合」(クラスタ) の(カテゴリ)分類の精度は、Agnostic senderによるカテゴリ分類よりも、クオリティ(「純度」)が高かった。 検証結果

  144. ・ Agnostic sender は、たった2文字で「名詞」(記号列)をつむぎだしていたのにもかかわらず、 「偶然、出来上がった」物体の分類クラスターよりも、はるかに高品質な分類結果(クラスター)を作り出すことができた。 ・ 定性評価(our qualitative evaluations)の結果、この「わずか2文字」の「名詞」は、物体を、「生物」と「非生物」の2つに 分類分けしていたとの解釈に至った。

    ・ この2分類(「生物」 vs. 「非生物」)は、あまりにも大雑把な概念カテゴリ(意味カテゴリ)ではあるが、 人間が獲得する、もっとも基本的な分類軸であると考えることができる。 (人間も、幼児の場合など、まずはこの分類軸から、物事のカテゴリ仕分けを開始するものと考えられる) 検証結果
  145. ・ 「記号(文字)の並べ方(出現系列)」(字面の並び順)が、本当に、「視覚」で捉えた「情報」に潜む意味構造を表現でき ているのか(whether symbol usage reflects the semantics of the

    visual space)を検証するために、 ImageNetデータセットに収録されている(人間の手でつくられた)「物体カテゴリ概念」と「視覚画像データ」のペアを 用いた実験を行った。 ・ 具体的には、ImageNet所収の「各カテゴリ」(=人間の視点から捉えた物体カテゴリ概念)に属する「画像データ」の 画像特徴ベクトル(畳み込みニューラルネットワークモデルの全結合層(fc層)から抽出した)を、 t-SNEによって、2次元に次元圧縮することで、 「各カテゴリの事物」の高次元圧縮空間(=2次元多様体空間)における分布図を生成した。 (このt-SNEマップを、(人間=ImageNet製作者による)物体カテゴリの意味構造空間として解釈する) ・ その上で、このt-SNEマップ上の「各物体カテゴリ」上のすべての「(各)物体」について、 Sender AI が『「同じ」記号の出現系列」』を割り当てた「(各)物体」を、「同じ色」で表示した。 ・ したがって、「同じ色で表示された物体」が、(人間が製作したImageNet上の物体概念カテゴリごとにクラスタ分けされた) t-SNEマップ上で、互いに近い距離に出現したとき、「Sender AIによる各物体の分類概念空間」と、 『「ImageNetを定義した人間」による「各物体の分類概念空間」』とが、完全に一致することを意味する。 検証作業
  146. 検証作業

  147. 検証結果 ・ 「同じ色」で表示された物体、つまり、「Sender AI が、同じ記号文字列で表現した(複数の)物体群」は、 t-SNE空間上で、「互いに近くに」出現した。 ・ この結果、 人間による【物体概念-言語ラベルのペア】の関係構造の形状 ←

    t-SNE空間の元となっていた(人間=ImageNet製作者が定義した)【「物体視覚画像」-「物体カテゴリ概念」のペア】 が成す(次元圧縮空間上における)各クラスタ集合の相対配置空間 と、Sender AIによる【物体概念-言語ラベルのペア】の関係構造の形状 とが、「近い」形状の構造をしていることが、明らかになった。
  148. 検証結果

  149. 検証結果 ・ 「同じ色」で表示された物体、つまり、「Sender AI が、同じ記号文字列で表現した(複数の)物体群」は、 t-SNE空間上で、「互いに近くに」出現した。 ・ この結果、 人間による【物体概念-言語ラベルのペア】の関係構造の形状 ←

    t-SNE空間の元となっていた(人間=ImageNet製作者が定義した)【「物体視覚画像」-「物体カテゴリ概念」のペア】 が成す(次元圧縮空間上における)各クラスタ集合の相対配置空間 と、Sender AIによる【物体概念-言語ラベルのペア】の関係構造の形状 とが、「近い」形状の構造をしていることが、明らかになった。
  150. さらなる検証作業 ・ AI(Sender と Receiver の双方)が、より抽象度の高い「物体概念空間」で、各「物体カテゴリ」レベルを指示する 「言語」(=抽象度の高い名詞)を生成できるかの検証を行った。 ・ 具体的には、 Sender

    と Receiver のそれぞれに対して見せた「物体」を、 (人間の目から見て)「同じ物体カテゴリ」に属する(例:「犬」、「猫」)が、 より抽象レベルの低い概念次元では、異なる種類に属する「物体」(例:Chihuahua と Boston Terrier) に変えた。
  151. 「さらなる検証作業」の結果 ・ 分類カテゴリの「純度」は、劣化するどころか、むしろ、わずかに「純度が上がった」。 ・ このような結果がもたらされた理由としては、 AI(Sender と Receiver の双方)は、今度は、「物体」の「視覚描像」が持つ「より抽象度の高い」概念レベルでの差異 しか、物体を識別するために手がかりとできるものがなくなったため、目の前の2つの物体の間に存在する、

    「細かい差異」を無視して、大局を捉える視点から見えてくる「重要な違い」に集中することができた可能性 を指摘することができる。
  152. 「さらなる検証作業」の結果 ・ 分類カテゴリの「純度」は、劣化するどころか、むしろ、わずかに「純度が上がった」。 Before After

  153. 「さらなる検証作業」の結果 ・ 分類カテゴリの「純度」は、劣化するどころか、むしろ、わずかに「純度が上がった」。 Before After

  154. 「さらなる検証作業」の結果 【 参考 】 nudge : 押して動かす ・ Sender と

    Receiver が、言葉の伝達ゲームを行う「ゲームの課題設定」(問題状況設定)を変えることで、 AIに対して、「人間が形成する物体概念と言語概念」に、より近い「(AI自身の独自の)言語」を「形成させる」ように、 誘導できることが、明らかとなった。
  155. 「さらなる検証作業」の結果 【 参考 】 nudge : 押して動かす ・ しかしながら、AIに対して、「人間が完全に理解できる」「(AI自身の独自の)言語」を「形成させる」ようにする ためには、「人間の側」が、さらなる手を加えなくてはならない。

  156. 「教師あり学習」との結合 ・ 「AlphaGoモデル」に、教師あり学習のアプローチを付け加えることで、より能力の高い「AlphaGoZero」を生み出せた のに倣う。

  157. 「教師あり学習」との結合 ・ 「結合モデル」では、Sender AI は、ゲーム・プレイ中に、 「教師なし学習」(「報酬」を受け取る、ある種の「強化学習」)で学習するか、 「教師あり学習」で学習するかを、 等確率(equiprobably)に「切り替える」(switch)。 ・ 「教師あり学習」では、「人間の言葉」と「目の前にある物体の視覚描像」とを「結びつける」(連想付けを行う)学習をする。

    (in the form of image-label associations)
  158. 学習用の「教師データ」 =「人間が作成した」「物体-名詞ペア」データセット

  159. 学習用の「教師データ」 画像中の「どこ」に「何の物体」があるのかを示す 「物体」と「背景」の境界(物体の輪郭)」も、人間によるアノテーション付けが施されている

  160. 緑色の枠線は、 ReferItGameデータセット の中で、人間が アノテーション付けした 「特定の物体」と「背景」 の「境目」を示す 「境界線」 画像中の「どこ」に「何の物体」があるのかを示す 「物体」と「背景」の境界(物体の輪郭)」も、人間によるアノテーション付けが施されている 学習用の「教師データ」

  161. 「教師あり学習」と結合した結果 ・ Sender AI と Receiver AI との「言葉の伝達」タスクの能力を下げる結果は生じなかった。 ・ 「教師あり学習」によって、「Sender

    AIが生成する言語」と「人間がもつ物体-名詞ラベル」とを、 「直接的(明示的)に、対応付けた」(thanks to their direct correspondence to labels.)ことで、 「Sender AI がうみだした記号列」の多く(many symbols)は、「直接的に、人間が理解できる」記号になった (many symbols have now become directly interpretable)
  162. 「教師あり学習」と結合した結果 ・ テスト段階では、Sender AI が発した「記号」のうち、47%が、学習段階でAIに与えられていた「教師用データ」で示されて いた「人間による物体表現の記号」(=英語の名詞)と、完全に一致した。 (「偶然」(chance)、一致する確率は、1%と考えられる) ・ この結果は、「人間の言葉-物体に対応づけデータ」を用いた「教師あり学習」を施すことによって、Sender AIは、

    「教師用データ」で与えられた「人間の言葉」を、「自ら(=AI)の言葉」として、受け入れることを示している。
  163. 「教師あり学習」と結合した結果 ・ 「教師あり学習」に切り替えられていたときに、学習していなかった(「教師あり学習」対象「外」の)「画像」に関して、 Sender AI が紐付けた「AI言語の記号列」についても、「人間が理解しやすい」記号列になった。 ・ これは、「教師なし学習」に切り替えられていた際に、「人間が作成した」ReferItGameデータセットを用いており、 「人間が作成した、人間の言葉(英語)による(物体を指示する)一般名詞」を学んでいたことによる、と考えられる。

  164. 「教師あり学習」と結合した結果 ・ Sender AI が発した「言葉」が、人間にとって理解可能であるかどうかを検証するために、クラウド・プラットフォーム上で 集めた復数の生身の人間に「言葉」を見せて、理解できるかどうかを答えさせた。 ・ 人間に見せた「言葉」は、Sender AIが発した「記号」そのものではなく、(Sender AIが発した「記号」を、)

    ReferItGameデータセットに含まれていた「言葉」(英語)に「変換した」もの(英語)である。
  165. 「教師あり学習」と結合した結果 ・ Sender AI が発した「記号」のうち、25%しか、 ReferItGameデータセット中で教示されていた「人間の言葉」(英語)に対応 する(相当する)「記号」は、確認できなかった。 ・ この結果は、テスト段階において、Sender AI

    は、(学習段階で示されていた)『「人間が物体輪郭をアノテーション付した 物体の描像」- 「人間の言葉」 (英語)のペア』)に相当する「物体輪郭」を見出すことができなかったため、 AI自身の「独自の記号」を創出する必要に迫られていた可能性を示している。
  166. 「教師あり学習」と結合した結果 ・ そこで、『AI自身の「独自の記号」を創出する必要に迫られて』、Sender AIが発した「(AI自身の)記号」が、 人間の目で見て、理解可能な「記号」なのかを調べた。 ・ 具体的には、クラウド・プラットフォーム上で集めた復数の生身の人間に「言葉」を見せて、理解できるかどうか を答えさせた。

  167. 「教師あり学習」と結合した結果 ・人間に見せた「言葉」は、Sender AIが発した「記号」そのものではなく、(Sender AIが発した「記号」を、) ReferItGameデータセットに含まれていた「言葉」(英語)に「変換した」もの(英語)である。

  168. 「教師あり学習」と結合した結果 ・その結果、68%の割合で、「テストに参加した人間」は、Sender AIが発した「記号」(を、学習用データで示されていた英語 に「置き換えた」英単語)を見て、Sender AIが何の物体について説明しようとしていたのかを、正しく理解することが できた。

  169. 「教師あり学習」と結合した結果 ・ さらに、Sender AIは、「海」の画像を説明するために、「イルカ」(dolphin)という言葉を発し、 (AIが「ある記号」を発していたときに「認識していた」画像について、ReferItGameデータセットの中で、同じ「画像」に対応 付けられていた「英単語」が、”dolphin”であった) 「陸地の一部」の画像を説明するために、「フェンス」(fence)という言葉(に相当する「記号」)を発していた。 ・ これは、「海」を「イルカ」と言いかえたり、「陸」を「フェンス」と言いかえたりする「換喩」(metonymic link)を、

    Sender AI が身につけた可能性を示している。 (「換喩」の例: 「ホワイトハウス」(家カテゴリの単語 → 「大統領」(役職カテゴリの単語) 緑色の枠線は、 ReferItGameデータセット の中で、人間が アノテーション付けした 「特定の物体」と「背景」 の「境目」を示す 「境界線」
  170. 「教師あり学習」と結合した結果 ・ さらに、Sender AIは、「海」の画像を説明するために、「イルカ」(dolphin)という言葉を発し、 (AIが「ある記号」を発していたときに「認識していた」画像について、ReferItGameデータセットの中で、同じ「画像」に対応 付けられていた「英単語」が、”dolphin”であった) 「陸地の一部」の画像を説明するために、「フェンス」(fence)という言葉(に相当する「記号」)を発していた。 ・ これは、「海」を「イルカ」と言いかえたり、「陸」を「フェンス」と言いかえたりする「換喩」(metonymic link)を、

    Sender AI が身につけた可能性を示している。 (「換喩」の例: 「ホワイトハウス」(家カテゴリの単語 → 「大統領」(役職カテゴリの単語)
  171. 今後の研究に対する展望 ・ 「教師あり学習」だけではなく、Predictive learning を取り入れることによる効果についても、検証したい。

  172. この論文に触発された後続の論文

  173. 英国 エジンバラ大学による発展研究 (ICLR 2017) Serhii Havrylov et.al, emergence of language

    with multi-agent games : learning to communicate with sequences of symbols
  174. 後続の論文 (ICLR 2017) Serhii Havrylov et.al, emergence of language with

    multi-agent games : learning to communicate with sequences of symbols AI言語 英語 AI言語 英語 AI言語 英語
  175. (ICLR 2017) Serhii Havrylov et.al, emergence of language with multi-agent

    games : learning to communicate with sequences of symbols to ensure that the invented protocol is close enough to a natural language and, thus, potentially interpretable by humans DeepMindのこの論文を引用している (University of Edinburgh所属の研究者による) 後続の論文
  176. (ICLR 2017) Serhii Havrylov et.al, emergence of language with multi-agent

    games : learning to communicate with sequences of symbols with a language that is understandable by humans. DeepMindのこの論文を引用している (University of Edinburgh所属の研究者による) 後続の論文
  177. DeepMindのこの論文を引用している (University of Edinburgh所属の研究者による) 後続の論文 (ICLR 2017) Serhii Havrylov et.al,

    emergence of language with multi-agent games : learning to communicate with sequences of symbols Between twa agents … while human interpretability would be ensured
  178. 【 Thinking Machine に至るまでの道のり 】 - 「これまで」と「これから」 - 1. すでに達成したこと

    (by Google DeepMind) 2. これからの課題 (by Google DeepMind)
  179. 【 Thinking Machine に至るまでの道のり 】 - 「これまで」と「これから」 - 1. すでに達成したこと

    (by Google DeepMind) 2. これからの課題 (by Google DeepMind)
  180. 【 すでに達成したこと 】 ( 2018年6月現在 ) AIが、自らセンサーで捉えた画像等の生データ(raw data)から、 AI自身の 「独自の事物概念・抽象観念」と「それを指示する独自の記号表現」を、

    (「人間の手」 および 「人間が構築した概念とことば」を借りずに) 自律的に生成・組成することができつつある。 さらに、 複数の「概念=ことば」を組み合わせて(概念合成)、 データとして未経験(未観測)の事物概念・抽象観念 をも、「考えることで」生成・組成できつつある。
  181. 【 Thinking Machine に至るまでの道のり 】 - 「これまで」と「これから」 - 1. すでに達成したこと

    (by Google DeepMind) 2. これからの課題 (by Google DeepMind)
  182. 【 Thinking Machine に至るために乗り越えるべき課題 】

  183. はじめに 概念どうしの「関係」を思考する「関係性推論」(Relational reasoning)や、 3段論法や背理法などの論理思考を行うための土台となる「論理規則」や、 原因と結果の「因果観念」といった「思考のロジック」・「思考の規則」について、 「人間とは異なる」「推論規則のようなもの」を、そうしたAIが、「生成」するまでには、 まだ至っていないと推定されるものの、 世界中の大学の研究チームが、精度を競いあっている「AIによる文章題の読解問 題」(Machine Reading

    Comprehension)技術競技コンテストでは、 再掲
  184. 【 Thinking Machine に至るための関連要素技術 】

  185. はじめに 世界中の大学の研究チームが、精度を競いあっている「AIによる文章題の読解問 題」(Machine Reading Comprehension)技術競技コンテストでは、 復数の文書にまたがった断片的な知識を、論理的につなぎあわせて、論理に基 づいた思考を行うことで、 与えられた復数の文書を手がかりに、質問に対する正答にたどりつくためのアル ゴリズムの研究が広く行われている。 こうした技術の積み重ねが、

    センサ画像データから「事物の概念」を生成し、さらに、「世界」を説明するために 必要となる「新しい概念」を、すでに獲得済みの「概念」どうしを自在に組み合わせ ることで、次々につむぎだしていく「概念合成」能力を持ち、 再掲
  186. 複数の文章・文書に散らばる断片的な知識の手がかりを、 互いに論理的につなぎあわせて論理推論する精度を競う 技術コンテスト 及び 研究用データセット ・ MS-Marco (Microsoft Machine Reading

    Comprehension Dataset) 複数の文章題(英文文書)を与えて、文章に記述された事項に関する質問(英文の質問)に 正答させるタスクに取り組むAIの研究開発に取り組んでいる大学研究企業・民間企業の間で、 現在、標準的に使用されているデータセット。 推論(Reasoning, Inference)タスクとして、 各文書に散在する断片的な知識を、論理的につなぎあわせて、正解を論理的に考えて導出する 問題が、同データセットに含まれる課題の1つに、盛り込まれている。 Tri Nguyen et.al., MS MARCO: A Human Generated MAchine Reading COmprehension Dataset
  187. 複数の文章・文書に散らばる断片的な知識の手がかりを、 互いに論理的につなぎあわせて論理推論する精度を競う 技術コンテスト 及び 研究用データセット [ACL 2018] Johannes Welbl et.al.,

    Constructing Datasets for Multi-hop Reading Comprehension Across Documents
  188. 複数の文章・文書に散らばる断片的な知識の手がかりを、 互いに論理的につなぎあわせて論理推論する精度を競う 技術コンテスト 及び 研究用データセット [EMNLP 2005] Xiaoqiang Luo, On

    coreference resolution performance metrics
  189. 複数の文章・文書に散らばる断片的な知識の手がかりを、 互いに論理的につなぎあわせて論理推論するアルゴリズム 「人間が、人間の言葉(英語)で書いた」複数のテキストに散在する「断片的な知識(手がかり)」を、 「人間の論理推論規則」を用いて、互いに“論理的”につなぎあわせて、質問文に対する回答語句・回答文を生成する アルゴリズムとして、自然言語処理の研究領域において、古くから、以下の要素技術が研究されてきた。 ・ 共参照解析 (Co-reference Resolution) 言い回しや、表記法(字面)は異なるが、互いに同じ事物や概念(Entity)を指し示している複数の表現(文字列)

    を、「同じ主語」・「同じ目的語」として同定するためのテキスト解析技術。いわゆる「表記ゆれ」に対処する技術。 ・ 照応解析 (Reference Resolution) 「彼」・「それ」・「あれ」・「そのとき」・「そこで」・「そのあと」などの人称代名詞や指示代名詞(「照応詞」)が、 テキストの文脈のなかで、何を指し示しているのかを、テキスト中に出現する別の単語に紐づける技術。 この技術は、日本語文における「主語の省略」など、省略された品詞を補う技術を含む。
  190. 複数の文章・文書に散らばる断片的な知識の手がかりを、 互いに論理的につなぎあわせて論理推論するアルゴリズム 【 共参照解析 & 照応解析 】 深層ニューラルネットワーク機構を用いた最新手法 掲載誌 掲載年

    論文表題 所属 NAACL-HLT 2018 Neural Models for Reasoning over Multiple Mentions using Coreference Carnegie Mellon Univ, Univ. of Pittsburgh EMNLP 2017 End-to-end Neural Coreference Resolution Allen Institute for AI Improving Coreference Resolution by Learning Entity-Level Distributed Representations Stanford Univ. NIPS 2017 Visual Reference Resolution using Attention Memory for Visual Dialog POSTECH, Disney Research AAAI 2017 Machine Learning for Entity Coreference Resolution : A Retrospective Look at Two Decades of Research Univ. of Texas EMNLP 2015 C3EL : A Joint Model for Cross-Document Co-Reference Resolution and Entity Linking Max-Planck Institute for Informatics Cross-Document Co-Reference Resolution using Sample-Based Clustering with Knowledge Enrichment Max-Planck Institute for Informatics
  191. 2018年以降、Thinking Machine 研究開発 が進展する可能性が高い。 AIによる「データの海」からの「思考のロジック」の自律的な獲得 AIによる「データの海」からの「思考の素材」の自律的な獲得 “language evolution” と呼ばれる研究領域 における最新の研究成果

    人間が想像した概念・人間が紡ぎ出したことばを教師データとする “Machine Reading Comprehension” と呼ばれる研究領域 における最新の研究成果
  192. はじめに 概念どうしの「関係」を思考する「関係性推論」(Relational reasoning)や、 3段論法や背理法などの論理思考を行うための土台となる「論理規則」や、 原因と結果の「因果観念」といった「思考のロジック」・「思考の規則」について、 「人間とは異なる」「推論規則のようなもの」を、そうしたAIが、「生成」するまでには、 まだ至っていないと推定されるものの、 世界中の大学の研究チームが、精度を競いあっている「AIによる文章題の読解問 題」(Machine Reading

    Comprehension)技術競技コンテストでは、 再掲
  193. 【 物体間に働いている力学的な運動関係、 事物の因果観念、意味関係、推論規則の「創発」 】 この領域におけるDeepMindの最近の研究成果

  194. Graph Network による物体や事物間の連関関係 の特徴表現獲得(学習)と転移学習の実現 [Arxiv. 2018] Peter W. Battaglia et.al,

    Relational inductive biases, deep learning, and graph networks 38ページ 且つ 大人数の執筆陣による大作 Node と Edge で組成される知識のグラフ表現 あらゆる事項間の連関・因果・連想関係 を表現できる、知識の「統一フレームワーク」
  195. [Arxiv. 2018] Peter W. Battaglia et.al, Relational inductive biases, deep

    learning, and graph networks DL輪読会による以下の解説スライドに詳しい [SlideShare] DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる左のスライドからの転載
  196. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載
  197. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載
  198. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載
  199. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載
  200. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 すでに学習済みの知識を利活用する応用能力(転移学習ほか)も担保されている
  201. すでに学習済みの知識を利活用する応用能力(転移学習ほか)も担保されている 【 関連 】 DeepMind から以前公開された研究成果 Chrisantha Fernando, et.al, PathNet:

    Evolution Channels Gradient Descent in Super Neural Networks 【 Icoxfig417氏による論文要約 】 URL : https://github.com/arXivTimes/arXivTimes/issues/191 【 Hatena Blog we are hackaer による論文解説 】 URL: http://miyamotok0105.hatenablog.com/entry/2017/03/23/200000
  202. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 すでに学習済みの知識を利活用する応用能力(転移学習ほか)も担保されている 過去に覚えたことの上書き消去 (Catastrophic Forgetting) は、どこまで回避できるだろうか?
  203. 過去に覚えたことの上書き消去 (Catastrophic Forgetting) は、どこまで回避できるだろうか? DeepMind が、以前取り組んだ課題 【 論文公開日 】 2017年3月14日

    James Kirkpatrick et.al, Overcoming catastrophic forgetting in neural networks
  204. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 将来への課題
  205. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 AIが世界をどう認識しているか、人間が頭を覗き込んで、確認しやすい (理解可能性のハードルが低い)
  206. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 Generation learning by “Combinational Generalization”
  207. 【 物体間に働いている力学的な運動関係、 事物の因果観念、意味関係、推論規則の「創発」 】 このモデルを、 「物体概念や事物(事項)概念」を(AI自身の)「記号表現(体系)」と紐付ける Language Evolution研究のモデル と、融合させていくことが、今後の課題となる。

  208. 【 関連するDeepMind発の「領域特化型」AI論文 】 (アノテーションなしの)画素データ(raw pixel data)から、物体の輪郭抽出・領域抽出 (=物体概念の抽出・生成)を行うモデル [ WorkShop ICLR

    2017 ] David Raposo et.al., Discovering objects and their relations from entangled scene 『人間の』「言語」を自律的に獲得するAI ・ Karl Moritz Hermann et.al., Grounded Language Learning in a Simulated 3D World 以下のモデルも、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。
  209. 【 関連するDeepMind発の「領域特化型」AI論文 】 以下のモデルも、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。 物体の重さ・堅さ・粘土・弾力性や物体間の力学的関係などの自分の身の回りの物理環境 の力学的特性を把握するAI ・ Nicholas

    Watters et.al., Visual Interaction Networks ・ Adam Santoro et.al., A Simple Neural Network Module for Relational Reasoning ・ [ ICLR 2017 ] Misha Denil et.al., Learning to perform physics experiments via reinforcement learning
  210. 【 DeepMind以外の機関が公開した「領域特化型」AI論文 】 以下のモデルも、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。 物体の重さ・堅さ・粘土・弾力性や物体間の力学的関係などの自分の身の回りの物理環境 の力学的特性を把握するAI [ DeepMind以外の企業・研究機関による論文

    ] Vicarious社 ・ Ken Kansky et.al., Schema Networks: Zero-shot Transfer with a Generative Causal Model of Intuitive Physics Imperial College London ・ Marta Garnero et.al., Towards Deep Symbolic Reinforcement Learning
  211. 【 他社の「領域特化型」AI論文 】 上記のモデルを、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。 Vicarious社 ・ Ken Kansky

    et.al., Schema Networks: Zero-shot Transfer with a Generative Causal Model of Intuitive Physics the Schema Network can learn the dynamics of an environment directly from data. generative physics simulator capable of disentangling multiple causes of events and reasoning backward through causes to achieve goals.
  212. 【 他社の「領域特化型」AI論文 】 上記のモデルを、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。 Imperial College London ・

    Marta Garnero et.al., Towards Deep Symbolic Reinforcement Learning architecture comprising a neural back end and a symbolic front end learns effectively, and, by acquiring a set of symbolic rules that are easily comprehensible to humans ability to reason on an abstract level, … to implement high-level cognitive functions such as transfer learning, analogical reasoning, and hypothesis-based reasoning.
  213. 【 関連するDeepMind発の「領域特化型」AI論文 】 以下のモデルは、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。  周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力

     周囲の光景の背景や(光景の中にある)物体について、死角になっている部分の描像を推定する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成することで 「理解」し、「新しい物体概念」を形成・獲得する能力 上記の領域に取り組んだ、DeepMindから公開済みの論文 (いずれも、Preprint版。研究進行中) ・ (2018/7/4 Work in progress)Ananya Kumar et.al., Consistent Generative Query Networks ・ (2018/7/5 Preprint. Work in progress) Tiago Ramalho et.al., Encoding Spatial Relations from Natural Language ・ (2018/6/15 ) S. M. Ali Eslami et.al., Neural scene representation and rendering ・ (2018/7/4 Preprint. Work in progress ) Dan Rosenbaum et.al., Learning models for visual 3D localization with implicit mapping ・ (2018/7/10 Preprint. Work in progress) Aaron van den Oord et.al., Representation Learning with Contrastive Predictive Coding
  214. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering DeepMind社 公式ブログ Neural scene representation and rendering URL : https://deepmind.com/blog/neural-scene-representation-and-rendering/
  215. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering GQN : Generative Query Network モデルを提案している URL : https://deepmind.com/documents/211/Neural_Scene_Representation_and_Rendering_preprint.pdf
  216. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering GQN : Generative Query Network モデルを提案している URL : https://deepmind.com/documents/211/Neural_Scene_Representation_and_Rendering_preprint.pdf
  217. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering GQN : Generative Query Network モデルを提案している URL : https://deepmind.com/documents/211/Neural_Scene_Representation_and_Rendering_preprint.pdf
  218. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering GQN : Generative Query Network モデルを提案している URL : https://deepmind.com/documents/211/Neural_Scene_Representation_and_Rendering_preprint.pdf  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成することで 「理解」し、「新しい物体概念」を形成・獲得する能力
  219. 【 DeepMindの「領域特化型」AI論文 】 上記のモデルを、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。 Aaron van den Oord

    et.al., Representation Learning with Contrastive Predictive Coding
  220. 【 DeepMindの「領域特化型」AI論文 】 Aaron van den Oord et.al., Representation Learning

    with Contrastive Predictive Coding In neuroscience, predictive coding theories suggest that the brain predicts observations at various levels of abstraction [7, 8]. One of the most common strategies for unsupervised learning has been to predict future, missing or contextual information
  221. 【 DeepMindの「領域特化型」AI論文 】 Aaron van den Oord et.al., Representation Learning

    with Contrastive Predictive Coding And by casting this as a prediction problem, we automatically infer these features of interest to representation learning. Secondly, we use powerful autoregressive models in this latent space to make predictions many steps in the future.
  222. 【 DeepMindの「領域特化型」AI論文 】 上記のモデルを、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。 ・ Aaron van den

    Oord et.al., Representation Learning with Contrastive Predictive Coding Contrastive Predictive Coding 機構
  223. Predictive Coding とは? 以下の論文を解説した下のスライドを参照。 【 原論文 】 ・ William Lotter

    et.al., Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning 【 解説スライド 】 富田 風大 「論文紹介 Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning」 URL : http://www-waka.ist.osaka-u.ac.jp/brainJournal/lib/exe/fetch.php?media=%E3%83%9A%E3%83%BC%E3%82%B8:2017:170301_f-tomita.pdf
  224. Predictive Coding とは? 以下の論文を解説した下のスライドを参照。 【 原論文 】 ・ William Lotter

    et.al., Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning 【 解説スライド 】 富田 風大 「論文紹介 Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning」 URL : http://www-waka.ist.osaka-u.ac.jp/brainJournal/lib/exe/fetch.php?media=%E3%83%9A%E3%83%BC%E3%82%B8:2017:170301_f-tomita.pdf
  225. Predictive Coding とは? 【 参考 】 [ ICLR 2017 ]

    William Lotter et.al., Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning 周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力
  226. 番外編 DeepMindが最近、公開した以下の研究は、AI Machine に、 活動環境が自分にとって、好意的か?、敵対的か? を判断させるモデル。 「この判断力」の「獲得」は、AI Machine が、そのときどきに身をおいている(さらしている)活動環境に対して、 「快・不快の感情」を手にすること、

    につながるだろうか? だとすると、「快・不快の感情」の獲得から、さらに進んで、「生存欲求」を持つことにつながるだろうか? (通常は、まず先に「生存欲求」があって、それゆえに、生存しやすい環境に対して快感を感じる、という体験 が生じるのだと考えられるが)
  227. 番外編 DeepMindが最近、公開した以下の研究は、AI Machine に、活動環境が自分にとって、好意的か?敵対的か? を判断させるモデル。

  228. 番外編 AI Machine の生存能力を高めるために、“獲得することが望まれる能力” “desirable ability for safe and robust

    agents.”
  229. AI Machine が、抽象的な概念を、実態として、どれだけ生成しているか? を定量評価する評価基準 番外編 Deep Mind からの提案 (問題設定)

  230. AI Machine が、抽象的な概念を、実態として、どれだけ生成しているか? を定量評価する評価基準 番外編 DeepMind 公式ブログ “Measuring abstract reasoning

    in neural networks” URL : https://deepmind.com/blog/measuring-abstract-reasoning/
  231. AI Machine が、抽象的な概念を、実態として、どれだけ生成しているか? を定量評価する評価基準 番外編 【 論文】 David G.T.Barrett et.al.,

    Measuring abstract reasoning in neural networks
  232. 【 Thinking Machine に至るために、今後、 DeepMind が 乗り越えるべき課題 】

  233. DeepMindは、多数の研究班が、多くの領域特化型AI の領野開拓に取り組んでいる  周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力、  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力  周囲の光景の背景や(光景の中にある)物体について、死角になっている部分の描像を推定する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成

    することで「理解」し、「新しい物体概念」を形成・獲得する能力
  234. Thinking Machine は、一連の情報処理(以下) を一気通貫して行う 「1つの身体」をもったAI Machine が、みずからのセンサーとアクチュエーターを通じた 世界とのインタラクション(相互作用)という、「認知的な閉じ」 (谷口忠太。後述) から出発して、

    「記号の接地問題」を解決する形で、 マルチ・モーダルな物体概念・事物概念および抽象観念と、物体間の力学的関係や因果関係や意味連関観念を、 「身体性」の観点から、統一的な身体感覚として、(各モダリティが統合された状態で)獲得して、 自身の記号表現体系(言語体系)と紐付けて、 他のAI Machineたちと「共有」(意思疎通、コミュニケーション)する
  235. 多数の「領域特化型AI」(=無数の断片)を、 ひとつの有機的で、自己発生的(自己組織化的)なAI Agent モデル に、組み上げる必要がある。  周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力、  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力 

    周囲の光景の背景や(光景の中にある)物体について、死角になっている部分の描像を推定する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成 することで「理解」し、「新しい物体概念」を形成・獲得する能力 断片 = 多数の「領域特化型AI」 ひとつの有機的で、自己発生的(自己組織化的)なAI Agent モデル
  236. 無数の断片(=個々の特化型AI)の開発は、 すでに達成しつつある  周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力、  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力  周囲の光景の背景や(光景の中にある)物体について、死角になっている部分の描像を推定する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成

    することで「理解」し、「新しい物体概念」を形成・獲得する能力 断片 = 多数の「領域特化型AI」 ひとつの有機的で、自己発生的(自己組織化的)なAI Agent モデル 達 成 し つ つ あ る
  237. 「無数の断片」を組合せて、ひとつの有機体を組み上げる ことが、DeepMindが乗り越えるべき今後の課題  周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力、  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力  周囲の光景の背景や(光景の中にある)物体について、死角になっている部分の描像を推定する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成

    することで「理解」し、「新しい物体概念」を形成・獲得する能力 断片 = 多数の「領域特化型AI」 ひとつの有機的で、自己発生的(自己組織化的)なAI Agent モデル 未 達 成
  238.  周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力、  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力  周囲の光景の背景や(光景の中にある)物体について、死角になっている部分の描像を推定する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成 することで「理解」し、「新しい物体概念」を形成・獲得する能力 断片

    = 多数の「領域特化型AI」 ひとつの有機的で、自己発生的(自己組織化的)なAI Agent モデル 未 達 成 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる - 未 達 成
  239. 2つのアプローチが考えられる。 A. (1) まず最初に、「特定の機能を発揮するよう設計された個々の部品」(特化型AI)を、それぞれ個別に、 別々に組成する。 (2) あとから、「それら無数の部品」を、「ひとつのAI Machine」(汎用AI, AGI)に組み上げる B.

    (1) ひとつの「胚」から、 (2) 時間が進行する過程で、徐々に、「それぞれの特化型機能をもった部分領域」を発生させる。 そうして発生した各部分(各特化型AI)は、「共有する全体の文脈」のなかの「部分領域」として、 互いに「有機的につながって」いる。 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる -
  240. 2つのアプローチが考えられる。 A. 自然界が生み出した「既知の知的生命体」とは異なる、新種の「可能な人工生命体」 (Alternative Artificial Life)の創造を志向する方向性 (1) まず最初に、「特定の機能を発揮するよう設計された個々の部品」(特化型AI)を、それぞれ個別に、別々に組成する。 (2) あとから、「それら無数の部品」を、「ひとつのAI

    Machine」(汎用AI, AGI)に組み上げる B. 自然界が生み出した「既知の知的生命体」の発生・発育原理と考えられる「自己組織化」や「カオス的遍歴」 の考え方に学んで、模倣することで、人工的な知的生命体(Thinking Machine, AGI)を目指す方向性 (1) ひとつの「胚」から、 (2) 時間が進行する過程で、徐々に、「それぞれの特化型機能をもった部分領域」を発生させる。 そうして発生した各部分(各特化型AI)は、「共有する全体の文脈」のなかの「部分領域」として、 互いに「有機的につながって」いる。 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる -
  241. DeepMind 社がとる進路の『予想』 アプローチ A. を取るのではないか? A. (1) まず最初に、「特定の機能を発揮するよう設計された個々の部品」(特化型AI)を、それぞれ個別 に、別々に組成する。 (2)

    あとから、「それら無数の部品」を、「ひとつのAI Machine」(汎用AI, AGI)に組み上げる B. (1) ひとつの「胚」から、 (2) 時間が進行する過程で、徐々に、「それぞれの特化型機能をもった部分領域」を発生させる。 そうして発生した各部分(各特化型AI)は、「共有する全体の文脈」のなかの「部分領域」として、 互いに「有機的につながって」いる。 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる -
  242. DeepMind 社がとる進路の『予想』 アプローチ A. を取るのではないか? [ 「予想」の根拠 ] [ 根拠1]

    2018年に入り、マルチ・モーダルの方向性を打ち出した論文が、目立つようになってきている。 [ 根拠2 ] (詳しくは、後述スライドを参照) アプローチ B. の進路を取るためには、「自己組織化の理論」や「カオス結合系モデル」を含む 「複雑系科学」の概念フレームワークが有効と考えられるが、DeepMind 社は、公然資料(公開論文)を みる限り、これらの「概念フレームワーク」の研究・検討に取り組んでいる兆候が感じられない。 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる -
  243. 日本勢(大学研究機関。後述。)は、 アプローチ B. を目指している。 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる -

  244. アプローチ A.と アプローチ B. は、どちらが最初に、 Thinking Machine (考える「汎用AI(AGI)) の出現に成功するか? どのようにして、成し遂げるべきか?

    - 「無数の断片」を組合せて、ひとつの有機体を組み上げる - 1. Human-level Thinking Machine (Human-level Aritificial General Intelligence) 2. Beyond human-level Thinking Machine (Beyond Human-level Aritificial General Intelligence)
  245. どちらが最初に、Thinking Machine (考える「汎用AI(AGI))の出現に成功するか? 1. Human-level Thinking Machine (Human-level Aritificial General

    Intelligence) 2. Beyond human-level Thinking Machine (Beyond Human-level Aritificial General Intelligence)  Human-level AGI.を、まず最初に生み出すのは、A.のやり方かもしれない。  しかし、置かれた生存環境の変化(状況変化)に、より柔軟に、より有機的に対処しうる頑強性を備えたAGIは、B.のやり方ではないか。 根拠: 「A」が依拠する可能性が高い(深層)強化学習や転移学習の動作原理よりも、 「B」が依拠する「カオス的遍歴」や「自己組織化」原理のほうが、未知の状況変化に対する対処能力(進化能力)が高い と予想できるため。実証データによる裏付けは、今後の課題のため、「仮説」・「予想」の段階の「見通し」に過ぎない。  「アプローチB」のほうが、みずからを(自己組織化的に)進化発展させていくたくましさも、「アプローチA」より強いと予想できる。
  246. 争点はむしろ、「どちらが最初に、Thinking Machine を出現させるか?」よりも、 「結果的に、どちらのアプローチに依拠するThinking Machineが生き残るか?」かもしれない 1. Human-level Thinking Machine (Human-level

    Aritificial General Intelligence) 2. Beyond human-level Thinking Machine (Beyond Human-level Aritificial General Intelligence) 結論: まず最初に誕生する(可能性が高い)のは、「A.」に依拠するAGIであるが、遅れて誕生した「B.」に依拠するAGI.によって、 ある時点で、駆逐される可能性が高い。
  247. 技術論を離れた政治経済論としては、 国家の産業生産力 と 国家安全保障・インテリジェンス力の比較優位性を決める 「決定的な要因」となりうる「Thinking Machine (AGI.)」を、どの国 or 企業が、ライバルよりも早く 手中に収めて、運用を開始するか、が重要である。

    [ 争点 1] 「アプローチB.に基づくThinking Machine,(AGI.)」(以下、「B-Type Thinking Machine」)が、 「アプローチA.に基づくThinking Machine,(AGI.)」(以下、「A-Type Thinking Machine」)に、時間的に遅れて誕生した上で、 それ(A-Type Thinking Machine)を凌駕するまでに要する期間(5年単位?10年-20年単位?)に、 「A-Type Thinking Machine」を「手にしていない国家」は、 「B-Type Thinking Machine」を研究開発する国力を、維持できているか? (「A-Type」運用国との経済競争・軍事競争という条件下において、 維持できる国力および、「AIを開発する権利」の政治的維持という問題)
  248. 技術論を離れた政治経済論としては、 国家の産業生産力 と 国家安全保障・インテリジェンス力の比較優位性を決める 「決定的な要因」となりうる「Thinking Machine (AGI.)」を、どの国 or 企業が、ライバルよりも早く 手中に収めて、運用を開始するか、が重要である。

    [争点2] 「A-Type Thinking Machine」を他国・他企業にさきがけて手にした国家・企業が、 「B-Type Thinking Machine」をも、他国・他企業にさきがけて創出に成功してしまうシナリオの可能性はどれくらいか? (B-Type Thinking Machineの動作原理の研究と、 B-Type Thinking Machineを構成論的に実験するためのロボティクスや計算機資源のハード開発力を、 A-Type Thinking Machineの運用を開始した国家・企業が独占的に支配するシナリオ)
  249. 【 Thinking Machine に至るための関連要素技術 】 - DeepMind 以外の動向 -

  250. はじめに 概念どうしの「関係」を思考する「関係性推論」(Relational reasoning)や、 3段論法や背理法などの論理思考を行うための土台となる「論理規則」や、 原因と結果の「因果観念」といった「思考のロジック」・「思考の規則」について、 「人間とは異なる」「推論規則のようなもの」を、そうしたAIが、「生成」するまでには、 まだ至っていないと推定されるものの、 世界中の大学の研究チームが、精度を競いあっている「AIによる文章題の読解問 題」(Machine Reading

    Comprehension)技術競技コンテストでは、 再掲
  251. はじめに 概念どうしの「関係」を思考する「関係性推論」(Relational reasoning)や、 3段論法や背理法などの論理思考を行うための土台となる「論理規則」や、 原因と結果の「因果観念」といった「思考のロジック」・「思考の規則」について、 「人間とは異なる」「推論規則のようなもの」を、そうしたAIが、「生成」するまでには、 まだ至っていないと推定されるものの、 世界中の大学の研究チームが、精度を競いあっている「AIによる文章題の読解問 題」(Machine Reading

    Comprehension)技術競技コンテストでは、 再掲 Google DeepMind以外の研究動向
  252. 推論規則の「創発」という主題に関連する研究論文がある 掲載誌 掲載年 論文表題 所属 2014 Data-Driven Statistical Learning of

    Temporal Logic Properties Vienna Univ. of Technology, Univ. of Trieste ほか Connection Science 2012 An emergent approach to analogical inference Univ. of New York, Disney Interactive Media Group ほか Journal of Artificial General Intelligence 2012 Reasoning with Computer Code: A New Mathematical Logic Texas A&M Univ. European Journal of Behavior Analysis 2012 Categories of Relations Between Stimuli: Foundations for Transitive Inference and Other Emergent Behavior Unive. of Massachusetts Medical School 2009 Emergence: logical, functional and dynamical Univ. of Pittsburgh Science 2009 Distilling Free-Form Natural Laws from Experimental Data Cornell Univ. 2001 An Emergent Origin of Semiotic Functionality: Symmetry, Objective Relational Levels, and Inference of Novel Logical Categories in a Connectionist System Univ. of California DBLP 2009 Complex adaptive reasoning: knowledge emergence in the revelator game Univ. of Washington Seattle & Heriot-Watt Univ. 2009 Emergent Reasoning Structures in Law Hofstra Univ. Emergent inference, or how can a program become a self-programming AGI System ? Texas A&M Univ.
  253. 掲載誌 掲載年 論文表題 所属 Journal of Artificial General Intelligence 2013

    Causal Mathematical Logic as a guiding framework for the prediction of “Intelligence Signals” in brain simulations Open Univ. & Univ. of Houston Journal of Artificial General Intelligence 2013 Black-box Brain Experiments, Causal Mathematical Logic, and the Thermodynamics of Intelligence Univ. of Houston & Open Univ. Causal Logic Models Carnegie Mellon Univ. & Univ. of Pittsburgh Bounded Seed-AGI The Swiss AI Lab IDSIA ほか International Journal of Mathematics and Computational Sciences 2010 Coupled dynamics in host-guest comples systems duplicates emergent behavior in the brain Engineering and Technokogy 2009 A New Universal Model of Computation and its Contribution to Learning, Intelligence, Parallelism, Ontologies, Refactoring, and the Sharing of Resources Member of IEEE, AAAI, APS Conceptual Blending and Quest for the Holy Creative Process Univ. of Coimbra AISB Journal 2003 Optimality Principles for Conceptual Blending: A First Computational Approach Univ. de Coimbra (CISUC) Argument and Computation 2012 Rational argument, rational inference Cardiff Univ & University College London INTERDISCIPLINARIA 2004 Information and Inference as Combined Cognitive Processes Consejo Nacional de Investigacions Cientificas y Tecnicas 推論規則の「創発」という主題に関連する研究論文がある
  254. 【 我が国の研究動向 】 我が国には、 1. ロボットの持つ「身体性」(感覚・運動系)を、DeepMindよりも、 主題として明確に、正面から捉えた研究(立命館大学、電気通信大学等) 2.カオス結合系などの「複雑系の科学」に立脚した研究(東京大学、大分大学等) が、ある。 DeepMind社の後追いではなく、我が国独自の研究アプローチによる

    Thinking Machine (概念と言語を自律獲得し、発展させるAI Agent)の研究 が進行中である。
  255. はじめに DeepMind社の研究動向と、我が国の研究動向を互いに比較した今回の調査の 結果、 文部科学省の研究プロジェクトや、東京大学や慶應義塾大学など、 我が国の復数の学術研究機関では、 機械がもつ「身体」(=センサー系とモーター系)のあり方(物質的な条件)が、 その機械に宿る「概念」や「想念」・「価値観」や「思考のロジック(推論規則)」 をうみだす「揺りかご」(地盤、胎盤)として、いかなる役割を果たすのかという 主題に対して、 DeepMind社よりも、正面から深く向き合っている姿が垣間見えてきました。

    再掲
  256. はじめに 機械がもつ「身体」と、その機械に宿る「概念」と「思考のロジック(推論規則)」 との関わり方に、正面から取り組む日本のアプローチは、 視覚(センサ)や聴覚(センサ)、皮膚感覚(圧力センサ)や温度(センサ) や身体動作感覚(筋繊維感覚)といった、機械の「身体」に張り巡らされた 種類のことなる「復数の感覚器官」から、いかにして、 バラバラではない、「ひとつに統合された」ひとまとまりの「自己の感覚」や「周囲の 空間の感覚」や「運動感覚」が、発生してくるかを、今後、解明していく上で、 再掲

  257. はじめに 「考えるAI Machine」(Thinking Machine)が備える「べき」『個別の』知的機能を、 ひとつずつ、個別に研究に取り組んできたDeepMind社よりも、 研究面で、一歩も二歩も、先んじている可能性を指摘できます。 再掲

  258. 【 我が国の研究動向 】 1. 「身体性」を前面に打ち出した研究 2. カオス結合系を含む「複雑系の科学」のアプローチをとる研究

  259. 【 我が国の研究動向 】 1. 「身体性」を前面に打ち出した研究 2. カオス結合系を含む「複雑系の科学」のアプローチをとる研究

  260. 【 我が国の研究動向 】 1. 「身体性」を前面に打ち出した研究 1-1. 記号創発ロボティクス (立命館大学) 1-2. マルチモーダル・カテゴリゼーション(電気通信大学)

  261. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 物体概念 = AI自身による「独自の物体概念」の生成 (人間による押し付けではない) 言葉の体系 = 「人間の言葉」(日本語)を学ばせる 【

    問題設定 】 人間の赤ちゃんに対して、親や周囲の大人が語りかけるのと同様に、 赤ちゃんが「ペットボトル」(←「大人の人間」から見た物体概念)を見ているときに、 「おちゃのぺっとぼとる」・「これはぺっとぼとるです」と、語りかける。
  262. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らによる問題設定) 「しかし、ロボットが物体概念を獲得したとしても、その物体概念の名前を覚えるには人間からの語りかけが必要になる だろう。物体の名前などというものは、人間がその物体を「勝手にそう呼んでいるだけ」のものである。 人間がその物体をどう呼んでいるのかを知るにはやはり、人間からの言葉による教示が必要になる。 単純に考えれば、ロボットに物体概念の名前を覚えさせるためには、教えたい物体概念に対応する物体をロボットに 見せながら「コップ」「ボール」「マラカス」のように対応する名前を孤立単語で教えればよいように思う。 ( 中略 )

    人間の言語獲得過程を観察すると、不自然さが滲み出してくる。(中略) 物体概念を先に獲得し、その物体概念に対応 するラベルをあとづけで孤立単語によって教えられるというシナリオは、人間が言語獲得を行う際に行っている現実の シナリオなのだろうか。この実験風景は一般の人々には不自然に映る。なぜなら、私たち人間が人間の子供に物の 名前を教えるときにはこのような話しかけ方をしないからだ。 言語獲得研究で著名な発達心理学者のトマセロは、人間の子供が言語獲得を行うときにはこのような孤立単語から 学習することはほとんどないと指摘する。 「はーい、ごはんですよ~」 「なるちゃん、こっちきて、ほら、おにぎりですよ。あーん」 このような複数の単語からなる文を、親は幼児に対しても投げかけている。これが幼児のいる家庭の自然な光景だ。」 谷口 忠太 『記号創発ロボティクス』 pp.86-87 より、抜粋して引用。
  263. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らによる問題設定) 「このような複数の単語からなる発話を投げかけられた場合、幼児はいかにして目の前の物体を指す言葉が 「おにぎり」だと知ることができるのだろうか。 目の前にある物体の名前は「ほら」かもしれないし「です」かもしれないではないか。」

  264. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 中村・長井、谷口、持橋 大地(NTTコミュニケーション基礎研究所)らが、個別に発見した 以下の2つのアルゴリズムを統合する研究 (各アルゴリズムは、後ほど詳しく取り上げる) 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き)

    「おちゃ | の | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」)は、理解していない。 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。 「このような視点から、前章の研究成果を挙げた中村や長井の研究チームと私たちの研究チームは共同で、 マルチモーダル概念形成と教師なし形態素解析を実際のロボットにおいて統合し語彙獲得を行わせる実験を行った。」 谷口 忠太 『記号創発ロボティクス』 pp.106-107 より、以下の解説を抜粋して引用。
  265. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 「このような視点から、前章の研究成果を挙げた中村や長井の研究チームと私たちの研究チームは共同で、 マルチモーダル概念形成と教師なし形態素解析を実際のロボットにおいて統合し語彙獲得を行わせる実験を行った。」 谷口 忠太 『記号創発ロボティクス』 pp.106-107 より、以下の解説を抜粋して引用。 「私たちが持っている基本的な物体概念の境界線は決して完全に恣意的なわけではなく、センサ・モータ系を通した環境

    との相互作用に基づいて生じる環世界の中に潜在的には存在していると考えうる。 また、教師なし形態素解析の性能は、私たちの書く文章における単語配列情報の中に、単語がどのように切れるかという 知識が暗黙的に含まれているということを教えてくれた。 私たちが教師なし形態素解析器のような学習機構を脳内に持っていれば、他者から話しかけられた文を分節化し、 単語の意味をマルチモーダル物体概念形成で得た物体概念と関係させながら、物体概念とその名前を 獲得することができるように思われる」 「このような視点」は、以下のとおり。
  266. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ | の |

    ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。 「マルチモーダル物体概念形成と同様にさまざまな日用品物体を見せてマルチモーダル情報を取得させた上で、 それぞれの物体に対して「あかのすぷれーかん」「これはかたい」「おとがなる」「これはすぷれーかん」など未分節 の発話教示を与えた。 ロボットには音声入力を音節認識した後に、教師なし形態素解析を通じて、単語区切りの候補を生成させた。 このときに、目の前に何があるかによって単語区切りも改善させることができると考えた。そこで、教師なし形態素解析 で得られた単語区切りの候補の中から、物体概念との関係が深いものを選ぶようにして学習を進めさせた。」 谷口 忠太 『記号創発ロボティクス』 pp.106-107 より、以下の解説を抜粋して引用。
  267. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) これら、2つのアルゴリズムが、同時に組み合わさって発生することで、 「言葉」に紐づいた「物体概念」(視覚・聴覚・触覚体験に基づく事物の概念) が、AIロボットの内部で、内発的に・自発的に誕生する。 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ

    | の | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。 「マルチモーダル物体概念形成と同様にさまざまな日用品物体を見せてマルチモーダル情報を取得させた上で、 それぞれの物体に対して「あかのすぷれーかん」「これはかたい」「おとがなる」「これはすぷれーかん」など未分節 の発話教示を与えた。 ロボットには音声入力を音節認識した後に、教師なし形態素解析を通じて、単語区切りの候補を生成させた。 このときに、目の前に何があるかによって単語区切りも改善させることができると考えた。そこで、教師なし形態素解析 で得られた単語区切りの候補の中から、物体概念との関係が深いものを選ぶようにして学習を進めさせた。」 谷口 忠太 『記号創発ロボティクス』 pp.106-107 より、以下の解説を抜粋して引用。
  268. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 「ロボットには音声入力を音節認識した後に、教師なし形態素解析を通じて、単語区切りの候補を生成させた。 このときに、目の前に何があるかによって単語区切りも改善させることができると考えた。そこで、教師なし形態素解析 で得られた単語区切りの候補の中から、物体概念との関係が深いものを選ぶようにして学習を進めさせた。 たとえば、ペットボトルを見せられたときの発話には「おちゃのぺっとぼとる」「これはぺっとぼとるです」などが存在しえる。 ここで、 「おちゃ | のぺっとぼ

    | とる」 「これ | はぺっと | ぼとる | です」 とするよりも、 「おちゃ | の | ぺっとぼとる」 「これは | ぺっとぼとる | です」 のように、 「ぺっとぼとる」という単語を切り出したほうが、目の前に同一の物体があるときに、同一の単語が聞こえるように なり、物体概念の予測制度は高まることが期待される。 このようなアプローチによって私たちは物体概念の利用が教師なし形態素解析の単語区切りの精度を高めることを示した のだ。
  269. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの論文)

  270. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの論文)

  271. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 2つのアルゴリズムについて 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ | の

    | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。
  272. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 1つ目のアルゴリズムについて 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ | の

    | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。
  273. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 持橋大地・山田武士・上田修功 (2009) 『ベイズ階層言語モデルによる教師なし形態素解析」 情報処理学会研究報告、2009-NL-190, 2009 谷口 忠太

    『記号創発ロボティクス』 p.91 より、以下の解説を抜粋して引用。 「持橋らは、与えられた文書の単語の区切りと単語に関する確率的な知識である 言語モデルを、与えられた文章だけから同時に推定する手法を提案して、 それが既存の形態素解析器に劣らない性能を出すことを示した。」 (左図) 文献中では、図6。 「入力として与えられたのは『不思議の国のアリス』の英語の原文だ。 ただし、『不思議の国のアリス』の原文から単語の区切りを表すスペース記号を すべて抜くことで、単語の区切りがわからなくしてある。 (中略) 何度も何度も学習のための繰り返し計算が行われた結果、図6の下に示すような 結果が得られた。 (中略) 複数形の –s や 副詞化を行う接尾辞の –ly などが別の 形態素として切り出されていることなどを除いては、単語の区切りがほぼ正確に 推定されていることが実験結果から見て取れる。」
  274. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 鳥(ジョウシマツ)の歌のさえずりの観察研究から発見された、 「意味」の発生・獲得を伴わない、「形式的」な「語順」の「文法」のみが獲得されるという事象 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ |

    の | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 谷口 忠太 『記号創発ロボティクス』 p.104 より、以下の解説を抜粋して引用。 「岡ノ谷は文法と発声学習が可能なジュウシマツの行動と脳を調べるなかで、言語が誕生した本質をなすだろう1つの 仮説を得た。それが相互分節化仮説である。岡ノ谷らは「状況と音列の相互分節化仮説」略して「相互分節化仮説」を 提案している。 この仮説の基礎となっているのが、ジュウシマツの歌のひとつひとつの歌要素は意味を持たない。 しかし、意味がなくともそれらを文法的に配列する行動は進化的に得られていることがわかった。」
  275. 鳥(ジョウシマツ)の歌のさえずりの観察研究から発見された、 「意味」の発生・獲得を伴わない、「形式的」な「語順」の「文法」のみが獲得されるという事象 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 谷口 忠太

    『記号創発ロボティクス』 p.104 より、以下の解説を抜粋して引用。 「人間の言語だけを見ているときには、意味と文法は不可分なように見える。 これまで人間の言語進化のシナリオとして中心的だった考え方は、意味を持つ記号の列が生まれた後に、 その複雑化のために文法が進化したというものである。 つまり、最初に状況を指し示す単語が生まれるのだが、一単語文では状況を指し示すには不十分であり、 より複雑な状況を指し示すために、これらの単語を組み合わせて新たな文をつくりだすようになる。 このための単語の組み合わせ方を規定する方法が文法であるという考え方である。 このような考え方では、意味の進化があった後に文法の進化が生じると考えられることになる。 これを岡ノ谷は「内容と形式の直列進化仮説」と呼んでいる。 しかし、ジュウシマツの歌文法の進化は、これとは全く異なるシナリオを提示する。 ジュウシマツ研究で明らかになったのは、意味のないところでも文法は進化するということである。 これを岡ノ谷は「内容と形式の独立進化仮説」と呼んでいる。」
  276. 鳥(ジョウシマツ)の歌のさえずりの観察研究から発見された、 「意味」の発生・獲得を伴わない、「形式的」な「語順」の「文法」のみが獲得されるという事象 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 谷口 忠太

    『記号創発ロボティクス』 p.104 より、以下の解説を抜粋して引用。 「これを踏まえて唱えられた岡ノ谷らの相互分節化仮説では人類の祖先がジュウシマツと同様に複雑な歌文法を獲得した後 に、状況にあわせて歌うようになったと考える。 たとえば、食事のときと狩りのときに歌われる歌があったとする。そこに共通部分があったとするならば、それは食事と狩り に共通した状況を指し示す言葉を表すものとなっていったのではないか、ということだ。食事と狩りがともに集団で行うこと を前提とするものならば、この共通部分は「みんなで◦◦しようぜ」という意味を表しているフレーズなのだというように。 持橋らの教師なし形態素解析の研究は、どのような単語があり、それぞれの単語がどういう意味を持つかという語彙知識 などなくとも、聞いた文字列から単語単位を抽出し、それを配列することが可能であることを構成論的に示したといえる だろう。 私にはこれが「内容と形式の独立進化仮説」を裏付ける一つの計算論的な証拠であるように見える。」
  277. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 鳥(ジョウシマツ)の歌のさえずりの観察研究から発見された、 「意味」の発生・獲得を伴わない、「形式的」な「語順」の「文法」のみが獲得されるという事象 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。

    谷口 忠太 『記号創発ロボティクス』 p.104 より、以下の解説を抜粋して引用。 「人間の言語だけを見ているときには、意味と文法は不可分なように見える。 これまで人間の言語進化のシナリオとして中心的だった考え方は、意味を持つ記号の列が生まれた後に、 その複雑化のために文法が進化したというものである。 つまり、最初に状況を指し示す単語が生まれるのだが、一単語文では状況を指し示すには不十分であり、 より複雑な状況を指し示すために、これらの単語を組み合わせて新たな文をつくりだすようになる。 このための単語の組み合わせ方を規定する方法が文法であるという考え方である。」
  278. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 鳥(ジョウシマツ)の歌のさえずりの観察研究から発見された、 「意味」の発生・獲得を伴わない、「形式的」な「語順」の「文法」のみが獲得されるという事象 ジョウシマツ

  279. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 2つ目のアルゴリズムについて 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ | の

    | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。
  280. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 2. 「AI自身の視覚・聴覚・触覚センサ」による「経験」に基づいて、 マルチモーダルな感覚と紐づいた「物体概念」の生成は可能である。 中村 友昭(電気通信大学)「言語を獲得するロボットの実現に向けて」

  281. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得は可能である 1. 「自分の身体」との距離の違いから、各「物体」個体の輪郭の境界を認識する。 【 課題 】 自分から見て「等距離」にある物体を、このロボットは、「異なる物体概念」に属する「異なる(物体)個体」として、認識できるのか? 2. 各角度から捉えた視覚画像の特徴量(SIFT特徴量)を抽出する。

    SIFT特徴量(ベクトル)空間を、500個の部分領域に分割し(K-means法による500個のクラスタを生成)、 各領域毎に「何個」、特徴量が出現したかの「度数」 を、「度数分布表」にまとめる。 この500次元の「度数分布表」を、「視覚情報」のBag of Features(BoF)とする。 3. 「物体」をつかんで、振ったときに聞こえてくる「音」の波形のMFCC特徴量を抽出する。 2.と同様に、ヒストグラムのBoF表現を生成する(50次元のヒストグラム) 4. 「物体」をつかんだときの触角(=圧力分布)の特徴量を抽出する。 2.および3.と同様に、BoF表現を生成する(15次元) 5. 「視覚」特徴量、「聴覚」特徴量、「触覚」特徴量を、それぞれ並行的に、「マルチモーダルLDA(器)」 にかけて、各物体のどれが(色や形の違いを吸収して)「同じ物体カテゴリ(・物体概念)」に属する 色違い・形違いの物体かを、K-means法で、クラスタリングし、(クラスタ=)カテゴリ分類する。
  282. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得は可能である Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 [横軸] Fig.4の各物体カテゴリ [縦軸] test段階でAIに提示された物体の通し番号 縦軸の各物体を、AIが、どの物体カテゴリ番号に属する物体として 「認識」したかが、白い四角で表示されている。 左上が、人間によるカテゴリ分類の結果。 左下が、視覚・聴覚・触覚のすべてを用いたAIによる分類結果。 その他は、単一もしくは2つのモダリティ(感覚)情報のみを用いたAIの分類結果。 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。
  283. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得は可能である Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 【 発展考察 】 人間の感覚器官には存在しない、紫外線や赤外線、その他のなんらかの モダリティ(センサ計測)データを、さらにAIに追加した場合、 人間による分類結果とは異なる、世界解釈の「効率性」その他の観点から、 「より優れた」カテゴリ分類結果が、生じるだろうか? Emergence of “beyond Human-level” multi-modal object concepts 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。 “Human-level” multi-modal object concepts
  284. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 物体概念 = AI自身による「独自の物体概念」の生成 (人間による押し付けではない) 言葉の体系 = 「人間の言葉」(日本語)を学ばせる 【

    問題設定 】 人間の赤ちゃんに対して、親や周囲の大人が語りかけるのと同様に、 赤ちゃんが「ペットボトル」(←「大人の人間」から見た物体概念)を見ているときに、 「おちゃのぺっとぼとる」・「これはぺっとぼとるです」と、語りかける。 再掲
  285. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 物体概念 = AI自身による「独自の物体概念」の生成 (人間による押し付けではない) 言葉の体系 = 「人間の言葉」(日本語)を学ばせる 再掲

    Google DeepMind社の研究 「人間の言葉」 (英語) を 学んで、理解できる語彙を増やしながら、 英語で指示された目標を達成するのに最善 な行動手順を見つけ出して、実行する深層強化学習エージェントモデル アプローチの比較
  286. 再掲 Google DeepMind社の研究 「人間の言葉」 (英語) を 学んで、理解できる語彙を増やしながら、 英語で指示された目標を達成するのに最善 な行動手順を見つけ出して、実行する深層強化学習エージェントモデル アプローチの比較

    Karl Moritz Hermann et.al (2017), Grounded Language Learning in a Simulated 3D World
  287. 再掲 Google DeepMind社の研究 以下の解説がわかりやすい アプローチの比較 Hatena Blog mabonki0725の日記 (2017年7月7日付け) 「DeepMindのUNREALの自然言語理解」

    URL : http://mabonki0725.hatenablog.com/entry/2017/07/07/085210
  288. 【 各研究室の紹介 】 1. 「身体性」を前面に打ち出した研究 1-1. 記号創発ロボティクス (立命館大学) 1-2. マルチモーダル・カテゴリゼーション(電気通信大学)

  289. 【 立命館大学 創発システム研究室 】 URL : http://www.em.ci.ritsumei.ac.jp/jp/research/robotics/ 日本発の動きとして、「記号創発ロボティクス」というアプローチが提案されている。 記号創発ロボティクス研究は、シミュレーションの結果、 マルチ・モダリティの諸感覚を統合した「物体の統合感覚」概念

    の生成・獲得を達成しつつある。 DeepMindの論文が、画素データ raw pixel dataのみの 単一モダリティを扱っていたのに比べて、 記号創発ロボティクスはDeepMindよりも先を走っている。
  290. 日本発の動きとして、「記号創発ロボティクス」というアプローチが提案されている。 (日本) 人工知能学会誌 「記号創発ロボティクス」特集号,2012年11月 URL : http://www.ai-gakkai.or.jp/vol27_no6/ 人工知能学会誌 「記号創発問題」 人工知能,2016年1月

    「記号創発システム論に基づく 長期的な人間-ロボット協調系 の実現に向けて」 計画と制御,2016年10月号 【 立命館大学 創発システム研究室 】 URL : http://www.em.ci.ritsumei.ac.jp/jp/research/robotics/
  291. 【 立命館大学 創発システム研究室 】 URL : http://www.em.ci.ritsumei.ac.jp/jp/research/robotics/ 日本発の動きとして、「記号創発ロボティクス」というアプローチが提案されている。

  292. 【 立命館大学 創発システム研究室 】 URL : http://www.em.ci.ritsumei.ac.jp/jp/research/robotics/ 日本発の動きとして、「記号創発ロボティクス」というアプローチが提案されている。

  293. 【 立命館大学 創発システム研究室 】 URL : http://www.em.ci.ritsumei.ac.jp/jp/research/robotics/ ・ DeepMind同様、 視覚データから抽出した「物体輪郭の描像」と紐付いた物体概念の獲得のほか、自己身体と周囲の「物体」の運動の力学

    的イメージ(描像)の獲得と、物理的因果概念の獲得の「構成論的な再現」研究を積み重ねている。 ・ 種類の異なる様々なセンサからもたらされる属性の異なるデータから、統合的な「身体感覚・」「生活空間」感覚を「構成 論的」に出現させる マルチモーダルな研究にも着手している。(画素データのみを扱うDeepMindより先んじ出ている)
  294. 【 谷口氏の研究蓄積 】 ・ DeepMind同様、 視覚データから抽出した「物体輪郭の描 像」と紐付いた物体概念の獲得のほか、自己身体と周囲の「物体」の運動の力学的イメージ(描像)の獲得と、物理的因果概念の獲得の「構成論的な再現」研究を積 み重ねている。 ・ 様々な種類のセンサからもたらされる属性の異なるデータから、統合的な「身体感覚・」「生活空間」感覚を「構成論的」に

    出現させる マルチモーダルな研究にも着 手している。(マルチモーダルは、DeepMindより先んじ出ているか) URL : https://www.slideshare.net/tadahirotaniguchi0624/ss-13190336
  295. 【 谷口氏の研究蓄積 】 ・ DeepMind同様、 視覚データから抽出した「物体輪郭の描 像」と紐付いた物体概念の獲得のほか、自己身体と周囲の「物体」の運動の力学的イメージ(描像)の獲得と、物理的因果概念の獲得の「構成論的な再現」研究を積 み重ねている。 ・ 様々な種類のセンサからもたらされる属性の異なるデータから、統合的な「身体感覚・」「生活空間」感覚を「構成論的」に

    出現させる マルチモーダルな研究にも着 手している。(マルチモーダルは、DeepMindより先んじ出ているか) URL : https://www.slideshare.net/tadahirotaniguchi0624/ss-13190336
  296. 【 谷口氏の研究蓄積 】 ・ DeepMind同様、 視覚データから抽出した「物体輪郭の描 像」と紐付いた物体概念の獲得のほか、自己身体と周囲の「物体」の運動の力学的イメージ(描像)の獲得と、物理的因果概念の獲得の「構成論的な再現」研究を積 み重ねている。 ・ 様々な種類のセンサからもたらされる属性の異なるデータから、統合的な「身体感覚・」「生活空間」感覚を「構成論的」に

    出現させる マルチモーダルな研究にも着 手している。(マルチモーダルは、DeepMindより先んじ出ているか) URL : http://tanichu.com/wp-content/themes/tanichu/data/pdf/ess10ppt.pdf
  297. 【 谷口氏の研究蓄積 】 URL : http://tanichu.com/wp-content/themes/tanichu/data/pdf/ess10ppt.pdf

  298. 【谷口忠太(立命館大学)による先行研究の調査 】 Tadahiro Taniguchi et.al., SURVEY PAPER Symbol Emergence in

    Robotics: A Survey URL : https://arxiv.org/pdf/1509.08973.pdf we introduce a field of research called symbol emergence in robotics (SER). SER is a constructive approach towards an emergent symbol system.
  299. 【谷口忠太(立命館大学)による先行研究の調査 】 Tadahiro Taniguchi et.al., SURVEY PAPER Symbol Emergence in

    Robotics: A Survey URL : https://arxiv.org/pdf/1509.08973.pdf we introduce a field of research called symbol emergence in robotics (SER). SER is a constructive approach towards an emergent symbol system.
  300. 【谷口忠太(立命館大学)による先行研究の調査 】 Tadahiro Taniguchi et.al., SURVEY PAPER Symbol Emergence in

    Robotics: A Survey URL : https://arxiv.org/pdf/1509.08973.pdf
  301. 【 全脳アークテクチャ勉強会(日本・東京)による先行研究の調査 】 URL : http://www.sig-agi.org/home/ren-zhirobotikusu/ji-hao-chuang-farobotikusu

  302. 【 全脳アークテクチャ勉強会(日本・東京)による先行研究の調査 】 URL : https://ai.vub.ac.be/members/steels

  303. 【 全脳アークテクチャ勉強会(日本・東京)による先行研究の調査 】 URL : https://ai.vub.ac.be/members/steels URL :https://ai.vub.ac.be/research/projects/co-evolution-syntax-and-semantics-cess

  304. 【 全脳アークテクチャ勉強会(日本・東京)による先行研究の調査 】 URL : http://emergent-languages.org/

  305. 【 全脳アークテクチャ勉強会(日本・東京)による先行研究の調査 】 URL : http://www.evolang.org/ URL : http://www.evolang.org/Organization

  306. 【 我が国の研究動向 】 1. 「身体性」を前面に打ち出した研究 1-1. 記号創発ロボティクス (立命館大学) 1-2. マルチモーダル・カテゴリゼーション(電気通信大学)

  307. 物体概念: AIが自律的に生成・獲得する 言語概念: 学習データとして「教示」される「人間の言葉」を学び取る。 物体概念と単語の紐付け: AIが自律的に体得する 中村 友昭(電気通信大学)「言語を獲得するロボットの実現に向けて」 人間の言葉 が天下り的に

    教示される。
  308. 物体概念: AIが自律的に生成・獲得する 言語概念: 学習データとして「教示」される「人間の言葉」を学び取る。 物体概念と単語の紐付け: AIが自律的に体得する 中村 友昭(電気通信大学)「言語を獲得するロボットの実現に向けて」 人間の言葉 が天下り的に

    教示される。 「人間の概念」と「人間の言葉」で、 人と会話できるAI Machineの研究開発 に取り組んでいる。
  309. ・ 概念はAI自身の自律的獲得(マルチモーダルLDAなど) ・ 言葉は、教師データとして「人間の言葉」(日本語)が教示される。 -> (1)日本語文の単語文節を、AI自身の手で、各単語単位に文節化して、 -> (2)AI自身が自律的に獲得した(マルチモーダル)物体概念と、切り出した各単語との紐付けを、AI自身の手で行う。 -> 言葉=記号列そのものを、人間の記号(日本語)とは独立・無関係に、AI自身が生成するものではない。

    -> 但し、与えら得た日本語文のうち、何番目の文字から何番目の文字までをひとつの単語として切り出すのか、 その上で、各単語を(AI自身が自律的に生成した)物体概念のどれと紐づけるもかは、AI自身が自律的に関連付けを行う。 中村 友昭(電気通信大学)「言語を獲得するロボットの実現に向けて」 人間の言葉 が天下り的に 教示される。
  310. ・ 概念はAI自身の自律的獲得(マルチモーダルLDAなど) ・ 言葉は、教師データとして「人間の言葉」(日本語)が教示される。 -> (1)日本語文の単語文節を、AI自身の手で、各単語単位に文節化して、 -> (2)AI自身が自律的に獲得した(マルチモーダル)物体概念と、切り出した各単語との紐付けを、AI自身の手で行う。 -> 言葉=記号列そのものを、人間の記号(日本語)とは独立・無関係に、AI自身が生成するものではない。

    -> 但し、与えら得た日本語文のうち、何番目の文字から何番目の文字までをひとつの単語として切り出すのか、 その上で、各単語を(AI自身が自律的に生成した)物体概念のどれと紐づけるもかは、AI自身が自律的に関連付けを行う。 中村 友昭(電気通信大学)「言語を獲得するロボットの実現に向けて」 人間の言葉 が天下り的に 教示される。 「人間の概念」と「人間の言葉」で、 人と会話できるAI Machineの研究開発 に取り組んでいる。
  311. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 1. 「自分の身体」との距離の違いから、各「物体」個体の輪郭の境界を認識する。 【 課題 】 自分から見て「等距離」にある物体を、このロボットは、「異なる物体概念」に属する「異なる(物体)個体」として、認識できるのか? 2. 各角度から捉えた視覚画像の特徴量(SIFT特徴量)を抽出する。

    SIFT特徴量(ベクトル)空間を、500個の部分領域に分割し(K-means法による500個のクラスタを生成)、 各領域毎に「何個」、特徴量が出現したかの「度数」 を、「度数分布表」にまとめる。 この500次元の「度数分布表」を、「視覚情報」のBag of Features(BoF)とする。 3. 「物体」をつかんで、振ったときに聞こえてくる「音」の波形のMFCC特徴量を抽出する。 2.と同様に、ヒストグラムのBoF表現を生成する(50次元のヒストグラム) 4. 「物体」をつかんだときの触角(=圧力分布)の特徴量を抽出する。 2.および3.と同様に、BoF表現を生成する(15次元) 5. 「視覚」特徴量、「聴覚」特徴量、「触覚」特徴量を、それぞれ並行的に、「マルチモーダルLDA(器)」 にかけて、各物体のどれが(色や形の違いを吸収して)「同じ物体カテゴリ(・物体概念)」に属する 色違い・形違いの物体かを、K-means法で、クラスタリングし、(クラスタ=)カテゴリ分類する。
  312. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 [横軸] Fig.4の各物体カテゴリ [縦軸] test段階でAIに提示された物体の通し番号 縦軸の各物体を、AIが、どの物体カテゴリ番号に属する物体として 「認識」したかが、白い四角で表示されている。 左上が、人間によるカテゴリ分類の結果。 左下が、視覚・聴覚・触覚のすべてを用いたAIによる分類結果。 その他は、単一もしくは2つのモダリティ(感覚)情報のみを用いたAIの分類結果。 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。
  313. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 【 発展考察 】 人間の感覚器官には存在しない、紫外線や赤外線、その他のなんらかの モダリティ(センサ計測)データを、さらにAIに追加した場合、 人間による分類結果とは異なる、世界解釈の「効率性」その他の観点から、 「より優れた」カテゴリ分類結果が、生じるだろうか? Emergence of “beyond Human-level” multi-modal object concepts 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。 “Human-level” multi-modal object concepts
  314. マルチモーダルHDP(階層ディレクレ過程) - マルチモーダルLDAの発展版 - 谷口 忠太 『記号創発ロボティクス』 p.77 より、以下の解説を抜粋して引用 「しかし、マルチモーダルLDAには一つの問題があった。

    それはLDAには「トピックがいくつあるかは事前に与える」という特徴があり、これを引き継いでいたのだ。 それゆえに、ダイゴローは学習前に物体カテゴリの数がいくつあるのかを事前に知っている必要があった。 ( 中略 ) 中村らは、この問題にも対応するために、LDAに基づいたマルチモーダルLDAを発展させ、ノンパラメトリックベイズに 基づくHDP(階層ディレクレ過程)をマルチモーダル拡張したマルチモーダルHDPを提案した。 このマルチモーダルHDPはマルチモーダルLDAと異なり、物体カテゴリの数自体も学習器が自動的に推定することが できる。 これにより、ダイゴローは自らの身体を通した経験に応じた数の物体カテゴリを自身で発見することができるように なった。
  315. マルチモーダルHDP(階層ディレクレ過程) - マルチモーダルLDAの発展版 - 谷口 忠太 『記号創発ロボティクス』 p.77 より、以下の解説を抜粋して引用 「マルチモーダルHDPによる、マルチモーダル情報に基づいた物体カテゴリの分類は、確率的なモデルによる推定である

    ため、推定結果は揺らぐ。推定結果は揺らぐにせよ、学習結果の中で最も頻度が高かったカテゴリ数の推定結果は、 図5の上に示すように人間と同様に10カテゴリであった。そして、その分類結果もほとんど人間と同じになっていた。 この結果は、機械学習の結果としてはわかりやすい結果ではあるが、構成論としては一つの疑問を残す。 ダイゴローの認知は閉じている。その上で、ダイゴローは人間と異なる身体を持っている。 環世界が異なるということは、概念の境界も異なりえることを意味するため、ダイゴローと人間が非常に似たカテゴリ 形成をしたことは逆に不思議に感じられるかもしれない。 なぜこのように結果が一致したのだろうか。 各種マルチモーダル情報の定義で説明したとおり、今回のダイゴローの得る特徴量はできるだけ人間が得ているで あろうものに近いように設計されていたのだ。それゆえの一致ということはできるだろう。 また、与えられた物体についてはそれぞれの境界が光学的、物理的に十分差異があるような物が準備されていた。 それゆえの結果である。つまりは、視覚情報、聴覚情報、触覚情報を用いれば分類できる程度の差異が存在するような 物体群が日用品物体として実験で準備されていたということであろう。」
  316. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 【 発展考察 】 人間の感覚器官には存在しない、紫外線や赤外線、その他のなんらかの モダリティ(センサ計測)データを、さらにAIに追加した場合、 人間による分類結果とは異なる、世界解釈の「効率性」その他の観点から、 「より優れた」カテゴリ分類結果が、生じるだろうか? Emergence of “beyond Human-level” multi-modal object concepts 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。 “Human-level” multi-modal object concepts 再掲
  317. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 【 発展考察 】 人間の感覚器官には存在しない、紫外線や赤外線、その他のなんらかの モダリティ(センサ計測)データを、さらにAIに追加した場合、 人間による分類結果とは異なる、世界解釈の「効率性」その他の観点から、 「より優れた」カテゴリ分類結果が、生じるだろうか? Emergence

    of “beyond Human-level” multi-modal object concepts より少ないビット数で、より多くの情報量を記号表現(=記述)することのできる度合いを測る、 なんらかの定量評価指標が必要 【 問い 】 グレゴリー・チャイティン( Gregory “Greg” J. Chaitin )による研究などは関連してくるだろうか?
  318. 中村友昭研究室(電気通信大学) 「物体概念」と「動作の概念」の紐づけ 「物体」から「動作・運動」を、「動作・運動」から「物体」を、双方向に連想する機能の獲得

  319. 「物体概念」と「動作の概念」のひもづけ 「物体」から「動作・運動」を、「動作・運動」から「物体」を、双方向に連想する機能の獲得 池田 圭佑ほか 「多層マルチモーダルLDAに基づく物体と動作の統合モデル」 電気学会研究会資料, 計測研究会 2012

  320. 中村研究室 [JSAI 2013] Muhammad Fadlilほか 「多層マルチモーダルLDAを用いた人の動きと物体の統合的概念の形成」 人工知能学会, 2013

  321. 【 中村友昭研究室 (電気通信大学) 】 掲載誌 掲載年 論文表題 スライド 言語を獲得するロボットの実現に向けて URL

    : https://www.uec.ac.jp/research/information/opal-ring/0006626.html (左) URL : https://www.uec.ac.jp/research/information/opal-ring/0006626.html (右) URL : https://www.uec.ac.jp/research/information/opal-ring/pdf/0006626.pdf
  322. 【 長井隆行研究室 (電気通信大学) 】 掲載誌 掲載年 論文表題 計測と制御 2016 階層ベイズによる概念構造のモデル化

    JSAI 2014 マルチモーダルLDAとベイズ階層言語モデルを用いた物体概念と言語モデルの相互学習 JSAI 2012 マルチモーダルカテゴリゼーション -経験を通して概念を形成し言葉の意味を理解するロボットの実現に向けて International Conference on Intelligent Robots and Systems 2009 Grounding of Word Meanings in Multimodal Concepts Using LDA International Conference on Intelligent Robots and Systems 2011 Multimodal Categorization by Hierarchical Dirichlet Process 日本ロボット学会 2012 教師なし形態素解析による物体概念を手がかりとした単語切り出しの高精度化 AAAI 2017 Machine Learning for Entity Coreference Resolution : A Retrospective Look at Two Decades of Research EMNLP 2015 C3EL : A Joint Model for Cross-Document Co-Reference Resolution and Entity Linking Cross-Document Co-Reference Resolution using Sample-Based Clustering with Knowledge Enrichment
  323. 【 長井隆行研究室 (電気通信大学) 】 URL : http://apple.ee.uec.ac.jp/isyslab/

  324. 【 わが国発のその他の研究成果 】 【 慶応義塾大学 】 諏訪 正樹 「身体性としてのシンボル創発」, 計測と制御

    「特集 高次機能の学習と創発」, 2009年1月号
  325. 【 我が国の研究動向 】 1. 「身体性」を前面に打ち出した研究 2. カオス結合系を含む「複雑系の科学」のアプローチをとる研究

  326. はじめに それに対して、「身体性」や、「カオス的遍歴」といった発想や生命観に立脚する 日本勢がとるアプローチは、 ・ 「たったひとつ」の「胚」から、すべてが始まり、 ・ 「胚」がもつ物理的な初期条件や、周囲の環境からの刺激といった「制約条件」に導かれて、 最初、「ひとつの胚」だったものが、「復数」の「個別」の「機能」をもつ、 (個別の情報処理を担う)復数の「細胞集団系」へと、 徐々に「機能分化」していく結果、

    ・ ある時点で、「ひとつの個体」としての「考えるAI Machine」が、脳神経系から全身 の感覚・運動系を構成する「無数」の「知的情報処理機構」(神経細胞集団)が 織りなす「系」総体として、出現する、 戦略として、考えることができます。 再掲
  327. はじめに このように、DeepMind社とは異なる方向性を備えた、日本勢がもつ発想の特徴 としては、 知的情報処理が成立する現象を、「ある秩序だった情報処理が成立する状態」 から、「別の秩序だった情報処理が成立する状態」へと、数学的に事前に予想す ることの難しい、「カオス的遍歴」と呼ばれる、軌跡を辿って、時間の進行ととも に、動的に遷移していく「動的な運動」『原理』として、捉える視点 を、さらなる際立った特徴として、指摘することができるかもしれません。 「カオス結合系」といった考え方を含む「複雑系科学」の研究は、 我が国が1990年代以前から、(米国のサンタフェ研究所と並び立つ)世界の研

    究の中心地の地位を踏み固めてきた分野です。 再掲
  328. カオス結合系モデルによる 感覚・神経系の発生・発育過程 の構成論的シミュレーション 現在、わが国で進行中の感覚・筋肉神経系統の発生過程のシミュレーションが、 今後、物体概念と(物体を指示する)言葉の生成・共有過程の解明に向けた研究 に発展する可能性がある。 【 日本発の研究 】

  329. カオス結合系モデルによる 感覚・神経系の発生・発育過程 の構成論的シミュレーション 現在、わが国で進行中の感覚・筋肉神経系統の発生過程のシミュレーションが、 今後、物体概念と(物体を指示する)言葉の生成・共有過程の解明に向けた研究 に発展する可能性がある。 【 日本発の研究 】 カオス結合系に基づいたシミュレーションモデルのため、

    DeepMindのモデルに比べて、 人間の知能形成、概念と言語の発生・獲得過程を、 より忠実に構成論的に再現している可能性が高い。 また、カオス結合系モデルによる複雑適応系 CASモデルのため、 柔軟性と適応性の点で、DeepMindのモデルよりも優れている 可能性が高い。
  330. 【 我が国の研究動向 】 2. カオス結合系を含む「複雑系の科学」のアプローチをとる研究 2-1. 拘束条件付き自己組織化 機能分化エージェント(科学技術振興機構) 2-2. 身体性認知ロボティクス

    (東京大学) 2-3. 知能創発 (大分大学) 2-4. 群知能・動的複雑系モデル (慶應義塾大学)
  331. 【 JST 科学技術振興機構 研究開発戦略センター 】 「脳領域/個体/集団間のインタラクション創発原理の解明と適用」課題プロジェクト http://www.er.ams.eng.osaka-u.ac.jp/kawai/crest/ 環境や親などの他者との「インタラクション」を「拘束条件」として、 拘束条件の違い(生育集団の違い・文化の違い等)が、 生命体(各個体)の脳内の「機能分化」の進行過程(ダイナミクス)において、

    どのような影響を及ぼすのかを、猿の群れの比較観察などを通して、研究している。
  332. 【 JST 科学技術振興機構 研究開発戦略センター 】 「脳領域/個体/集団間のインタラクション創発原理の解明と適用」課題プロジェクト http://www.er.ams.eng.osaka-u.ac.jp/kawai/crest/ 津田 一郎 (2018年7月11日)

    「今からのAI」 URL: https://rad-it21.com/ai/ichirotsuda20180708/
  333. 【 JST 科学技術振興機構 研究開発戦略センター 】 「脳領域/個体/集団間のインタラクション創発原理の解明と適用」課題プロジェクト http://www.er.ams.eng.osaka-u.ac.jp/kawai/crest/ 津田 一郎 (2018年7月11日)

    「今からのAI」 URL: https://rad-it21.com/ai/ichirotsuda20180708/ Googleを始めとする米国発のAIの動向に対する評価認識
  334. 【 JST 科学技術振興機構 研究開発戦略センター 】 「脳領域/個体/集団間のインタラクション創発原理の解明と適用」課題プロジェクト http://www.er.ams.eng.osaka-u.ac.jp/kawai/crest/ 津田 一郎 (2018年7月11日)

    「今からのAI」 URL: https://rad-it21.com/ai/ichirotsuda20180708/ 体性感覚・身体性への着目 環境とのインタラクションへの着目
  335. 【 JST 科学技術振興機構 研究開発戦略センター 】 「脳領域/個体/集団間のインタラクション創発原理の解明と適用」課題プロジェクト http://www.er.ams.eng.osaka-u.ac.jp/kawai/crest/ 津田 一郎 (2018年7月11日)

    「今からのAI」 URL: https://rad-it21.com/ai/ichirotsuda20180708/ 身体性への着目 審美意識・感情が果たす役割への着目 親(他者)や環境とのインタラクションへの着目
  336. 【 我が国の研究動向 】 2. カオス結合系を含む「複雑系の科学」のアプローチをとる研究 2-1. 拘束条件付き自己組織化 機能分化エージェント(科学技術振興機構) 2-2. 身体性認知ロボティクス

    (東京大学) 2-3. 知能創発 (大分大学) 2-4. 群知能・動的複雑系モデル (慶應義塾大学)
  337. 【 東京大学 国吉・新山研究室 】 URL : http://www.kikaib.t.u-tokyo.ac.jp/lab/lab3/ http://www.isi.imi.i.u-tokyo.ac.jp/ 日本発の動きとして、「身体性認知ロボティクス」というアプローチが提案されている。

  338. 【 東京大学 国吉・新山研究室 】 URL : http://www.kikaib.t.u-tokyo.ac.jp/lab/lab3/ http://www.isi.imi.i.u-tokyo.ac.jp/ 日本発の動きとして、「身体性認知ロボティクス」というアプローチが提案されている。 胎児から幼児、児童、少年、大人へと至る

    人間の概念獲得・言語獲得のメカニズムの解明 の研究に取り組んでいる。
  339. 【 ストーリー 】 「身体-環境ダイナミクスを結合場とするカオス結合系」 から、身体を動かす「運動神経系」と感覚を感じる「感覚神経系」と、 さらには、「知的な情報処理を担う神経系」 が「創発」されてくるという捉え方。

  340. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-1. まず意味が未分化な、あいまいな身体動作を(環境に対して)行う 【 作用

    】 と、 その結果として、環境から手ごたえ(フィードバック)を受ける 【 反作用 】 1-2. 環境からの手ごたえを、感覚器官で感受する中で、「感覚神経回路」の構造が 定まってくる。 1-2´.「身体と環境との相互作業」(作用・反作用の繰り返しの体験)の中で、 意味づけられた「運動神経回路」の構造が定まってくる。【 身体図式の成立 】 1-3. 「感覚神経回路」と「運動神経回路」の構造が同時形成的に定まってくるなかで、 次第に、「数学的思考」や「言葉の獲得と運用・変容」、「他者との協調性・競合 性」を担うより高次の知的機能を発現させる「神経回路」も形成され始める。
  341. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 国吉ほか (2010) 「人間的身体性に基づく知能の発生原理解明への構成論的アプローチ」, 日本ロボット学会誌

  342. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-1. まず意味が未分化な、あいまいな身体動作を(環境に対して)行う 【 作用

    】 と、 その結果として、環境から手ごたえ(フィードバック)を受ける 【 反作用 】 1-2. 環境からの手ごたえを、感覚器官で感受する中で、「感覚神経回路」の構造が 定まってくる。 1-2´.「身体と環境との相互作業」(作用・反作用の繰り返しの体験)の中で、 意味づけられた「運動神経回路」の構造が定まってくる。【 身体図式の成立 】 1-3. 「感覚神経回路」と「運動神経回路」の構造が同時形成的に定まってくるなかで、 次第に、「数学的思考」や「言葉の獲得と運用・変容」、「他者との協調性・競合 性」を担うより高次の知的機能を発現させる「神経回路」も形成され始める。
  343. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-2´.身体と環境との相互作業(作用・反作用の繰り返しの体験)の中で、 意味づけられた「運動神経回路」の構造が定まってくる。【 身体図式の成立 】

  344. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-2´.身体と環境との相互作業(作用・反作用の繰り返しの体験)の中で、 意味づけられた「運動神経回路」の構造が定まってくる。【 身体図式の成立 】

  345. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-1. まず意味が未分化な、あいまいな身体動作を(環境に対して)行う 【 作用

    】 と、 その結果として、環境から手ごたえ(フィードバック)を受ける 【 反作用 】 1-2. 環境からの手ごたえを、感覚器官で感受する中で、「感覚神経回路」の構造が 定まってくる。 1-2´.「身体と環境との相互作業」(作用・反作用の繰り返しの体験)の中で、 意味づけられた「運動神経回路」の構造が定まってくる。【 身体図式の成立 】 1-3. 「感覚神経回路」と「運動神経回路」の構造が同時形成的に定まってくるなかで、 次第に、「数学的思考」や「言葉の獲得と運用・変容」、「他者との協調性・競合 性」を担うより高次の知的機能を発現させる「神経回路」も形成され始める。
  346. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-3. 「感覚神経回路」と「運動神経回路」の構造が同時形成的に定まってくるなかで、 次第に、「数学的思考」や「言葉の獲得と運用・変容」、「他者との協調性・競合 性」を担うより高次の知的機能を発現させる「神経回路」も形成され始める。

  347. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-3. 「感覚神経回路」と「運動神経回路」の構造が同時形成的に定まってくるなかで、 次第に、「数学的思考」や「言葉の獲得と運用・変容」、「他者との協調性・競合 性」を担うより高次の知的機能を発現させる「神経回路」も形成され始める。

  348. 【 ストーリー 】 「身体と環境との(物理的な)相互作用」を、 「身体-環境ダイナミクスを結合場とするカオス結合系」 として、(数理モデルの言葉で)表現する。 1-2´.「身体と環境との相互作業」(作用・反作用の繰り返しの体験)の中で、 意味づけられた「運動神経回路」の構造が定まってくる。【 身体図式の成立 】

  349. 【 ストーリー 】 「繰り返し出現して、学習される身体動作・感覚体験パターン」は、 複数の要素が協調しあう、 「カオス的遍歴」のなかの停留所としての「クラスタ構造」(アトラクタ) であると、解釈する。 「環境の変化に対応できる能力」の本性は、 「環境の変化」を受けて、 「あるアトラクタ」(あるクラスタ内の要素間の協調状態)

    から 「別のアトラクタ」(別のクラスタ内の要素間の協調状態) へと「移行する」「柔軟性」と「適応性」である と見る考え方。
  350. 【 問い 】 人間が、「新しい課題状況」にいることを認識したとき、 これまでに獲得した行動パターンの応用 【 転移学習 】 で対処するか、 新しい行動パターンを学習すること

    【 新規の学習 】 で対処するか のどちらを「選択する」かを、瞬時に「判断できる」能力も、 これで説明できるか? 「環境の変化に対応できる能力」の本性は、 「環境の変化」を受けて、 「あるアトラクタ」(あるクラスタ内の要素間の協調状態) から 「別のアトラクタ」(別のクラスタ内の要素間の協調状態) へと 「移行する」「柔軟性」と「適応性」である と見る考え方。
  351. 【 ストーリー 】 「獲得済みの複数の行動パターン」を、 主体的な意志をもって(随意的に)「切り替える」能力 を、「カオス結合系」に対する「修飾信号」の入力 で説明する考え方。

  352. 【 ストーリー 】 「獲得済みの複数の行動パターン」を、 主体的な意志をもって(随意的に)「切り替える」能力 を、「カオス結合系」に対する「修飾信号」の入力 で説明する考え方。

  353. 【 ストーリー 】 人間は、「大脳皮質からの下行性信号」によって、 「延髄・脊髄系の活動」を「修飾」している。

  354. 【 ストーリー 】 人間は、「大脳皮質からの下行性信号」によって、 「延髄・脊髄系の活動」を「修飾」している。

  355. 【 ストーリー 】 人間は、「大脳皮質からの下行性信号」によって、 「延髄・脊髄系の活動」を「修飾」している。

  356. 【 ストーリー 】 人間は、「大脳皮質からの下行性信号」によって、 「延髄・脊髄系の活動」を「修飾」している。

  357. 【 脳神経モデル 】

  358. 【 延髄内ニューロンモデル 】

  359. 現在、わが国で進行中の感覚・筋肉神経系統の発生過程のシミュレーションが、 今後、物体概念と(物体を指示する)言葉の生成・共有過程の解明に向けた研究 に発展する可能性がある。 国吉 康夫 (2009) (特別講演)「身体が脳をつくる –ロボットを題材とした構成論的化学のアプローチ-」, 認知神経科学

  360. 現在、わが国で進行中の感覚・筋肉神経系統の発生過程のシミュレーションが、 今後、物体概念と(物体を指示する)言葉の生成・共有過程の解明に向けた研究 に発展する可能性がある。 国吉 康夫 (2009) (特別講演)「身体が脳をつくる –ロボットを題材とした構成論的化学のアプローチ-」, 認知神経科学 人間が概念と言語を獲得するメカニズム

    が解明されることで、AI Machineによる、 (人間とは異なる)AI独自の概念と言語の獲得 を実現するアルゴリズムにも、道が開ける可能性がある
  361. ・胎児から幼児に至る人間の発育段階において、身体・環境間の相互作用を通じて、 体感や五感といった感覚機能と、体を動かす神経筋肉系が、どのように発生し、変遷・推移して いくのかを解き明かすために、カオス結合系による「胎児の身体性の数理モデル」を構築して、 計算機上のシミュレーションを行うことで、そのメカニズムを構成論的に明らかにする 取り組みが、国吉康夫教授(東京大学 次世代知能科学研究センター長)らによって、積み重ねられている。 ・ 上記のシミュレーションが、今後、胎児・幼児の「身体」が、「身体」と「環境」の接触面(「生活世界」) の「情報の海」から、個々の「物体」概念を獲得(生成)していく過程と、獲得した(個々の)物体概念 を、(他者と共有する)「言葉」によって、他者との共有概念に昇華していく過程を解明する方向へと

    (研究が)発展していく可能性に、注目したい。 (「言語獲得」と、「物体概念」のより明確な形成に焦点をあてて、 「幼児」より後の「児童」の発育段階のシミュレーションを、行う必要があると考えられる) 知能ロボットの構成による「知能の発生・発達原理」の解明に向けた研究
  362. 国吉ほか (2010) 「人間的身体性に基づく知能の発生原理解明への構成論的アプローチ」, 日本ロボット学会誌 (キーワード) カオス結合系 カオス的遍歴 アトラクタ

  363. 国吉ほか (2010) 「人間的身体性に基づく知能の発生原理解明への構成論的アプローチ」, 日本ロボット学会誌 (キーワード) カオス結合系 カオス的遍歴 アトラクタ カオス結合系に基づいたシミュレーションモデルのため、 DeepMindのモデルに比べて、

    人間の知能形成、概念と言語の発生・獲得過程を、 より忠実に構成論的に再現している可能性が高い。 また、カオス結合系モデルによる複雑適応系 CASモデルのため、 柔軟性と適応性の点で、DeepMindのモデルよりも優れている 可能性が高い。
  364. 国吉ほか (2010) 「人間的身体性に基づく知能の発生原理解明への構成論的アプローチ」, 日本ロボット学会誌 (深層)強化学習も、 GA(遺伝的アルゴリズム) のいずれも、 方法論としては限界がある。

  365. 「時不変」な静態的なカオス結合系 (局所的結合:CML, 大域的結合: GCM) の限界を乗り越えた時間動態的なカオス結合系を、 身体性のモデル表現として採用した。 国吉ほか (2010) 「人間的身体性に基づく知能の発生原理解明への構成論的アプローチ」, 日本ロボット学会誌

    (キーワード) カオス結合系 カオス的遍歴 アトラクタ
  366. 国吉ほか (2010) 「人間的身体性に基づく知能の発生原理解明への構成論的アプローチ」, 日本ロボット学会誌

  367. 国吉ほか (2010) 「人間的身体性に基づく知能の発生原理解明への構成論的アプローチ」, 日本ロボット学会誌 (深層)強化学習も、 GA(遺伝的アルゴリズム) のいずれも、 方法論としては限界がある。 ☓ 研究対象

    = (ある時点を凍結して見た)ある特定の技能をもつ知能システム ◦ 研究対象 = 得意とする技能が、「ある技能」から「別の技能」へと、 時々刻々と、動態的に変容していく知能システム「系」それ自体 身体と環境との循環的相互作用によって、 つねに、新たに形成されなおされつつある、 動的な挙動の現れ (「系の挙動の現れ(現象)」ではなく、 「そのようなダイナミズムをもつ」『系そのもの』 が、研究の主題)
  368. 森 & 国吉 (2010) 「触覚を通して反射的行動を自己組織化する子宮内胎児の神経発達モデル」, 日本ロボット学会誌

  369. Mori & Kuniyoshi (2007) , A cognitive developmental scenario of

    transitional motor primitives acquisition.
  370. 【 物体認識=物体概念生成】 人間脳の視覚野の自己組織化過程について 現在、研究が進行中の感覚・筋肉神経系統の発生過程のシミュレーションが、 今後、物体概念と(物体を指示する)言葉の生成・共有過程の解明に向けた研究 に発展する可能性がある。

  371. Linskerモデルによる脳の自己組織化 (視覚野コラム構造) Ralph Linsker [1998] 【 解説 】 浅川 伸一

    「自己組織化」
  372. Linskerモデルによる脳の自己組織化 (視覚野コラム構造) 麻生 英樹 「神経回路網における自己組織化の数理」

  373. 「自己組織化」過程発生のために必要な条件を、 ニューラル・ネットワークモデルに取り込む研究 生物神経系が持つ特徴のうち、 「自己組織化」現象の発現に関わる特徴を、 多層ニューラル・ネットワークモデル に持たせる方法を探究している論文。 William Lotter et.al., A

    neural network trained to predict future video frames mimics critical properties of biological neuronal responses and perception, Arxiv, 2018
  374. 【 思考=論理規則の「創発」】 金子邦彦など、(米国サンタフェ研究所と並んで)「カオス結合系」を含む「複雑系(の)科学」 という研究領域を創造してきたわが国においては、「複雑系(の)科学」を手がかりに、 「思考の創発」のための動態的な系の条件を明らかにする研究者が一定数、存在する。

  375. 【 我が国の研究動向 】 2. カオス結合系を含む「複雑系の科学」のアプローチをとる研究 2-1. 拘束条件付き自己組織化 機能分化エージェント(科学技術振興機構) 2-2. 身体性認知ロボティクス

    (東京大学) 2-3. 知能創発 (大分大学) 2-4. 群知能・動的複雑系モデル (慶應義塾大学)
  376. 【 大分大学 柴田研究室 】 URL : http://shws.cc.oita-u.ac.jp/shibata/home-j.html 日本発の動きとして、「知能創発」の研究が提案されている。

  377. 【 大分大学 柴田研究室 】 URL : http://shws.cc.oita-u.ac.jp/shibata/home-j.html 日本発の動きとして、「知能創発」の研究が提案されている。 後藤・柴田 「カオスニューラルネットを用いた強化学習における高次探索の創発」

  378. 【 我が国の研究動向 】 2. カオス結合系を含む「複雑系の科学」のアプローチをとる研究 2-1. 拘束条件付き自己組織化 機能分化エージェント(科学技術振興機構) 2-2. 身体性認知ロボティクス

    (東京大学) 2-3. 知能創発 (大分大学) 2-4. 群知能・動的複雑系モデル (慶應義塾大学)
  379. 慶應義塾大学 栗原研究室 (2018年3月までは、電気通信大学) • 動的複雑系 • 群知能モデル • 階層構造 各構成要素が相互に影響を与えながらも、系全体レベルで見ると、安定した、外乱や内乱に強い(レジリエント)

    なマルチ・エージェント系の成立条件を研究している。 脳や意識の発生メカニズムの研究のほか、外乱・内乱に強い通信ネットワークや交通制御ネットワークなど、 社会を支えるインフラ領域の設計工学の実用的研究を数多く手がけている。
  380. 栗原ほか 「群知能型意識ネットワーク構築に向けて」, 人工知能学会, 2016 意識空間および概念と言語の創発 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学

    栗原研究室
  381. 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学 栗原研究室 栗原ほか 「汎用AI実現のための鍵となる自律性とマルチモーダル性についての考察」, 人工知能学会, 2017

  382. 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学 栗原研究室 栗原ほか 「汎用AI実現のための鍵となる自律性とマルチモーダル性についての考察」, 人工知能学会, 2017

  383. 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学 栗原研究室 掲載誌 掲載年 論文表題 人工知能学会誌

    2016 群知能型意識ネットワーク構築に向けて 人工知能学会誌 2017 汎用AI実現のための鍵となる自律性とマルチモーダル性についての考察 コンピュータソフトウェア 2011 (フォーラム) 複雑ネットワーク・シミュレーションにおける模倣から創造へ 人工知能学会誌 2018 群知能メカニズムを用いた時系列階層型パタン抽出法によるマーケティングデータ分析 WWW 2014 The Multi agent based Information Diffusion Model for False RumorDiffusion Analysis
  384. 外乱・内乱に強いレジリエントな動態系の設計 ・ 通信ネットワーク ・ 交通ネットワーク 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学

    栗原研究室 掲載誌 掲載年 論文表題 AAMAS 2006 How can agent know the global information without close coordination ? AAMAS 2005 Predicting Possible Conflicts in Hierarchical planning for Multi-Agent Systems AAMAS 2003 Simple but Efficient Collaboration in a Complex Competitive Situation 人工知能学会誌 2018 道路交通システムにおけるプローブ情報を用いた交通流予測手法の検討 AAMAS 2004 Reusing Coordination and Negotiation Strategies in Multi-Agent Systems for Ubiquitous Network Environment
  385. 外乱・内乱に強いレジリエントな動態系の設計 ・ ソーシャルネットワーク ・ 交渉 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学

    栗原研究室 掲載誌 掲載年 論文表題 2008 Controlling Contract Net Protocol by Local Observation for large-Scale Multi-Agent Systems AAMAS 2014 Cooperation-Eliciting Prisoner’s Dilemma Payoffs for Reinforcement Learning Agents WWW 2013 Regional Analysis of User Interactions on Social Media in Times of Disaster IW3C2 2013 Information Sharing on Twitter During the 2011 Catastrophic Earthquake
  386. 複雑系階層構造 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学 栗原研究室 電気通信大学 URL: http://www.is.uec.ac.jp/staff/list/ss/kurihara-satoshi.html

    安定性 各階層の時間の粒度
  387. 外乱・内乱に強いレジリエントな動態系の設計 ・ ソーシャルネットワーク ・ 交渉 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学

    栗原研究室 電気通信大学 URL: https://www.uec.ac.jp/research/information/opal-ring/0006482.html
  388. 動的複雑システム・適応性・レジリエント 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学 栗原研究室 慶応義塾大学 URL: http://www.ai.comp.ae.keio.ac.jp/

  389. 【 思考=論理規則の「創発」】 わが国におけるその他の研究室 による研究成果 金子邦彦など、(米国サンタフェ研究所と並んで)「カオス結合系」を含む「複雑系(の)科学」 という研究領域を創造してきたわが国においては、「複雑系(の)科学」を手がかりに、 「思考の創発」のための動態的な系の条件を明らかにする研究者が一定数、存在する。

  390. 【 わが国発のその他の研究成果 】 【 日本大学 】 海老原・岩井 「カオスニューラルネットによる記憶探索モデルの記憶パターンに対する敏感性とその改善」, 情報処理学会論文誌 「数理モデル化と応用」,

    July 2011 【 大分工業高等専門学校 】 松本・田中 「カオスニューラルネットの記憶特性に関する研究」, 大分工業高等専門学校紀要 第44号 (平成19年11月)
  391. 【 わが国発のその他の研究成果 】 【 名古屋大学 】 有田 隆也 「コミュニケーションの創発」, 計測と制御

    「特集 高次機能の学習と創発」, 2009年1月号
  392. 【 我が国の研究動向 】 - 関連する研究プロジェクト - 2. カオス結合系を含む「複雑系の科学」のアプローチをとる研究 関連

  393. 文部科学省 新学術領域研究 「共創的コミュニケーションのための言語進化学」 URL : http://evolinguistics.net/outline/ 関連

  394. 文部科学省 新学術領域研究 「共創的コミュニケーションのための言語進化学」 URL : http://evolinguistics.net/outline/ 関連

  395. 文部科学省 新学術領域研究 「共創的コミュニケーションのための言語進化学」 URL : http://evolinguistics.net/outline/ 関連

  396. 文部科学省 新学術領域研究 「共創的コミュニケーションのための言語進化学」 URL : http://evolinguistics.net/outline/ 関連

  397. 文部科学省 新学術領域研究 「共創的コミュニケーションのための言語進化学」 URL : http://evolinguistics.net/outline/ 関連

  398. NHKスペシャル番組 「人類誕生」 URL : https://www.nhk.or.jp/special/jinrui/ 関連

  399. NHKスペシャル番組 「人類誕生」 URL : https://www.nhk.or.jp/special/jinrui/archive.html#onair3 関連 【 放送第3回目】 ネアンデルタール人による「言語」の獲得。発掘調査により浮かび上がった新発見。

  400. NHKスペシャル番組 「人類誕生」 URL : https://www.nhk.or.jp/special/jinrui/archive.html#onair3 関連 【 放送第3回目】 「言語」の獲得と、手の混んだ「道具」を手作りする能力との関係性についての考察

  401. NHKスペシャル番組 「人類誕生」 URL : https://www.nhk.or.jp/special/jinrui/archive.html#onair3 関連 【 放送第3回目】 「言語」の獲得と、手の混んだ「道具」を手作りする能力との関係性についての考察

  402. NHKスペシャル番組 「人類誕生」 URL : https://www.nhk.or.jp/special/jinrui/archive.html#onair3 関連 【 放送第3回目】 「言語」の獲得と、手の混んだ「道具」を手作りする能力との関係性についての考察

  403. DeepMind社から公開された論文の中で、 複雑系の科学 や カオス結合系のアプローチ によるAI Machineの研究は、見当たらない。 (2018年6月現在)

  404. “Complex system” or “coupled chaos system”論文 を引用しているDeepMind社の公開研究

  405. 国吉(東京大学)のカオス結合系の論文を 引用しているDeepMind論文 DeepMindから公開された論文で、 ChaosやComplex systemを主題とする論文は見当たらない。 左の論文が唯一、国吉(東京大学)のカオス結合系の論文 を引用している。 Timothy (DeepMind) &

    Choe (Texas A&M Univ.), Prenatal to postnatal transfer of motor skills through motor-compatible sensory representations, ICDL 2010
  406. “Self-organisation” or “Self-organization”論文 を引用しているDeepMind社の公開研究

  407. 掲載誌 掲載年 論文表題 ICLR 2018 Unsupervised Learing of Goal Spaces

    For Intrinsically Motivated Goal Exploration PMLR 2018 Continual Reinforcement Learning with Complex Synapses NIPS 2017 A multi-agent reinforcement learning model of common-pool resource appropriation Work Shop ICLR 2017 Variational Intrinsic Control 2018 Measuring and avoiding side effects using relative reachability 2016 Towards an integration of deep learning and neuroscience 2015 Bootstrapping Skills Self-Organization論文の引用はあるものの Complex system や chaosへの言及はない
  408. “complex system” という単語が出現する DeepMind社の公開研究

  409. “Complex system”への言及はあるものの “chaos”への言及はない 載誌 掲載年 論文表題 2016 Interaction Networks for

    Learning about Objects, Relations and Physics
  410. 2018年現在 各アプローチの到達段階 以下を含めた比較 ・ Neural Symbolic Learningモデル ・ 深層ニューラルネットワーク機構によるテキスト・論理式変換モデル

  411. 論文・モデル 思考の素材(対象項) (事物概念・抽象概念) 思考する論理 (関係概念・推論規則) Compositional Obverter Communication ◦ ◦

    Emergence of linguistic communication ◦ ◦ SCAN △ △ Relation Network (Visual QAタスク) △ △ Relation Network (物体運動タスク) ◦ ◦ Neural Tensor Network △ △ 機械読解(MRC)モデル △ △ テキスト -> 論理式写像モデル △ △ Neural-Symbolic Learning △ △ 「思考の素材」 と 「思考する論理」 を生成するAI
  412. 論文・モデル 思考の素材(対象項) (事物概念・抽象概念) 思考する論理 (関係概念・推論規則) Compositional Obverter Communication AI独自の物体概念の自動生成(一般物体認識) AI独自の物体概念を記述するAI独自の記号表現の自動生成

    概念合成(concept composition) (形容詞・名詞に相当する記号表現を組み合わせた新 概念の組成。組成した新概念の視覚イメージの生成) Emergence of linguistic communication AI独自の物体概念の自動生成(一般物体認識) AI独自の物体概念を記述するAI独自の記号表現の自動生成 概念合成(concept composition) (形容詞・名詞に相当する記号表現を組み合わせた新 概念の組成。組成した新概念の視覚イメージの生成) SCAN 人の言葉(名詞・形容詞・接続詞)が指示する画像領域を、アノテー ション無しの画素ピクセルデータから、自動推定 (教師データ: ① 画素ピクセルデータと、②その視覚画像に出現する物体を人 の言葉(名詞と形容詞)で記述した短文のペア) 教師データで示された人の言葉 (「形容詞」+”AND”・”OR”・”IN COMMON”+「名詞」) を概念合成して、「形容詞と名詞」の「未知の組み合わ せ」の記号表現と、その視覚イメージ(既知の物体が、 未知の色・形を帯びた状態)を自動推定する。 ← 画像領域との対応付けが完了したAI自身の物体語彙(「視覚イメージ・記 号表現(人の言葉)」のペア)をもとに、新しい概念とその視覚イメージを自動 獲得。 Relation Network (Visual QAタスク) △ △ Relation Network (物体運動タスク) ◦ ◦ 「思考の素材」 と 「思考する論理」 を生成するAI
  413. 論文・モデル 思考の素材(対象項) (事物概念・抽象概念) 思考する論理 (関係概念・推論規則) Neural Tensor Network 人が定義した[主語(S)、述語(P)、目的語・補語(O)]のTriple知識 データを学習し、新しいデータを記述するS-P-O記号表現(人の言

    葉)を生成する。 S-P-Oの関係表現の推論(関係性推論タスク) 機械読解(MRC)モデル 人の言葉で書かれた ①知識記述文章(復数件)、②事実型質問、 ③模範解答 を学習した後に、提示される「初見の複数の文章」と 「質問文」に対して、「正しい解答」(事実型の解答)を人の言葉(英 語)で返す。 (SQuAD、MS-MARCOデータセット等) 以下を時系列ニューラルネットワーク等で、自律的 に学習・推論を行う。 ・ 構文解析、意味解析、照応解析 ・ 表記揺れの解消 ・ 復数の文章にまたがる「事実型知識の断片」の 論理推論による知識結合 テキスト -> 論理式写像モデル 人の言葉で書かれた文章を、人が定義した論理公理体系の記号表 現へと、AIが自動的に写像したもの(論理式) 人が定義した論理公理体系に、 AIが生成した(復数の)論理式を入力して、 論理推論を行う。(結果:新しい論理式 = 新知識) Neural-Symbolic Learning 人の言葉で書かれた文章を、人が定義した論理公理体系の記号表 現へと、AIが自動的に写像したもの(論理式) 人が定義した論理公理体系に、 AIが生成した(復数の)論理式を入力して、 論理推論を行う。(結果:新しい論理式 = 新知識) 「思考の素材」 と 「思考する論理」 を生成するAI
  414. モデル 思考対象の素材 思考する論理 SCAN △ △ Relation Network(QAタスク) △ △

    Neural Tensor Network △ △ 機械読解(MRC)モデル △ △ テキスト -> 論理式写像モデル △ △ Neural-Symbolic Learning △ △ ・「素材」と「論理力」の両者を、自律獲得(生成)するが、 ・ まだ、物体観念 + 色・重さ を 観念結合するレベル(初歩的な段階)である。 思考の素材 と 思考力(推論論理)の自律獲得段階
  415. モデル 思考対象の素材 思考する論理 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network(QAタスク) AIによる半自律獲得 AIによる半自律獲得

    Neural Tensor Network AIによる半自律獲得 人が書いた文中の語句 機械読解(MRC)モデル AIによる半自律獲得 人が書いた文中の語句 テキスト -> 論理式写像モデル AIが写像した記号 人が構築した論理体系 Neural-Symbolic Learning AIが写像した記号 人が構築した論理体系 ・ 深層ニューラルネットワーク・モデルは、end-to-endに学習&推論するが、 ・ 「人間の言語が持つ語彙によって指し示される客体対象」間の関係を、 ・ 「人間の論理推論体系」の枠内で考えている。 「思考の素材」 と 「思考力」(推論論理)の獲得段階
  416. ・ 深層ニューラルネットワーク・モデルは、end-to-endに学習&推論するが、 ・ 「人間の言葉」の指示する客体対象間の関係を、「人間が生み育てた」推論規則の枠内で考える。 「思考の素材」 と 「思考力」(推論規則)の獲得段階 「思考の素材」(Entity:事物の観念、抽象観念)も、 「思考のロジック」(Entity間の静的連関 or

    連関発展構造を捉える形式体系、推論規則)も、 「人の言葉」=「人間の創造物・想像物」 を与えられて(借り受けて)思考する段階 に踏みとどまっている。
  417. 「素材」と「思考力」の2つを半自律獲得する 【 思考対象の素材 】 人間の言語が持つ語彙に対応付けて、(テキスト・画像pixelデータから)獲得される 物体・出来事の概念、抽象的な観念 【 思考する力 】 教師用データとして与えられる「人間の言葉=英文による状況記述文」をたよりに、

    AIが学習する(物理的な)原因・結果観念(因果推論)、(観念間の)論理関係推論 モデル 思考対象の素材 思考する論理 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得
  418. 「素材」と「思考力」の2つを半自律獲得する 【 学習用データセット 】 「情景の画像データ」に紐付けて対応させる (画像の情報内容を言語化する)テキスト文は、 (その画像を見て)人間が書いた言語文。 (1) 「情景のraw pixelデータ」

    (2) 「情景の背景と、そこにある物」を記述した「人間の言葉(英文)」 モデル 思考対象の素材 思考する論理 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得 形容詞+名詞 人間が持つ世界の弁別体系 (物体概念、形容観念(色、重さ、形、質感・・・))
  419. 「素材」と「思考力」の2つを半自律獲得する (1) 「情景のraw pixelデータ」 (2) 「情景の背景と、そこにある物」を記述した「人間の言葉(英文)」 モデル 思考対象の素材 思考する論理 SCAN

    AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得 形容詞+名詞 人間が書いた文章 = 「人間が持つ世界の弁別体系」 を、AIは手がかりとするので、 (人間がもつ物体概念、人間がもつ形容観念(色、重さ、形、質感・・・)) SCANモデルは、(人間による介入・手助けを完全に排して)完全に自律的に、 AIモデル自身の「世界の弁別体系」 を獲得・生成するわけではない。 【 弁別体系 】 (1) 項Entity: 事象観念・抽象観念 および (2) 接続詞(and, or, then, after, on, with, for)などの関係観念
  420. 「素材」と「思考力」の両者の自律獲得に向けて 【 現状 】 人間が築いてきた世界観(世界の弁別体系・意味付け体系) を「教師データ」として、AIに授けている段階。 【 教師データ 】 人間がもつ「世界の構成要素に関する観念」(事物、抽象観念)

    【 教師データ 】 人間がもつ 「因果・連関観念」 モデル 思考対象の素材 思考する(論理)力 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得
  421. 「素材」と「思考力」の両者の自律獲得に向けて 【 現状 】 AIは、End-to-endに学習するようにはなったが、 人間の言語体系=人間の世界観を間借りして、 概念生成や、思考(推論)を行っている。 モデル 思考対象の素材 思考する(論理)力

    SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得
  422. 「素材」と「思考力」の両者の自律獲得に向けて 人間が築いてきた世界観(世界の弁別体系・意味付け体系) を「教師データ」として、AIに授けている段階。 【 教師データ 】 人の言葉=人間の「世界の構成要素に関する観念」(事物、抽象観念) 【 教師データ 】

    人の言葉=人間がもつ 「因果・連関観念」 モデル 思考対象の素材 思考する(論理)力 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得 (出典) SlideShare Deep Learning JP 「[Dl輪読会]A simple neural network module for relational reasoning」スライドより 人間が創造した言語 (英語)
  423. 「素材」と「思考力」の両者の自律獲得に向けて 人間が築いてきた世界観(世界の弁別体系・意味付け体系) を「教師データ」として、AIに授けている段階。 【 教師データ 】 人の言葉=人間の「世界の構成要素に関する観念」(事物、抽象観念) 【 教師データ 】

    人の言葉=人間がもつ 「因果・連関観念」 (出典) SlideShare Deep Learning JP 「[Dl輪読会]A simple neural network module for relational reasoning」スライドより 人間が創造した言語 (英語) “cylinder” とか “metal thing” とかという人間の言葉がもつ語彙 によって、raw pixel画像からの物体概念の生成作業には、 人間の垢がついてしまっている。 (AIによる完全自律的な概念生成ではない)
  424. (参考) 「言語」と「世界の意味付け」との深い連関性 人間が創造した言語 (英語) “cylinder” とか “metal thing” とかという人間の言葉がもつ語彙 によって、raw

    pixel画像からの物体概念の生成作業には、 人間の垢がついてしまっている。 (AIによる完全自律的な概念生成ではない) 【 サピア・ウォーフの仮説 】 Raw pixel image データの「情報の海」から、 「青い鳥」という客体概念・事物概念を認識するのは、 「青い」ということばの語彙(言語表現)と、 「鳥」ということばの語彙(言語表現)を もっている人間・AIのみである、とする考え方。
  425. 「素材」と「思考力」の両者の自律獲得に向けて モデル 思考対象の素材 思考する(論理)力 (models to come soon ?) AIによる自律獲得

    AIによる自律獲得 【 将来の可能性 】 ・ AI自身が概念生成した「事象」どうしの連関構造を、 低コストに、高い記述力で「記号化」できる「論理公理体系」 ・ 人間がこれまで発見 or 考案してきた「既知の論理公理体系」とは異なる (人間にとって)「未知」の「新種」の論理公理体系であるかもしれない。 「参考資料 論理公理体系とは何か」を参照。
  426. しかし、SCANモデルも・・・ 【 可能性 】 人間が築いてきた世界観(世界の弁別体系・意味付け体系)を「教師データ」として出発しながらも、 世界の中に身をおいて、学習が進むにつれて、次第に、 当初の「人間の弁別体系」から離れた、独自の弁別体系・言語体系(推論体系) を持つに至るかもしれない。 同じ生態系から出発しても、孤島化などで、独自の生態系が生まれる「ガラパゴス化」が、 生命進化の過程で発生したように。

    モデル 思考対象の素材 思考する(論理)力 SCAN AIによる半自律獲得 AIによる半自律獲得
  427. ( 参考 ) (出典) https://futurism.com/a-facebook-ai-unexpectedly -created-its-own-unique-language/ (出典) https://www.techly.com.au/2017/07/31/ facebooks-ai-bots-are-communicating-in-a-language-we-dont-understand/ Facebook

    AI Research (FAIR), Deal or No Deal? End-to-End Learning for Negotiation Dialogues 【 報告事例 】 「交渉力」を極限まで強くさせる方向に学習させたところ、 「人間が理解しえない言葉遣い」 をAIが発話しはじめた。
  428. この文脈で、目を引く論文 (ICLR 2018) COMPOSITIONAL OBVERTER COMMUNICATION LEARNING FROM RAW VISUAL

    INPUT
  429. 人間の言語体系(=世界の弁別体系) とは異なる。AI自身の言葉? (ICLR 2018) COMPOSITIONAL OBVERTER COMMUNICATION LEARNING FROM RAW

    VISUAL INPUT
  430. SCAN論文の後続論文 (SCAN論文を引用している論文) 掲載誌 掲載年 論文表題 所属 ICLR 2018 Generative models

    of visualluy grounded imagination Georgia Tech., Google Inc. (ICLR Workshop) 2018 Concept Learning via Meta-Optimization with Energy Models OpenAI (NIPS Workshop) 2017 Feature-matching auto-encoders Columbia Univ., OpenAI Arxiv 2018 Learning disentangled Jjoint continuous and discrete representations Schlumberger Software Technology I nnovation Center 2017 Conceptual-linguistic superintelligence eCortex.Inc. (修士論文) Learning transferable data representations using deep generative models Arizona State Univ. 2017 Measuring the tendency of cnns to learn surface statistical regularities Univ. de Montreal
  431. 「素材」と「思考力」の両者の自律獲得に向けて 【 将来の可能性 】 データ系列から、AI自身が、概念生成した「事象」(Entity、Event)を「思考の素材(対象)」 として、その「事象」間の連関構造を、最も効率良く、記述力高く「説明」できる「言語体系」 を、AI独自の「論理公理体系」として、AI自身が、自律的に生成する可能性が予想できる。 モデル 思考対象の素材 思考する(論理)力

    (models to come soon ?) AIによる自律獲得 AIによる自律獲得
  432. 【 現在、部分的に実現している】 「素材」と「思考力」の両者の自律獲得 モデル 思考対象の素材 思考する(論理)力 Relation Network (Dynamic Physical

    Systemタスク) AIによる自律獲得 AIによる自律獲得 【 Dynamic Physical Systemタスク 】 ・ raw pixel 画像データから、AIが自律的に獲得した物体概念 どうしの ・ 相対的な位置関係、相対的な力学的運動関係・因果関係 (相互影響関係) を、end-to-endに推定するタスク 同じ画像をみた人間が、 考えつかなった「物体」・「客体」 を、AIが「物体」・「客体」として、 抽出・概念生成する可能性 を秘めている。
  433. (出典) SlideShare Deep Learning JP 「[Dl輪読会]A simple neural network module

    for relational reasoning」 Relation Network 論文: 「QAタスク」 と 「力学関係(推定)タスク」 (出典) DeepMind, A simple neural network module for relational reasoning 【 現在、部分的に実現している】 「素材」と「思考力」の両者の自律獲得
  434. 【 現在、部分的に実現している】 「素材」と「思考力」の両者の自律獲得 以下の研究成果も参考 DeepMind, Visual Interaction Networks

  435. 【 現在、部分的に実現している】 「素材」と「思考力」の両者の自律獲得 DeepMind, Visual Interaction Networks

  436. 【 Relational Networks論文の関連論文】 物体概念(物体輪郭検出)の自律獲得 と物体位置・(加)速度等の将来時点予測タスク 掲載誌 掲載年 論文表題 所属 NIPS

    2017 Visual Interaction Networks: Learning a Physics Simulator from Video Google DeepMind (Arxiv.) 2017 Visual Interaction Networks Google DeepMind ICLR 2018 Learning Awareness Models Google DeepMind
  437. (比較) 1. 論理推論器の深層ニューラルネットワークモデルによる実現 (Neural-Symbolic Learningモデル) 2. 機械読解タスクの深層NNモデル (Machine Reading Comprehensionタスク)

  438. 人が定義した文章をもとに、人が定義した記号論理表現の枠内で、 自律的に思考する 【思考対象の素材 】 人が書いた文章から、AIによって生成(写像)された論理式記号表現 (=人が定義した論理体系の論理式) 【思考する力 】 ① neural

    networkモデルによるテキスト文 => 論理式への変換 ② (入力) 論理式 -> (出力) 論理演算結果の論理式 の論理演算機構 【 生み出す知識 】 [主語 - 述語 – 目的語・補語]の3項関係 (Triple-form KB) 例1:自然言語文を論理式に写像するNeural Networkモデル 注: 論文名は、「(別表1) 論文リスト」スライドを参照。 モデル 思考対象の素材 思考する(論理)力 テキスト -> 論理式写像モデル AIが写像した論理式 人が構築した論理体系 Neural-Symbolic Learning AIが写像した論理式 人が構築した論理体系
  439. 「論理式の記号表現の体系」と「論理式どうしの演算体系」は、 人間が定義した論理公理体系を利用する。 モデル 思考対象の素材 思考する(論理)力 テキスト -> 論理式写像モデル AIが写像した論理式 人が構築した論理体系

    Neural-Symbolic Learning AIが写像した論理式 人が構築した論理体系 人が定義した文章をもとに、人が定義した記号論理表現の枠内で、 自律的に思考する
  440. 【 思考対象の素材 】 人間が書いた文章から(AIによって抽出された)人間の言葉の単語語句 【 思考する力 】 人間が理解できる言語で知識を記述した語句・文を出力するneural networkモデル機構 【

    生成する知識 】 [主語 - 述語 – 目的語・補語]の3項関係 (Triple-form KB) 例1: Neural Tensor Networkモデル 例2: Machine Reading Comprehension(推論タスク部分)適用モデル 注: 論文名は、「(別表1) 論文リスト」スライドを参照。 モデル 思考対象の素材 思考する(論理)力 Neural Tensor Network 文章からAIが自律抽出した語句 人の言葉を出力するNeural Net機構 機械読解(MRC)モデル 文章からAIが自律抽出した語句 人の言葉を出力するNeural Net機構 人が定義した文章をもとに、人が定義した記号論理表現の枠内で、 自律的に思考する
  441. (付録) 自己組織化による知性の発現

  442. Thinking Machineを「創発」させるアプローチ Key Words : 創発, Emergence property, complexity generation

  443. カオス結合系モデルによる 感覚・神経系の発生・発育過程 の構成論的シミュレーション 現在、わが国で進行中の感覚・筋肉神経系統の発生過程のシミュレーションが、 今後、物体概念と(物体を指示する)言葉の生成・共有過程の解明に向けた研究 に発展する可能性がある。 【 日本発の研究(2) 】 再掲

  444. Linskerモデルによる脳の自己組織化 (視覚野コラム構造) Ralph Linsker [1998] 【 解説 】 浅川 伸一

    「自己組織化」
  445. Linskerモデルによる脳の自己組織化 (視覚野コラム構造) 麻生 英樹 「神経回路網における自己組織化の数理」

  446. 「自己組織化」過程発生のために必要な条件を、 ニューラル・ネットワークモデルに取り込む研究 生物神経系が持つ特徴のうち、 「自己組織化」現象の発現に関わる特徴を、 多層ニューラル・ネットワークモデル に持たせる方法を探究している論文。 William Lotter et.al., A

    neural network trained to predict future video frames mimics critical properties of biological neuronal responses and perception, Arxiv, 2018
  447. SingularityNET は、創発モデルを目指している? (出典) SpeakerDeck 「SingularityNET White Paper を読み解く 」

  448. SingularityNET は、創発モデルを目指している? (出典) SpeakerDeck 「SingularityNET White Paper を読み解く 」

  449. (参考) 人間の脳と複雑適応系(CAS) NTNU, Department of Computer Science IT3708 - Subsymbolic

    Methods in AI, Spring 2014 Wikipedia Complex adaptive system
  450. (参考) 複雑適応系 Wikipedia 複雑適応系

  451. (参考) 複雑適応系 Wikipedia 複雑適応系

  452. (参考) 複雑適応系とDeep learning学習

  453. (参考) 「創発」(Emergence)とは? Wikipedia 日本語版 「創発」

  454. 北村[1995]による定義 北村 新三 「創発的機能形成のシステム理論に向けて」, 計測と制御, Vol.37, 1995 「自律的にふるまう個体(要素)間および環境との間の局所的な相互作用 が大域的な秩序をボトムアップ的に発現し、他方、そのように生じた 秩序が個体のふるまいをトップダウン的に拘束するという双方向の動的

    過程により、新しい機能、形質、行動が獲得されること」 (参考) 「創発」(Emergence)とは?
  455. ( 別表1 )

  456. 論文リスト 掲載誌 掲載年 論文表題 所属 ICLR 2018 Can Neural Networks

    Understand Logical Entaulment ? ICLR 2017 Tracking the World State with Recurrent Entity Networks AAAI 2018 Explicit Reasoning over End-to-End Neural Architectures for Visual Question Answering AAAI 2015 Learning Distributed Word Representations for Natural Logic Reasoning AAAI 2015 Learning Distributed Word Representations for Natural Logic Reasoning AAAI 2015 Neural-Symbolic Learning and Reasoning: Contributions and Challenges NIPS 2017 Differentiable Learning of Logical Rules for Knowledge Base Reasoning NIPS 2013 Reasoning With Neural Tensor Networks for Knowledge Base Completion 別表1
  457. 論文リスト 掲載誌 掲載年 論文表題 所属 IJCAI 2017 Logic Tensor Networks

    for Semantic Image Interpretation IJCAI 2017 Logic Tensor Networks for Semantic Image Interpretation IJCAI 2016 Learning First-Order Logic Embeddings via Matrix Factorization IJCAI 2011 A Neural-Symbolic Cognitive Agent for Online Learning and Reasoning ACL 2016 Language to Logical Form with Neural Attention CoCoNIPS 2015 Relational knowledge extraction from neural networks COLING 2018 An Interpretable Reasoning Network for Multi-Relation Question Answering Nature 2017 Quantum Enhanced Inference in Markov Logic Networks 別表1
  458. 論文リスト 掲載誌 掲載年 論文表題 所属 ICML 2011 A Three-Way Model

    for Collective Learning on Multi-Relational Data PMLR 2017 Learning Continuous Semantic Representations of Symbolic Expressions IGPL 2014 Reasoning with Vectors: A Continuous Model for Fast Robust Inference AISTATS 2012 Joint Learning of Words and Meaning Representations for Open-Text Semantic Parsing Italian Association for Artificial Intelligence on Advances in Artificial Intelligence 2016 Learning and Reasoning with Logic Tensor Networks IGPL 2014 Reasoning with Vectors: A Continuous Model for Fast Robust Inference AAAI Technical Report 2007 Situated Comprehension of Imperative Sentences in Embodied, Cognitive Agents Workshop on CVSC 2015 Recursive Neural Networks Can Learn Logical Semantics 別表1
  459. 論文リスト 掲載誌 掲載年 論文表題 所属 (論文リスト) Bridging Relational and Deep

    Learning (論文リスト) 2017 Neural-Symbolic Learning and Reasoning: A Survey and Interpretation (Report) 2017 Human-Like Neural-Symbolic Computing (Report) 2014 Neural-Symbolic Learning and Reasoning Workshop ウェブページ 2018 Neural-Symbolic Integration (スライド) 2017 Learning and Reasoning in Logic Tensor Networks 2016 Harnessing Deep Neural Networks with Logic Rules Arxiv. 2016 Logic Tensor Networks: Deep Learning and Logical Reasoning from Data and Knowledge 別表1
  460. 論文リスト 掲載誌 掲載年 論文表題 所属 2018 DeepProbLog: Neural Probabilistic Logic

    Programming Arxiv. 2017 Learning like humans with Deep Symbolic Networks 2018 Recurrent Relational Networks for complex relational reasoning Oral Presentation on ACL 2017 Neural Symbolic Machines: Learning Semantic Parsers on Freebase with Weak Supervision (Slide) 2014 Neural-Symbolic Learning and Reasoning 2009 Neural-Symbolic Cognitive Reasoning 博士論文 2017 Knowledge Representation And Reasoning With Deep Neural Network 学位論文 2007 Learning and deduction in neural networks and logic 別表1
  461. 論文リスト 掲載誌 掲載年 論文表題 所属 2017 Reasoning in Non-probabilistic Uncertainty:

    Logic Programming and Neural-Symbolic Computing as Examples Preprint of Paper ‘Connectionist Inference Models’ to appear in Neural Networks Logic Tensor Networks (Extended Abstract) 2018 A Semantic Loss Function For Deep Learning With Symbolic Knowledge Learning to Map Sentences to Logical Form: Structured Classification with Probabilistic Categorial Grammars Learning Executable Semantic Parsers for Natural Language Understanding Deep Neural Networks with Massive Learned Knowledge 2014 Bringing machine learning and compositional semantics together 別表1
  462. 論文リスト 掲載誌 掲載年 論文表題 所属 From machine learning to machine

    reasoning An essay 2018 Tunneling Neural Perception and Logic Reasoning through Abductive Learning 2016 Reinforcement Learning Neural Turing Machines – Revised ILP 2017 Mode-Directed Neural-Symbolic Modelling (Slide) 2018 Neurosymbolic Computation: Thinking beyond Deep Learning Reasoning with Deep Learning: an Open Challenge Modelling Relational Data using Bayesian Clustered Tensor Factorization 2015 Injecting Logical Background Knowledge into Embeddings for Relation Extraction 別表1
  463. 論文リスト 掲載誌 掲載年 論文表題 所属 Arxiv. 2017 Entity Embeddings with

    Conceptual Subspaces as a Basis for Plausible Reasoning Program Synthesis from Natural Language Using Recurrent Neural Networks (論文リスト) Bridging Relational and Deep Learning (Report) Human-Like Neural-Symbolic Computing (Report) Neural-Symbolic Learning and Reasoning Workshop記事 Neural-Symbolic Integration Arxiv. 2017 Adversarial Sets for Regularising Neural Link Predictors 別表1
  464. ( 別表2 )

  465. 【 定理証明、数式処理、数学文章題モデル 】 論文リスト 掲載誌 掲載年 論文表題 所属 Learning Knowledge

    Base Inference with Neural Theorem Provers Inferring Algorithmic Patterns with Stack-Augmented Recurrent Nets AAAI 2018 MathDQN: Solving Arithmetic Word Problems via Deep Reinforcement Learning 別表2
  466. ( 別表3 )

  467. 【ソースコード生成モデル 】 論文リスト 掲載誌 掲載年 論文表題 所属 ICLR 2016 Neural

    Programmer-Interpreters ICLR 2017 DEEPCODER: Learning To Write Programs ICLR 2018 Neural Sketch Learning For Conditional Program Generation NIPS 2017 Neural Program Meta-Induction AAAI 2016 Convolutional neural networks over tree structures for programming language processing JMLR 2017 RobustFill: Neural Program Learning under Noisy I/O 2017 Inferring and Executing Programs for Visual Reasoning 別表3
  468. 【ソースコード生成モデル 】 論文リスト 掲載誌 掲載年 論文表題 所属 Program Synthesis from

    Natural Language Using Recurrent Neural Networks (web page) Microsoft, Neural Program Synthesis (web page) Microsoft, New Meta-learning Techniques for Neural Program Induction 別表3
  469. ( 参考 )

  470. 「思考力」=論理公理体系 人間がこれまで発見 or 考案してきた「既知の論理公理体系」 ・ 名辞論理学(アリストテレスの論理学。 いわゆる古典論理学) ・ 1階述語論理、2階述語論理、高階述語論理 ・

    アブダクション ・ 様相論理(modal logic) ・ 時相論理(Temporal logic) ・ 多値論理(Many-valued logic) ・ ファジィ論理(Fuzzy logic) ・ 義務論理(denotic logic) ・ 京都学派の「場所の論理学」 ・ Martin Heideggerの言葉についての思索 (1930年代の「物」論・「詩」論) ・ 龍樹 「空論」 岡 智之(東京学芸大学) 「場所の論理から見た日本語の論理」 Wikipedia 日本語版 「論理学」 参考 佐藤 「計算モデル特論」
  471. 論理公理体系とはなにか? 1. 観測対象としての「世界」について得られた情報の海から抽出した、 2. 物(Entity)と事(Event)と概念・観念(idea)の間の時間的・非時間的な 3. “連関関係”を、効率よく説明できる、なんらかの記述言語の文法構造? 【 問題提起 】

     「効率の良さ」や「記述力」は、 多様体学習 や 微分幾何学、情報幾何学等の数理的アプローチ による「次元圧縮」・「多様体への写像」と、関連するだろうか?  数学の「圏論」が捉えている事柄・出来事は、 数理論理学 や モデル理論、論理学が取り組んできた事柄と、どう結びつくだろうか。 参考
  472. 論理公理体系とはなにか?  「効率の良さ」や「記述力」は、 多様体学習 や 微分幾何学、情報幾何学等の数理的アプローチ による「次元圧縮」・「多様体への写像」と、関連するだろうか?  数学の「圏論」が捉えている事柄・出来事は、 数理論理学

    や モデル理論、論理学が取り組んできた事柄と、どう結びつくだろうか。 参考 赤穂 「情報幾何と機械学習」 丸山「論理と代数幾何における双対性」
  473. 論理公理体系とはなにか?  「効率の良さ」や「記述力」は、 多様体学習 や 微分幾何学、情報幾何学等の数理的アプローチ による「次元圧縮」・「多様体への写像」と、関連するだろうか?  数学の「圏論」が捉えている事柄・出来事は、 数理論理学や論理学が取り組んできた事柄と、どう結びつくだろうか。

    参考 丸山「論理と代数幾何における双対性」 檜山正幸のキマイラ飼育記 (2013/11/08) 「丸山善宏さんの「圏論的双対性の理論入門」と understanding conferrability」
  474. 論理公理体系とはなにか? 時間の先後関係という枠組みを持たない論理公理体系もありうるかもしれない。 (因果関係の再考) この宇宙(世界)を記述する最先端の物理理論の候補(超限理論、ループ量子重力仮設など)では、 「時間の流れ」 は、宇宙に存在するものでなく、 人間が、この宇宙を説明する便宜として 生み出した概念枠組みでしかない可能性 も示されている(?) 参考

    すべての時点の出来事は、 すでに、総体として生じており、 また、 すべての出来事は、過去へと消失せずに 静的に保存されている可能性
  475. 論理公理体系とはなにか? 時間の先後関係という枠組みを持たない論理公理体系もありうるかもしれない。 (因果関係の再考) この宇宙(世界)を記述する最先端の物理理論の候補では、 「時間の流れ」 は、宇宙に存在するものでなく、 人間が、この宇宙を説明する便宜として 生み出した概念枠組みでしかない 可能性も示されている(?) 参考

    すべての時点の出来事は、 すでに、総体として生じており、 また、 すべての出来事は、過去へと消失せずに 静的に保存されている可能性 Max Tegmark 『数学的な宇宙』 より 転載
  476. 論理公理体系とはなにか? 時間の先後関係という枠組みを持たない論理公理体系もありうるかもしれない。 (因果関係の再考) この宇宙(世界)を記述する最先端の物理理論の候補(超限理論、ループ量子重力仮設など)では、 「時間の流れ」 は、宇宙に存在するものでなく、 人間が、この宇宙を説明する便宜として 生み出した概念枠組みでしかない 可能性も示されている(?) 参考

    Max Tegmark 『数学的な宇宙』 より 転載
  477. 論理公理体系とはなにか? 時間の先後関係という枠組みを持たない論理公理体系もありうるかもしれない。 (因果関係の再考) 参考 (時間の流れのなかに因果関係が生じているかのように、 人間が体感する仕組みの説明図) 様々な時点座標点における世界断面のスナップショットは、 すべての時点について、静的にすでに起きており、消えない。 スナップショット間を人間が移動することで、あたかも時間の流れや、 因果関係が起きているかのように体感する。

    Max Tegmark 『数学的な宇宙』 より 転載
  478. 論理公理体系とはなにか? 黒川教授(東工大)「一元体数学」・「絶対数学」 および 望月教授(京都大)「宇宙際タイヒミューラー理論」 とならび、 この世界を(効率よく、記述力高く)記述する 「論理公理体系」、「言語体系」 を考える上で、興味深い研究者。 参考

  479. 論理公理体系とはなにか? 辻下 徹(北海道大学) 『複雑系の「基本問題」』 北海道大学数学教室, 北大数学 1998.1.7 参考

  480. 論理公理体系とはなにか? 1. 数学の諸領域 と 物理学の諸領域 の背後には、 なんらかの秩序体系が成立・存在している? (それを記述する新たな言語の可能性) 【 問題提起

    】  数学の諸領域(数論、代数学、幾何学・・・)と物理学の諸領域は、 同一の秩序体系を、それぞれ異なる 窓(視点)から捉えたときに見えてくる、「異なる描像」に過ぎないのだろうか? 参考 NHK 「白熱教室」 E・Frenkel氏より E・Frenkel(著)・青木薫(訳) 『数学の大統一に挑む』 p.384
  481. 論理公理体系とはなにか? 1. 数学の諸領域 と 物理学の諸領域 の背後には、 なんらかの秩序体系が成立・存在している? (それを記述する新たな言語の可能性) 【 ラングランズ・プログラム】

    参考 信州大学 Algebric Topology – A Guide to Literature – 「Geometric Langlands program と quantum field theory」 Wikipedia 日本語版 E・Frenkel(著)・青木薫(訳) 『数学の大統一に挑む』 p.129
  482. カリー=ハワード同型対応 Wikipedia 「カリー=ハワード同型対応」

  483. カリー=ハワード同型対応 「9. 計算体系と論理体系の関係」 URL : http://www.cs.tsukuba.ac.jp/~kam/complogic/9.pdf