Upgrade to Pro — share decks privately, control downloads, hide ads and more …

TowardThinkingMachine_GoogleDeepMind_LanguageEvolutionPapers.pdf

 TowardThinkingMachine_GoogleDeepMind_LanguageEvolutionPapers.pdf

connection_automated_ai

June 23, 2018
Tweet

More Decks by connection_automated_ai

Other Decks in Technology

Transcript

  1. 古き良きAI (GOFAI) • 人間が定義したオントロジー(Entity および、Entity 間の関係) に対して、 • 人間が定義した論理体系(1階述語論理、2階述語論理、様相論理、時相論理 etc.)

    を推論する論理プログラミング機構(演繹、帰納、アブダクションetc.) を適用することで、 ・ 新しい知見を得る。 (例) (定義済みの知見) ソクラテスは人間だ & (定義済みの知見) 人間は死ぬ => (新知見)ソクラテスは死ぬ
  2. 目指すべきAI (Thinking Machine) 「人が生み育てた」 事物概念・推論規則とは異なる (1) 人間にとって「未知」の「事物概念」・「抽象概念」 (例1) 「視覚」と「聴覚」の中間にある主体的な感性概念と、それを表現する記号列(Symbol label)

    (例2) 「猫」と「ねずみ」の中間にある生命体の「概念」(事物概念)と、それを表現する記号列 (例3) 時間の流れの感覚概念を前提におかない何らかの「因果関係」・「原因・結果」の観念と、その表現記号列 (2) 人間にとって「未知」の「新種」の論理公理体系 (例3)の「因果観念」などで構築された、何らかの(数理論理学的に成立しうる)論理公理体系(推論ロジック) → 「参考資料 論理公理体系とは何か」スライドを参照。
  3. 目指すべきAI (Thinking Machine) 「人が生み育てた」 事物概念とは異なる (1) 人間にとって「未知」の「事物概念」・「抽象概念」 (例1) 「視覚」と「聴覚」の中間にある主体的な感性概念と、それを表現する記号列(Symbol label)

    (例2) 「猫」と「ねずみ」の中間にある生命体の「概念」(事物概念)と、それを表現する記号列 (例3) 時間の流れの感覚概念を前提におかない何らかの「因果関係」・「原因・結果」の観念と、その表現記号列 ( AIが、「データの海」から、 「思考の素材」(事物概念・抽象概念 = 論理推論の対象項・Entity)を、 (人間とは無関係に) 独自に形成・生成する段階
  4. 目指すべきAI (Thinking Machine) 「人が生み育てた」 推論規則とは異なる (2) 人間にとって「未知」の「新種」の論理公理体系 (例3)の「因果観念」などで構築された、何らかの(数理論理学的に成立しうる)推論規則、論理公理体系 → 「参考資料

    論理公理体系とは何か」スライドを参照。 AIが、「データの海」から、 「思考のロジック」 (複数の概念(Entity)間の関係性を定義する推論規則・論理公理体系) を、 (人間とは無関係に) 独自に形成・生成する段階
  5. 【 タスク設定 】 【 一般物体認識タスク部分 】 ・ 2体のAgentが、3次元物体のraw pixel データを眺めている。

    ・ (人間による「物体と背景の境界線」などのアノテーション付与のされていない)画素データ(raw pixel data)から、 2体のAgentが、それぞれ独立して、「背景」と「物体」(1つ or 複数)との区別を行う(各物体の輪郭検出=物体抽出)する。 【 「机」や「椅子」などの物体概念の生成 + 「机」や「椅子」それぞれの視覚描像(背景との境界線の同定) の生成】 ・ Speaker役とListener役、それぞれのAgentが、試行のたびに見ていた物体が、各Agentにとって、主観的にどう見えていた かを、raw pixelデータを画像処理したCNNモデルの内部パラメータの値から、(人間に分かるように)可視化した。 【 2者間の(”shared”)Language evolutionタスク部分】 ・ 自分(Speaker役のAgent)が見ている物体(の色と形)を、記号表現で、別のAgent(Listener役Agent)に伝える。 ・ Listener役にAgentは、自分が見ている物体と、Speaker役が見ている物体が、(アングルや光の当たり方や、物体の大きさの違いは あっても) 同じ種類(形と色の2つの属性で一致するか)を、「Speaker役からのメッセージ」だけを頼りに、判断する。 ・ 2体のAgentは、Speaker役とLister役の役まわりを交互に交代する。(交代を試行回数分だけ、繰り返す) ・ 正解率を高める方向に、Speaker役モデルがもつメッセージ生成GRUモデルの内部パラメータを更新していく (BP:誤差逆伝播法) ・ 2体のあいだで、同一の記号体系が共有されている度合いを、2体のSpeaker役が生成したメッセージどうしの ジャッカード距離で定量的に評価する。 ・ 特定の色と形を表現する際に、複数のSpeaker役Agentが発見した記号表現列があれば、その記号列を除去する。 (ICLR 2018) Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  6. 【 一般物体認識タスク部分 】 ・ 2体のAgentが、3次元物体のraw pixel データを眺めている。 ・ (人間による「物体と背景の境界線」などのアノテーション付与のされていない)画素データ(raw pixel

    data)から、 2体のAgentが、それぞれ独立して、「背景」と「物体」(1つ or 複数)との区別を行う(各物体の輪郭検出=物体抽出)する。 【 「机」や「椅子」などの物体概念の生成 + 「机」や「椅子」それぞれの視覚描像(背景との境界線の同定) の生成】 ・ Speaker役とListener役、それぞれのAgentが、試行のたびに見ていた物体が、各Agentにとって、主観的にどう見えていた かを、raw pixelデータを画像処理したCNNモデルの内部パラメータの値から、(人間に分かるように)可視化した。 (ICLR 2018) Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  7. 2体のAI Agentsの間で共有された 「人の言葉」とは異なる「独自の新言語」 2体の間で、「この言葉、分かる?」という試行錯誤 を繰り返した結果、「共有された新言語」の成立をみた。 【 試行回数 40回目】 (1) 2体のAgentは、すべての色と形の物体を、

    1種類の名詞=「記号列」で記述する。 (2) それぞれのAgentは、互いに相手に理解できない 「自分だけの言葉」をつむぎだしている。 【 試行回数 6,940回目 】 (1) 各Agentは、「赤色の球体(の物体)」を表現する記号列として、 (他の色と形の物体と区別された)「なんらかの記号列」 を獲得している。 (2) 同上。
  8. イタリック体の記号列 : 形状を表現する記号列 ロマン体の記号列 : 色を表現する記号列 【 2体のAI Agentsの間でだけ、共有された独自の新言語 】

    「記号の割り当て規則」と「文法構造」(単語・品詞構造) を、「人間の視点」から「解読」を試みた結果 【 推定 : 単語単位への分解 】 「色を記述する単語」と「形を記述する単語」 への分解 (単語の出現順序から、 『「色」+「形」といった文法構造』 が見えてくる。) (参考) 人間の言葉 英文: 形容詞+名詞 / 仏文: 名詞 + 形容詞
  9. 先行研究2 ・ AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない (「記号系列」( a sequence of discrete

    symbols )こそが 「人間並み」の言語といえる) 【 以下、Obverter 論文より抜粋 】 Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  10. 先行研究2 AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない ・ Jakob Foerster, Yannis M Assael,

    Nando de Freitas, and Shimon Whiteson. Learning to communicate with deep multi-agent reinforcement learning. In NIPS, pp. 2137–2145, 2016. ・ Angeliki Lazaridou, Alexander Peysakhovich, and Marco Baroni. Multi-agent cooperation and the emergence of (natural) language. In ICLR, 2017.
  11. 先行研究2 AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない ・ Sainbayar Sukhbaatar, Rob Fergus, et

    al. Learning multiagent communication with backpropagation. In NIPS, pp. 2244–2252, 2016. ・ Emilio Jorge, Mikael Kageback, and Emil Gustavsson. Learning to play guess who? and inventing a grounded language as a consequence. arXiv preprint arXiv:1611.03218, 2016.
  12. 先行研究3 ・ 人間の手によって、行われた、 「画像のこの領域にはこの物体が映っている」 「別のその領域には別のこの物体が映っている」 という、画像の中に出現する「物体の輪郭検出」 = 「物体認識」(それが何であるか)= 物体概念の生成 を、AIは受身的に受け取る(入力される)のみ。

    ・ AIは、人の手で行われた「画像の意味づけ」=「画像に何(物体概念)が、どの位置に映っているのか」 を、天下り的に与えられるだけの研究にとどまっている。 【 以下、Obverter 論文より抜粋 】 Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input
  13. 先行研究3 AIは、人の手で行われた 「画像の意味づけ」=「画像に何(物体概念)が、どの位置に映っているのか」 を、天下り的に与えられるだけの研究にとどまっている。 ・ Igor Mordatch and Pieter Abbeel.

    Emergence of grounded compositional language in multi-agent populations. arXiv preprint arXiv:1703.04908, 2017. ・ Satwik Kottur, Jose MF Moura, Stefan Lee, and Dhruv Batra. Natural language does not emerge ’naturally’ in multi-agent dialog. In EMNLP, 2017.
  14. (論文) (AAAI 2018) Igor Mordatch & Pieter Abbel, Emergence of

    Grounded Compositional Language in Multi-Agent Populations
  15. 【 もう1つのDeepMind論文 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input
  16. 【 もう1つのDeepMind論文 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 【 この論文が発見した事実 】 AI自身が(人間とは無関係に)生成する言語(communication protocol)が、どれだけ構造化の度合いが高い文法規則をもつかは、 そのAIが、(人間による物体輪郭アノテーション付与なしの) raw pixel data (raw sensorimotor data)を(自分のセンサーで)眺めた結果、 そこに、どれだけ複雑な「物体(事物)間の関係構造」の存在を見出すか(認識(同定)するか)によって、左右される。 the degree of structure found in the input data affects the nature of emerged protocols corroborate the hypothesis that structured compositional language is most likely to emerge when agents perceive the world as being structured.
  17. 【 もう1つのDeepMind論文 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 【 この論文が発見した事実 】 AI自身が(人間とは無関係に)生成する言語(communication protocol)が、どれだけ構造化の度合いが高い文法規則をもつかは、 そのAIが、(人間による物体輪郭アノテーション付与なしの) raw pixel data (raw sensorimotor data)を(自分のセンサーで)眺めた結果、 そこに、どれだけ複雑な「物体(事物)間の関係構造」の存在を見出すか(認識(同定)するか)によって、左右される。 the degree of structure found in the input data affects the nature of emerged protocols corroborate the hypothesis that structured compositional language is most likely to emerge when agents perceive the world as being structured.
  18. 【 もう1つのDeepMind論文 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 【 2つの実験を行った 】 【 実験1 】 「人間が作成したVisAデータセット」を、「教師」用データとして、AIに「学ばせる」 【 実験2 】 「人間によるアノテーション付与」なしのraw pixel data(raw sensorimotor data)を、AIに与える。
  19. 【 実験1 】 【 実験1 】 「人間が作成したVisAデータセット」を、「教師」用データとして、AIに「学ばせる」  (画像データ中に何が映っているのか)人間の手で、物体(concepts)を定義されている。 →

    raw pixel dataからの、「人間による」disentangled by human)  (人間の手で)定義された物体が、事前に定義された11個の属性のうち、どれに該当し、どれに該当しないかがアノテーション付け されている。 → (各物体について、人間による属性切り出しと属性該否の実行。Disentanglement by human) 人間が定義した 物体属性 ◦ × は 各 属 性 の 該 否
  20. 【 実験2 】 【 実験2 】 「人間によるアノテーション付与」なしのraw pixel data(raw sensorimotor

    data)を、AIに与える。  raw pixel dataのなかの、どの領域に、何の物体が映っているのか を、AI自身が自律的に判断する ( -> 物体概念の獲得 + その物体概念の視覚描像が出現している位置(範囲)の同定)  物体概念一般には、いかなる属性の集合が想定でき、画像の中に見出したそれぞれの物体は、 個々の属性のどれに該当するのかを、AI自身が自律的に判断する。 disentangled by AI theirselves (with no human helps & instructions)
  21. 【 参考 】 文字数が多すぎると、生成される「言語」は、 記号を組み合わせることで、無限に多くの新しい概念を表現する「概念合成力 をもたない「言語」となることを発見した。 showing that while most

    agent-invented languages are effective (i.e. achieve near-perfect task rewards), they are decidedly not interpretable or compositional. In essence, we find that natural language does not emerge ‘naturally’, despite the semblance of ease of natural-language-emergence that one may gather from recent literature
  22. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 【 実験1 】 人間が物体輪郭+属性該否の情報をアノテーション付けした Inputデータを受けて、 【 実験2 】 人間によるアノテーションなしの画素データ(raw pixel data)を Inputデータとして受けて、 Encoder-decoderモデルを用いて、 単語(に相当する、人間の言語とは異なる、独自の「記号」) を、「単語(に相当)」単位に、1単語(相当)ずつ、生成する。 Speaker 役のAgent の役割
  23. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speaker 役のAgent の設計構成(アルゴリズム)
  24. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Listener 役のAgent の設計構成(アルゴリズム)
  25. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speaker 役のAgentのパラメータと、Listener 役のAgentのパラメータを、 ひとつの損失関数式のなかで、同時に学習する。 Speaker 役Agentのパラメータと、 Listener 役Agentのパラメータは、 互いに独立している。 【 報酬関数 】 Speaker 役の発したメッセージを、 Listener 役が理解して、 Speaker役が画像データ中に、何の物体を 見出していたのか、認識共有できたら、 1を返す。認識共有に失敗したら、0を返す。
  26. 【 実験1・2共通 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speaker 役のAgentのパラメータと、Listener 役のAgentのパラメータを、 ひとつの損失関数式のなかで、同時に学習する。 Speaker 役Agentのパラメータと、 Listener 役Agentのパラメータは、 互いに独立している。 【 Speaker 役の行動価値関数(方策関数 π) 】 「行動」: 自分が見出した物体を指示する記号列を発声 (generate)する「行動」。 【 Listener 役の行動価値関数(方策関数 π) 】 Speaker役が発した記号列が表現(指示)している 「物体」が、目の前にある5つの物体のうち、 「どの物体か」を、指し示す「行動」
  27. 【 実験1で行ったこと(1) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input AIが、自身が独自に生成する記号体系(言語体系)を用いて、「1つの物体」を表現する際に、 用いることができる「文字」(Symbol)記号の個数(「文字数」)に上限を設けた。 3パターンの制限を設定し、それぞれの(制約)条件の下で、 生み出される言語体系の特性を、相互に比較した。
  28. 【 実験1(1)の結果 】 「ひとつの物体」を指示する「名詞」として、 「5文字~10文字」以内の文字数まで用いることが できるよう、制約条件の厳しさを緩和したところ、 Listener Agent が、Speaker Agent

    が発した記号列 が、「いかなる物体」を表現しているのかを、解探索 する上で、(探索可能な)解空間の次元数が増えた。 その結果、正解率が上昇した。
  29. 【 実験1で行ったこと(2) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input AIに見せる物体郡の配置のパターンを、より現実の世界で遭遇する状況に近い設定にした。 具体的には、種類のことなる事物が、でたらめに、ランダムに並んでいるのではなく、 同じカテゴリに属する事物が、近くに並んで出現する(共起する)状況を再現した。 その上で、事物の配置関係が、完全に「ランダム」な状況であるとき (=先行研究では、事物の並びは、一様分布(uniform distribution)と呼ばれる統計分布に従って、出現する設定) と、似たカテゴリの事物が、近くにまとまって出現する、上記の現実的な状況とで、 このSpeakerがうみだす言語の特性がどう変化し、その言葉を聞いたListenerが、Speakerが見ていた物体 を正しく理解できた割合(正解率)がどう変化したのかを、比較検証した。
  30. 【 実験1で行ったこと(2) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speakerには、ひとつの事物が写っている画像しか見せないが、 Listenerに見せる事物は、「Speakerが見ている事物(1つ)」と、「Speakerが見ていなかった4つの事物」(distractors) の合計5つでる。 今回、後者の4つの事物(不正解の事物)について、 種類のことなる事物が、でたらめに、ランダムに並んでいる状況と、 同じカテゴリに属する事物が、近くに並んで出現する(共起する)状況 (=一様分布ではない、特定の統計分布に従って出現する状況) の2つの状況を用意した。
  31. 以上の結果、実験環境を設定する際に、「不正解の物体(4つ)」の出現分布が、 どのような統計分布に従って選び出されるものとして、状況を設定するかという外生的な要因 (実験を実施する人間の側の決定)によって、 AI Agent が 生み出す言語(the emerged language)が帯びる特性が、影響を受けることが判明した。 (例:

    the semantics of ambiguous or homonym words in the languate. どのような物体を、「親しい意味カテゴリに属する事物概念」に所属する事物として、 その言語は、「同義語」で言い表したり、(曖昧性をもつ)同一の表現で言い表すかの性質 【 実験1(2)の結果 】
  32. 【 実験1で行ったこと(3) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input Speakerが、これまで見たことのない「未知の事物」が目の前に出現した(認識した、発見した)ときに、 (未知の物体をみるよりも過去に)、すでに獲得済みの事物概念と(それを指す)言葉(語彙)の範囲内(言語体系内)で、 その「未知の事物」を言語で表現することができるのか、言語のもつ「概念合成力」の大きさを定量評価した。
  33. 【 実験1で行ったこと(3) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input これまで見たことのない「未知の事物」を構成するために、 Unigram chimeras シナリオとuniform chimeras シナリオの2つの状況設定を用意した。
  34. 【 実験1で行ったこと(3) 】 (ICLR 2018) Angeliki Lazaridou et.al., Emergence of

    Linguistic Communication from Referential Games with Symbolic And Pixel Input 加えて、さらに踏み込んで、Speakerに、これまで発したことのない(Listenerが聞いたことのない) 記号列を、発してもらうようにした。(未知の記号列)
  35. (ICLR 2018) Angeliki Lazaridou et.al., Emergence of Linguistic Communication from

    Referential Games with Symbolic And Pixel Input Speakerが発したこれまで発したことのない「未知の記号列」は、 過去に発声したことのある「語彙」と、 過去に見られた「接頭辞や接尾語の変化規則」や「語の活用規則」など、過去の言語構造がもっていた言語規則 と一貫性のあるルールで、新たに生み出された表現(新語)だった。 【 実験1(3)の結果 】
  36. 【 実験2で行ったこと 】 「人間によるアノテーション付与」なしのraw pixel data(raw sensorimotor data)を、AIに与える。  raw

    pixel dataのなかの、どの領域に、何の物体が映っているのか を、AI自身が自律的に判断する ( -> 物体概念の獲得 + その物体概念の視覚描像が出現している位置(範囲)の同定)  物体概念一般には、いかなる属性の集合が想定でき、画像の中に見出したそれぞれの物体は、 個々の属性のどれに該当するのかを、AI自身が自律的に判断する。 disentangled by AI theirselves (with no human helps & instructions)
  37. 【 実験2で行ったこと 】 「人間によるアノテーション付与」なしのraw pixel data(raw sensorimotor data)を、AIに与える。  raw

    pixel dataのなかの、どの領域に、何の物体が映っているのか を、AI自身が自律的に判断する ( -> 物体概念の獲得 + その物体概念の視覚描像が出現している位置(範囲)の同定)  物体概念一般には、いかなる属性の集合が想定でき、画像の中に見出したそれぞれの物体は、 個々の属性のどれに該当するのかを、AI自身が自律的に判断する。 disentangled by AI theirselves (with no human helps & instructions)
  38. 【 実験2で行ったこと 】 Game A : 「不正解の物体」が 19個 ある状況設定。 Game

    B : 「不正解の物体」が 1個しかない状況設定。 Game C : 「不正解の物体」が1個あり、Speaker と Listener は互いに異なる位置から、物体を見ている。 Game D : Cの設定に加えて、物体の色を5種類(Cは8種類)に減らし、3種類の特定の形状をした物体を取り除いた状況設定。 4つの状況設定で、実証実験を行った。
  39. Language evolution 研究領域 2本の論文を執筆したLazaridou氏 (所属: DeepMind) 【 Google Scholar 】

    URL : https://scholar.google.it/citations?user=BMgUIC0AAAAJ&hl=en (被引用数 最多論文)
  40. Language evolution 研究領域 2本の論文を執筆したLazaridou氏 (所属: DeepMind) 【 Google Scholar 】

    URL : https://scholar.google.it/citations?user=BMgUIC0AAAAJ&hl=en (直近の発表論文)
  41. (関連論文) (NIPS 2017) Serhii Havrylov & Ivan Titov, Emergence of

    Language with Multi-agent Games: Learning to Communicate with Sequences of Symbols
  42. (関連論文) (NIPS 2017) Serhii Havrylov & Ivan Titov, Emergence of

    Language with Multi-agent Games: Learning to Communicate with Sequences of Symbols (左図) AIが生成した「視覚描像」(物体輪郭)と「記号表現」のペア (右図) AIのモデル・アーキテクチャ図
  43. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 「AI独自の言葉」 を 「人間の言葉」 に 対応づける( 接地させる, ground ) 方法の開拓 Lazaridou氏が、FAIR(Facebook AI Research)に在籍していた頃の研究成果
  44. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language この論文が発する問い (研究の主題) 「人間が直感的に理解しうる構造」の「意味概念」を指示する「AI自身の言語」 が形成されるためには、言語が生成される環境要因として、 どのような要因(条件)が、必要であるのか?
  45. AIと人間が、互いに意思の疎通を図る道を開く (AIが、他のAIに対して) 「ある物体」を説明するために、AIが発した「言葉」に込められた「物体属性概念」(word meanings) が、 人間が同じ物体を見たときに、その物体が帯びる「視覚的な性質」(semantic properties)として、 人間が直感的(intuitively)」に理解できる「属性概念」 になるためには、「AIどうしのメッセージ伝達ゲーム」が、どのような課題設定状況・問題設定状況(game environment)

    の中で行われたらよいのか、を解明(explore)する。 (AIがつむぎだした)記号(”agents’ code)=「ことば・言語」 を、 「人間の言葉・言語」に近づける 「人間が直感的に理解しうる構造」の「意味概念」を指示する「AI自身の言語」 が形成されるためには、言語が生成される環境要因として、 どのような要因(条件)が、必要であるのか? intuitive semantic properties of images.
  46. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language (人間の指図を受けずに、) 複数のAI Agentどうしが、互いの認識を伝達しようとする「言語伝達ゲーム」 (multi-agent coordination communication games)という状況文脈の中で、 「言語も概念もなにもない白紙の状態」(start as blank slates)から、互いの認識を伝達し合おうと試行錯誤する過程 を通じて、共有された「物体属性概念」と、それを指示する言葉が、立ち現れてくるプロセスを研究する
  47. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language (人間の指図を受けずに、) 複数のAI Agentどうしが、互いの認識を伝達しようとする「言語伝達ゲーム」 (multi-agent coordination communication games)という状況文脈の中で、 「言語も概念もなにもない白紙の状態」(start as blank slates)から、互いの認識を伝達し合おうと試行錯誤する過程 を通じて、共有された「物体属性概念」と、それを指示する言葉が、立ち現れてくるプロセスを研究する
  48. 「会話ゲーム」の課題設定は、Obverter 論文ほかと同じ (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and

    the Emergence of (Natural) Language Sender が発するメッセージ(見ている物体を指し示す「名詞」)は、『ひとつの記号』(=1文字)
  49. 先行研究2 ・ AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない (「記号系列」( a sequence of discrete

    symbols )こそが 「人間並み」の言語といえる) 【 以下、Obverter 論文より抜粋 】 Edward Choi et.al., Compositional Obverter Communication Learning from Raw Visual Input 再掲
  50. 先行研究2 AIが紡ぎだす「言葉」は、単一の記号のみ か、 1つのスカラー値(連続数値)でしかない ・ Jakob Foerster, Yannis M Assael,

    Nando de Freitas, and Shimon Whiteson. Learning to communicate with deep multi-agent reinforcement learning. In NIPS, pp. 2137–2145, 2016. ・ Angeliki Lazaridou, Alexander Peysakhovich, and Marco Baroni. Multi-agent cooperation and the emergence of (natural) language. In ICLR, 2017. 再掲
  51. 「会話ゲーム」の課題設定は、Obverter 論文ほかと同じ (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and

    the Emergence of (Natural) Language Sender と Receiver は、互いに「言語の共有化」を試行錯誤できるように、 (強化学習において「報酬」が与えられるように、) 各試行回ごとに、 「Senderが発した言葉(=1文字で表現された「名詞」)」 を、 「Receiver が正しく理解できたかどうか」の「成功」・「失敗」の報酬ラベル(1:成功、0:失敗) を受け取る。
  52. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language Sender が発するメッセージは、記号集合ベクトルの中で「該当する記号」だけ「1」が立つ、 one-hot vector で表現される。
  53. AIが生成する(各target画像を指し示す)「名詞」=『記号1文字』は、 K件の「記号集合」(=文字集合)から、選択される。 (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and

    the Emergence of (Natural) Language 要素数 K(個)の記号集合は、以下のいずれかであるかは、論文で明示されていない。 【 可能性1 】 人間によって、天下り的に与えられる。 【 可能性2 】 (複数の)AIどうしがコミュニケーションを行う相互過程の中から、おのずと(内生的に)生成される。
  54. AIが生成する(各target画像を指し示す)「名詞」=記号列を構成する「記号」は、 K件の「記号集合」(=文字集合)から、選択される。 (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and

    the Emergence of (Natural) Language a message from a fixed, arbitrary vocabulary 以下の “from … arbitrary vocabulary” という記述を見るかぎりでは、【 可能性2 】 だろうか? 【 可能性1 】 人間によって、天下り的に与えられる。 【 可能性2 】 (複数の)AIどうしがコミュニケーションを行う相互過程の中から、おのずと(内生的に)生成される。
  55. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language Receiver は、Sender が発した「1文字」が、「どの物体」を指し示していたのかを推定する。 Receiver の「頭の中」は、 「Senderから受け取った1文字」と「目の前にある2つの物体のそれぞれ」との「内積(ドット積)」 で表現される。 内積値の大きい「記号・物体ペア」を構成する「物体」を、「Senderが見ていた物体」と結論付ける。
  56. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 損失関数の定義 と 学習方法
  57. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 2種類のSender を 考える。 ( Agnostic sender & Informed sender ) 緑色の枠で囲まれた「物体描像」が、 Sender が、「言葉で表現するよう」 課題を与えられた、Target 物体 Receiver は、この物体を選択できたら、 正解
  58. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 2種類のSender を 考える。 ( Agnostic sender & Informed sender ) Sender の前には、必ず左側に Target が置かれる。 Receiver は、どちらの物体が正解(Target)か 左右の位置で判断できないように、 「正解」(Target)と「障害物」(Distractor)の 左右の位置が、ランダムに配置される。
  59. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 2種類のSender を 考える。 ( Agnostic sender & Informed sender )
  60. (ICLR 2017) Angeliki Lazaridou et.al, Multi-Agent Cooperation and the Emergence

    of (Natural) Language 2種類のSender を 考える。 ( Agnostic sender & Informed sender ) Informed sender は、 目の前にある「2つの物体描像」を「総体的に」眺める。 The resulting feature maps are combined through another filter has an inductive bias towards combining the two images dimensionby-dimension
  61. ・ Agnostic sender が、「物体」を表現するためにつむぎだした「名詞」は、2文字で構成されていた のに対して、Informed sender がつむぎだした「名詞」は、より多くの文字数であった。 ・ ゲームに登場した「物体」は、(人間の目から見て) 463種類あったので、

    「自然な言葉」を話す知性体 (a natural-language-endowed sender)は、1つの名詞を記述するのに、 多くの異なる文字を使用するのが、自然である。 ・ 「名詞」の記号列(symbols)と「物体描像」(image pairs)の組み合わせの出現頻度度数を調べたところ、 「ほとんどの名詞が、同義語であるか、冗長な言い回しの語句であるに過ぎない可能性」 は、棄却された。 検証結果
  62. ・ AIが生成した「言葉」が持つ「概念意味構造」(semantic properties of the emergent communication protocol) を理解するために、「記号」(=「名詞」に相当)(symbols)と、その「記号」が指示する「視覚描像」(images) との対応関係(relationship)を可視化して調べた。

    検証作業 もしも、現れてきた「言語」が、高度に抽象化された意味概念を表現する語句を獲得できていたとしたら、 (人間の目でみて)「同じ物体カテゴリ」に属する「物体」(“兵器”や“哺乳類”など)を指示する言葉は、 同一の語句(記号列)であるはずである。「銃剣」と「銃」は、 同じ語句で表現されるはずであり、「牛」と「銃」とが、同じ語句で言い表されることは起き得ないはずである。
  63. ・ Agnostic sender は、たった2文字で「名詞」(記号列)をつむぎだしていたのにもかかわらず、 「偶然、出来上がった」物体の分類クラスターよりも、はるかに高品質な分類結果(クラスター)を作り出すことができた。 ・ 定性評価(our qualitative evaluations)の結果、この「わずか2文字」の「名詞」は、物体を、「生物」と「非生物」の2つに 分類分けしていたとの解釈に至った。

    ・ この2分類(「生物」 vs. 「非生物」)は、あまりにも大雑把な概念カテゴリ(意味カテゴリ)ではあるが、 人間が獲得する、もっとも基本的な分類軸であると考えることができる。 (人間も、幼児の場合など、まずはこの分類軸から、物事のカテゴリ仕分けを開始するものと考えられる) 検証結果
  64. ・ 「記号(文字)の並べ方(出現系列)」(字面の並び順)が、本当に、「視覚」で捉えた「情報」に潜む意味構造を表現でき ているのか(whether symbol usage reflects the semantics of the

    visual space)を検証するために、 ImageNetデータセットに収録されている(人間の手でつくられた)「物体カテゴリ概念」と「視覚画像データ」のペアを 用いた実験を行った。 ・ 具体的には、ImageNet所収の「各カテゴリ」(=人間の視点から捉えた物体カテゴリ概念)に属する「画像データ」の 画像特徴ベクトル(畳み込みニューラルネットワークモデルの全結合層(fc層)から抽出した)を、 t-SNEによって、2次元に次元圧縮することで、 「各カテゴリの事物」の高次元圧縮空間(=2次元多様体空間)における分布図を生成した。 (このt-SNEマップを、(人間=ImageNet製作者による)物体カテゴリの意味構造空間として解釈する) ・ その上で、このt-SNEマップ上の「各物体カテゴリ」上のすべての「(各)物体」について、 Sender AI が『「同じ」記号の出現系列」』を割り当てた「(各)物体」を、「同じ色」で表示した。 ・ したがって、「同じ色で表示された物体」が、(人間が製作したImageNet上の物体概念カテゴリごとにクラスタ分けされた) t-SNEマップ上で、互いに近い距離に出現したとき、「Sender AIによる各物体の分類概念空間」と、 『「ImageNetを定義した人間」による「各物体の分類概念空間」』とが、完全に一致することを意味する。 検証作業
  65. 検証結果 ・ 「同じ色」で表示された物体、つまり、「Sender AI が、同じ記号文字列で表現した(複数の)物体群」は、 t-SNE空間上で、「互いに近くに」出現した。 ・ この結果、 人間による【物体概念-言語ラベルのペア】の関係構造の形状 ←

    t-SNE空間の元となっていた(人間=ImageNet製作者が定義した)【「物体視覚画像」-「物体カテゴリ概念」のペア】 が成す(次元圧縮空間上における)各クラスタ集合の相対配置空間 と、Sender AIによる【物体概念-言語ラベルのペア】の関係構造の形状 とが、「近い」形状の構造をしていることが、明らかになった。
  66. 検証結果 ・ 「同じ色」で表示された物体、つまり、「Sender AI が、同じ記号文字列で表現した(複数の)物体群」は、 t-SNE空間上で、「互いに近くに」出現した。 ・ この結果、 人間による【物体概念-言語ラベルのペア】の関係構造の形状 ←

    t-SNE空間の元となっていた(人間=ImageNet製作者が定義した)【「物体視覚画像」-「物体カテゴリ概念」のペア】 が成す(次元圧縮空間上における)各クラスタ集合の相対配置空間 と、Sender AIによる【物体概念-言語ラベルのペア】の関係構造の形状 とが、「近い」形状の構造をしていることが、明らかになった。
  67. さらなる検証作業 ・ AI(Sender と Receiver の双方)が、より抽象度の高い「物体概念空間」で、各「物体カテゴリ」レベルを指示する 「言語」(=抽象度の高い名詞)を生成できるかの検証を行った。 ・ 具体的には、 Sender

    と Receiver のそれぞれに対して見せた「物体」を、 (人間の目から見て)「同じ物体カテゴリ」に属する(例:「犬」、「猫」)が、 より抽象レベルの低い概念次元では、異なる種類に属する「物体」(例:Chihuahua と Boston Terrier) に変えた。
  68. 「さらなる検証作業」の結果 【 参考 】 nudge : 押して動かす ・ Sender と

    Receiver が、言葉の伝達ゲームを行う「ゲームの課題設定」(問題状況設定)を変えることで、 AIに対して、「人間が形成する物体概念と言語概念」に、より近い「(AI自身の独自の)言語」を「形成させる」ように、 誘導できることが、明らかとなった。
  69. 「教師あり学習」と結合した結果 ・ Sender AI と Receiver AI との「言葉の伝達」タスクの能力を下げる結果は生じなかった。 ・ 「教師あり学習」によって、「Sender

    AIが生成する言語」と「人間がもつ物体-名詞ラベル」とを、 「直接的(明示的)に、対応付けた」(thanks to their direct correspondence to labels.)ことで、 「Sender AI がうみだした記号列」の多く(many symbols)は、「直接的に、人間が理解できる」記号になった (many symbols have now become directly interpretable)
  70. 「教師あり学習」と結合した結果 ・ Sender AI が発した「記号」のうち、25%しか、 ReferItGameデータセット中で教示されていた「人間の言葉」(英語)に対応 する(相当する)「記号」は、確認できなかった。 ・ この結果は、テスト段階において、Sender AI

    は、(学習段階で示されていた)『「人間が物体輪郭をアノテーション付した 物体の描像」- 「人間の言葉」 (英語)のペア』)に相当する「物体輪郭」を見出すことができなかったため、 AI自身の「独自の記号」を創出する必要に迫られていた可能性を示している。
  71. 英国 エジンバラ大学による発展研究 (ICLR 2017) Serhii Havrylov et.al, emergence of language

    with multi-agent games : learning to communicate with sequences of symbols
  72. 後続の論文 (ICLR 2017) Serhii Havrylov et.al, emergence of language with

    multi-agent games : learning to communicate with sequences of symbols AI言語 英語 AI言語 英語 AI言語 英語
  73. (ICLR 2017) Serhii Havrylov et.al, emergence of language with multi-agent

    games : learning to communicate with sequences of symbols to ensure that the invented protocol is close enough to a natural language and, thus, potentially interpretable by humans DeepMindのこの論文を引用している (University of Edinburgh所属の研究者による) 後続の論文
  74. (ICLR 2017) Serhii Havrylov et.al, emergence of language with multi-agent

    games : learning to communicate with sequences of symbols with a language that is understandable by humans. DeepMindのこの論文を引用している (University of Edinburgh所属の研究者による) 後続の論文
  75. DeepMindのこの論文を引用している (University of Edinburgh所属の研究者による) 後続の論文 (ICLR 2017) Serhii Havrylov et.al,

    emergence of language with multi-agent games : learning to communicate with sequences of symbols Between twa agents … while human interpretability would be ensured
  76. 【 すでに達成したこと 】 ( 2018年6月現在 ) AIが、自らセンサーで捉えた画像等の生データ(raw data)から、 AI自身の 「独自の事物概念・抽象観念」と「それを指示する独自の記号表現」を、

    (「人間の手」 および 「人間が構築した概念とことば」を借りずに) 自律的に生成・組成することができつつある。 さらに、 複数の「概念=ことば」を組み合わせて(概念合成)、 データとして未経験(未観測)の事物概念・抽象観念 をも、「考えることで」生成・組成できつつある。
  77. 複数の文章・文書に散らばる断片的な知識の手がかりを、 互いに論理的につなぎあわせて論理推論する精度を競う 技術コンテスト 及び 研究用データセット ・ MS-Marco (Microsoft Machine Reading

    Comprehension Dataset) 複数の文章題(英文文書)を与えて、文章に記述された事項に関する質問(英文の質問)に 正答させるタスクに取り組むAIの研究開発に取り組んでいる大学研究企業・民間企業の間で、 現在、標準的に使用されているデータセット。 推論(Reasoning, Inference)タスクとして、 各文書に散在する断片的な知識を、論理的につなぎあわせて、正解を論理的に考えて導出する 問題が、同データセットに含まれる課題の1つに、盛り込まれている。 Tri Nguyen et.al., MS MARCO: A Human Generated MAchine Reading COmprehension Dataset
  78. 複数の文章・文書に散らばる断片的な知識の手がかりを、 互いに論理的につなぎあわせて論理推論するアルゴリズム 「人間が、人間の言葉(英語)で書いた」複数のテキストに散在する「断片的な知識(手がかり)」を、 「人間の論理推論規則」を用いて、互いに“論理的”につなぎあわせて、質問文に対する回答語句・回答文を生成する アルゴリズムとして、自然言語処理の研究領域において、古くから、以下の要素技術が研究されてきた。 ・ 共参照解析 (Co-reference Resolution) 言い回しや、表記法(字面)は異なるが、互いに同じ事物や概念(Entity)を指し示している複数の表現(文字列)

    を、「同じ主語」・「同じ目的語」として同定するためのテキスト解析技術。いわゆる「表記ゆれ」に対処する技術。 ・ 照応解析 (Reference Resolution) 「彼」・「それ」・「あれ」・「そのとき」・「そこで」・「そのあと」などの人称代名詞や指示代名詞(「照応詞」)が、 テキストの文脈のなかで、何を指し示しているのかを、テキスト中に出現する別の単語に紐づける技術。 この技術は、日本語文における「主語の省略」など、省略された品詞を補う技術を含む。
  79. 複数の文章・文書に散らばる断片的な知識の手がかりを、 互いに論理的につなぎあわせて論理推論するアルゴリズム 【 共参照解析 & 照応解析 】 深層ニューラルネットワーク機構を用いた最新手法 掲載誌 掲載年

    論文表題 所属 NAACL-HLT 2018 Neural Models for Reasoning over Multiple Mentions using Coreference Carnegie Mellon Univ, Univ. of Pittsburgh EMNLP 2017 End-to-end Neural Coreference Resolution Allen Institute for AI Improving Coreference Resolution by Learning Entity-Level Distributed Representations Stanford Univ. NIPS 2017 Visual Reference Resolution using Attention Memory for Visual Dialog POSTECH, Disney Research AAAI 2017 Machine Learning for Entity Coreference Resolution : A Retrospective Look at Two Decades of Research Univ. of Texas EMNLP 2015 C3EL : A Joint Model for Cross-Document Co-Reference Resolution and Entity Linking Max-Planck Institute for Informatics Cross-Document Co-Reference Resolution using Sample-Based Clustering with Knowledge Enrichment Max-Planck Institute for Informatics
  80. Graph Network による物体や事物間の連関関係 の特徴表現獲得(学習)と転移学習の実現 [Arxiv. 2018] Peter W. Battaglia et.al,

    Relational inductive biases, deep learning, and graph networks 38ページ 且つ 大人数の執筆陣による大作 Node と Edge で組成される知識のグラフ表現 あらゆる事項間の連関・因果・連想関係 を表現できる、知識の「統一フレームワーク」
  81. [Arxiv. 2018] Peter W. Battaglia et.al, Relational inductive biases, deep

    learning, and graph networks DL輪読会による以下の解説スライドに詳しい [SlideShare] DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる左のスライドからの転載
  82. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載
  83. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載
  84. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載
  85. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載
  86. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 すでに学習済みの知識を利活用する応用能力(転移学習ほか)も担保されている
  87. すでに学習済みの知識を利活用する応用能力(転移学習ほか)も担保されている 【 関連 】 DeepMind から以前公開された研究成果 Chrisantha Fernando, et.al, PathNet:

    Evolution Channels Gradient Descent in Super Neural Networks 【 Icoxfig417氏による論文要約 】 URL : https://github.com/arXivTimes/arXivTimes/issues/191 【 Hatena Blog we are hackaer による論文解説 】 URL: http://miyamotok0105.hatenablog.com/entry/2017/03/23/200000
  88. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 すでに学習済みの知識を利活用する応用能力(転移学習ほか)も担保されている 過去に覚えたことの上書き消去 (Catastrophic Forgetting) は、どこまで回避できるだろうか?
  89. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 将来への課題
  90. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 AIが世界をどう認識しているか、人間が頭を覗き込んで、確認しやすい (理解可能性のハードルが低い)
  91. 【 原論文 】 Peter W. Battaglia et.al, Relational inductive biases,

    deep learning, and graph networks 【 解説スライド 】 DL輪読会 Hiromi Nakagawa & Matsuo Lab, Relational inductive biases, deep learning, and graph networks 以下、東大 松尾ラボほかによる上のスライドからの転載 Generation learning by “Combinational Generalization”
  92. 【 関連するDeepMind発の「領域特化型」AI論文 】 (アノテーションなしの)画素データ(raw pixel data)から、物体の輪郭抽出・領域抽出 (=物体概念の抽出・生成)を行うモデル [ WorkShop ICLR

    2017 ] David Raposo et.al., Discovering objects and their relations from entangled scene 『人間の』「言語」を自律的に獲得するAI ・ Karl Moritz Hermann et.al., Grounded Language Learning in a Simulated 3D World 以下のモデルも、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。
  93. 【 他社の「領域特化型」AI論文 】 上記のモデルを、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。 Vicarious社 ・ Ken Kansky

    et.al., Schema Networks: Zero-shot Transfer with a Generative Causal Model of Intuitive Physics the Schema Network can learn the dynamics of an environment directly from data. generative physics simulator capable of disentangling multiple causes of events and reasoning backward through causes to achieve goals.
  94. 【 他社の「領域特化型」AI論文 】 上記のモデルを、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。 Imperial College London ・

    Marta Garnero et.al., Towards Deep Symbolic Reinforcement Learning architecture comprising a neural back end and a symbolic front end learns effectively, and, by acquiring a set of symbolic rules that are easily comprehensible to humans ability to reason on an abstract level, … to implement high-level cognitive functions such as transfer learning, analogical reasoning, and hypothesis-based reasoning.
  95. 【 関連するDeepMind発の「領域特化型」AI論文 】 以下のモデルは、Language Evolution研究のモデルと融合させていくことが、 今後の課題となる。  周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力

     周囲の光景の背景や(光景の中にある)物体について、死角になっている部分の描像を推定する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成することで 「理解」し、「新しい物体概念」を形成・獲得する能力 上記の領域に取り組んだ、DeepMindから公開済みの論文 (いずれも、Preprint版。研究進行中) ・ (2018/7/4 Work in progress)Ananya Kumar et.al., Consistent Generative Query Networks ・ (2018/7/5 Preprint. Work in progress) Tiago Ramalho et.al., Encoding Spatial Relations from Natural Language ・ (2018/6/15 ) S. M. Ali Eslami et.al., Neural scene representation and rendering ・ (2018/7/4 Preprint. Work in progress ) Dan Rosenbaum et.al., Learning models for visual 3D localization with implicit mapping ・ (2018/7/10 Preprint. Work in progress) Aaron van den Oord et.al., Representation Learning with Contrastive Predictive Coding
  96. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering DeepMind社 公式ブログ Neural scene representation and rendering URL : https://deepmind.com/blog/neural-scene-representation-and-rendering/
  97. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering GQN : Generative Query Network モデルを提案している URL : https://deepmind.com/documents/211/Neural_Scene_Representation_and_Rendering_preprint.pdf
  98. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering GQN : Generative Query Network モデルを提案している URL : https://deepmind.com/documents/211/Neural_Scene_Representation_and_Rendering_preprint.pdf
  99. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering GQN : Generative Query Network モデルを提案している URL : https://deepmind.com/documents/211/Neural_Scene_Representation_and_Rendering_preprint.pdf
  100. 【 DeepMindの「領域特化型」AI論文 】 S. M. Ali Eslami et.al., Neural scene

    representation and rendering GQN : Generative Query Network モデルを提案している URL : https://deepmind.com/documents/211/Neural_Scene_Representation_and_Rendering_preprint.pdf  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成することで 「理解」し、「新しい物体概念」を形成・獲得する能力
  101. 【 DeepMindの「領域特化型」AI論文 】 Aaron van den Oord et.al., Representation Learning

    with Contrastive Predictive Coding In neuroscience, predictive coding theories suggest that the brain predicts observations at various levels of abstraction [7, 8]. One of the most common strategies for unsupervised learning has been to predict future, missing or contextual information
  102. 【 DeepMindの「領域特化型」AI論文 】 Aaron van den Oord et.al., Representation Learning

    with Contrastive Predictive Coding And by casting this as a prediction problem, we automatically infer these features of interest to representation learning. Secondly, we use powerful autoregressive models in this latent space to make predictions many steps in the future.
  103. Predictive Coding とは? 以下の論文を解説した下のスライドを参照。 【 原論文 】 ・ William Lotter

    et.al., Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning 【 解説スライド 】 富田 風大 「論文紹介 Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning」 URL : http://www-waka.ist.osaka-u.ac.jp/brainJournal/lib/exe/fetch.php?media=%E3%83%9A%E3%83%BC%E3%82%B8:2017:170301_f-tomita.pdf
  104. Predictive Coding とは? 以下の論文を解説した下のスライドを参照。 【 原論文 】 ・ William Lotter

    et.al., Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning 【 解説スライド 】 富田 風大 「論文紹介 Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning」 URL : http://www-waka.ist.osaka-u.ac.jp/brainJournal/lib/exe/fetch.php?media=%E3%83%9A%E3%83%BC%E3%82%B8:2017:170301_f-tomita.pdf
  105. Predictive Coding とは? 【 参考 】 [ ICLR 2017 ]

    William Lotter et.al., Deep Predictive Coding Networks for Video Prediction and Unsupervised Learning 周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力
  106. 番外編 DeepMindが最近、公開した以下の研究は、AI Machine に、 活動環境が自分にとって、好意的か?、敵対的か? を判断させるモデル。 「この判断力」の「獲得」は、AI Machine が、そのときどきに身をおいている(さらしている)活動環境に対して、 「快・不快の感情」を手にすること、

    につながるだろうか? だとすると、「快・不快の感情」の獲得から、さらに進んで、「生存欲求」を持つことにつながるだろうか? (通常は、まず先に「生存欲求」があって、それゆえに、生存しやすい環境に対して快感を感じる、という体験 が生じるのだと考えられるが)
  107. Thinking Machine は、一連の情報処理(以下) を一気通貫して行う 「1つの身体」をもったAI Machine が、みずからのセンサーとアクチュエーターを通じた 世界とのインタラクション(相互作用)という、「認知的な閉じ」 (谷口忠太。後述) から出発して、

    「記号の接地問題」を解決する形で、 マルチ・モーダルな物体概念・事物概念および抽象観念と、物体間の力学的関係や因果関係や意味連関観念を、 「身体性」の観点から、統一的な身体感覚として、(各モダリティが統合された状態で)獲得して、 自身の記号表現体系(言語体系)と紐付けて、 他のAI Machineたちと「共有」(意思疎通、コミュニケーション)する
  108. 多数の「領域特化型AI」(=無数の断片)を、 ひとつの有機的で、自己発生的(自己組織化的)なAI Agent モデル に、組み上げる必要がある。  周囲の光景における物体の運動動作などの将来タイムフレームを予測する能力、  物体を、いまとは異なるアングル(角度)から眺めた場合の見え方を予想する能力 

    周囲の光景の背景や(光景の中にある)物体について、死角になっている部分の描像を推定する能力  これまで見たことのない色と形の組合せをした物体を、過去に獲得済みの視覚体験・物体概念から概念合成 することで「理解」し、「新しい物体概念」を形成・獲得する能力 断片 = 多数の「領域特化型AI」 ひとつの有機的で、自己発生的(自己組織化的)なAI Agent モデル
  109. 2つのアプローチが考えられる。 A. (1) まず最初に、「特定の機能を発揮するよう設計された個々の部品」(特化型AI)を、それぞれ個別に、 別々に組成する。 (2) あとから、「それら無数の部品」を、「ひとつのAI Machine」(汎用AI, AGI)に組み上げる B.

    (1) ひとつの「胚」から、 (2) 時間が進行する過程で、徐々に、「それぞれの特化型機能をもった部分領域」を発生させる。 そうして発生した各部分(各特化型AI)は、「共有する全体の文脈」のなかの「部分領域」として、 互いに「有機的につながって」いる。 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる -
  110. 2つのアプローチが考えられる。 A. 自然界が生み出した「既知の知的生命体」とは異なる、新種の「可能な人工生命体」 (Alternative Artificial Life)の創造を志向する方向性 (1) まず最初に、「特定の機能を発揮するよう設計された個々の部品」(特化型AI)を、それぞれ個別に、別々に組成する。 (2) あとから、「それら無数の部品」を、「ひとつのAI

    Machine」(汎用AI, AGI)に組み上げる B. 自然界が生み出した「既知の知的生命体」の発生・発育原理と考えられる「自己組織化」や「カオス的遍歴」 の考え方に学んで、模倣することで、人工的な知的生命体(Thinking Machine, AGI)を目指す方向性 (1) ひとつの「胚」から、 (2) 時間が進行する過程で、徐々に、「それぞれの特化型機能をもった部分領域」を発生させる。 そうして発生した各部分(各特化型AI)は、「共有する全体の文脈」のなかの「部分領域」として、 互いに「有機的につながって」いる。 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる -
  111. DeepMind 社がとる進路の『予想』 アプローチ A. を取るのではないか? A. (1) まず最初に、「特定の機能を発揮するよう設計された個々の部品」(特化型AI)を、それぞれ個別 に、別々に組成する。 (2)

    あとから、「それら無数の部品」を、「ひとつのAI Machine」(汎用AI, AGI)に組み上げる B. (1) ひとつの「胚」から、 (2) 時間が進行する過程で、徐々に、「それぞれの特化型機能をもった部分領域」を発生させる。 そうして発生した各部分(各特化型AI)は、「共有する全体の文脈」のなかの「部分領域」として、 互いに「有機的につながって」いる。 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる -
  112. DeepMind 社がとる進路の『予想』 アプローチ A. を取るのではないか? [ 「予想」の根拠 ] [ 根拠1]

    2018年に入り、マルチ・モーダルの方向性を打ち出した論文が、目立つようになってきている。 [ 根拠2 ] (詳しくは、後述スライドを参照) アプローチ B. の進路を取るためには、「自己組織化の理論」や「カオス結合系モデル」を含む 「複雑系科学」の概念フレームワークが有効と考えられるが、DeepMind 社は、公然資料(公開論文)を みる限り、これらの「概念フレームワーク」の研究・検討に取り組んでいる兆候が感じられない。 どのようにして、成し遂げるべきか? - 「無数の断片」を組合せて、ひとつの有機体を組み上げる -
  113. アプローチ A.と アプローチ B. は、どちらが最初に、 Thinking Machine (考える「汎用AI(AGI)) の出現に成功するか? どのようにして、成し遂げるべきか?

    - 「無数の断片」を組合せて、ひとつの有機体を組み上げる - 1. Human-level Thinking Machine (Human-level Aritificial General Intelligence) 2. Beyond human-level Thinking Machine (Beyond Human-level Aritificial General Intelligence)
  114. どちらが最初に、Thinking Machine (考える「汎用AI(AGI))の出現に成功するか? 1. Human-level Thinking Machine (Human-level Aritificial General

    Intelligence) 2. Beyond human-level Thinking Machine (Beyond Human-level Aritificial General Intelligence)  Human-level AGI.を、まず最初に生み出すのは、A.のやり方かもしれない。  しかし、置かれた生存環境の変化(状況変化)に、より柔軟に、より有機的に対処しうる頑強性を備えたAGIは、B.のやり方ではないか。 根拠: 「A」が依拠する可能性が高い(深層)強化学習や転移学習の動作原理よりも、 「B」が依拠する「カオス的遍歴」や「自己組織化」原理のほうが、未知の状況変化に対する対処能力(進化能力)が高い と予想できるため。実証データによる裏付けは、今後の課題のため、「仮説」・「予想」の段階の「見通し」に過ぎない。  「アプローチB」のほうが、みずからを(自己組織化的に)進化発展させていくたくましさも、「アプローチA」より強いと予想できる。
  115. 争点はむしろ、「どちらが最初に、Thinking Machine を出現させるか?」よりも、 「結果的に、どちらのアプローチに依拠するThinking Machineが生き残るか?」かもしれない 1. Human-level Thinking Machine (Human-level

    Aritificial General Intelligence) 2. Beyond human-level Thinking Machine (Beyond Human-level Aritificial General Intelligence) 結論: まず最初に誕生する(可能性が高い)のは、「A.」に依拠するAGIであるが、遅れて誕生した「B.」に依拠するAGI.によって、 ある時点で、駆逐される可能性が高い。
  116. 技術論を離れた政治経済論としては、 国家の産業生産力 と 国家安全保障・インテリジェンス力の比較優位性を決める 「決定的な要因」となりうる「Thinking Machine (AGI.)」を、どの国 or 企業が、ライバルよりも早く 手中に収めて、運用を開始するか、が重要である。

    [ 争点 1] 「アプローチB.に基づくThinking Machine,(AGI.)」(以下、「B-Type Thinking Machine」)が、 「アプローチA.に基づくThinking Machine,(AGI.)」(以下、「A-Type Thinking Machine」)に、時間的に遅れて誕生した上で、 それ(A-Type Thinking Machine)を凌駕するまでに要する期間(5年単位?10年-20年単位?)に、 「A-Type Thinking Machine」を「手にしていない国家」は、 「B-Type Thinking Machine」を研究開発する国力を、維持できているか? (「A-Type」運用国との経済競争・軍事競争という条件下において、 維持できる国力および、「AIを開発する権利」の政治的維持という問題)
  117. 技術論を離れた政治経済論としては、 国家の産業生産力 と 国家安全保障・インテリジェンス力の比較優位性を決める 「決定的な要因」となりうる「Thinking Machine (AGI.)」を、どの国 or 企業が、ライバルよりも早く 手中に収めて、運用を開始するか、が重要である。

    [争点2] 「A-Type Thinking Machine」を他国・他企業にさきがけて手にした国家・企業が、 「B-Type Thinking Machine」をも、他国・他企業にさきがけて創出に成功してしまうシナリオの可能性はどれくらいか? (B-Type Thinking Machineの動作原理の研究と、 B-Type Thinking Machineを構成論的に実験するためのロボティクスや計算機資源のハード開発力を、 A-Type Thinking Machineの運用を開始した国家・企業が独占的に支配するシナリオ)
  118. 推論規則の「創発」という主題に関連する研究論文がある 掲載誌 掲載年 論文表題 所属 2014 Data-Driven Statistical Learning of

    Temporal Logic Properties Vienna Univ. of Technology, Univ. of Trieste ほか Connection Science 2012 An emergent approach to analogical inference Univ. of New York, Disney Interactive Media Group ほか Journal of Artificial General Intelligence 2012 Reasoning with Computer Code: A New Mathematical Logic Texas A&M Univ. European Journal of Behavior Analysis 2012 Categories of Relations Between Stimuli: Foundations for Transitive Inference and Other Emergent Behavior Unive. of Massachusetts Medical School 2009 Emergence: logical, functional and dynamical Univ. of Pittsburgh Science 2009 Distilling Free-Form Natural Laws from Experimental Data Cornell Univ. 2001 An Emergent Origin of Semiotic Functionality: Symmetry, Objective Relational Levels, and Inference of Novel Logical Categories in a Connectionist System Univ. of California DBLP 2009 Complex adaptive reasoning: knowledge emergence in the revelator game Univ. of Washington Seattle & Heriot-Watt Univ. 2009 Emergent Reasoning Structures in Law Hofstra Univ. Emergent inference, or how can a program become a self-programming AGI System ? Texas A&M Univ.
  119. 掲載誌 掲載年 論文表題 所属 Journal of Artificial General Intelligence 2013

    Causal Mathematical Logic as a guiding framework for the prediction of “Intelligence Signals” in brain simulations Open Univ. & Univ. of Houston Journal of Artificial General Intelligence 2013 Black-box Brain Experiments, Causal Mathematical Logic, and the Thermodynamics of Intelligence Univ. of Houston & Open Univ. Causal Logic Models Carnegie Mellon Univ. & Univ. of Pittsburgh Bounded Seed-AGI The Swiss AI Lab IDSIA ほか International Journal of Mathematics and Computational Sciences 2010 Coupled dynamics in host-guest comples systems duplicates emergent behavior in the brain Engineering and Technokogy 2009 A New Universal Model of Computation and its Contribution to Learning, Intelligence, Parallelism, Ontologies, Refactoring, and the Sharing of Resources Member of IEEE, AAAI, APS Conceptual Blending and Quest for the Holy Creative Process Univ. of Coimbra AISB Journal 2003 Optimality Principles for Conceptual Blending: A First Computational Approach Univ. de Coimbra (CISUC) Argument and Computation 2012 Rational argument, rational inference Cardiff Univ & University College London INTERDISCIPLINARIA 2004 Information and Inference as Combined Cognitive Processes Consejo Nacional de Investigacions Cientificas y Tecnicas 推論規則の「創発」という主題に関連する研究論文がある
  120. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 物体概念 = AI自身による「独自の物体概念」の生成 (人間による押し付けではない) 言葉の体系 = 「人間の言葉」(日本語)を学ばせる 【

    問題設定 】 人間の赤ちゃんに対して、親や周囲の大人が語りかけるのと同様に、 赤ちゃんが「ペットボトル」(←「大人の人間」から見た物体概念)を見ているときに、 「おちゃのぺっとぼとる」・「これはぺっとぼとるです」と、語りかける。
  121. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らによる問題設定) 「しかし、ロボットが物体概念を獲得したとしても、その物体概念の名前を覚えるには人間からの語りかけが必要になる だろう。物体の名前などというものは、人間がその物体を「勝手にそう呼んでいるだけ」のものである。 人間がその物体をどう呼んでいるのかを知るにはやはり、人間からの言葉による教示が必要になる。 単純に考えれば、ロボットに物体概念の名前を覚えさせるためには、教えたい物体概念に対応する物体をロボットに 見せながら「コップ」「ボール」「マラカス」のように対応する名前を孤立単語で教えればよいように思う。 ( 中略 )

    人間の言語獲得過程を観察すると、不自然さが滲み出してくる。(中略) 物体概念を先に獲得し、その物体概念に対応 するラベルをあとづけで孤立単語によって教えられるというシナリオは、人間が言語獲得を行う際に行っている現実の シナリオなのだろうか。この実験風景は一般の人々には不自然に映る。なぜなら、私たち人間が人間の子供に物の 名前を教えるときにはこのような話しかけ方をしないからだ。 言語獲得研究で著名な発達心理学者のトマセロは、人間の子供が言語獲得を行うときにはこのような孤立単語から 学習することはほとんどないと指摘する。 「はーい、ごはんですよ~」 「なるちゃん、こっちきて、ほら、おにぎりですよ。あーん」 このような複数の単語からなる文を、親は幼児に対しても投げかけている。これが幼児のいる家庭の自然な光景だ。」 谷口 忠太 『記号創発ロボティクス』 pp.86-87 より、抜粋して引用。
  122. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 中村・長井、谷口、持橋 大地(NTTコミュニケーション基礎研究所)らが、個別に発見した 以下の2つのアルゴリズムを統合する研究 (各アルゴリズムは、後ほど詳しく取り上げる) 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き)

    「おちゃ | の | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」)は、理解していない。 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。 「このような視点から、前章の研究成果を挙げた中村や長井の研究チームと私たちの研究チームは共同で、 マルチモーダル概念形成と教師なし形態素解析を実際のロボットにおいて統合し語彙獲得を行わせる実験を行った。」 谷口 忠太 『記号創発ロボティクス』 pp.106-107 より、以下の解説を抜粋して引用。
  123. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 「このような視点から、前章の研究成果を挙げた中村や長井の研究チームと私たちの研究チームは共同で、 マルチモーダル概念形成と教師なし形態素解析を実際のロボットにおいて統合し語彙獲得を行わせる実験を行った。」 谷口 忠太 『記号創発ロボティクス』 pp.106-107 より、以下の解説を抜粋して引用。 「私たちが持っている基本的な物体概念の境界線は決して完全に恣意的なわけではなく、センサ・モータ系を通した環境

    との相互作用に基づいて生じる環世界の中に潜在的には存在していると考えうる。 また、教師なし形態素解析の性能は、私たちの書く文章における単語配列情報の中に、単語がどのように切れるかという 知識が暗黙的に含まれているということを教えてくれた。 私たちが教師なし形態素解析器のような学習機構を脳内に持っていれば、他者から話しかけられた文を分節化し、 単語の意味をマルチモーダル物体概念形成で得た物体概念と関係させながら、物体概念とその名前を 獲得することができるように思われる」 「このような視点」は、以下のとおり。
  124. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ | の |

    ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。 「マルチモーダル物体概念形成と同様にさまざまな日用品物体を見せてマルチモーダル情報を取得させた上で、 それぞれの物体に対して「あかのすぷれーかん」「これはかたい」「おとがなる」「これはすぷれーかん」など未分節 の発話教示を与えた。 ロボットには音声入力を音節認識した後に、教師なし形態素解析を通じて、単語区切りの候補を生成させた。 このときに、目の前に何があるかによって単語区切りも改善させることができると考えた。そこで、教師なし形態素解析 で得られた単語区切りの候補の中から、物体概念との関係が深いものを選ぶようにして学習を進めさせた。」 谷口 忠太 『記号創発ロボティクス』 pp.106-107 より、以下の解説を抜粋して引用。
  125. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) これら、2つのアルゴリズムが、同時に組み合わさって発生することで、 「言葉」に紐づいた「物体概念」(視覚・聴覚・触覚体験に基づく事物の概念) が、AIロボットの内部で、内発的に・自発的に誕生する。 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ

    | の | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。 「マルチモーダル物体概念形成と同様にさまざまな日用品物体を見せてマルチモーダル情報を取得させた上で、 それぞれの物体に対して「あかのすぷれーかん」「これはかたい」「おとがなる」「これはすぷれーかん」など未分節 の発話教示を与えた。 ロボットには音声入力を音節認識した後に、教師なし形態素解析を通じて、単語区切りの候補を生成させた。 このときに、目の前に何があるかによって単語区切りも改善させることができると考えた。そこで、教師なし形態素解析 で得られた単語区切りの候補の中から、物体概念との関係が深いものを選ぶようにして学習を進めさせた。」 谷口 忠太 『記号創発ロボティクス』 pp.106-107 より、以下の解説を抜粋して引用。
  126. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 「ロボットには音声入力を音節認識した後に、教師なし形態素解析を通じて、単語区切りの候補を生成させた。 このときに、目の前に何があるかによって単語区切りも改善させることができると考えた。そこで、教師なし形態素解析 で得られた単語区切りの候補の中から、物体概念との関係が深いものを選ぶようにして学習を進めさせた。 たとえば、ペットボトルを見せられたときの発話には「おちゃのぺっとぼとる」「これはぺっとぼとるです」などが存在しえる。 ここで、 「おちゃ | のぺっとぼ

    | とる」 「これ | はぺっと | ぼとる | です」 とするよりも、 「おちゃ | の | ぺっとぼとる」 「これは | ぺっとぼとる | です」 のように、 「ぺっとぼとる」という単語を切り出したほうが、目の前に同一の物体があるときに、同一の単語が聞こえるように なり、物体概念の予測制度は高まることが期待される。 このようなアプローチによって私たちは物体概念の利用が教師なし形態素解析の単語区切りの精度を高めることを示した のだ。
  127. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 2つのアルゴリズムについて 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ | の

    | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。
  128. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 1つ目のアルゴリズムについて 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ | の

    | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。
  129. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 持橋大地・山田武士・上田修功 (2009) 『ベイズ階層言語モデルによる教師なし形態素解析」 情報処理学会研究報告、2009-NL-190, 2009 谷口 忠太

    『記号創発ロボティクス』 p.91 より、以下の解説を抜粋して引用。 「持橋らは、与えられた文書の単語の区切りと単語に関する確率的な知識である 言語モデルを、与えられた文章だけから同時に推定する手法を提案して、 それが既存の形態素解析器に劣らない性能を出すことを示した。」 (左図) 文献中では、図6。 「入力として与えられたのは『不思議の国のアリス』の英語の原文だ。 ただし、『不思議の国のアリス』の原文から単語の区切りを表すスペース記号を すべて抜くことで、単語の区切りがわからなくしてある。 (中略) 何度も何度も学習のための繰り返し計算が行われた結果、図6の下に示すような 結果が得られた。 (中略) 複数形の –s や 副詞化を行う接尾辞の –ly などが別の 形態素として切り出されていることなどを除いては、単語の区切りがほぼ正確に 推定されていることが実験結果から見て取れる。」
  130. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 鳥(ジョウシマツ)の歌のさえずりの観察研究から発見された、 「意味」の発生・獲得を伴わない、「形式的」な「語順」の「文法」のみが獲得されるという事象 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ |

    の | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 谷口 忠太 『記号創発ロボティクス』 p.104 より、以下の解説を抜粋して引用。 「岡ノ谷は文法と発声学習が可能なジュウシマツの行動と脳を調べるなかで、言語が誕生した本質をなすだろう1つの 仮説を得た。それが相互分節化仮説である。岡ノ谷らは「状況と音列の相互分節化仮説」略して「相互分節化仮説」を 提案している。 この仮説の基礎となっているのが、ジュウシマツの歌のひとつひとつの歌要素は意味を持たない。 しかし、意味がなくともそれらを文法的に配列する行動は進化的に得られていることがわかった。」
  131. 鳥(ジョウシマツ)の歌のさえずりの観察研究から発見された、 「意味」の発生・獲得を伴わない、「形式的」な「語順」の「文法」のみが獲得されるという事象 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 谷口 忠太

    『記号創発ロボティクス』 p.104 より、以下の解説を抜粋して引用。 「人間の言語だけを見ているときには、意味と文法は不可分なように見える。 これまで人間の言語進化のシナリオとして中心的だった考え方は、意味を持つ記号の列が生まれた後に、 その複雑化のために文法が進化したというものである。 つまり、最初に状況を指し示す単語が生まれるのだが、一単語文では状況を指し示すには不十分であり、 より複雑な状況を指し示すために、これらの単語を組み合わせて新たな文をつくりだすようになる。 このための単語の組み合わせ方を規定する方法が文法であるという考え方である。 このような考え方では、意味の進化があった後に文法の進化が生じると考えられることになる。 これを岡ノ谷は「内容と形式の直列進化仮説」と呼んでいる。 しかし、ジュウシマツの歌文法の進化は、これとは全く異なるシナリオを提示する。 ジュウシマツ研究で明らかになったのは、意味のないところでも文法は進化するということである。 これを岡ノ谷は「内容と形式の独立進化仮説」と呼んでいる。」
  132. 鳥(ジョウシマツ)の歌のさえずりの観察研究から発見された、 「意味」の発生・獲得を伴わない、「形式的」な「語順」の「文法」のみが獲得されるという事象 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 谷口 忠太

    『記号創発ロボティクス』 p.104 より、以下の解説を抜粋して引用。 「これを踏まえて唱えられた岡ノ谷らの相互分節化仮説では人類の祖先がジュウシマツと同様に複雑な歌文法を獲得した後 に、状況にあわせて歌うようになったと考える。 たとえば、食事のときと狩りのときに歌われる歌があったとする。そこに共通部分があったとするならば、それは食事と狩り に共通した状況を指し示す言葉を表すものとなっていったのではないか、ということだ。食事と狩りがともに集団で行うこと を前提とするものならば、この共通部分は「みんなで◦◦しようぜ」という意味を表しているフレーズなのだというように。 持橋らの教師なし形態素解析の研究は、どのような単語があり、それぞれの単語がどういう意味を持つかという語彙知識 などなくとも、聞いた文字列から単語単位を抽出し、それを配列することが可能であることを構成論的に示したといえる だろう。 私にはこれが「内容と形式の独立進化仮説」を裏付ける一つの計算論的な証拠であるように見える。」
  133. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 鳥(ジョウシマツ)の歌のさえずりの観察研究から発見された、 「意味」の発生・獲得を伴わない、「形式的」な「語順」の「文法」のみが獲得されるという事象 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。

    谷口 忠太 『記号創発ロボティクス』 p.104 より、以下の解説を抜粋して引用。 「人間の言語だけを見ているときには、意味と文法は不可分なように見える。 これまで人間の言語進化のシナリオとして中心的だった考え方は、意味を持つ記号の列が生まれた後に、 その複雑化のために文法が進化したというものである。 つまり、最初に状況を指し示す単語が生まれるのだが、一単語文では状況を指し示すには不十分であり、 より複雑な状況を指し示すために、これらの単語を組み合わせて新たな文をつくりだすようになる。 このための単語の組み合わせ方を規定する方法が文法であるという考え方である。」
  134. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 2つ目のアルゴリズムについて 1. 「単語辞書」の「事前知識」を与えない、「教師なし形態素解析」は可能である。 例: (分かち書き) 「おちゃ | の

    | ぺっとぼとる」 ・ 「これは | ぺっとぼとる | です」 □ この段階では、ベイズ統計的・最尤法的な言語の「生成モデル」によって、単語の境目を推定しているのみ。 □ 各単語が帯びる「意味」(=「物体概念」と紐づいた(=「接地した」 grounded )「意味」は、理解していない。 2.「AIロボット自身のセンサ」に由来する複数の「感覚体験」に基づく、独自の「物体概念の獲得」は可能である。
  135. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得は可能である 1. 「自分の身体」との距離の違いから、各「物体」個体の輪郭の境界を認識する。 【 課題 】 自分から見て「等距離」にある物体を、このロボットは、「異なる物体概念」に属する「異なる(物体)個体」として、認識できるのか? 2. 各角度から捉えた視覚画像の特徴量(SIFT特徴量)を抽出する。

    SIFT特徴量(ベクトル)空間を、500個の部分領域に分割し(K-means法による500個のクラスタを生成)、 各領域毎に「何個」、特徴量が出現したかの「度数」 を、「度数分布表」にまとめる。 この500次元の「度数分布表」を、「視覚情報」のBag of Features(BoF)とする。 3. 「物体」をつかんで、振ったときに聞こえてくる「音」の波形のMFCC特徴量を抽出する。 2.と同様に、ヒストグラムのBoF表現を生成する(50次元のヒストグラム) 4. 「物体」をつかんだときの触角(=圧力分布)の特徴量を抽出する。 2.および3.と同様に、BoF表現を生成する(15次元) 5. 「視覚」特徴量、「聴覚」特徴量、「触覚」特徴量を、それぞれ並行的に、「マルチモーダルLDA(器)」 にかけて、各物体のどれが(色や形の違いを吸収して)「同じ物体カテゴリ(・物体概念)」に属する 色違い・形違いの物体かを、K-means法で、クラスタリングし、(クラスタ=)カテゴリ分類する。
  136. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得は可能である Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 [横軸] Fig.4の各物体カテゴリ [縦軸] test段階でAIに提示された物体の通し番号 縦軸の各物体を、AIが、どの物体カテゴリ番号に属する物体として 「認識」したかが、白い四角で表示されている。 左上が、人間によるカテゴリ分類の結果。 左下が、視覚・聴覚・触覚のすべてを用いたAIによる分類結果。 その他は、単一もしくは2つのモダリティ(感覚)情報のみを用いたAIの分類結果。 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。
  137. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得は可能である Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 【 発展考察 】 人間の感覚器官には存在しない、紫外線や赤外線、その他のなんらかの モダリティ(センサ計測)データを、さらにAIに追加した場合、 人間による分類結果とは異なる、世界解釈の「効率性」その他の観点から、 「より優れた」カテゴリ分類結果が、生じるだろうか? Emergence of “beyond Human-level” multi-modal object concepts 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。 “Human-level” multi-modal object concepts
  138. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 物体概念 = AI自身による「独自の物体概念」の生成 (人間による押し付けではない) 言葉の体系 = 「人間の言葉」(日本語)を学ばせる 【

    問題設定 】 人間の赤ちゃんに対して、親や周囲の大人が語りかけるのと同様に、 赤ちゃんが「ペットボトル」(←「大人の人間」から見た物体概念)を見ているときに、 「おちゃのぺっとぼとる」・「これはぺっとぼとるです」と、語りかける。 再掲
  139. 身体を備えたロボットによる言葉と物体概念の対応付けの獲得 (中村・長井・谷口らの共同研究) 物体概念 = AI自身による「独自の物体概念」の生成 (人間による押し付けではない) 言葉の体系 = 「人間の言葉」(日本語)を学ばせる 再掲

    Google DeepMind社の研究 「人間の言葉」 (英語) を 学んで、理解できる語彙を増やしながら、 英語で指示された目標を達成するのに最善 な行動手順を見つけ出して、実行する深層強化学習エージェントモデル アプローチの比較
  140. 日本発の動きとして、「記号創発ロボティクス」というアプローチが提案されている。 (日本) 人工知能学会誌 「記号創発ロボティクス」特集号,2012年11月 URL : http://www.ai-gakkai.or.jp/vol27_no6/ 人工知能学会誌 「記号創発問題」 人工知能,2016年1月

    「記号創発システム論に基づく 長期的な人間-ロボット協調系 の実現に向けて」 計画と制御,2016年10月号 【 立命館大学 創発システム研究室 】 URL : http://www.em.ci.ritsumei.ac.jp/jp/research/robotics/
  141. 【 立命館大学 創発システム研究室 】 URL : http://www.em.ci.ritsumei.ac.jp/jp/research/robotics/ ・ DeepMind同様、 視覚データから抽出した「物体輪郭の描像」と紐付いた物体概念の獲得のほか、自己身体と周囲の「物体」の運動の力学

    的イメージ(描像)の獲得と、物理的因果概念の獲得の「構成論的な再現」研究を積み重ねている。 ・ 種類の異なる様々なセンサからもたらされる属性の異なるデータから、統合的な「身体感覚・」「生活空間」感覚を「構成 論的」に出現させる マルチモーダルな研究にも着手している。(画素データのみを扱うDeepMindより先んじ出ている)
  142. 【谷口忠太(立命館大学)による先行研究の調査 】 Tadahiro Taniguchi et.al., SURVEY PAPER Symbol Emergence in

    Robotics: A Survey URL : https://arxiv.org/pdf/1509.08973.pdf we introduce a field of research called symbol emergence in robotics (SER). SER is a constructive approach towards an emergent symbol system.
  143. 【谷口忠太(立命館大学)による先行研究の調査 】 Tadahiro Taniguchi et.al., SURVEY PAPER Symbol Emergence in

    Robotics: A Survey URL : https://arxiv.org/pdf/1509.08973.pdf we introduce a field of research called symbol emergence in robotics (SER). SER is a constructive approach towards an emergent symbol system.
  144. ・ 概念はAI自身の自律的獲得(マルチモーダルLDAなど) ・ 言葉は、教師データとして「人間の言葉」(日本語)が教示される。 -> (1)日本語文の単語文節を、AI自身の手で、各単語単位に文節化して、 -> (2)AI自身が自律的に獲得した(マルチモーダル)物体概念と、切り出した各単語との紐付けを、AI自身の手で行う。 -> 言葉=記号列そのものを、人間の記号(日本語)とは独立・無関係に、AI自身が生成するものではない。

    -> 但し、与えら得た日本語文のうち、何番目の文字から何番目の文字までをひとつの単語として切り出すのか、 その上で、各単語を(AI自身が自律的に生成した)物体概念のどれと紐づけるもかは、AI自身が自律的に関連付けを行う。 中村 友昭(電気通信大学)「言語を獲得するロボットの実現に向けて」 人間の言葉 が天下り的に 教示される。
  145. ・ 概念はAI自身の自律的獲得(マルチモーダルLDAなど) ・ 言葉は、教師データとして「人間の言葉」(日本語)が教示される。 -> (1)日本語文の単語文節を、AI自身の手で、各単語単位に文節化して、 -> (2)AI自身が自律的に獲得した(マルチモーダル)物体概念と、切り出した各単語との紐付けを、AI自身の手で行う。 -> 言葉=記号列そのものを、人間の記号(日本語)とは独立・無関係に、AI自身が生成するものではない。

    -> 但し、与えら得た日本語文のうち、何番目の文字から何番目の文字までをひとつの単語として切り出すのか、 その上で、各単語を(AI自身が自律的に生成した)物体概念のどれと紐づけるもかは、AI自身が自律的に関連付けを行う。 中村 友昭(電気通信大学)「言語を獲得するロボットの実現に向けて」 人間の言葉 が天下り的に 教示される。 「人間の概念」と「人間の言葉」で、 人と会話できるAI Machineの研究開発 に取り組んでいる。
  146. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 1. 「自分の身体」との距離の違いから、各「物体」個体の輪郭の境界を認識する。 【 課題 】 自分から見て「等距離」にある物体を、このロボットは、「異なる物体概念」に属する「異なる(物体)個体」として、認識できるのか? 2. 各角度から捉えた視覚画像の特徴量(SIFT特徴量)を抽出する。

    SIFT特徴量(ベクトル)空間を、500個の部分領域に分割し(K-means法による500個のクラスタを生成)、 各領域毎に「何個」、特徴量が出現したかの「度数」 を、「度数分布表」にまとめる。 この500次元の「度数分布表」を、「視覚情報」のBag of Features(BoF)とする。 3. 「物体」をつかんで、振ったときに聞こえてくる「音」の波形のMFCC特徴量を抽出する。 2.と同様に、ヒストグラムのBoF表現を生成する(50次元のヒストグラム) 4. 「物体」をつかんだときの触角(=圧力分布)の特徴量を抽出する。 2.および3.と同様に、BoF表現を生成する(15次元) 5. 「視覚」特徴量、「聴覚」特徴量、「触覚」特徴量を、それぞれ並行的に、「マルチモーダルLDA(器)」 にかけて、各物体のどれが(色や形の違いを吸収して)「同じ物体カテゴリ(・物体概念)」に属する 色違い・形違いの物体かを、K-means法で、クラスタリングし、(クラスタ=)カテゴリ分類する。
  147. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 [横軸] Fig.4の各物体カテゴリ [縦軸] test段階でAIに提示された物体の通し番号 縦軸の各物体を、AIが、どの物体カテゴリ番号に属する物体として 「認識」したかが、白い四角で表示されている。 左上が、人間によるカテゴリ分類の結果。 左下が、視覚・聴覚・触覚のすべてを用いたAIによる分類結果。 その他は、単一もしくは2つのモダリティ(感覚)情報のみを用いたAIの分類結果。 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。
  148. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 【 発展考察 】 人間の感覚器官には存在しない、紫外線や赤外線、その他のなんらかの モダリティ(センサ計測)データを、さらにAIに追加した場合、 人間による分類結果とは異なる、世界解釈の「効率性」その他の観点から、 「より優れた」カテゴリ分類結果が、生じるだろうか? Emergence of “beyond Human-level” multi-modal object concepts 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。 “Human-level” multi-modal object concepts
  149. マルチモーダルHDP(階層ディレクレ過程) - マルチモーダルLDAの発展版 - 谷口 忠太 『記号創発ロボティクス』 p.77 より、以下の解説を抜粋して引用 「しかし、マルチモーダルLDAには一つの問題があった。

    それはLDAには「トピックがいくつあるかは事前に与える」という特徴があり、これを引き継いでいたのだ。 それゆえに、ダイゴローは学習前に物体カテゴリの数がいくつあるのかを事前に知っている必要があった。 ( 中略 ) 中村らは、この問題にも対応するために、LDAに基づいたマルチモーダルLDAを発展させ、ノンパラメトリックベイズに 基づくHDP(階層ディレクレ過程)をマルチモーダル拡張したマルチモーダルHDPを提案した。 このマルチモーダルHDPはマルチモーダルLDAと異なり、物体カテゴリの数自体も学習器が自動的に推定することが できる。 これにより、ダイゴローは自らの身体を通した経験に応じた数の物体カテゴリを自身で発見することができるように なった。
  150. マルチモーダルHDP(階層ディレクレ過程) - マルチモーダルLDAの発展版 - 谷口 忠太 『記号創発ロボティクス』 p.77 より、以下の解説を抜粋して引用 「マルチモーダルHDPによる、マルチモーダル情報に基づいた物体カテゴリの分類は、確率的なモデルによる推定である

    ため、推定結果は揺らぐ。推定結果は揺らぐにせよ、学習結果の中で最も頻度が高かったカテゴリ数の推定結果は、 図5の上に示すように人間と同様に10カテゴリであった。そして、その分類結果もほとんど人間と同じになっていた。 この結果は、機械学習の結果としてはわかりやすい結果ではあるが、構成論としては一つの疑問を残す。 ダイゴローの認知は閉じている。その上で、ダイゴローは人間と異なる身体を持っている。 環世界が異なるということは、概念の境界も異なりえることを意味するため、ダイゴローと人間が非常に似たカテゴリ 形成をしたことは逆に不思議に感じられるかもしれない。 なぜこのように結果が一致したのだろうか。 各種マルチモーダル情報の定義で説明したとおり、今回のダイゴローの得る特徴量はできるだけ人間が得ているで あろうものに近いように設計されていたのだ。それゆえの一致ということはできるだろう。 また、与えられた物体についてはそれぞれの境界が光学的、物理的に十分差異があるような物が準備されていた。 それゆえの結果である。つまりは、視覚情報、聴覚情報、触覚情報を用いれば分類できる程度の差異が存在するような 物体群が日用品物体として実験で準備されていたということであろう。」
  151. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 Tomoaki Nakamura et.al., Grounding of Word Meanings in

    Multimodal Concepts Using LDA, IEEE/RSJ Intelligent Robot and Systems 2009 【 発展考察 】 人間の感覚器官には存在しない、紫外線や赤外線、その他のなんらかの モダリティ(センサ計測)データを、さらにAIに追加した場合、 人間による分類結果とは異なる、世界解釈の「効率性」その他の観点から、 「より優れた」カテゴリ分類結果が、生じるだろうか? Emergence of “beyond Human-level” multi-modal object concepts 人間による分類結果 視覚・聴覚・触覚のすべてを用いたAIによる分類結果 分類結果が一致した。 “Human-level” multi-modal object concepts 再掲
  152. AI自身のセンサ感覚情報に基づく マルチモーダル物体概念の獲得 【 発展考察 】 人間の感覚器官には存在しない、紫外線や赤外線、その他のなんらかの モダリティ(センサ計測)データを、さらにAIに追加した場合、 人間による分類結果とは異なる、世界解釈の「効率性」その他の観点から、 「より優れた」カテゴリ分類結果が、生じるだろうか? Emergence

    of “beyond Human-level” multi-modal object concepts より少ないビット数で、より多くの情報量を記号表現(=記述)することのできる度合いを測る、 なんらかの定量評価指標が必要 【 問い 】 グレゴリー・チャイティン( Gregory “Greg” J. Chaitin )による研究などは関連してくるだろうか?
  153. 【 中村友昭研究室 (電気通信大学) 】 掲載誌 掲載年 論文表題 スライド 言語を獲得するロボットの実現に向けて URL

    : https://www.uec.ac.jp/research/information/opal-ring/0006626.html (左) URL : https://www.uec.ac.jp/research/information/opal-ring/0006626.html (右) URL : https://www.uec.ac.jp/research/information/opal-ring/pdf/0006626.pdf
  154. 【 長井隆行研究室 (電気通信大学) 】 掲載誌 掲載年 論文表題 計測と制御 2016 階層ベイズによる概念構造のモデル化

    JSAI 2014 マルチモーダルLDAとベイズ階層言語モデルを用いた物体概念と言語モデルの相互学習 JSAI 2012 マルチモーダルカテゴリゼーション -経験を通して概念を形成し言葉の意味を理解するロボットの実現に向けて International Conference on Intelligent Robots and Systems 2009 Grounding of Word Meanings in Multimodal Concepts Using LDA International Conference on Intelligent Robots and Systems 2011 Multimodal Categorization by Hierarchical Dirichlet Process 日本ロボット学会 2012 教師なし形態素解析による物体概念を手がかりとした単語切り出しの高精度化 AAAI 2017 Machine Learning for Entity Coreference Resolution : A Retrospective Look at Two Decades of Research EMNLP 2015 C3EL : A Joint Model for Cross-Document Co-Reference Resolution and Entity Linking Cross-Document Co-Reference Resolution using Sample-Based Clustering with Knowledge Enrichment
  155. カオス結合系モデルによる 感覚・神経系の発生・発育過程 の構成論的シミュレーション 現在、わが国で進行中の感覚・筋肉神経系統の発生過程のシミュレーションが、 今後、物体概念と(物体を指示する)言葉の生成・共有過程の解明に向けた研究 に発展する可能性がある。 【 日本発の研究 】 カオス結合系に基づいたシミュレーションモデルのため、

    DeepMindのモデルに比べて、 人間の知能形成、概念と言語の発生・獲得過程を、 より忠実に構成論的に再現している可能性が高い。 また、カオス結合系モデルによる複雑適応系 CASモデルのため、 柔軟性と適応性の点で、DeepMindのモデルよりも優れている 可能性が高い。
  156. 【 JST 科学技術振興機構 研究開発戦略センター 】 「脳領域/個体/集団間のインタラクション創発原理の解明と適用」課題プロジェクト http://www.er.ams.eng.osaka-u.ac.jp/kawai/crest/ 津田 一郎 (2018年7月11日)

    「今からのAI」 URL: https://rad-it21.com/ai/ichirotsuda20180708/ 身体性への着目 審美意識・感情が果たす役割への着目 親(他者)や環境とのインタラクションへの着目
  157. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-1. まず意味が未分化な、あいまいな身体動作を(環境に対して)行う 【 作用

    】 と、 その結果として、環境から手ごたえ(フィードバック)を受ける 【 反作用 】 1-2. 環境からの手ごたえを、感覚器官で感受する中で、「感覚神経回路」の構造が 定まってくる。 1-2´.「身体と環境との相互作業」(作用・反作用の繰り返しの体験)の中で、 意味づけられた「運動神経回路」の構造が定まってくる。【 身体図式の成立 】 1-3. 「感覚神経回路」と「運動神経回路」の構造が同時形成的に定まってくるなかで、 次第に、「数学的思考」や「言葉の獲得と運用・変容」、「他者との協調性・競合 性」を担うより高次の知的機能を発現させる「神経回路」も形成され始める。
  158. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-1. まず意味が未分化な、あいまいな身体動作を(環境に対して)行う 【 作用

    】 と、 その結果として、環境から手ごたえ(フィードバック)を受ける 【 反作用 】 1-2. 環境からの手ごたえを、感覚器官で感受する中で、「感覚神経回路」の構造が 定まってくる。 1-2´.「身体と環境との相互作業」(作用・反作用の繰り返しの体験)の中で、 意味づけられた「運動神経回路」の構造が定まってくる。【 身体図式の成立 】 1-3. 「感覚神経回路」と「運動神経回路」の構造が同時形成的に定まってくるなかで、 次第に、「数学的思考」や「言葉の獲得と運用・変容」、「他者との協調性・競合 性」を担うより高次の知的機能を発現させる「神経回路」も形成され始める。
  159. 【 ストーリー 】 知的情報処理を担う人間の脳神経回路は、 胎児時代からの「身体と環境との(物理的な)相互作用」の体験のなかで、 生じてくる。 1-1. まず意味が未分化な、あいまいな身体動作を(環境に対して)行う 【 作用

    】 と、 その結果として、環境から手ごたえ(フィードバック)を受ける 【 反作用 】 1-2. 環境からの手ごたえを、感覚器官で感受する中で、「感覚神経回路」の構造が 定まってくる。 1-2´.「身体と環境との相互作業」(作用・反作用の繰り返しの体験)の中で、 意味づけられた「運動神経回路」の構造が定まってくる。【 身体図式の成立 】 1-3. 「感覚神経回路」と「運動神経回路」の構造が同時形成的に定まってくるなかで、 次第に、「数学的思考」や「言葉の獲得と運用・変容」、「他者との協調性・競合 性」を担うより高次の知的機能を発現させる「神経回路」も形成され始める。
  160. 【 問い 】 人間が、「新しい課題状況」にいることを認識したとき、 これまでに獲得した行動パターンの応用 【 転移学習 】 で対処するか、 新しい行動パターンを学習すること

    【 新規の学習 】 で対処するか のどちらを「選択する」かを、瞬時に「判断できる」能力も、 これで説明できるか? 「環境の変化に対応できる能力」の本性は、 「環境の変化」を受けて、 「あるアトラクタ」(あるクラスタ内の要素間の協調状態) から 「別のアトラクタ」(別のクラスタ内の要素間の協調状態) へと 「移行する」「柔軟性」と「適応性」である と見る考え方。
  161. 国吉ほか (2010) 「人間的身体性に基づく知能の発生原理解明への構成論的アプローチ」, 日本ロボット学会誌 (キーワード) カオス結合系 カオス的遍歴 アトラクタ カオス結合系に基づいたシミュレーションモデルのため、 DeepMindのモデルに比べて、

    人間の知能形成、概念と言語の発生・獲得過程を、 より忠実に構成論的に再現している可能性が高い。 また、カオス結合系モデルによる複雑適応系 CASモデルのため、 柔軟性と適応性の点で、DeepMindのモデルよりも優れている 可能性が高い。
  162. 国吉ほか (2010) 「人間的身体性に基づく知能の発生原理解明への構成論的アプローチ」, 日本ロボット学会誌 (深層)強化学習も、 GA(遺伝的アルゴリズム) のいずれも、 方法論としては限界がある。 ☓ 研究対象

    = (ある時点を凍結して見た)ある特定の技能をもつ知能システム ◦ 研究対象 = 得意とする技能が、「ある技能」から「別の技能」へと、 時々刻々と、動態的に変容していく知能システム「系」それ自体 身体と環境との循環的相互作用によって、 つねに、新たに形成されなおされつつある、 動的な挙動の現れ (「系の挙動の現れ(現象)」ではなく、 「そのようなダイナミズムをもつ」『系そのもの』 が、研究の主題)
  163. Mori & Kuniyoshi (2007) , A cognitive developmental scenario of

    transitional motor primitives acquisition.
  164. 慶應義塾大学 栗原研究室 (2018年3月までは、電気通信大学) • 動的複雑系 • 群知能モデル • 階層構造 各構成要素が相互に影響を与えながらも、系全体レベルで見ると、安定した、外乱や内乱に強い(レジリエント)

    なマルチ・エージェント系の成立条件を研究している。 脳や意識の発生メカニズムの研究のほか、外乱・内乱に強い通信ネットワークや交通制御ネットワークなど、 社会を支えるインフラ領域の設計工学の実用的研究を数多く手がけている。
  165. 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学 栗原研究室 掲載誌 掲載年 論文表題 人工知能学会誌

    2016 群知能型意識ネットワーク構築に向けて 人工知能学会誌 2017 汎用AI実現のための鍵となる自律性とマルチモーダル性についての考察 コンピュータソフトウェア 2011 (フォーラム) 複雑ネットワーク・シミュレーションにおける模倣から創造へ 人工知能学会誌 2018 群知能メカニズムを用いた時系列階層型パタン抽出法によるマーケティングデータ分析 WWW 2014 The Multi agent based Information Diffusion Model for False RumorDiffusion Analysis
  166. 外乱・内乱に強いレジリエントな動態系の設計 ・ 通信ネットワーク ・ 交通ネットワーク 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学

    栗原研究室 掲載誌 掲載年 論文表題 AAMAS 2006 How can agent know the global information without close coordination ? AAMAS 2005 Predicting Possible Conflicts in Hierarchical planning for Multi-Agent Systems AAMAS 2003 Simple but Efficient Collaboration in a Complex Competitive Situation 人工知能学会誌 2018 道路交通システムにおけるプローブ情報を用いた交通流予測手法の検討 AAMAS 2004 Reusing Coordination and Negotiation Strategies in Multi-Agent Systems for Ubiquitous Network Environment
  167. 外乱・内乱に強いレジリエントな動態系の設計 ・ ソーシャルネットワーク ・ 交渉 【 慶応義塾大学 栗原研究室 】 2018年3月まで、電気通信大学

    栗原研究室 掲載誌 掲載年 論文表題 2008 Controlling Contract Net Protocol by Local Observation for large-Scale Multi-Agent Systems AAMAS 2014 Cooperation-Eliciting Prisoner’s Dilemma Payoffs for Reinforcement Learning Agents WWW 2013 Regional Analysis of User Interactions on Social Media in Times of Disaster IW3C2 2013 Information Sharing on Twitter During the 2011 Catastrophic Earthquake
  168. 【 わが国発のその他の研究成果 】 【 日本大学 】 海老原・岩井 「カオスニューラルネットによる記憶探索モデルの記憶パターンに対する敏感性とその改善」, 情報処理学会論文誌 「数理モデル化と応用」,

    July 2011 【 大分工業高等専門学校 】 松本・田中 「カオスニューラルネットの記憶特性に関する研究」, 大分工業高等専門学校紀要 第44号 (平成19年11月)
  169. 掲載誌 掲載年 論文表題 ICLR 2018 Unsupervised Learing of Goal Spaces

    For Intrinsically Motivated Goal Exploration PMLR 2018 Continual Reinforcement Learning with Complex Synapses NIPS 2017 A multi-agent reinforcement learning model of common-pool resource appropriation Work Shop ICLR 2017 Variational Intrinsic Control 2018 Measuring and avoiding side effects using relative reachability 2016 Towards an integration of deep learning and neuroscience 2015 Bootstrapping Skills Self-Organization論文の引用はあるものの Complex system や chaosへの言及はない
  170. 論文・モデル 思考の素材(対象項) (事物概念・抽象概念) 思考する論理 (関係概念・推論規則) Compositional Obverter Communication ◦ ◦

    Emergence of linguistic communication ◦ ◦ SCAN △ △ Relation Network (Visual QAタスク) △ △ Relation Network (物体運動タスク) ◦ ◦ Neural Tensor Network △ △ 機械読解(MRC)モデル △ △ テキスト -> 論理式写像モデル △ △ Neural-Symbolic Learning △ △ 「思考の素材」 と 「思考する論理」 を生成するAI
  171. 論文・モデル 思考の素材(対象項) (事物概念・抽象概念) 思考する論理 (関係概念・推論規則) Compositional Obverter Communication AI独自の物体概念の自動生成(一般物体認識) AI独自の物体概念を記述するAI独自の記号表現の自動生成

    概念合成(concept composition) (形容詞・名詞に相当する記号表現を組み合わせた新 概念の組成。組成した新概念の視覚イメージの生成) Emergence of linguistic communication AI独自の物体概念の自動生成(一般物体認識) AI独自の物体概念を記述するAI独自の記号表現の自動生成 概念合成(concept composition) (形容詞・名詞に相当する記号表現を組み合わせた新 概念の組成。組成した新概念の視覚イメージの生成) SCAN 人の言葉(名詞・形容詞・接続詞)が指示する画像領域を、アノテー ション無しの画素ピクセルデータから、自動推定 (教師データ: ① 画素ピクセルデータと、②その視覚画像に出現する物体を人 の言葉(名詞と形容詞)で記述した短文のペア) 教師データで示された人の言葉 (「形容詞」+”AND”・”OR”・”IN COMMON”+「名詞」) を概念合成して、「形容詞と名詞」の「未知の組み合わ せ」の記号表現と、その視覚イメージ(既知の物体が、 未知の色・形を帯びた状態)を自動推定する。 ← 画像領域との対応付けが完了したAI自身の物体語彙(「視覚イメージ・記 号表現(人の言葉)」のペア)をもとに、新しい概念とその視覚イメージを自動 獲得。 Relation Network (Visual QAタスク) △ △ Relation Network (物体運動タスク) ◦ ◦ 「思考の素材」 と 「思考する論理」 を生成するAI
  172. 論文・モデル 思考の素材(対象項) (事物概念・抽象概念) 思考する論理 (関係概念・推論規則) Neural Tensor Network 人が定義した[主語(S)、述語(P)、目的語・補語(O)]のTriple知識 データを学習し、新しいデータを記述するS-P-O記号表現(人の言

    葉)を生成する。 S-P-Oの関係表現の推論(関係性推論タスク) 機械読解(MRC)モデル 人の言葉で書かれた ①知識記述文章(復数件)、②事実型質問、 ③模範解答 を学習した後に、提示される「初見の複数の文章」と 「質問文」に対して、「正しい解答」(事実型の解答)を人の言葉(英 語)で返す。 (SQuAD、MS-MARCOデータセット等) 以下を時系列ニューラルネットワーク等で、自律的 に学習・推論を行う。 ・ 構文解析、意味解析、照応解析 ・ 表記揺れの解消 ・ 復数の文章にまたがる「事実型知識の断片」の 論理推論による知識結合 テキスト -> 論理式写像モデル 人の言葉で書かれた文章を、人が定義した論理公理体系の記号表 現へと、AIが自動的に写像したもの(論理式) 人が定義した論理公理体系に、 AIが生成した(復数の)論理式を入力して、 論理推論を行う。(結果:新しい論理式 = 新知識) Neural-Symbolic Learning 人の言葉で書かれた文章を、人が定義した論理公理体系の記号表 現へと、AIが自動的に写像したもの(論理式) 人が定義した論理公理体系に、 AIが生成した(復数の)論理式を入力して、 論理推論を行う。(結果:新しい論理式 = 新知識) 「思考の素材」 と 「思考する論理」 を生成するAI
  173. モデル 思考対象の素材 思考する論理 SCAN △ △ Relation Network(QAタスク) △ △

    Neural Tensor Network △ △ 機械読解(MRC)モデル △ △ テキスト -> 論理式写像モデル △ △ Neural-Symbolic Learning △ △ ・「素材」と「論理力」の両者を、自律獲得(生成)するが、 ・ まだ、物体観念 + 色・重さ を 観念結合するレベル(初歩的な段階)である。 思考の素材 と 思考力(推論論理)の自律獲得段階
  174. モデル 思考対象の素材 思考する論理 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network(QAタスク) AIによる半自律獲得 AIによる半自律獲得

    Neural Tensor Network AIによる半自律獲得 人が書いた文中の語句 機械読解(MRC)モデル AIによる半自律獲得 人が書いた文中の語句 テキスト -> 論理式写像モデル AIが写像した記号 人が構築した論理体系 Neural-Symbolic Learning AIが写像した記号 人が構築した論理体系 ・ 深層ニューラルネットワーク・モデルは、end-to-endに学習&推論するが、 ・ 「人間の言語が持つ語彙によって指し示される客体対象」間の関係を、 ・ 「人間の論理推論体系」の枠内で考えている。 「思考の素材」 と 「思考力」(推論論理)の獲得段階
  175. 「素材」と「思考力」の2つを半自律獲得する 【 思考対象の素材 】 人間の言語が持つ語彙に対応付けて、(テキスト・画像pixelデータから)獲得される 物体・出来事の概念、抽象的な観念 【 思考する力 】 教師用データとして与えられる「人間の言葉=英文による状況記述文」をたよりに、

    AIが学習する(物理的な)原因・結果観念(因果推論)、(観念間の)論理関係推論 モデル 思考対象の素材 思考する論理 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得
  176. 「素材」と「思考力」の2つを半自律獲得する 【 学習用データセット 】 「情景の画像データ」に紐付けて対応させる (画像の情報内容を言語化する)テキスト文は、 (その画像を見て)人間が書いた言語文。 (1) 「情景のraw pixelデータ」

    (2) 「情景の背景と、そこにある物」を記述した「人間の言葉(英文)」 モデル 思考対象の素材 思考する論理 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得 形容詞+名詞 人間が持つ世界の弁別体系 (物体概念、形容観念(色、重さ、形、質感・・・))
  177. 「素材」と「思考力」の2つを半自律獲得する (1) 「情景のraw pixelデータ」 (2) 「情景の背景と、そこにある物」を記述した「人間の言葉(英文)」 モデル 思考対象の素材 思考する論理 SCAN

    AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得 形容詞+名詞 人間が書いた文章 = 「人間が持つ世界の弁別体系」 を、AIは手がかりとするので、 (人間がもつ物体概念、人間がもつ形容観念(色、重さ、形、質感・・・)) SCANモデルは、(人間による介入・手助けを完全に排して)完全に自律的に、 AIモデル自身の「世界の弁別体系」 を獲得・生成するわけではない。 【 弁別体系 】 (1) 項Entity: 事象観念・抽象観念 および (2) 接続詞(and, or, then, after, on, with, for)などの関係観念
  178. 「素材」と「思考力」の両者の自律獲得に向けて 【 現状 】 人間が築いてきた世界観(世界の弁別体系・意味付け体系) を「教師データ」として、AIに授けている段階。 【 教師データ 】 人間がもつ「世界の構成要素に関する観念」(事物、抽象観念)

    【 教師データ 】 人間がもつ 「因果・連関観念」 モデル 思考対象の素材 思考する(論理)力 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得
  179. 「素材」と「思考力」の両者の自律獲得に向けて 人間が築いてきた世界観(世界の弁別体系・意味付け体系) を「教師データ」として、AIに授けている段階。 【 教師データ 】 人の言葉=人間の「世界の構成要素に関する観念」(事物、抽象観念) 【 教師データ 】

    人の言葉=人間がもつ 「因果・連関観念」 モデル 思考対象の素材 思考する(論理)力 SCAN AIによる半自律獲得 AIによる半自律獲得 Relation Network (QAタスク) AIによる半自律獲得 AIによる半自律獲得 (出典) SlideShare Deep Learning JP 「[Dl輪読会]A simple neural network module for relational reasoning」スライドより 人間が創造した言語 (英語)
  180. 「素材」と「思考力」の両者の自律獲得に向けて 人間が築いてきた世界観(世界の弁別体系・意味付け体系) を「教師データ」として、AIに授けている段階。 【 教師データ 】 人の言葉=人間の「世界の構成要素に関する観念」(事物、抽象観念) 【 教師データ 】

    人の言葉=人間がもつ 「因果・連関観念」 (出典) SlideShare Deep Learning JP 「[Dl輪読会]A simple neural network module for relational reasoning」スライドより 人間が創造した言語 (英語) “cylinder” とか “metal thing” とかという人間の言葉がもつ語彙 によって、raw pixel画像からの物体概念の生成作業には、 人間の垢がついてしまっている。 (AIによる完全自律的な概念生成ではない)
  181. (参考) 「言語」と「世界の意味付け」との深い連関性 人間が創造した言語 (英語) “cylinder” とか “metal thing” とかという人間の言葉がもつ語彙 によって、raw

    pixel画像からの物体概念の生成作業には、 人間の垢がついてしまっている。 (AIによる完全自律的な概念生成ではない) 【 サピア・ウォーフの仮説 】 Raw pixel image データの「情報の海」から、 「青い鳥」という客体概念・事物概念を認識するのは、 「青い」ということばの語彙(言語表現)と、 「鳥」ということばの語彙(言語表現)を もっている人間・AIのみである、とする考え方。
  182. 「素材」と「思考力」の両者の自律獲得に向けて モデル 思考対象の素材 思考する(論理)力 (models to come soon ?) AIによる自律獲得

    AIによる自律獲得 【 将来の可能性 】 ・ AI自身が概念生成した「事象」どうしの連関構造を、 低コストに、高い記述力で「記号化」できる「論理公理体系」 ・ 人間がこれまで発見 or 考案してきた「既知の論理公理体系」とは異なる (人間にとって)「未知」の「新種」の論理公理体系であるかもしれない。 「参考資料 論理公理体系とは何か」を参照。
  183. ( 参考 ) (出典) https://futurism.com/a-facebook-ai-unexpectedly -created-its-own-unique-language/ (出典) https://www.techly.com.au/2017/07/31/ facebooks-ai-bots-are-communicating-in-a-language-we-dont-understand/ Facebook

    AI Research (FAIR), Deal or No Deal? End-to-End Learning for Negotiation Dialogues 【 報告事例 】 「交渉力」を極限まで強くさせる方向に学習させたところ、 「人間が理解しえない言葉遣い」 をAIが発話しはじめた。
  184. SCAN論文の後続論文 (SCAN論文を引用している論文) 掲載誌 掲載年 論文表題 所属 ICLR 2018 Generative models

    of visualluy grounded imagination Georgia Tech., Google Inc. (ICLR Workshop) 2018 Concept Learning via Meta-Optimization with Energy Models OpenAI (NIPS Workshop) 2017 Feature-matching auto-encoders Columbia Univ., OpenAI Arxiv 2018 Learning disentangled Jjoint continuous and discrete representations Schlumberger Software Technology I nnovation Center 2017 Conceptual-linguistic superintelligence eCortex.Inc. (修士論文) Learning transferable data representations using deep generative models Arizona State Univ. 2017 Measuring the tendency of cnns to learn surface statistical regularities Univ. de Montreal
  185. 【 現在、部分的に実現している】 「素材」と「思考力」の両者の自律獲得 モデル 思考対象の素材 思考する(論理)力 Relation Network (Dynamic Physical

    Systemタスク) AIによる自律獲得 AIによる自律獲得 【 Dynamic Physical Systemタスク 】 ・ raw pixel 画像データから、AIが自律的に獲得した物体概念 どうしの ・ 相対的な位置関係、相対的な力学的運動関係・因果関係 (相互影響関係) を、end-to-endに推定するタスク 同じ画像をみた人間が、 考えつかなった「物体」・「客体」 を、AIが「物体」・「客体」として、 抽出・概念生成する可能性 を秘めている。
  186. (出典) SlideShare Deep Learning JP 「[Dl輪読会]A simple neural network module

    for relational reasoning」 Relation Network 論文: 「QAタスク」 と 「力学関係(推定)タスク」 (出典) DeepMind, A simple neural network module for relational reasoning 【 現在、部分的に実現している】 「素材」と「思考力」の両者の自律獲得
  187. 【 Relational Networks論文の関連論文】 物体概念(物体輪郭検出)の自律獲得 と物体位置・(加)速度等の将来時点予測タスク 掲載誌 掲載年 論文表題 所属 NIPS

    2017 Visual Interaction Networks: Learning a Physics Simulator from Video Google DeepMind (Arxiv.) 2017 Visual Interaction Networks Google DeepMind ICLR 2018 Learning Awareness Models Google DeepMind
  188. 人が定義した文章をもとに、人が定義した記号論理表現の枠内で、 自律的に思考する 【思考対象の素材 】 人が書いた文章から、AIによって生成(写像)された論理式記号表現 (=人が定義した論理体系の論理式) 【思考する力 】 ① neural

    networkモデルによるテキスト文 => 論理式への変換 ② (入力) 論理式 -> (出力) 論理演算結果の論理式 の論理演算機構 【 生み出す知識 】 [主語 - 述語 – 目的語・補語]の3項関係 (Triple-form KB) 例1:自然言語文を論理式に写像するNeural Networkモデル 注: 論文名は、「(別表1) 論文リスト」スライドを参照。 モデル 思考対象の素材 思考する(論理)力 テキスト -> 論理式写像モデル AIが写像した論理式 人が構築した論理体系 Neural-Symbolic Learning AIが写像した論理式 人が構築した論理体系
  189. 【 思考対象の素材 】 人間が書いた文章から(AIによって抽出された)人間の言葉の単語語句 【 思考する力 】 人間が理解できる言語で知識を記述した語句・文を出力するneural networkモデル機構 【

    生成する知識 】 [主語 - 述語 – 目的語・補語]の3項関係 (Triple-form KB) 例1: Neural Tensor Networkモデル 例2: Machine Reading Comprehension(推論タスク部分)適用モデル 注: 論文名は、「(別表1) 論文リスト」スライドを参照。 モデル 思考対象の素材 思考する(論理)力 Neural Tensor Network 文章からAIが自律抽出した語句 人の言葉を出力するNeural Net機構 機械読解(MRC)モデル 文章からAIが自律抽出した語句 人の言葉を出力するNeural Net機構 人が定義した文章をもとに、人が定義した記号論理表現の枠内で、 自律的に思考する
  190. 論文リスト 掲載誌 掲載年 論文表題 所属 ICLR 2018 Can Neural Networks

    Understand Logical Entaulment ? ICLR 2017 Tracking the World State with Recurrent Entity Networks AAAI 2018 Explicit Reasoning over End-to-End Neural Architectures for Visual Question Answering AAAI 2015 Learning Distributed Word Representations for Natural Logic Reasoning AAAI 2015 Learning Distributed Word Representations for Natural Logic Reasoning AAAI 2015 Neural-Symbolic Learning and Reasoning: Contributions and Challenges NIPS 2017 Differentiable Learning of Logical Rules for Knowledge Base Reasoning NIPS 2013 Reasoning With Neural Tensor Networks for Knowledge Base Completion 別表1
  191. 論文リスト 掲載誌 掲載年 論文表題 所属 IJCAI 2017 Logic Tensor Networks

    for Semantic Image Interpretation IJCAI 2017 Logic Tensor Networks for Semantic Image Interpretation IJCAI 2016 Learning First-Order Logic Embeddings via Matrix Factorization IJCAI 2011 A Neural-Symbolic Cognitive Agent for Online Learning and Reasoning ACL 2016 Language to Logical Form with Neural Attention CoCoNIPS 2015 Relational knowledge extraction from neural networks COLING 2018 An Interpretable Reasoning Network for Multi-Relation Question Answering Nature 2017 Quantum Enhanced Inference in Markov Logic Networks 別表1
  192. 論文リスト 掲載誌 掲載年 論文表題 所属 ICML 2011 A Three-Way Model

    for Collective Learning on Multi-Relational Data PMLR 2017 Learning Continuous Semantic Representations of Symbolic Expressions IGPL 2014 Reasoning with Vectors: A Continuous Model for Fast Robust Inference AISTATS 2012 Joint Learning of Words and Meaning Representations for Open-Text Semantic Parsing Italian Association for Artificial Intelligence on Advances in Artificial Intelligence 2016 Learning and Reasoning with Logic Tensor Networks IGPL 2014 Reasoning with Vectors: A Continuous Model for Fast Robust Inference AAAI Technical Report 2007 Situated Comprehension of Imperative Sentences in Embodied, Cognitive Agents Workshop on CVSC 2015 Recursive Neural Networks Can Learn Logical Semantics 別表1
  193. 論文リスト 掲載誌 掲載年 論文表題 所属 (論文リスト) Bridging Relational and Deep

    Learning (論文リスト) 2017 Neural-Symbolic Learning and Reasoning: A Survey and Interpretation (Report) 2017 Human-Like Neural-Symbolic Computing (Report) 2014 Neural-Symbolic Learning and Reasoning Workshop ウェブページ 2018 Neural-Symbolic Integration (スライド) 2017 Learning and Reasoning in Logic Tensor Networks 2016 Harnessing Deep Neural Networks with Logic Rules Arxiv. 2016 Logic Tensor Networks: Deep Learning and Logical Reasoning from Data and Knowledge 別表1
  194. 論文リスト 掲載誌 掲載年 論文表題 所属 2018 DeepProbLog: Neural Probabilistic Logic

    Programming Arxiv. 2017 Learning like humans with Deep Symbolic Networks 2018 Recurrent Relational Networks for complex relational reasoning Oral Presentation on ACL 2017 Neural Symbolic Machines: Learning Semantic Parsers on Freebase with Weak Supervision (Slide) 2014 Neural-Symbolic Learning and Reasoning 2009 Neural-Symbolic Cognitive Reasoning 博士論文 2017 Knowledge Representation And Reasoning With Deep Neural Network 学位論文 2007 Learning and deduction in neural networks and logic 別表1
  195. 論文リスト 掲載誌 掲載年 論文表題 所属 2017 Reasoning in Non-probabilistic Uncertainty:

    Logic Programming and Neural-Symbolic Computing as Examples Preprint of Paper ‘Connectionist Inference Models’ to appear in Neural Networks Logic Tensor Networks (Extended Abstract) 2018 A Semantic Loss Function For Deep Learning With Symbolic Knowledge Learning to Map Sentences to Logical Form: Structured Classification with Probabilistic Categorial Grammars Learning Executable Semantic Parsers for Natural Language Understanding Deep Neural Networks with Massive Learned Knowledge 2014 Bringing machine learning and compositional semantics together 別表1
  196. 論文リスト 掲載誌 掲載年 論文表題 所属 From machine learning to machine

    reasoning An essay 2018 Tunneling Neural Perception and Logic Reasoning through Abductive Learning 2016 Reinforcement Learning Neural Turing Machines – Revised ILP 2017 Mode-Directed Neural-Symbolic Modelling (Slide) 2018 Neurosymbolic Computation: Thinking beyond Deep Learning Reasoning with Deep Learning: an Open Challenge Modelling Relational Data using Bayesian Clustered Tensor Factorization 2015 Injecting Logical Background Knowledge into Embeddings for Relation Extraction 別表1
  197. 論文リスト 掲載誌 掲載年 論文表題 所属 Arxiv. 2017 Entity Embeddings with

    Conceptual Subspaces as a Basis for Plausible Reasoning Program Synthesis from Natural Language Using Recurrent Neural Networks (論文リスト) Bridging Relational and Deep Learning (Report) Human-Like Neural-Symbolic Computing (Report) Neural-Symbolic Learning and Reasoning Workshop記事 Neural-Symbolic Integration Arxiv. 2017 Adversarial Sets for Regularising Neural Link Predictors 別表1
  198. 【 定理証明、数式処理、数学文章題モデル 】 論文リスト 掲載誌 掲載年 論文表題 所属 Learning Knowledge

    Base Inference with Neural Theorem Provers Inferring Algorithmic Patterns with Stack-Augmented Recurrent Nets AAAI 2018 MathDQN: Solving Arithmetic Word Problems via Deep Reinforcement Learning 別表2
  199. 【ソースコード生成モデル 】 論文リスト 掲載誌 掲載年 論文表題 所属 ICLR 2016 Neural

    Programmer-Interpreters ICLR 2017 DEEPCODER: Learning To Write Programs ICLR 2018 Neural Sketch Learning For Conditional Program Generation NIPS 2017 Neural Program Meta-Induction AAAI 2016 Convolutional neural networks over tree structures for programming language processing JMLR 2017 RobustFill: Neural Program Learning under Noisy I/O 2017 Inferring and Executing Programs for Visual Reasoning 別表3
  200. 【ソースコード生成モデル 】 論文リスト 掲載誌 掲載年 論文表題 所属 Program Synthesis from

    Natural Language Using Recurrent Neural Networks (web page) Microsoft, Neural Program Synthesis (web page) Microsoft, New Meta-learning Techniques for Neural Program Induction 別表3
  201. 「思考力」=論理公理体系 人間がこれまで発見 or 考案してきた「既知の論理公理体系」 ・ 名辞論理学(アリストテレスの論理学。 いわゆる古典論理学) ・ 1階述語論理、2階述語論理、高階述語論理 ・

    アブダクション ・ 様相論理(modal logic) ・ 時相論理(Temporal logic) ・ 多値論理(Many-valued logic) ・ ファジィ論理(Fuzzy logic) ・ 義務論理(denotic logic) ・ 京都学派の「場所の論理学」 ・ Martin Heideggerの言葉についての思索 (1930年代の「物」論・「詩」論) ・ 龍樹 「空論」 岡 智之(東京学芸大学) 「場所の論理から見た日本語の論理」 Wikipedia 日本語版 「論理学」 参考 佐藤 「計算モデル特論」
  202. 論理公理体系とはなにか? 1. 観測対象としての「世界」について得られた情報の海から抽出した、 2. 物(Entity)と事(Event)と概念・観念(idea)の間の時間的・非時間的な 3. “連関関係”を、効率よく説明できる、なんらかの記述言語の文法構造? 【 問題提起 】

     「効率の良さ」や「記述力」は、 多様体学習 や 微分幾何学、情報幾何学等の数理的アプローチ による「次元圧縮」・「多様体への写像」と、関連するだろうか?  数学の「圏論」が捉えている事柄・出来事は、 数理論理学 や モデル理論、論理学が取り組んできた事柄と、どう結びつくだろうか。 参考
  203. 論理公理体系とはなにか? 1. 数学の諸領域 と 物理学の諸領域 の背後には、 なんらかの秩序体系が成立・存在している? (それを記述する新たな言語の可能性) 【 問題提起

    】  数学の諸領域(数論、代数学、幾何学・・・)と物理学の諸領域は、 同一の秩序体系を、それぞれ異なる 窓(視点)から捉えたときに見えてくる、「異なる描像」に過ぎないのだろうか? 参考 NHK 「白熱教室」 E・Frenkel氏より E・Frenkel(著)・青木薫(訳) 『数学の大統一に挑む』 p.384
  204. 論理公理体系とはなにか? 1. 数学の諸領域 と 物理学の諸領域 の背後には、 なんらかの秩序体系が成立・存在している? (それを記述する新たな言語の可能性) 【 ラングランズ・プログラム】

    参考 信州大学 Algebric Topology – A Guide to Literature – 「Geometric Langlands program と quantum field theory」 Wikipedia 日本語版 E・Frenkel(著)・青木薫(訳) 『数学の大統一に挑む』 p.129