Slide 1

Slide 1 text

AIに関する主な問題 シリーズAI入門 © FSCjJh3NeB 2021 (※ 但し画像を除く)

Slide 2

Slide 2 text

n ここまでで流れを大まかに押さえた u これまでの人々は ”知能” をどう捉えてきたか u 計算機はどのようなものか? u ヒトは情報をどのように処理しているか? u 人工知能の分野では,どのように課題にトライして, どこで行き詰まってきたのか? n この取り組みの中で明らかになった,知能 の周りの いくつかの大きな課題をまとめて眺めてみる 2

Slide 3

Slide 3 text

トイ・プロブレム n 初期のAI研究においては,迷路やハノイの塔など ごく単純化された条件下での問題を扱った n 単純化された問題 = トイ・プロブレム u いきなり複雑な条件は扱えないので, 簡単な例から考えていくのは,問題を解く上での定石 u しかし,初期のAIはこの段階を超えることができず, “知能”の難しさ,複雑さが明らかとなった Toy:おもちゃ 3

Slide 4

Slide 4 text

トイ・プロブレムの成功例 n トイ・プロブレム とはいえ,成果を上げたものも u STRIPS ( Stanford Research Institute Problem Solver ) p 前提,行動,結果 という3要素で 仮想ロボットの動作を実現 • ロボットが自動的に動作計画を立てることを“プランニング”という p 仮想ではあるが,いろいろな動作を実現できた u 積み木の世界 SHRDLU p 仮想空間上に配置された 積み木 を操作させることができた • 人「ブロックの上に,四角錐はおけるか?」,AI「Yes」 • 人「四角錐の上に,四角錐はおけるか?」,AI「No」 …といった対話形式で,積み木を操作させたり説明させられた = 対話的にAIにプランニングを実行させることができた 4

Slide 5

Slide 5 text

フレーム問題 n 膨大な量の情報の中から,今しようとしている事柄 に関連する情報だけを選び出すのは,極めて困難 u ある行為によって変化すること・しないこと について, 記述の困難性と,計算の困難性の2つが存在 5 … … … … … … … … … … … … … … … … …

Slide 6

Slide 6 text

フレーム問題の例:問題設定 n 私はロボット n 時限爆弾付きの台車の上にバッテリーがある n そろそろ自分のバッテリーが切れそう n バッテリーをとって来なければ… 6

Slide 7

Slide 7 text

ロボ1号 n 台車を動かせばバッテリーをとってこれそう n 動かす n 台車には爆弾がついているので失敗 u 爆弾を一緒にとってきてはいけないことを知らなかった 7

Slide 8

Slide 8 text

ロボ2号 n ロボ1号を改良 n 何をしたら何が起きるか考えて行動する回路を搭載 n あらゆるパタンを考慮することになり, 延々計算している間に,爆弾が爆発して失敗 u 自分が動いても爆弾は爆発しない u 腕を上げたら壁が赤色に変化したりしない u … 8

Slide 9

Slide 9 text

ロボ3号 n ロボ2号を改良 n 問題に関係なさそうなことは除外する回路を搭載 n 同じくあらゆるパタンを考慮することになり, 延々計算している間に,爆弾が爆発して失敗 u 自分が動いても爆弾が爆弾しないという知識は関係? u 腕を上げたら壁が赤色に変化したりしない,は関係? u … 9

Slide 10

Slide 10 text

初期フレーム問題 n 状況の記述には膨大な知識と状態の記述が必要 u n種類の状態に,m種類の行為があるとするなら, n × m 個の記述が必要になる p 手の位置が (0,1,3) の時,(0,1,4)の時…・ p 親指を0.1度曲げる,伸ばす,「あ」という声を出す… u ある行為を記述しようとしたとき,その行為によって 変化する事柄と,変化しない事柄を明示的に記述・推論 するならば,その量は指数関数的に増大する 10 記述の量と,計算の量 が爆発 (書き切れないし,計算しきれない)

Slide 11

Slide 11 text

後期フレーム問題:限定問題 n 行為の前提条件の完全な記述は不可能 u ある行為が成功するための条件をどのように記述するか u 自動車のエンジンがかかるための成功条件は… p バッテリーが十分にある p ワイヤが断線していない p セルモーターが壊れていない …などなど,無数にある 11

Slide 12

Slide 12 text

後期フレーム問題:波及問題 n 行為の帰結の完全な予測は不可能 u ある行為によって生じる結果をどのように予測するか u ある環境下でロボットが特定方向に 1m 移動するとき… p 普通に考えれば ロボの位置が1m 変わるだけ p 物体があると… • 十分に軽ければ ロボと物体が1m 動く,重いとロボは動かない, そこそこの重さだとロボと物体がそれぞれ少し動く p 落とし穴があると… • ロボが穴の手前で止まる,そのまま進んで落ち部品が飛び散る …などなど,無数にある 12

Slide 13

Slide 13 text

フレーム問題と人間 n 人間もフレーム問題に陥ることはある u 全く知らない海外の街で… p この国で麺類をすすって食べるのはマナー違反? p この国で子供の頭をなでるのはマナー違反? p この国でチップを出さないのはマナー違反?いくらが妥当? p この国は普通にハグする文化圏?握手とかは? p 急に花を押しつけられたけどこれはもらって良いやつ? ハワイで空港降りたときにくれるやつと同じノリ? p … u 全く考えず・知らずに行動して大失敗(1号) u 急な出来事に戸惑う内に財布をすられるなど失敗(2号) u OK・NG行動をホテルで調べている内に帰国日(3号) 人間にも発生するタイプのものを “一般フレーム問題” とも 13

Slide 14

Slide 14 text

われはロボット (I, Robot) n アイザック・アシモフの著したSF小説 u “ロボット三原則” はこの小説で示された概念 p 第一条: ロボットは人間に危害を加えてはならない。ま た、その危険を看過することによって、人間に危害を及 ぼしてはならない。 p 第二条: ロボットは人間にあたえられた命令に服従しな ければならない。ただし、あたえられた命令が、第一条 に反する場合は、この限りでない。 p 第三条: ロボットは、前掲第一条および第二条に反する おそれのないかぎり、自己をまもらなければならない。 フレーム問題そのものではないが, ロボットが上記の3原則を守ろうとして,結果変な行動を起こしたり, 3原則の内の一つが損なわれた結果,妙なことが起きたりする …という,いろいろなストーリーが描かれる 14

Slide 15

Slide 15 text

チューリング・テスト n AI が できたか どうかを判定するためのテスト u イミテーション(模倣)・ゲーム とも n 別の場所にいる人間が,コンピュータを通じて やりとりし,相手が人間か否か判別できなければ AI ができた(知能がある)…と,判定する u チューリングテスト合格を競う,ローブナーコンテスト も 毎年開催されている ? ※ アラン・チューリングは 1950年 にこのテストを論文にまとめている ENIAC は1946年ごろ,ダートマス会議は1956年 15

Slide 16

Slide 16 text

アラン・チューリング(1912-1954) n イギリスの数学者 n 人工知能をはじめ情報工学の 基礎的な概念を多数生み出した n 情報系のノーベル賞 = チューリング賞 u 数学ではフィールズ賞 • ドイツの暗号(Enigma)を解読する装置を開発し,戦争終結を2年早めたとも • ただし,暗号解読任務は極秘だった & 同性愛は当時 違法だった …ことなどから,長らく暗号解読の業績は伏されていた 2009年 イギリス政府は謝罪の声明を発表 2013年 エリザベス女王の死後恩赦により名誉が回復された 16 “機械は思考することができるか?” ─ 計算する機械と知性 (1950) ─

Slide 17

Slide 17 text

映画:イミテーション・ゲーム n 第2次世界大戦中,イギリス が行った,ドイツの無線暗号 機エニグマの解読作業である Ultra作戦の映画 u Hidden Figuresと同じく 半分実話 u 主人公はチューリング エニグマ解読に用いられた計算機 Bombe (…のレプリカ) 2014年公開 17

Slide 18

Slide 18 text

強いAI・弱いAI n 哲学者 ジョン・サールが提唱した概念 n 強いAI u 人間と同じ心や知能を持ったAI p コンピュータによって人間をエミュレート可能という立場を含意 n 弱いAI u 心を模倣するだけの有用な道具 p 人間の心は持たないが,人間のような問題解決はできる • ← サール自身はこちらの立場をとった サールの思考実験 “中国語の部屋” 18

Slide 19

Slide 19 text

中国語の部屋 n 知的に見える=知的か? n 中国語の部屋 u 密室の中に,中国語を知らない人がいる u スゴイ辞書があって,中国語でこういう文字列が来たら, この文字列を返す…というのが一瞬で出てくる u 密室内の人はこの辞書を持っていて,外の人が中国語の お手紙を入れると,対応する文字列を返してくれる p 中の人はとにかく辞書で対応する文字列を探して返しているだけ で,お手紙の意味は何一つわかっていない u でも外から見たら,中の人は中国語を理解している 19

Slide 20

Slide 20 text

中国語の部屋へのいくつかの反論 n 中国語の部屋については複数の反論も u 中国語が話せる人だって,“脳のこの細胞”という単位で 理解をしているわけではないのと同じで,部屋全体をシ ステムとしてみれば理解しているといえるのでは? u そもそもそんな辞書,書き切れないし検索しきれない 20 中国語の部屋は 知能の判定方法として, チューリングテストは有効か? という問題でもある

Slide 21

Slide 21 text

知的に見える 振る舞い 21 https://www.youtube.com/watch?v=ToJD5r2SmwI けど,そう見えるだけで特に意味はない

Slide 22

Slide 22 text

記号接地問題 n これはなに? 22 なぜ椅子と認識できてしまうのか??

Slide 23

Slide 23 text

記号接地問題 n 抽象化された情報と,実体を対応づけること u シンボルグラウンディング問題 とも n 人間は様々な情報をうまく抽象化(記号化)し, 実体と対応付けて処理をしている u 体を持たないAIにリンゴは理解できるか? p 概念(記号)としてのリンゴが理解できたとして, 目も耳もないAIは,真にリンゴを知っているといえるか 23

Slide 24

Slide 24 text

記号接地問題 n そもそも機械の中での扱い u 我々は Apple(リンゴ)を 単語 として認識 p リスゴ とか Bapple だと「?」ってなってしまう p Apple と Orange,Bapple があったとき,仲間は Orange u 機械の中で Apple はただの記号の羅列 p 1000001 1110000 1110000 1101100 1100101 • Bapple: 1000010 1110000 1110000 1101100 1100101 • Orange: 1001111 1110010 1100001 1101110 1100111 1100101 p Apple の仲間はデータがほとんど同じ Bapple! p Apple も精々「たまに出てくる記号の並びだね」くらい 我々が知らない言語の文字を見るのと同じ: 24

Slide 25

Slide 25 text

記号接地問題 n 機械にリンゴとは何か聞いてみる u “リンゴとは,果物の一種で…” p 確かに説明してくれるが,辞書の内容を読み上げただけ u 今なら自然言語処理を駆使すれば,単に読み上げではな く,説明文も作れる p でも,「甘酸っぱい」という記号と, その感覚の対応は? 25

Slide 26

Slide 26 text

身体問題 n 知能には身体が必要なのでは?という考え u 身体があることで,さきほどの「甘酸っぱい」などの 感覚が理解できるのでは p まぁでも,味覚がないならないなりに知能は成り立つ可能性も • “潜水艦は泳げないのか?” 人には人の,機械には機械の知能 u 身体があることで,物理制約が生じるため, これによって解空間を制限することができ,様々な問題 に対応できるのでは? ロボットなどハードウェアが絡むので、 おもしろいが,実装のハードルは上がる… 26

Slide 27

Slide 27 text

潜水艦 は 泳げるか? n 知能のあり方 は ひとつか? u ヒトは空を飛ぶことができるが,鳥のそれとは全く違う u 器具の助けなく水中を泳ぐこともできるが,魚とは違う 27 コンピュータは考えることができるか? という問いは, 潜水艦は泳げるか? という問いと 同じようなものだ ─エドガー・ダイクストラ─ ヒトにはヒトの,機械には機械の 知能があるのでは? 身体がなくとも,記号接地できなくとも 知能は成立しうるかも

Slide 28

Slide 28 text

知能 を 補助する道具 n “人を支援する道具” の 分類 (※ 中小路久美代 博士 の 分類による) u ダンベル型 p 使い続けることで,人間に知識やスキルがたまる道具 u ランニングシューズ型 p すでに行っていることを,より効果的にできる道具 u スキー型 p それがあることで,初めてできる道具 28

Slide 29

Slide 29 text

今は触れない,その他の問題 n 機械学習関連でよく聞く問題 u ただし,必ずしも“知能”に絡んだ課題ではない u 次元の呪い p 特徴量の種類を増やし過ぎるとうまく学習できなくなる u ノー・フリーランチ定理 p 事前知識なしに,よいアルゴリズムを見つけるのは困難 u みにくいアヒルの子定理 p バイアスなしには,何かと何かを分類することは困難 29

Slide 30

Slide 30 text

補足 n 強いAI・弱いAI ─研究者に聞く人工知能の実像─ u 鳥海 不二夫 (著) p 丸善出版 (2017/10/26) p ISBN-10: 4621301799 p ISBN-13: 978-4621301791 参考書「知能の物語」に追加して, 以下の書籍なども,読みやすくて楽しいと思います 30