Upgrade to Pro — share decks privately, control downloads, hide ads and more …

最新AI技術「NAS(Neural Architecture Search)」を紐解く ~Google Cloud AutoMLの裏側を見ていく~

506dbe86c6801a3178c0e756df14dbb7?s=47 piacerex
September 06, 2018

最新AI技術「NAS(Neural Architecture Search)」を紐解く ~Google Cloud AutoMLの裏側を見ていく~

506dbe86c6801a3178c0e756df14dbb7?s=128

piacerex

September 06, 2018
Tweet

Transcript

  1. Presented by IAI Fukuoka (Institute for Advanced Intelligence) https://iaifukuoka.connpass.com/ 2018/09/06

    (Thu) Developers Summit 福岡 2018 最新AI技術「NAS」を紐解く (Neural Architecture Search) ~Google Cloud AutoMLの裏側を見ていく~ 2018/08/29 ver0.5作成 2018/09/01 ver0.7作成 2018/09/05 ver0.9作成
  2. 1 プログラマ歴36年 / XPer歴18年 / 福岡 技術顧問 (3社) AIジョブカレ 福岡代表

    / enPiT (文科省 社会人IT育成) 講師 IT企業2社経営 。 森 正和 |> 。 Elixirコミュニティ「fukuoka.ex」 福岡 理学部 / IAI Fukuoka / 「通常の3倍」福岡 主催 「量子コンピュータ by Blueqat」 / 「OpenQL」 福岡代表 福岡Elixirプログラマ / 重力プログラマ my favotite technology & implements. Twitter/Qiita/Github @piacere_ex
  3. 2 ここから14ページ 最近の活動紹介 (飛ばす方はP17へ)

  4. OSSを書いて、仕事作る CTO 常務取締役やってます

  5. 国内No.1 AIスクールの福岡代表&講師やってます AI権威の松尾研出身で「詳解ディープラーニング」著者、 巣籠さん監修のAI学校、現役のエンジニアが講義中 https://www.aijobcolle.com/

  6. 5 2018/8/24 福岡Elixirコミュニティ fukuoka.ex MeetUp #13 夏のfukuoka.ex祭=技術のパラダイムシフト

  7. この1年、福岡で並列・分散言語「Elixir」、広めました 1年間、隔月(偶数月)MeetUp+毎月もくもく会 国内・海外含め、fukuoka.exでしか手に入らない 情報やノウハウ、研究成果が毎回、満載 ナント、スポンサー付きましたw 企業でも無いコミュニティに スポンサー付く時代なんですね 福岡でElixir採用企業、増殖中 今年度、20社採用、目指します

  8. MeetUpは、「実際に動くコード」でライブデモします connpassのfukuoka.exグループに登録すると、次回 イベント開催のお知らせメール届きます、どうぞご登録を https://fukuokaex.connpass.com/ 地味に女子率、高し(^o^)

  9. もくもく会は、Elixirに入門する人でも、経験者でもOK 仕事終わり、くつろぎ、ほろ酔いつつ、Elixir/Phoenix によるプログラミングの世界に触れてみませんか? ※入門スライド/Qiitaも用意していますので、初心者も安心 connpassのfukuoka.exグループ登録で、もくもく会の 開催お知らせもメールで届きます、どうぞ、ご登録ください https://fukuokaex.connpass.com/

  10. 35年間、プログラマ続けてて、「重力プログラマ」に到達 先日、UnityでGPU使った天体シミュレータ開発着手

  11. 10 2018/7/20 福岡 理学部 八限目 「重力と宇宙を愛する全ての人に」 #2

  12. 重力・宇宙イベント会 第1回は、こんな感じでした

  13. 第2回は、キエフから、宇宙法専攻JDキターッ!

  14. 静岡県で天体研究しているJK→JDとも仲良し

  15. 福岡で人工衛星飛ばすQPS大西さんとも仲良し

  16. 最近、全国デビューしました 先月、パブリックメディア「Forkwell Press」にて取材され、 インタビューコラムが公開されました

  17. 16 1. AI・ML技術の現状と最新について 2. Google Cloud AutoMLとは? 3. AutoMLが実現する手軽なモデル構築 4.

    AutoMLの裏側 ~転移学習とNAS~ 5. 「NAS (Neural Architecture Search)」とは? 6. NASの実装 7. 今後、AI・MLにエンジニアは不要? 目次
  18. 17 1.AI・ML技術の現状と最新

  19. 18 1.AI・ML技術の現状と最新 今回、ご紹介する最新技術の前に、ここ数年のAI・ML技術に ついて、簡単に触れていきます 現在のAI・ML技術のトレンドと言えば、真っ先に出てくるのが、 「ディープラーニング」です 技術的には、1958年誕生のニューラルネットワーク (以下NN) の延長で、4層以上のNNに よって構成される、ディープ

    ニューラルネットワークによる 学習を「ディープラーニング」 と呼びます ニューラルネットワーク誕生 CNN誕生 ディープラーニング誕生 ディープラーニング躍進
  20. 19 現在、主流のディープラーニング手法 現在、主流となっているディープラーニング手法には、「CNN」 「RNN」「AE」の3つがあります ➢ CNN (Convolutional Neural Network) •

    複数用意した空間フィルタで畳込演算 (Convolution) を行い、各フィルタ結果から取捨選択 (プーリング) ことを 繰り返すことで、特徴を抽出できる ➢ RNN (Recurrent Neural Network) • 従来のNNのフィードフォワード構造に加え、フィードバック 構造も持たせることで、現在データだけで無く、過去データ からの影響も含めた、時系列としての特徴を抽出できる ➢ AE (Auto Encoder) • 次元削減時の圧縮法を教師なし学習することで、抽象 的な特徴を抽出できる (最近、データ生成で復活) PyCon Kyushu 2018スライドより
  21. 20 参考: 「arXiv」について AI・ML手法は、2012年以降、2次関数的成長を遂げており、 その火種が、「arXiv」という名の論文サイトで、従来の論文発表 は研究者主体でしたが、arXivではエンジニアも論文を出します 現代におけるムーアの法則と Google I/O 2018で紹介

    PyCon Kyushu 2018スライドより
  22. 21 最新AI・ML技術まとめ 今回、ご紹介した最新AI・ML技術をまとめると以下の通りです ➢ カプセルネットワーク • 少ないデータでも、高精度かつ耐久性の高い予測が可能 であり、NN/DLを超える、高い汎化能力を発揮する • 実証が少ないが、仕組みが合理的で、トライの価値あり

    ➢ 転移学習 • 少ないデータのドメインも、大量データで学習済みのモデル があれば予測を行え、高い汎化能力があると言える • 「学習の仕方を学習する」ことが可能なため、将来的には、 より少ないデータからの高精度学習に応用が期待できる ➢ QRNN • 時系列データ分析は、ビジネス領域で最も重要なデータ 分析課題で、QRNNは、その効率改善に実用できる PyCon Kyushu 2018スライドより
  23. 22 「カプセルネットワーク」とは? 2度の「AIの冬」の間もAI研究を続け、2012年にディープラーニ ングをヒットさせた「AIの父」、ジェフ・ヒントン博士 (70歳!) が 編み出した、ニューラルネットワークを超えると言われるAI新技術 半年前の2017年10月に論文を発表し、ニューラルネットワーク の最高精度に匹敵しつつ、誤答率が最低時のNNの半分にまで 減少できる、という研究成果を発表しています

    最大の違いは、ニューラルネットワークが特徴を「全特徴の量」で 捉えていたのに対し、カプセルネットワークは特徴を「各特徴毎の ベクトル」で捉え、更に「各特徴の間にある関係性」も捉えます 現在、Google Brain PJの研究者 とトロント大学教授を兼務している PyCon Kyushu 2018スライドより
  24. 23 「カプセルネットワーク」とは? カプセルネットワークは、各特徴を個別に判定し、更に各特徴間 の関係性も加味できるため、以下のような、全体としては見た目 が異なっている (回転も含む) が、各パーツの相対的な位置は 変わらない対象を「空間一致する」ものとして判別できます また学習時も、CNNでは必須だった、各パーツが微妙に違ったり、 回転させたバリエーションが不要となるため、高効率を実現します

    PyCon Kyushu 2018スライドより
  25. 24 「転移学習」とは? あるドメインで学習させたモデルを、別のドメインに適応させること で、少ないデータしか手に入らないドメインであっても精度高い 予測を可能とする学習手法です AI界のパイオニア、Andrew Ngが発表した、ビジネスにおける 機械学習の発展予測において、最初は「教師あり学習」が活躍 したが、次に躍進するのは、 「教師なし学習」や「強化学習」で

    無く、 「転移学習」と述べています PyCon Kyushu 2018スライドより
  26. 25 「転移学習」とは? 転移学習の実現には、以下3つのアプローチがあります ① 学習済みモデルの出力層のみ別ドメインに適応 • ドメイン間のタスクに共通点がある場合、入力層や中間 層・隠れ層の重みは固定し、出力層だけを別ドメインで 学習させることで、共通する特徴の抽出が可能です ②

    ドメイン非固有の特徴のみに限定 • 「表現学習」と呼ばれる、汎用的な特徴や、分散を学習 することで、ドメインに依存しない部分に限定して学習し、 ドメイン非固有の特徴を抽出します (AEはこの一種) ③ ドメインの違いを予め認識させて選り分ける • ドメイン間の変換を事前に学習させ、ドメイン間の違いを 認識し、ドメイン固有と非固有を判別することで、各々の 特徴を抽出できます (≒学習の仕方を学習する) PyCon Kyushu 2018スライドより
  27. 26 「QRNN」とは? 2016年11月、SalesForce研究所のジェームズ・ブラッドベリー らが発表した、RNNの計算時間を改善するための手法です RNNでメジャーな「LSTM (Long Short-Term Memory) は、 現在の出力を得るために、「過去の出力値」と「媒介変数の値」

    の両方が必要なため、並列計算が行えず、計算に時間がかかる という問題点を持っています QRNNは、CNNの持つ並列計算能力を部分的に利用すること で、この時系列データ学習を高速化し、時間短縮もしくは単位 時間あたりの精度向上が実現できます PyCon Kyushu 2018スライドより
  28. 27 1.AI・ML技術の現状と最新 こうしたモデルアーキテクチャ自体の発展以外にも、既存モデルの 最適化を、人手で行わず、マシンに行わせる…いわゆる自動化 技術により発展させるアプローチも存在します この領域は現状、ハイパーパラメータ (学習で変動しないパラ メータ) のチューニング※ に限定されていましたが、今回ご紹介する

    「NAS (Neural Architecture Search)」は、ハイパーパラ メータに限定されない、自動化技術の最新版となります (初めての論文が、2017/2/15と、半年前に出たばかりです) このNASを一早く導入したのが、「Google Cloud AutoML」で、 つい先日の2018/7/25に、β版が公開され、一般のユーザでも 利用可能となりました ※グリッドサーチ、ランダムサーチ、ベイズ最適化、GA等によりパラメータ探索を自動で行う
  29. 28 2.Google Cloud AutoMLとは?

  30. 29 2.Google Cloud AutoMLとは? Googleは、2016年末頃から「AIの民主化」をミッションに掲げ、 「Cloud Vision API」や「Natural Language API」などの、

    ”事前学習済モデル”によるサービスを提供してきました https://cloud.google.com/products/machine-learning/ これらサービスは、一定枠内のデータ識別には威力を発揮します が、ユーザ独自のデータ識別や、その元となる学習ができません 一方、AI・ML技術を熟知して、ユーザ独自識別を開発できる 企業・人材は限られており、また、その構築には時間がかかります 「AutoML」は、手軽な”独自モデル構築”を提供します ※上記の詳細は、以下のGoogle Cloud Japan公式ブログをご覧ください https://cloud-ja.googleblog.com/2018/01/cloud-automl-making-ai-accessible-every-business.html
  31. 30 2.Cloud AutoMLでどんなデータ識別が可能? AutoMLは、α版が2018/1/17に発表され、画像認識を提供 する「Cloud AutoML Vision」をリリースしました β版は、2018/7/24に発表され、自然言語解析を提供する 「Cloud AutoML

    Natural Language」と、翻訳を行う 「Cloud AutoML Translation」がリリース済です http://www.itmedia.co.jp/news/articles/1807/25/news066.html 米Disneyは、「AutoML Vision」 を採用済で、オンラインショップである 「shop Disney」のレコメンド機能 やショップ内検索を、AutoMLで 構築した、キャラクタ毎のカテゴリや 色による分類によって実現しています
  32. 31 2.AutoMLの前身、Cloud Vision APIだと… 「AutoML Vision」の前身である「Cloud Vision API」は、 ユーザがモデルの学習をさせること無く、ある程度の画像の分類 が可能ですが、事前学習していないデータの分類ができません

    たとえば、空に浮かぶ雲や、海と一緒に映る雲は、その特徴から 「雲」とは識別できても、「雲の種類」までは分類できません (積雲) (入道雲) (層雲) (積雲と分類できない) (入道雲と分類できない) 分類
  33. 32 2.AutoML Visionではどうなるか? 「AutoML Vision」では、ユーザ自身が訓練データ画像と分類 のためのラベルを共に追加し、画像とラベルの関係性を学習する モデルを構築できるため、ユーザ独自の識別が可能になります (積雲) (入道雲) (層雲)

    (積雲と分類できる) (入道雲と分類できる) ①ユーザ自身で 訓練データ画像 とラベルを追加し、 モデルを構築 ②構築した モデルを利用 ③分類
  34. 33 3.AutoMLが実現する手軽なモデル構築

  35. 34 3.AutoMLがどれほど手軽にモデル構築できるか? 訓練画像をアップし、ラベルと関連付け、[TRAIN]ボタン押下で、 モデルが構築され、評価も行われます (コーディング一切不要) https://www.youtube.com/watch?v=GbLQE2C181U 訓練画像群で [TRAIN] 適合率 (Precision)

    と再現率 (Recall) 、 AUCを出力 真陽性率 (True Positive) と 偽陽性率 (False Positive) から ROC曲線とAUCを出力 http://www.randpy.tokyo/entry/roc_auc 学習時
  36. 35 3.AutoMLがどれほど手軽にモデル構築できるか? 新たに構築したモデルは、[PREDICT]ボタン押下でテストができ、 Cloud Vision APIと同じく、REST API呼出で利用できます (積雲) (入道雲) (層雲)

    REST API呼出で未知データをアップ 分類 テストデータで [PREDICT] テストデータ をアップ 運用時 テスト時 分類
  37. 36 3.参考: AutoML Vision β版のUI Google Cloud Next '18 (2018/7/25開催)

    で発表された AutoML Vision β版では、UIが大幅に変更されていました 訓練画像群で [TRAIN]
  38. 37 3.参考: AutoML Vision β版のUI テストデータで [PREDICT] 分類 複数ラベルとのマッチ についてもマトリクス

    で表示されるように REST APIおよび PythonのIFコードも 自動生成
  39. 38 あまりに簡単で、

  40. 39 もしかして、 エンジニア不要?…

  41. 40 ここは最後に 振り返るとしましょう

  42. 41 4.AutoMLの裏側 ~転移学習とNAS~

  43. 42 4.AutoMLの裏側 ~転移学習とNAS~ 「AutoML Vision」 は、2つの最新AI・ML技術で構築されます A) 転移学習 (Transfer Learning)

    • 学習済みモデルを別のドメインに移し、モデルの一部のみ 別ドメインでの再学習を行うことで、モデル転用する技術 B) NAS (Neural Architecture Search) • 人手で行われていた、ニューラルネットワークの構造設計と、 ハイパーパラメータチューニングを、自動最適化する技術 (AutoML Visionでは、Advancedモード時、使われる) A) B)
  44. 43 5. 「NAS (Neural Architecture Search)」とは?

  45. 44 5.「NAS (Neural Architecture Search)」とは? 人手で行われていた、ニューラルネットワークの構造設計と、ハイ パーパラメータのチューニングを自動で行い、学習を行う最適化 は、「Controller RNN」と「Child Network」という、2つの

    ニューラルネットワークの組み合わせによって構成されています 「Child Network」は、自動チューニングされる対象のニューラル ネットワーク本体で、「Controller RNN」は、Child Network の構造を最適化探索するためのニューラルネットワークです
  46. 45 5.「NAS (Neural Architecture Search)」とは? つまりNASは、最適な「Child Network」構造を「Controller RNN」で探索し、新たなChild Network構造を生成することで、 人手無での最適化されたモデルを獲得できる、ということです

    具体的には、以下の流れの「強化学習」により実現されます ① Controller RNNが設定した、Child Networkのハイパー パラメータでChild Networkを学習させる ② 上記①で学習したChild Networkに、テストデータを入力 し、正解率 (Accuracy Score) を出す ③ 上記②の正解率をController RNNの報酬として与える ④ この報酬を元に、方策勾配法 (policy gradient algorithm) でController RNNを更新する ⑤ 上記①~④を繰り返す
  47. 46 5.CNNにおける「NAS」 CNNの「Controller RNN」は、 層毎におけるハイパーパラメータ (フィルタ、ストライド※1 ) をグリッド サーチ…つまり全探索※2 します

    ※1: ストライド=フィルタのシフト幅 ※2: 実際はSkip Connectionで層飛びさせます CNNをChild Network とするNASは、右記の通り Controller RNNから Child Networkの設定 を行い、 Child Network が学習され、テスト正解率 を報酬として、Controller RNNの更新を繰り返します Controller RNN Child Network 強化学習
  48. 47 5.RNNにおける「NAS」 RNNの「Controller RNN」は、RNNセルをChild Networkと して、RNNセル毎のハイパーパラメータ (結合、活性化関数) を グリッドサーチします 結合種別

    (Add、ElementWise Multiplication、Max等) と活性化関数種別 (tanh、sigmoid、ReLU等) を、各RNN セルに対してController RNNからChild Networkに設定し、 Child Networkが学習され、テスト正解率を報酬として、 ControllerRNNの更新を繰り返します
  49. 48 5.参考: NAS (Neural Architecture Search) 論文 2018/9/2現在、arXivで、計26本の関連論文が出ています 初投稿は2017/2/15 と1年半前になる

    直近は2018/8/29、 つい先日とホットなトピック
  50. 49 6.NASを実装するには

  51. 50 6.NASを実装する前に…NASは重過ぎる NASを実装する前に、NASには「計算コストが高く、処理時間も 長い」という課題があり (≒800個のGPUを使って、21~28日 も実行にかかる等)、そのまま実装しても非実用的です その原因は、ハイパーパラメータの組み合わせを全探索することで、 Child Networkが収束するまで学習せざるを得ないことです (グリッドサーチの非効率さと、ほぼ同じ課題)

    そこで、全てのChild Networkで、重みを共有するように強制 すれば、個々の全収束を避け、学習効率を改善できる、ENAS (Efficient NAS)」という手法が考案されました
  52. 51 6.Efficient NASについて 重みを共有することは、「転移学習」と同様のメカニズム (≒特定 のドメインで学習された重みは、別のドメインでも有効) で有用 なことが分かっており、重みは、そのままか、軽微修正で転用でき、 個々のゼロベースでの収束が不要となります NASが探索するグラフを、より大きな

    グラフの一部とみなし、DAGのような 単一方向の結合のみとし、重みは 転移で処理すれば、大幅に効率が 改善できます
  53. 52 6.Efficient NASの実装例 ENASをTensorFlowで実装したコードが、論文共著者本人の Githubにあるので、こちらを使って、実装のポイントを説明します https://github.com/melodyguan/enas

  54. 53 6.Efficient NASの実装コード 2つあるサンプルのうち、画像データセットサンプル「CIFAR-10」 の学習をENASで最適化する方について解説します 論文にも記載されている、以下2種類のCNNの最適化が可能 です ① NN構造最適化 (マクロ探索)

    ② CNNセル最適化 (ミクロ探索) この2種類を、search_forパラメータでスイッチしています if FLAGS.search_for == "micro": ControllerClass = MicroController ChildClass = MicroChild else: ControllerClass = GeneralController ChildClass = GeneralChild src/cifar10/main.py
  55. 54 6.Efficient NASの実装コード マクロ検索のGeneralControllerは、Controller RNNとして、 Child Networkの接続をDAGとみなし、以下を探索します ① 中間層4層は、どの処理を選択するか? ②

    どのスキップ接続 (各矢印) を有効化するか? DAG表記
  56. 55 6.Efficient NASの実装コード 選択対象である各層は、以下コードで定義します これらを、main.pyのtrain()で中間層4層にアサインすることで、 探索します コード (会場以外には、別途 お見せする機会設けます)

  57. 56 6.Efficient NASの実装コード 各層の選択は、下記のような総当たりの組み合わせを探索し、 この後、テスト正解率を報酬として、Controller RNNの更新を 繰り返します コード (会場以外には、別途 お見せする機会設けます)

  58. 57 6.Efficient NASの実装コード ミクロ探索のMicroControllerは、Controller RNNとして、 下記のような、Convolution Cellと、Reduction Cellの各々 を別々のDAGとみなし、以下を探索します ①

    入力となるCNNセル2ノードを選択する ② 2ノードは、どの処理を選択するか?
  59. 58 6.Efficient NASの実装コード Convolution Cell (≒normal_arc) と、Reduction Cell (≒reduce_arc) は、以下コードで定義します

    これらを、main.pyのtrain()でCNNセル2ノードにアサインする ことで、探索します コード (会場以外には、別途 お見せする機会設けます)
  60. 59 6.Efficient NASを実行する 下記サイトにある「CIFAR-10 python version」をDLし、git cloneしたenasソースフォルダ配下のdataフォルダに「cifar10」 というフォルダを作成し、DLしたものを解凍します https://www.cs.toronto.edu/%7Ekriz/cifar.html マクロ探索は、以下のスクリプトで行えます

    ミクロ探索は、以下のスクリプトで行えます ./scripts/cifar10_macro_search.sh ./scripts/cifar10_micro_search.sh
  61. 60 6.Efficient NASの性能を確認する 実行結果は、以下の通りで、GPU800個で21~28日かかる NASと比べ、ENASは、マクロ検索/ミクロ検索共に、GPU1個 で半日以内には終わり、エラー率もNASと変わらない精度です ここまでの性能があれば、AutoML同様、実用になるでしょう

  62. 61 7.今後、AI・MLにエンジニアは不要?

  63. 62 7.今後、AI・MLにエンジニアは不要? ENASは、GPU1個で約半日あれば、AutoMLと同じ画像認識 モデルの自動構築が可能なことが分かりました また、転移学習も、GPU1個で約半日あれば、やはり同じように、 画像認識モデルの自動構築が可能です (PyCon Kyushu 2018登壇時、VGG16で検証済) このように、自前でAutoMLと同様のモデル構築が可能ですが、

    冒頭でお見せした通り、AutoMLによって実現されるのは、画像 認識モデルの自動構築だけで無く、以下も付いてきます ① ノンプログラミングでモデル構築が可能 ② 学習→予測→APIの過程が、使いやすいUIで提供される 自前のNAS/転移学習が出る幕は、無いように思えてきます…
  64. 63 7.今後、AI・MLにエンジニアは不要? 潤沢な資金や、高い投資対効果が確定しない場合、AutoML では無い、自前での構築にもニーズはありそうです ① AutoMLは、1時間あたり$20と、高額なサービス ② 自前でも、1度、転移学習/ENASを構築してしまえば、 GPU1個で約半日と、あまり時間がかからない ③

    UIは無くとも、正解データとなる画像をアップし、テストデータ で確認し、コンソールで正解率を確認しても、実は大差無い まだまだAI・ML開発に、エンジニアは必要な場面はありそうです accuracy = 0.995 == コンソール出力 AutoMLのUI
  65. 64 最後に 「arXiv」では、誰でも閲覧し、利用できる論文が、2次関数的 に増え続けており、まさに日進月歩の発展が、無料で手に入る 状況で、いつまでもAI・MLを「知らない」「入門で止まっている」 「自分に関係無い」と言ってられない状況が、そこまで来ています

  66. 65 こんな流れを受けて…

  67. ①AI入門が終わった方向けのAI・MLコミュをどうぞ 昨年7月に発足した「福岡x人工知能x…」のミッションは、 「AI・MLに入門する人を増やし、仕事の中でAI・ML の開発ができる人を増やしていく」ということでした 実際に1年活動してみて、プログラミング会などの 手を動かすイベントも行いましたが、入門後、実務に 結びつかない実態が浮き彫りになってきました…そこで、 Institute for Advanced

    Intelligence Fukuoka 「IAI Fukuoka」 ≒ 「居合い福岡」 という、実務に直結のAI・Ml開発を「もくもく会」主体 で毎月開催するようなコミュニティを7月発足しました (最新AI・MLのお披露目も。connpass登録どうぞ)
  68. ②AI・MLに欠かせない前処理系をOSSで無償提供 AI・MLには、前処理 (データクレンジング、変換・集計・加工) が 欠かせませんが、Elixir+Phoenix+Vue.jsで開発したOSS 「Esuna」を使えば、UI上でデータ処理を設定でき、AI・MLへと スムースにデータを流せます (α限定公開中、10月β公開予定)

  69. ③Elixirで、scikit-learn/Keras相当を実装中 「Elixir」の性能・並列性・生産性をAI・ML文脈でも活かすため、 fukuoka.exでGPU実装を行い、機械学習エンジン開発中です 半年後にはscikit-learn相当、1年以内には、GPU対応済の Keras相当をリリース予定です (IAI Fukuokaでも取上げます) 北九大、京大の先生と共に Elixir GPU活用の共同研究

    論文も書いてます
  70. もし、fukuoka.exにご興味湧いたら… ポータルサイトを先月末にプレオープンしたので、どうぞご覧ください https://fukuokaex.fun/ Fusicやベガコーポレーション といった、福岡を代表する 企業のElixir導入に至った インタビューコラムを公開中 (カラビナ、YAMAP、PIVOTと 毎週のように続々、続きます) 全世界におけるElixir採用

    事例も紹介しています (国内にいると見えにくい、 Elixirの盛り上がりを実感) これまでMeetUpやQiitaで 数多く蓄えたElixir技術情報 やスライド、コラムも集約予定
  71. 70 最後にAI・ML 以外の告知です

  72. 9/13(木)、「重力と宇宙」イベント2回目、開催決定!! はやぶさ2開発者 村田教授と元スペースワールド部長 島田様の夢の宇宙講演です (福岡 理学部 十限目) ”宇宙世紀 講演”でググれば、トップに出ます なくなるョ全員集合

    で九州を騒がせた この方を呼べました
  73. 72 ご清聴ありがとうございます