一橋大学 #経済学のための実践的データ分析 2020秋: 7/12

F5f758ca2ec0de2da9781ce9391d9c6c?s=47 yasushihara
October 06, 2020

一橋大学 #経済学のための実践的データ分析 2020秋: 7/12

一橋大学「経済学のための実践的データ分析」2020秋: 7/12
7.オープンなデータを使って万事を調べる
7.1.Lens.org で特許/論文データを探す
7.2.Linked Open Data とは
7.3.LODとSPARQL Endpointを使う
7.4.レポート2 のお知らせ

F5f758ca2ec0de2da9781ce9391d9c6c?s=128

yasushihara

October 06, 2020
Tweet

Transcript

  1. 一橋大学 「経済学のための 実践的データ分析」 2020秋: 7/12 7.オープンなデータを使って万事を調べる 7.1.Lens.org で特許/論文データを探す 7.2.Linked Open

    Data とは 7.3.LODとSPARQL Endpointを使う 7.4.レポート2 のお知らせ 一橋大学大学院経済学研究科 原泰史 yasushi.hara@r.hit-u.ac.jp
  2. 今日の内容 • 13:00-13:15 • プレ講義 [録画なし] • 13:15-13:35 • 7.1

    Lens.org で特許/論文 データを探す[録画あり] • 13:35-13:40 • インターミッション[録画なし] • 13:40-14:00 • 7.2 Linked Open Data と は [録画あり] • 14:00-14:05 • インターミッション2[録画なし] • 14:05-14:25 • 7.3 LODとSPARQL Endpointを使う[録画] • 14:25-14:30 • インターミッション3[録画なし] • 14:30-14:50 • 7.4 レポート2 のお知らせ [録画]
  3. 7.1 Lens.org で データを探す

  4. Lens.org • 特許と論文をまとめて検索できるデータベース • APIも提供

  5. Lens.org のデータカバレッジ • Patents • The European Patent Office’s DocDB

    bibliographic data from 1907 - present: 81+ Million documents from nearly 100 jurisdictions. • USPTO Applications from 2001 – present with full text and images. • USPTO Grants from 1976 – present with full text and images. • USPTO Assignments (14+ Million). • European Patent Office (EP) Grants from 1980 – present with full text and images. • WIPO PCT Applications from 1978 – present with full text and images. • Australian Patent Full Text from IP Australia • Paper • PubMed • Crossref • Microsoft Academic • CORE • PubMed Central https://about.lens.org/
  6. Data Coverage Source: Martijn Visser, Nees Jan van Eck, Ludo

    Waltman (2020) Large-scale comparison of bibliographic data sources: Scopus, Web of Science, Dimensions, Crossref, and Microsoft Academic, https://arxiv.org/abs/2005.10732
  7. COVID-19 Datasets https://about.lens.org/covid-19/ • Patents • Publications

  8. 実習4-1. Lens.org で Ikujiro Nonaka の論 文を探す • 左上の欄に Ikujiro

    Nonaka と記入し, Enterする.
  9. 実習4-1. Lens.org で Ikujiro Nonaka の論 文を探す • Ikujiro Nonaka

    に関するあらゆる特許や論文の情報が出てくる
  10. 実習4-1. Lens.org で Ikujiro Nonaka の論 文を探す • Filters ->

    Author から Ikujiro Nonaka を選択する
  11. 実習4-1. Lens.org で Ikujiro Nonaka の論 文を探す • 引用数の高い研究が確認できる (「私の履歴書」で書いてたやーつ)

  12. None
  13. 実習2. Lens.org で Toyotaの特許リストを 取得する • Patents に Toyota と入力し

    Enter
  14. 実習2. Lens.org で Toyotaの特許リストを 取得する • Filters から Applicants を開き,

    Toyota Motor Co Ltd と Toyota Motor Corp を選択し Refine をクリック
  15. 実習2. Lens.org でToyota の特許リストを 取得する • Toyota の特許一覧が表示される

  16. 実習2. Lens.org でToyota の特許リストを 取得する • 年ごとの特許数の推移などが表示されている

  17. 実習2. Lens.org でToyota の特許リストを 取得する • Analysis をクリックする

  18. 実習2. Lens.org でToyota の特許リストを 取得する • 結果が表示される

  19. 実習2. Lens.org でToyota の特許リストを 取得する • Export Results をクリックする

  20. 実習2. Lens.org でToyota の特許リストを 取得する • JSON や CSV 形式を選び,

    Export をクリックする
  21. Additional: Lens.org に登録してAPI で データを取得する

  22. Additional: Lens.org に登録してAPI で データを取得する • Twitter API 同様, 利用理由について委細を記述し、申請を行う。

    • 内容に問題がない場合、許可される • 審査に10時間くらいかかります
  23. Additional: Lens.org に登録してAPI で データを取得する • Token を作成する

  24. Additional: Lens.org に登録してAPI で データを取得する • API Token が発行される

  25. Additional: Lens.org とAPI で話す • Pythonの場合 import requests url =

    'https://api.lens.org/scholarly/search' data = '''{ "query": { "match_phrase":{ "author.affiliation.name": "Hitotsubashi University" } }, "size": 1, "sort": [ { "year_published": "desc" } ] }''' headers = {'Authorization': 'Bearer your-access-token', 'Content-Type': 'application/json'} response = requests.post(url, data=data, headers=headers) if response.status_code != requests.codes.ok: print(response.status_code) else: print(response.text) https://docs.api.lens.org/samples.html
  26. Additional: Lens.org とAPI で話す • 出力結果

  27. 現時点での論文データベース利用法 • Web of ScienceとScopus, どちらにもデメリットとメリットがある • Web of Science:

    データベース全体の構造が複雑, かつノイズデータも多いけ ど長い期間をカバーしている • Scopus: Web of Science に比べればデータベース全体の構造は比較的単純. Author ID や Affiliation ID などを備えているので一見 Name-Matching の手 間は省けそうだけど, やはりノイズデータが含まれている. 今後に期待. • (高いから比べられないし, だいたいの大学ではひとつしか使えないし) 論 文データベースは Web of Science, Scopus のいずれかを使う • 恐らく, 両データベースの接合を試みるだけでたくさんの Paper が 書ける(けれど大変) • 指標を使って, クエリを投げてデータを取り出した後, 整合性が取れ ているかチェックしていく (別の組織が入っていないか, 別の国が 入っていないか, ダブルカウントしていないか etc…) • Lens.org (Microsoft Academics) のニーズが増えそう 2020/10/5 27
  28. まとめ • 論文データベースは大学にいる間に活用しよう • かと思ったらLens.org なども出てきているので, そんなに困らないかも • 論文データベースは完璧ではないことを知ろう •

    かと思ったら Lengs.org などもあるので, Scopus と Web of Science 含め 相互補完的に使うのが吉 • 論文データベースを使って分析するには、データの整理や名寄せ が必要不可欠である • NISTEP製テーブルをたくさん使いましょう • 論文データベースからデータを取得して多変量解析するには、 やっぱりデータベース処理の知識が必要になってくる • いまのうちにNoSQL とか覚えておくと、すごい論文が書けちゃうかも 2020/10/5 28
  29. 7.2 Linked Open Data とは

  30. ここまでのおさらい • 無償で利用できるデータ • 特許 • Google Patents/BigQuery Sandbox •

    IIP パテントデータベース • Lens.org (無償 API, Web) • 論文 • Microsoft Academics • J-global • Lens.org (無償 API, Web) • 企業 • (Yahoo! ファイナンス) • FOR STARTUP • 有償で利用できるデータ • 論文 • Web of Science • Scopus • Lens.org (有償API) • 特許 • Lens.org (有償API) • 企業 • 帝国データバンク • BvD • 日経NEEDS • 日経 FINANCIAL QUEST • INITIAL
  31. とにかくデータベースは高い • Web of Science • n年分のデータで数千万円 • 帝国データバンク •

    一件データを取りに行くたびに数万円 • データを円滑に解析するためには, データそのものだけではなくそれ を解析できる環境も必要不可欠 • オンプレミスの環境を社内/学内に構築したりとか, AWS か Windows Azure か Google Big Query の有償版をサブスクライブしたりとか • データを解析するにはとっても手間もお金もかかる(外注ならなおさ ら)
  32. 今日のテーマ; オープンデータ • オープンデータとは • “特定のデータが、一切の著作権、特許などの制御メカニズムの制限な しで、全ての人が望むように利用・再掲載できるような形で入手でき るべきであるというアイデア” • “オープンデータとは、自由に使えて再利用もでき、かつ誰でも再配布

    できるようなデータのことだ。従うべき決まりは、せいぜい「作者の クレジットを残す」あるいは「同じ条件で配布する」程度である“ https://ja.wikipedia.org/wiki/%E3%82%AA%E3%83%BC%E3%83 %97%E3%83%B3%E3%83%87%E3%83%BC%E3%82%BF
  33. Level of Open Data ★ Available on the web (whatever

    format) but with an open licence, to be Open Data ★★ Available as machine-readable structured data (e.g. excel instead of image scan of a table) ★★★ as (2) plus non-proprietary format (e.g. CSV instead of excel) ★★★★ All the above plus, Use open standards from W3C (RDF and SPARQL) to identify things, so that people can point at your stuff ★★★★★ All the above, plus: Link your data to other people’s data to provide context https://www.w3.org/DesignIssues/LinkedData.html https://5stardata.info/ja/
  34. オープンデータのエッセンス • データがオープンライセンスで公開されていること • コンピューターが処理できる形式になっていること • オープンに利用できるフォーマットでデータが公開されている こと • Web

    標準でデータが公開されていること • 外部データともリンク可能なこと • これらを踏まえたのが, Linked Open Data
  35. 統計データのRDF (Resource Description Framework) 化 • 統計表のデータ定義では、統計 表のセルごとにRDF化を行ない ます。 •

    統計表の各セルに対してIDを振 り、それを主語とします。 • 各セルに対して、次元、測度、 属性、観測値を、それぞれ述語、 目的語として定義します。 • 主語、述語、目的語の3つの要 素を「トリプル」といいますが、 ひとつの統計値(統計表のセ ル)は複数のトリプルによって 表されます。 http://data.e-stat.go.jp/lodw/outline/abstraction#1-1-1
  36. Linked Open Data Cloud • https://lod-cloud.net/

  37. オープンデータの具体例 1. Linked Brazilian Amazon Rainforest 2. Data.gov 3. 統計LOD

    4. 行政事業レビューシートLOD 5. 漫画ゲームアニメデータベース 6. 国会図書館 Linked Open Data 7. gBizInfo (旧法人インフォ) 8. DBPedia
  38. オープンデータの具体例; LINKED BRAZILIAN AMAZON RAINFOREST • Linked Brazilian Amazon Rainforest

    Data is such a dataset that is openly available for anyone to use for non-commercial research. The data was produced as a joint effort by the Institute for Geoinformatics, University of Muenster, Germany and the National Institute for Space Research (INPE) in Brazil. • The data can be accessed in a Linked Data fashion via a SPARQL-endpoint, and via dereferenciable URIs. The data consists of 8250 cells—each of size of 25 km * 25 km—capturing the observations of deforestation in the Brazilian Amazon Rainforest and a number of related and relevant variables. This spatiotemporal deforestation data was created using a number of aggregation methods from different sources. The data covers the whole Brazilian Amazon Rainforest. http://linkedscience.org/data/linked-brazilian-amazon-rainforest/
  39. オープンデータの 具体例2; data.gov • アメリカの政府系データを収 集したポータルサイト • CSV やRDF, XML

    形式でデー タを取得できる • https://catalog.data.gov/
  40. オープンデータの具体例2; data.gov • Popular Baby Names • “Popular Baby Names

    by Sex and Ethnic Group Data were collected through civil birth registration. Each record represents the ranking of a baby name in the order of frequency. Data can be used to represent the popularity of a name. Caution should be used when assessing the rank of a baby name if the frequency count is close to 10; the ranking may vary year to year.” • https://catalog.data.gov/dataset/ most-popular-baby-names-by- sex-and-mothers-ethnic-group- new-york-city-8c742
  41. オープンデータの具体例2; data.gov

  42. オープンデータの具体例3; 統計LOD • 日本の政府系機関が収集した データがLOD として公開され ている • http://data.e-stat.go.jp/lodw/ •

    消費者物価指数や経済センサス などが収録 • SPARQL Endpoint; http://data.e- stat.go.jp/lod/sparql/
  43. 新宿区にいる日本人の人口を取得する

  44. 行政事業レビューシートLOD • 内閣官房によって公開されている行政事業レ ビューシート (https://www.gyoukaku.go.jp/review/revie w.html)の主要な項目をLOD化しました。 • 本データには、中央省庁が行っている年間約 5000の事業毎に「何が目的か」「事業の内 容」「予算額」「事業予算の支払い先」「ど

    んな成果があったか」などの項目が含まれて います。 • 本データを利用することで、行政事業が適切 に実施されているかのチェックができるだけ でなく、国の事業を受注したい企業などが事 業の特徴や競争相手を調べることでビジネス に活用することもできます。 多くの人々が政 治・行政のことを「自分ごと」として関心を 高めてくれることを期待しています。 以下の リポジトリでJSON形式でのデータ配布も行 なっています。 https://github.com/judgit/data http://idea.linkdata.org/idea/idea1s2869i?fbclid=IwAR3KBJe6i HBttcpyuCvnBdR9yKAFSNvINLE_DcJ0-JGaGSPtwpXhmzoh7vo
  45. データの中身はこんな感じ

  46. オープンデータの具体例4; メディア芸術データベース LOD • メディア芸術データベース • マンガ • アニメーション •

    ゲーム • メディア・アート に係る情報が集約されたデータ ベース
  47. メディア芸術データベース • 検索結果 • 監督 • 演者 • 作成者 などの情報が取得できる

  48. メディア芸術データベースLOD • https://metadata.moe/madb-lod/

  49. メディア芸術データベースLOD • 公開年ごとにTVアニメ数を集計する PREFIX schema: <http://schema.org/> PREFIX rdf: <http://www.w3.org/1999/02/22-rdf-syntax-ns#> PREFIX

    rdfs: <http://www.w3.org/2000/01/rdf-schema#> PREFIX ma: <https://metadata.moe/ns/madb/ma#> SELECT ?y (COUNT(DISTINCT *) AS ?cnt) WHERE { ?s a ma:Collection ; ma:media "TVレギュラー" ; schema:startDate ?startDate . } GROUP BY (SUBSTR(?startDate, 1, 4) AS ?y) ORDER BY DESC(?y)
  50. メディア芸術データベースLOD • 公開年ごとにTVアニメ数を集計する PREFIX schema: <http://schema.org/> PREFIX rdf: <http://www.w3.org/1999/02/22-rdf-syntax-ns#> PREFIX

    rdfs: <http://www.w3.org/2000/01/rdf-schema#> PREFIX ma: <https://metadata.moe/ns/madb/ma#> SELECT ?y (COUNT(DISTINCT *) AS ?cnt) WHERE { ?s a ma:Collection ; ma:media "TVレギュラー" ; schema:startDate ?startDate . } GROUP BY (SUBSTR(?startDate, 1, 4) AS ?y) ORDER BY DESC(?y) 接頭辞 PREFIX を指定する たとえば, PREFIX ma: は文化庁 DBの叙述構造を取得する
  51. メディア芸術データベースLOD • 公開年ごとにTVアニメ数を集計する PREFIX schema: <http://schema.org/> PREFIX rdf: <http://www.w3.org/1999/02/22-rdf-syntax-ns#> PREFIX

    rdfs: <http://www.w3.org/2000/01/rdf-schema#> PREFIX ma: <https://metadata.moe/ns/madb/ma#> SELECT ?y (COUNT(DISTINCT *) AS ?cnt) WHERE { ?s a ma:Collection ; ma:media "TVレギュラー" ; schema:startDate ?startDate . } GROUP BY (SUBSTR(?startDate, 1, 4) AS ?y) ORDER BY DESC(?y) Select では, ?y と ?cnt を取得する Where 中では, ma:Collection の中で, ma:media で “TVレギュラー” に当て はまるデータを取得し, schema:startDate の情報 を ?startDate に渡すことを明記する
  52. メディア芸術データベースLOD • 公開年ごとにTVアニメ数を集計する PREFIX schema: <http://schema.org/> PREFIX rdf: <http://www.w3.org/1999/02/22-rdf-syntax-ns#> PREFIX

    rdfs: <http://www.w3.org/2000/01/rdf-schema#> PREFIX ma: <https://metadata.moe/ns/madb/ma#> SELECT ?y (COUNT(DISTINCT *) AS ?cnt) WHERE { ?s a ma:Collection ; ma:media "TVレギュラー" ; schema:startDate ?startDate . } GROUP BY (SUBSTR(?startDate, 1, 4) AS ?y) ORDER BY DESC(?y) ?startDate を substr 関数を使って, 年数だけにする、それを ?y と名づけ、 年ごとにグルーピングする ?y の値で並べ替える (order by)
  53. メディア芸術データベースLOD • 出力結果

  54. メディア芸術データベースLOD • 年別のテレビアニメ数 0 50 100 150 200 250 300

    350 1950 1960 1970 1980 1990 2000 2010 2020
  55. メディア芸術データベースLOD 年次アニメ映画数の推移 0 20 40 60 80 100 120 1900

    1920 1940 1960 1980 2000 2020 2040
  56. 国会図書館 Linked Open Data • https://www.ndl.go.jp/jp/dlib/standards/lod/index.html

  57. gBizInfo (旧法人インフォ) • https://info.gbiz.go.jp/ • (政府に関連する)企業の情報を 一元的に取得できる • Web インターフェースのみな

    らず, API も提供 • 取得できる主な情報 • 財務 • 特許 • 届け出・認定 • 補助金 • 調達 • 表彰 • 職場 • ローソンを出力した場合
  58. gBizInfo (旧法人インフォ) • SPARQL Endpoint • http://api.hojin-info.go.jp/sparql

  59. オープンデータの具体例; DBPedia • “DBpediaは,Wikipediaから構造化データセットを抽出するこ とで,セマンティックWeb技術によるフリーの知識ベースを構 築している。Wikipediaは,著作権者等の表示と同じライセン スの適用をすれば,自由に複製・改変・再配布等ができる。 • “そのため,DBpediaのようにWikipediaから構築したデータも 問題なく活用できるようになっている”

    https://www.jstage.jst.go.jp/article/johokanri/60/5/60_307/_html/-char/ja
  60. 日本語リンクトデー タ・クラウド図 (at 2015-11-18)

  61. Dbpedia のデータモデル • リンクトデータの4原則 1. 事物の名前づけにURIを使う 2. HTTP URIを使うことでそれをWeb上で調べられるようにする 3.

    誰かがURIを引いたときには標準技術を使って有益な情報を提供する 4. 他のURIへのリンクを含むことで,人々がより多くの事物を発見でき るように支援する • “人や施設のような実世界の物や,色や単語,物の関係といっ た抽象的な概念についてもWeb上で扱えるようにする。”
  62. Dbpedia のデータモデル

  63. Scientist 同士の関係をネットワーク化

  64. まとめ • 社会的な事象をオープンなデータセットとして取得して、解析 出来る時代はもうそこまできている!(ぺこぱ) • 今まで定性的な分析しか出来ないと思い込まれていた分野も、 だいたい定量的な分析が出来るようになってる (アニメとか ゲームとか) •

    記法としてはSQLとだいたいおんなじ。この講義の中ではSQL と同じく自分でデータの fetch をするところまでで留めていま すが、必要に応じて、データを自動的に取得してフロントエン ドにつなげるなども可能ではあります
  65. References • Linked Open Data(LOD)の基本的な使い方 • https://www.slideshare.net/KoujiKozaki/linked-open-datalod- 155413298 • SPARQL入門

    • http://www.aise.ics.saitama-u.ac.jp/~gotoh/IntroSPARQL.html • https://www.w3.org/TR/sparql11-query/#grammar
  66. 7.3 Linked Open Data の 使い方

  67. 今日の実習 • Python + Jupyternotebook or Google Colaboratory で, DBPedia.org

    や文化庁DBやgbizInfoからデータを引っ張ってこよう • 利用するもの • Jupyter Notebook + Python3 • DBPedia.org の SPARQL Endpoint
  68. 今日の Notebook • Jupyter Notebook/Lab https://www.dropbox.com/ s/bplqjcqay7j06b3/Python %20%E3%81%A7%20SPAR QL%20Endpoint%20%2B%2 0DBpedia.org%20%E3%82

    %92%E4%BD%BF%E3%81 %A3%E3%81%A6%E3%81% BF%E3%82%8B.ipynb?dl=0 • Google Colaboratory https://colab.research.go ogle.com/drive/17gLr9cS zX9zSLQGHh3C- thgoC6RvdysG
  69. 1-a. 必要なパッケージをインストールする • pip のバージョンをアップデートする • Python のコマンドを実行する場合には, 先頭に !

    をつける
  70. 1-b. 必要なパッケージをインストールする • sparqlwapper をインストールする

  71. 2. DBpedia.org から, 経済学に関連するカ テゴリ情報を取得する • インポートした SPARQLWrapper をインスタンスにする •

    そのとき, どの Endpoint からデータを読み出すか設定する (今回は http://ja.dbpedia.org/sparql) • どういったデータを取り出すかクエリを指定する (特許データベース回参照) • 今回は, 経済学 に関するカテゴリの情報を一括取得する • Query() メソッドでデータを取得し, convert() で読みやすい形に変換する
  72. 3. 出力結果を確認する

  73. 4. 東証一部上場企業のデータを取得する • 東証一部上場企業のデータを一括取得する • Query() メソッドでデータを取得し, convert() で読み やすい形に変換する

  74. 5. 出力結果を確認する

  75. 5-5. データを整形して出力する

  76. 6. 都道府県別の科学者データを取得する • 都道府県ごとに DBPedia.org (Wikipedia) に収録された科学者 の数をカウントする

  77. 7. 出力結果を確認する

  78. 8. データを整形する For 文を使ってデータの各行ごと を取り出し, 都道府県名と都道府 県ごとの Scientist の数を取り出 してみる

  79. 9. 試しにクリックすると, Dbpedia へリン クする

  80. 10. 日本の経済学者の情報を取得する Wikipedia でカテゴリ Category タグがつけられているものは, 一気に取得できる

  81. 11. 結果を整形する 我々の見知る名前がいくつか登場する

  82. 12. 経済用語一覧を取得する

  83. 13. 文化庁DB LOD からデータを取得する • 年ごとのTVアニメ数の推移を取得する

  84. 13. 文化庁DB LOD からデータを取得する • データを整形する

  85. 13. 文化庁DB LOD からデータを取得する • 年ごとのアニメ映画の数をカウントする

  86. 13. 文化庁DB LOD からデータを取得する • データを整形する

  87. 14. gBizInfo LOD からデータを取得する • ソニーの法人番号を調べて, そこからソニーによる政府調達の 情報を一元的に取得する

  88. 14. gBizinfo LOD からデータを取得する • 結果を成形する

  89. やってみよう • Dbpedia.org の場合 • Category: 以下の文字列を変えていろいろなデータを取得してみる。 たとえば、以下のカテゴリのデータを一気にfetch できる。 •

    日本の経営学者 • 日本の社会学者 • 日本のロックグループ • 日本のフォークグループ • 日本のヒップホップグループ • 文化庁DBやgBizInfoの場合 • 取得するデータの形式を変更してみる
  90. まとめ • LOD からデータが取得出来ると、データ分析でユニークなデー タセットで分析が出来る (少なくとも社会科学の分野にとって)

  91. 7.4 レポート2について

  92. レポート(1回目)について • わからないことは、お互いに助け合う感じにしたいと思います (どうやら、ラーニングコミュニティというらしい) • 是非、Slack で助け合いをお願いします

  93. レポート1回目の引っかかりそうなポイント • Excel からデータを取るときに、一つずれる問題

  94. レポート1回目の引っかかりそうなポイ ント • COVID-19 で関連しそうな国別データを集める • World Bank; World Competitiveness

    Report http://reports.weforum.org/global-competitiveness-report- 2019/?doing_wp_cron=1570623935.4483180046081542968750 • OECD; OECD Statistics https://stats.oecd.org/ • コントロール変数や操作変数として何をつかう?
  95. レポート(2回目) • 概要 • テーマ; データを集めて分析して、卒論の足がかりをつくってみよう • 講義で取り上げたデータセット (BigQuery Sandbox/RESAS/Lens.org/いろい

    ろな SPARQL Endpoint) からデータを入手し, 四年生の卒論でやってみたい研 究の足がかりを作り, レポートにまとめる. • 条件; データセットを見つけてきて、分析をすること • 一次提出期間: 2020/10/20 13:15:00 (JST) • 提出方法:Slack のDMで
  96. レポートに記載して欲しいこと • Motivation (なぜそのデータセットに興味を持ったのか) • Research Question (データセットに基づき、どのような問いを 明らかにするのか) •

    Hypothesis (どのような仮説が挙げられるか) • Methods (どのようにデータを取得できるか) • Result (データを取得した結果、明らかにできたこと) • Conclusion (まとめ) • Research Limitation (今後やりたいこと)
  97. レポート(2回目)の進め方 1. まず, 何を分析するのか決める 2. 1. で分析と決めた対象群について, 以下の作業を行う 2-1. データセットが存在するか確認する

    2-2. どのようにすれば、データセットが入手出来るか確認する 2-3. 2. で定めた方法でデータを取得する 3. Excel and/or R and/or Python で解析を行う 4. Word and/or Google Docs and/or Notebook でレポートにま とめる
  98. 1. 何を分析するか決める • テーマ決め • 卒論でやりたいこと • 後期ゼミの課題のひとつ • なんとなく今知りたいこと

    など、今やってみたいことで、かつ「データがありそうなもの」を選択してく ださい。 • 事例 • パチンコホールが閉まっていない!とワイドショーがいっぱい話しているの で、とりあえず関連するデータを営業情報を掲載されている Web サイトか ら収集した (データ分析講義の第ゼロ回) • COVID-19に関連して、テレワークによる企業への影響を知りたい (IIR Working Paper x3)
  99. 2. データベースの選択とデータの抽出 • データベースの選択 • 企業データベース • 日経NEEDS, Entrepedia, 法人インフォ,

    RESAS etc… • 論文データベース • Lens.org, Google Scholar, Web of Science etc… • 特許データベース • Lens.org, Google Big Query, 特許庁データベース, IIP パテントデータベース etc… • Linked Open Data • 1. で定めた疑問について, 解析にあたり必要なデータを取得す ること. もちろん、これら以外のデータベースを利用しても構 わない
  100. Big Queryおすすめのデータセット(1) • Google Patents Research Data • “Google Patents

    Research Data contains the output of much of the data analysis work used in Google Patents (patents.google.com), including machine translations of titles and abstracts from Google Translate, embedding vectors, extracted top terms, similar documents, and forward references.”
  101. Big Queryおすすめのデータセット(2) • World Development Indicators – World Bank •

    “This dataset contains the most current and accurate global development data available including national, regional and global estimates. Data has been collected from the early 1960’s to present and is updated regularly depending on new data available on the indicators. This time series data offers indicators such as agriculture and food security, climate change, population growth, economic growth, education, energy, natural Resources and many more. • This public dataset is hosted in Google BigQuery and is included in BigQuery's 1TB/mo of free tier processing. This means that each user receives 1TB of free BigQuery processing every month, which can be used to run queries on this public dataset.”
  102. Big Queryおすすめのデータセット(3) • Chicago Taxi Trips • “This dataset includes

    taxi trips from 2013 to the present, reported to the City of Chicago in its role as a regulatory agency. To protect privacy but allow for aggregate analyses, the Taxi ID is consistent for any given taxi medallion number but does not show the number, Census Tracts are suppressed in some cases, and times are rounded to the nearest 15 minutes. Due to the data reporting process, not all trips are reported but the City believes that most are. For more information about this dataset and how it was created, see this post on the City of Chicago's blog.”
  103. Big Queryおすすめのデータセット(3)

  104. Lens.org • 出来ること • 特許関連 • 特定企業/産業の特許数の変化についてデータを取得する • AI や機械学習に関する特許がどのくらい出ているか調査する

    • 論文関連 • 日本の私立/国立大学の論文生産数について比較する • ノーベル賞を受賞した科学者が書いた論文のうち, どれが重要が論文だったかを 特定し, その前方引用数を調査する
  105. RESAS API • 出来ること • ふるさと納税制度導入前後による地方財政への影響 • 人口動態と地域経済の生産性 • 企業の海外取引額

    • 農業産出額 • 産業構造の推移
  106. 3. & 4. データの解析およびレポートの作成 • 2. で取得したデータに関して, 主に以下の分析を行い報告する こと •

    産業 (あるいは業界) 構造の特性の抽出 • 主な企業の売上高, 資本金および収益率など, 財務パラメータの比較分 析 • 特許や地域特性の分析 • 統計分析 (基本統計量の抽出, 散布図の作成, 回帰分析 etc…) • レポートの最後には、研究の発展性について明記するようにし てください。
  107. レポートの評価方法 • Excellent • データおよび適切な分析手法に基づき、独自の視点で十分に考察がなされている • Good • データおよび適切な分析手法に基づき、独自の視点で考察がなされている •

    Fair • データに対して分析が行われているが、一般的な範囲での考察にとどまる • Bad • 考察がなされていない,あるいはデータの解析が十分に行われていない • Failed • 断りなく他者の見解を引用している,その他不正行為に相当する
  108. レポートの評価基準 • 説明の順序は適切か.特に重要な項目の抜けや漏れはないか. • 原典からの引用内容に事実誤認はないか. • 誤字脱字(誤植)はないか.文法上の誤りはないか.文法ルー ルが統一されているか. • 文章は明快か.誤解を招くような内容・表現はないか.

    • 参照,引用のルールに準拠しているか.剽窃はないか. • 不正行為に相当する事項はないか. • 提出期限を厳守しているか.
  109. 成績評価の方法

  110. 成績評価(1) • 平常レポート (40パーセント; 必須) • 講義計画に示したように、複数の回で学生にはレポートを課します。 レポートは Word/PowerPoint形式のメールあるいは, github

    経由で の提出が求められます(どの方法を採用するかは、初回の講義で決定し ます)。 • レポートには、(A.) 利用したデータセットとその内容, (B.) 分析の問 い, (C.) 分析手法, (D.) 分析結果 を明記する必要があります。ページ 数や文字数は問いませんが, これらの内容が含まれており, 講義中にア ナウンスする評価手法を満たす場合, 高い得点を得ることが出来ます。 • 平常点 (10パーセント) • 本講義は実習が多く含まれており, また取り扱うデータセットや内容も 多彩です。そのため、受講者同士が協力する必要があります。こうし た受講者の態度を評価するために、平常点を設けます。
  111. 成績評価(2) • 最終レポート (40パーセント; 必須) • 講義の最終回では最終レポートの報告会を行います。受講者は3名から4名か ら構成されるグループで、最終レポートの報告を行う必要があります(人数は 受講者の人数により変更される可能性があります)。最終レポートでは、プレ ゼンテーションの方法を学生は自由に選ぶことが出来ます。PowerPoint

    以 外にも、Prezi などのアクティブプレゼンテーションツールや、他のプレゼ ンテーション手法を用いることが出来ます(プレゼンテーションツールについ ては、必要であれば講義内で説明する機会を設けます)。最終レポートでは、 以下の点について評価を行います。 (A.) グループ内の役割分担 (B.) データセットのユニークさおよび、それが適切に処理されているか (C.) 分析手法のユニークさおよび、それが適切に解析されているか (D.) プレゼンテーションのユニークさ (E.) 質疑応答にうまくリプライすることが出来ているか • 最終レポートの360°グループ評価 (10パーセント) • 3. の最終レポートについて、グループの自己評価および他のグループからの 評価を行います。3. で挙げた評価ポイントに基づき、グループメンバーおよ び他のグループは評価を行います。
  112. 春学期講義スケジュール(3) • 8. 10/9 • テキスト分析 (Wordcloud, Word2vec, Topic Model,

    計量テキスト分 析)/SNS データの取得および分析 • これまで用いてきたデータセットについて、異なるアプローチから解析すること を目指します。具体的にはすでに定量化されているデータではなく、特許におけ る特許名、論文における論文名、企業データベースにおける企業の概要などのテ キストデータを解析する手法について学びます。具体的には, Wordcloud, Word2vec, Topic モデルなどについて解説します。 • また計量テキスト分析、特に共起ネットワーク, 分散分析などの手法について, KHcoder (http://khcoder.net) を用い解析を行います。関連して、Twitter など のソーシャル・ネットワークからAPI などの手法を用いてテキストデータを取得 し解析する方法について解説します。
  113. ケーススタディ1: SMAP会見 • 共起ネットワーク

  114. Twitter の口コミを Wordcloud にプロット • 早稲田大学 • 慶應大学

  115. THANKS yasushi.hara@r.hit-u.ac.jp