Upgrade to Pro — share decks privately, control downloads, hide ads and more …

今年がんばったこと

Tiny Mouse
November 23, 2024

 今年がんばったこと

DevFest Nagoya 2024/11/23

Tiny Mouse

November 23, 2024
Tweet

More Decks by Tiny Mouse

Other Decks in Technology

Transcript

  1. n @tinymouse_jp n SI 企業の SE n 日曜プログラマ n 二児の父

    n 静岡県浜松市出身 n 東京都品川区在住。名古屋市在住。 n Windows 愛用。iPhone Android スマホ n Android の会浜松支部、Hamamatsu.js 、 よちよちサンデープログラミングの会→なごや個人開発者の集い Tiny Mouse
  2. Docker を使ってみた よく見る説明。コンテナって何なのか コンテナはホストの OS の機能を呼出すると いう。ホストの OS にミドルウェアを入れると コンテナで使えるのか。

    コンテナの実体はどこにできる何なのか。 空のコンテナを作ってコンテナ内で操作する と変化した内容はどこに保存されるのか。
  3. 生成 AI プログラムを試してみた n Open AI ChatGPT n Anthropic Claude

    n Amazon Bedrock n Microsoft Azure AI n Google Vertex AI サービスを使うのもいいけど。 このサービスの裏で どんなプログラムが動いてるのか。
  4. 文章生成 AI プログラムを試してみた import transformers import torch # トークナイザとモデルの準備 tokenizer

    = transformers.AutoTokenizer.from_pretrained( "google/gemma-2b-it" ) model = transformers.AutoModelForCausalLM.from_pretrained( "google/gemma-2b-it", device_map="auto", torch_dtype=torch.float16 ) # プロンプトを指定 prompt = "Fate シリーズで一番おもしろいのは何かな。" # 推論を実行 input = tokenizer.encode( prompt, return_tensors="pt" ).to(model.device) outputs = model.generate( input, do_sample=True, num_return_sequences=3 ) # 結果を出力 for index, output in enumerate(outputs): print("%d:" % (index+1)) print(tokenizer.decode(output))
  5. 画像認識 AI モデルを試してみた import requests import PIL # 画像を参照 url

    = "https://huggingface.co/datasets/huggingface/documentation- images/resolve/main/transformers/tasks/ai2d-demo.jpg" image = PIL.Image.open(requests.get(url, stream=True).raw) import transformers import torch # モデルとプロセッサの準備 model = transformers.LlavaForConditionalGeneration.from_pretrained( "llava-hf/llava-1.5-7b-hf", device_map="auto", torch_dtype=torch.float16, low_cpu_mem_usage=True, ) processor = transformers.AutoProcessor.from_pretrained( "llava-hf/llava-1.5-7b-hf", ) prompt = "これは何の画像ですか。" # プロセッサとモデルで推論 inputs = processor( "USER: <image>\n" + prompt + "\nASSISTANT:\n", image, return_tensors="pt" ).to(model.device) outputs = model.generate( **inputs, max_new_tokens=200, do_sample=False ) output = processor.decode( outputs[0][1:], skip_special_tokens=True ) print(output) 火山 の さまざま な 部分 の 図 。
  6. Oracle データベースに接続するのに苦労した Oracle.DataAccess OS Oracle client 動作 ① AnyCPU 12c

    [64] Windows 10 [64] なし × ② AnyCPU 12c [64] Windows 10 [64] 12c [64] ◦ ③ AnyCPU 12c [64] Windows XP [32] 12c [32] × ④ AnyCPU 12c [32] Windows XP [32] 12c [32] ◦ ⑤ AnyCPU 12c [32] Windows 10 [64] 12c [32] × ⑥ AnyCPU 12c [32] Windows 10 [64] 12c [64] ◦ ⑦ x86 12c [32] Windows 10 [64] 12c [64] × ⑧ x86 12c [32] Windows 10 [64] 12c [32] ◦ ⑨ x86 12c [32] Windows 10 [64] 11g [32] × ⑩ x86 11g [32] Windows 10 [64] 11g [32] ◦ ⑪ x86 11g [32] Windows 10 [64] 12c [32] ◦ ⑫ x86 11g [32] Windows 10 [64] 12c [32]+[64] ◦ ⑬ x86 11g [32] Windows 10 [64] 12c [32]+[64]←64 × ⑭ x86 11g [32] Windows 10 [64] 12c [32]+[64]←32 ◦ ⑮ x86 11g [32] Windows 10 [64] 12c [64] × 構築パターンによっ て接続できなくなる こちらのドライバを使 えば問題なかった