Large Language Models and generate predictive model 田中 冬馬 江本 直史 弓林 司 The views expressed here are our own and do not necessarily reflect the views of BrainPad Inc. Any errors and inadequacies are our own.
ICLによる様々な関数の学習[Garg22] ◦ スパース線形関数,二層ニューラルネットワーク,決定木などの関数が学習可能であることを発見 LLMによるコード生成 • LLMによりPythonコードを生成させ道具として利用[Tianle23] ◦ 高精度高コストのLLMでコードを出力させ,低精度低コストのLLMに実行させることで実行コストを削減 記号回帰(Symbolic Regression) • Transformerモデルを利用した記号回帰によるScientific Discoverへの応用[Florian23] ◦ 本発表はLLMを用いてtext2textでの記号回帰を実現している [Garg22]”What Can Transformers Learn In-Context? A Case Study Function Classes” NeurIPS 2022 [Tianle23]”Large Language Models as Tool Makers” ICLR 2024 [Florian23]”A Transformer Model for Symbolic Regression towards Scientific Discovery” NeurIPS 2023 AI for Science Workshop