Upgrade to Pro — share decks privately, control downloads, hide ads and more …

AIと一緒に音楽を作ろう ~作曲体験セッション~ | DevelopersIO 2023

平木佳介
July 12, 2023
1.3k

AIと一緒に音楽を作ろう ~作曲体験セッション~ | DevelopersIO 2023

平木佳介

July 12, 2023
Tweet

Transcript

  1. 9

  2. • "AIと一緒にメロディを作ろうセッション" • "楽曲アイデア共有:AIとのコラボレーション" • "AIによるリズムパートナーシップセッション" • "クリエイティブAIとの即興演奏セッション" • "AIが導く新たな和音:作曲セッション"

    • "AIの音楽インスピレーション:一緒に作曲しよう" • "AIのメロディガイド:作曲セッション" 以下のキーワードでタイトルを考えて 音楽、作曲、AI AIと一緒に音楽を作ろう ~作曲体験セッション~ 10
  3. 音楽とは、音や音の組み合わせによって表現される芸術形式です。音楽はリズム、メロディ、ハーモニーなどの要素が組み合わさってでき ており、人々の心に感情や情緒を与えたり、物語を伝えたりする力があります。また、文化や地域によって様々な音楽スタイルや楽器が存 在しています。世界中で多くの人々が音楽を楽しみ、創作や演奏、聴取などの方法で参加しています。 音楽って何ですか? 音楽の歴史は非常に広範で長いもので、数万年前の先史時代から現代に至るまで続いています。音楽は文化の発展とともに進化してきました。以下に概略を示します。 1. 先史時代 - 石器時代から青銅器時代にかけての古代音楽が発展。楽器として骨や竹、石の製品が使われるようになります。 2.

    古代文明 - 古代メソポタミア、エジプト、ギリシャ、ローマなどの文明では音楽が重要な役割を果たし、宗教儀式や祝祭に使われました。 3. 中世(約500年 - 1400年頃)- グレゴリオ聖歌が発展し、多声音楽が生まれました。この時期の音楽は宗教音楽が主流で、聖職者や僧侶によって作曲されました。 4. ルネサンス(約1400年 - 1600年頃)- セクラー音楽が発展し、宮廷や上流階級の社交場で演奏されました。また、ポリフォニー(多声音楽)が進化しました。 5. バロック(約1600年 - 1750年頃)- オペラ、カンタータ、オラトリオ、宗教音楽、室内楽、協奏曲など様々な形式が発展しました。代表的な作曲家には、バッハ、ヘンデル、ヴィヴァルディがいます。 6. 古典派(約1750年 - 1820年頃)- 調性音楽が確立し、楽器やオーケストラの技術が向上しました。代表的な作曲家には、ハイドン、モーツァルト、ベートーヴェンがいます。 7. ロマン派(約1810年 - 1900年頃)- 個人表現や感情を重視し、プログラム音楽や交響詩などの新しい形式が登場しました。代表的な作曲家には、シューベルト、シューマン、ショパン、ワーグナー、ブラームスがいます。 8. 近現代(20世紀 - 現代)- 音楽の多様性がさらに進み、ジャズ、ロック、ポピュラー音楽が登場しました。また、現代音楽や電子音楽、実験音楽も重要な役割を果たしています。 音楽の歴史は国や時代ごとに多種多様な発展を遂げてきましたが、これはあくまで概略であり、さらに詳細に掘り下げることができます。 音楽の歴史を教えて 15
  4. Transformer Transformerベースの手法は、 RNN や GANが 苦手とする音楽生成における長期間の時間的 構造をうまく扱うことができます。Attention メカ ニズムを利用して、過去の情報のどの部分を参 照するかを学習し、RNN

    よりも効果的に大量の データを用いた学習が可能です。 この技術は、自然言語処理から音楽生成へ応 用され、さまざまな種類の巨大な音楽データを生 成するAIモデルが登場しています。 27
  5. text2music の例 Jukebox 2020年5月リリース OpenAI Mubert render 2021年9月リリース Mubert MusicLM

    2023年5月公開 Google Research MusicGen 2023年6月公開 Meta AI 30
  6. MusicGen とは 2023年6月9日に Meta AI から公開された text2music の技術。 small, medium,

    melody, large までの 4 つのモデルサイズが利用可能。 前進の AudioGen をベースとして使用し、 追加の仕組みを実装し、さらにパフォーマンスをあげたのが MusicGen。 31
  7. MusicGen とは MusicGen は、 AudioGen をベースにしたもので EnCodec トークナイザーで学習された 単一の自己回帰 Transformer

    モデル。 イメージ) AudioGen = EnCodec(Meta) + Transformer (Google) MusicGen = AudioGen +α 32
  8. MusicLM vs. MusicGen MusicLM MusicGen ⽣成パターン text2music text2music OSS ×

    〇 トレーニング時間 280,000 時間 20,000 時間 メリット 実際のレコーディングのような ⾼品質の⾳楽 素早く簡単に使⽤でき、 さまざまなスタイルの⾳楽を⽣ 成 デメリット 使⽤できるユーザが、 Googleの従業員と選ばれたパー トナーに限定されている MusicLMよりも精度が低く、 すべてのスタイルの⾳楽を⽣成 できない場合がある 33
  9. AWS DeepComposer とは AWS DeepComposer は、 機械学習スキルを伸ばすために設計さ れた音楽キーボードと最新の機械学習 技術を使用して、実践的に学習するこ とを目的とした開発者向けのサービス

    です。 使えるモデル • AR-CNN:メロディを変更する • GANs:メロディに伴奏をつける • Transformers:メロディの続きを作 曲する 38