美空ひばりを人工知能(AI)の力でよみがえらせ、新曲を歌ってもらう、そういう番組をNHKが企画した。
その様子が、NHKスペシャルで放映された。
新曲を歌うので、音源を拾ってきて組み合わせる作業は人間では無理なので、AIにやらせる。
音声合成技術ボーカロイドを開発したヤマハの開発者がそれを行った。
半年ほど自己学習をしたAIが、アナと雪の女王を歌っている。 美空ひばりが歌っているように聞こえて流石だなと思う。
しかし、新曲を歌うと、過去に美空ひばりが歌ったことのない現代調の音楽のため、ぶつぎりの変な歌に聞こえる。
案外、難しいようだ。
それでも、かなり美空ひばりの歌い方を再現出来るようなった。
しかし、そこで聞いてもらうと、美空ひばりの独特の空気感が出てこないと昔のコアなファンが言う。
詳細な分析をやり直す。
すると発見があった。
美空ひばりは、ここぞという所で高次倍音を出しているというのだ。
モンゴルのホーミーみたいに同時に2音出している、倍高い音を。
そして、言葉のタイミングや音程を微妙にずらして歌う時がある。
これらのことに気付いて、楽譜に縛られていたAIを解き放ち、ずらしまで再現するようにプログラミングをやり直した。
いよいよ、AIで蘇った美空ひばりが美空ひばりファンを集めて、ステージで歌う。
軽やかな声や、どすの利いた声、広がりのある声、ビブラートを効かせた声、のびやかな声、それらが再現されていて、良かったなあ。 素晴らしい。
ただ、CG映像はダメだったな。 顔が作り物の映像で気持ちが悪かった。
まあ、歌がメインだからいいんだが、軽く考えている人間にCG映像を依頼してしまったようだな。
滅茶苦茶お金が注ぎ込まれただろうな。 1年以上かけてるんだから。