Interviews & Lectures

取材・講演

  • TOP
  • 取材・講演
  • [招待講演]音声生成AI・ボイスクローンの悪用対策:ディープフェイク検知からアクティブディフェンスまで

Share

  • 講演実績

日本音響学会九州支部第1回オンラインセミナー

[招待講演]音声生成AI・ボイスクローンの悪用対策:ディープフェイク検知からアクティブディフェンスまで

  • #生成モデル
  • #ディープフェイク検知
  • #音声処理

講演者:山岸順一
会議名:日本音響学会九州支部第1回オンラインセミナー
主催者:日本音響学会九州支部
開催地:オンライン
開催日:2025年7月2日
URL:

 近年の音声生成モデル、とりわけ、話者性を再現するボイスクローン技術は、エンターテインメント等にて新たな価値をもたらすが、悪用された場合にはその再現性の高さ故に個人認証システム等において問題を発生させる。本講演では、この様なディープフェイクによるなりすまし攻撃に対する防御モデルに関する我々の取り組みと研究成果を紹介する。まず、ディープフェイク音声検知モデル学習用の大規模音声データベース、および、ディープフェイク音声検知を電話越しで行うシナリオ、圧縮された音声に対して行うシナリオのための評価データを紹介し、本データベース上で構築された50種類の検知モデルの分析から得られた知見を示す。次に、メディア生成技術は常に進化し、常に新たな手法が開発され続けている事実を踏まえ、未知手法によるディープフェイクを検知する手法を紹介する。

 講演の後半では、音声生成後にその検知法を考え始めるパッシブディフェンスの枠組みだけではなく、それ以前、つまり、音声生成時・公開時の段階から悪用対策を考え、不適切な利用を行いにくい環境を総合的に構築するアクティブディフェンスに言及する。まず音声生成AIのモデル重みを加工し、その音声出力に自動的に透かしを埋め込むNeural watermarkingの有用性および限界についても紹介する。最後に、音声をSNS等に公開する前にあらかじめ、話者に紐づく特徴のみを匿名化する事でディープフェイクを作成されるリスクを下げ、私たちの声のプライバシーを保護する話者匿名化技術を紹介する。