アメリカ、AI音声を詐欺に悪用した事件の可能性(2023年10月9日情報)

公務員総研の行政・社会ニュース紹介、今回は「AI音声を詐欺に悪用」についてです。


AI音声を詐欺に悪用

2023年9月11日、人工知能(AI)で人間の声を合成する「ディープフェイクボイス」を悪用した詐欺への懸念がアメリカなど海外で高まっているというニュースがありました。

人工知能(AI)とは?

人工知能(AI)は、Artificial Intelligence:アーティフィシャル・インテリジェンスといい、1956年に米国の計算機科学研究者ジョン・マッカーシーが初めて使った言葉です。人工知能(AI)について、総務省のサイトより、ご紹介します。

「AI」に関する確立した定義はありませんが、人間の思考プロセスと同じような形で動作するプログラム、あるいは人間が知的と感じる情報処理・技術といった広い概念で理解されされています。
出典)総務省のサイト:https://www.soumu.go.jp/hakusho-kids/use/economy/economy_06.html

「AI」という言葉だけではなく、最近では「機械学習」、「深層学習(ディープラーニング)」といった言葉もよく使われていて、この3つの言葉は下の図のような関係になっています。

出典)総務省のサイト:https://www.soumu.go.jp/hakusho-kids/use/economy/economy_06.html

参考)総務省のサイト:https://www.soumu.go.jp/hakusho-kids/use/economy/economy_06.html

「ディープフェイク」とは?

「ディープフェイク」は、「ディープラーニング」と「フェイク」を組み合わせた造語で、人口知能(AI)を用いて、人物の動画や音声を人工的に合成する処理技術を指しもともとは映画製作など、エンターテインメントの現場での作業効率化を目的に開発されたものですが、あまりにリアルで高精細であることから、悪用されるケースが増えたことで、昨今ではフェイク(ニセ)動画の代名詞になりつつあるそうです。

「ディープフェイクボイス」は、ディープフェイクを使用した音声のことで、特定の人が言っていないことを言っているかのように聞こえる、説得力のある音声文を作成するために使用される人工知能(AI)のひとつです。

AI音声での悪用事例

アメリカ連邦取引委員会(FTC)によると、家族や友人を装った電話による詐欺は2022年で約5000件に上り、AI悪用の件数はわからないが、悪用された可能性が高い事例もあるそうです。中国でもAIを活用した詐欺が増加していて、警察当局が警戒を呼びかけているとのことです。

AI音声での悪用事例をいくつかご紹介します。


みんなの反応・SNSの反応

AI音声を詐欺に悪用についてのSNS(Twitter等)での反応をいくつかご紹介します。なりすまし詐欺が急増や3秒でAI音声ができることへの驚きや詐欺に注意などの声がありました。

本記事は、2023年11月4日時点調査または公開された情報です。
記事内容の実施は、ご自身の責任のもと、安全性・有用性を考慮の上、ご利用ください。

アメリカ国旗
気に入ったら是非フォローお願いします!
NO IMAGE

第一回 公務員川柳 2019

公務員総研が主催の、日本で働く「公務員」をテーマにした「川柳」を募集し、世に発信する企画です。

CTR IMG