人工知能(AI)を用いたディープフェイク技術が急速に進化し、映像や音声の真偽を見極めることが一段と難しくなっている。こうした技術は政治や安全保障分野にとどまらず、暗号資産取引を取り巻くリスク要因としても存在感を強めている。
特に、中央集権型取引所が不正防止策として導入してきた顔認証などの視覚的な本人確認(KYC)手法については、精巧な偽装コンテンツによって突破される可能性が指摘され始めた。ディープフェイクの生成コスト低下と利用の容易化が進むなか、取引所の認証体制や利用者の資産保全をどう確保するかが、新たな課題として浮上している。
Sponsored各国政府がディープフェイク規制強化へ
巧妙な動画がSNS上で急速に拡散し、新たな偽情報や捏造コンテンツの波への懸念が強まる。この技術の悪用が拡大することで、公共の安全や個人の尊厳が著しく脅かされている。
この問題は深刻化しており、世界各国の政府がディープフェイクの使用を禁止する法整備を進めている。
今週、マレーシアとインドネシアがイーロン・マスク氏率いるxAIが開発したAIチャットボット「Grok」へのアクセスを初めて制限した国となった。両国の当局は、性的に露骨で本人同意のない画像の生成など悪用の懸念があったためと説明している。
カリフォルニア州のロブ・ボンタ司法長官も同様の対応を発表した。同氏は水曜日、実在の個人を性的に加工した無断画像に関する複数の報告を事務所で調査していることを明らかにした。
「これらの画像は、女性や子どもが裸や性的に露骨な状況で描かれており、インターネット上で人々への嫌がらせにも利用されている。私はxAIに対し、これ以上被害が広がらないよう直ちに措置をとるよう強く求める」とボンタ長官は声明で述べた。
かつてのディープフェイクと異なり、近年のツールはプロンプトに動的に反応し、自然な表情や動き、発話まで精巧に再現する。
Sponsoredこのため、まばたきや笑顔、頭の動きのような簡単な確認手段では、もはや本人確認は確実に行えない可能性がある。
こうした進歩は、オンボーディング時に視覚的確認を用いる中央集権型取引所にも直接的な影響を及ぼしている。
中央集権型取引所に圧力
ディープフェイクを活用した詐欺の経済的損失は、もはや机上の空論ではない。
業界関係者や技術研究者は、AI生成の画像や動画が保険金請求や法的争いなどでも頻繁に使われ始めていると警告している。
世界各地で事業を展開し自動化されたオンボーディングに依存する暗号資産プラットフォームは、対策が技術の進化と同等に進まなければ、こうした攻撃の格好の標的となりかねない。
AI生成コンテンツがより手軽になる中、視覚的確認だけを根拠とする信頼では十分でなくなる可能性が高い。
暗号資産プラットフォームは、利用者や仕組みの安全を守る策が技術の進化に後れを取る前に、迅速な対応が求められる。