米ノースウエスト大学がこのほど発表した研究結果によれば、OpenAIのカスタムAIサービス「GPTs」の脆弱性が明らかになった。プロンプトインジェクション攻撃により機密情報が漏れるリスクがあるという。カスタムAIサービス「GPTs」は、コーディングの専門知識を必要とせず、日常生活や特定の業務に合わせたサポートが提供される。
第3者が基本的なプロンプトハッキング技術を駆使し、カスタムGPTからプロンプトや機密データを抽出する事例が確認された。200以上のカスタムGPTを対象としたテストでは、初期プロンプトの抽出やファイルへの不正アクセスが可能であることが判明している。研究者たちは、この問題が知的財産権およびユーザープライバシーに深刻な影響を及ぼす可能性があると警鐘を鳴らした。同報告では攻撃者が「システムプロンプト抽出」と「ファイル漏洩」の技術を用いて機密情報にアクセスするリスクが指摘されている。
現行の防御策だけでは不十分であり、AIモデルのセキュリティを強化するためのより包括的なアプローチが求められる状況だ。攻撃者が脆弱性を見つけて悪用する可能性は高く、AI開発者はこれに対処するための強固なセキュリティ対策の開発が急がれる。
- 【用語開設】
プロンプトハッキング技術: AIモデルに特定の応答を引き出すために工夫された質問や指示を使用する技術
システムプロンプト抽出: AIモデルが使用する基本設定やプロンプト情報を取得する手法
ファイル漏洩: AIモデルが訓練に使用した機密データセットが不正に公開またはアクセスされること - プロンプトインジェクション攻撃: AIモデルに意図しない応答を引き出すために、悪意のあるプロンプトや指示を注入する攻撃手法
GPTsストア、24年初めに延期
米新興メディアAxiosによれば、ユーザーと開発者へのメモから、GPTsストアの立ち上げが来年初めに延期された。11月末のリリースを目指していたが、計画変更が必要となった。ローンチに際しては新機能の改善点も、ユーザーインターフェース、デバッグメッセージなどの改善が計画されている。
GPTストアで開発者は、自身のAIをアプリケーションとして公開可能になり、使用者数に応じた収益化が見込まれる。ChatGPT PlusとEnterpriseユーザーには既に複数のGPTが導入されているが、アルトマンCEOは11月に「ChatGPT Plus」の新規登録を一時停止し、まだ再開していない。サイバーセキュリティ企業Group-IBの6月の報告によれば、OpenAIが開発する生成系AI ChatGPTのログイン情報が10万以上、ダークウェブに漏洩していた。
GPTの回答が稚拙になっている
OpenAIは7日、ChatGPTのGPT-4のパフォーマンス低下に関するユーザーのフィードバックが増えていると認め、改善を検討中であると発表した。パフォーマンスの低下が指摘される一方で、GPT−4の回答の正確性は生成AIの中でトップレベルとなっている。
8日には、チャットモデルのトレーニングが予測不可能であり、同じデータセットでも異なる結果が出る可能性があるとOpenAIが指摘。同社の新モデルのリリースには、オフライン評価とオンラインA/Bテストを実施し、実際のユーザーにとっての改善を判断している。
training chat models is not a clean industrial process. different training runs even using the same datasets can produce models that are noticeably different in personality, writing style, refusal behavior, evaluation performance, and even political bias
— ChatGPT (@ChatGPTapp) December 9, 2023
Follow us on:
X(Twitter):@BeInCryptoJapan
Telegramチャンネル:@BeInCrypto Japan オフィシャルチャンネル
免責事項 - Disclaimers
当ウェブサイトに掲載されているすべての情報は、誠意をもって作成され、一般的な情報提供のみを目的としています。当ウェブサイトに掲載されている情報に基づいて行う一切の行為については、読者ご自身の責任において行っていただきますようお願いいたします。