人気の言語モデル「ChatGPT」を開発したOpenAI社が法令遵守とデータの正確性という課題に直面している。オーストリアのウィーンを拠点とする非営利団体NOYB – the European Center for Digital Rightsは29日、オーストリアのデータ保護局(DPA)に関してOpenAIに対する苦情を申し立てた。
実際、OpenAIのデータ収集は、規制機関やプライバシー擁護団体の間で懸念を呼んでいる。今回のNOYBの動きは、テクノロジーにおけるデータの倫理的利用をめぐる、より大きな議論を巻き起こす可能性がある。
OpenAIのデータ問題はAIの倫理的課題を露呈した
苦情の核心は、ChatGPTのデータ取り扱いにおける限界について、OpenAIが最近認めたことにある。OpenAIによると、AIモデルは個人について生成した情報の正確性を検証することができない。さらに、データ入力の出所も開示できない。
2022年11月にChatGPTが発表され、AIのブームが高まる中、このツールが広く採用されたことで、重大な脆弱性が露呈した。ChatGPTは、事実の正確さを保証する固有のメカニズムを持たずに、ユーザーのプロンプトに対する可能性の高い応答を予測することによって動作する。
このため、AIがデータを「幻覚」し、誤解を招きかねない、あるいは全くの虚偽の回答を捏造する事例が発生している。このような不正確さは、文脈によっては取るに足らないものかもしれないが、個人データに関わる場合には重大なリスクをもたらす。
欧州連合(EU)の一般データ保護規則(GDPR)は、個人データの正確性を義務付けており、個人に対して自分自身に関する不正確な情報にアクセスし、修正する権利を認めています。OpenAIの現在の機能は、これらの法的要件を下回っており、機密データを扱うAIの倫理的意味合いについての議論を巻き起こしている。
noybのデータ保護弁護士であるMaartje de Graaf氏は、事態の深刻さを強調する。
「企業は現在、ChatGPTのようなチャットボットにEU法を遵守させることができないのは明らかです。システムが正確で透明性のある結果を出せなければ、個人に関するデータを生成するために使用することはできない。テクノロジーは法的要件に従わなければなりませんが、その逆はできません」とデ・グラーフ氏は説明する。
問題は技術的なハードルにとどまらず、より広範な規制上の課題にも及んでいる。ChatGPTを含むジェネレーティブAIツールは、その登場以来、欧州のプライバシー監視当局から厳しい監視を受けてきた。
例えばイタリアのDPAは2023年初め、不正確であるとしてChatGPTによるデータ処理に制限を課した。
これに続き、欧州データ保護委員会は、このようなAIプラットフォームに関連するリスクを評価し、軽減するための協調的な取り組みを行った。
これらの法的挑戦のタイミングは特に注目に値する。同じ頃、OpenAIは、同じくOpenAIを率いるサム・アルトマン氏が共同設立したプロジェクトであるWorldcoinと戦略的提携を結ぶための協議を行っていた。
関連記事:3Commasレビュー2024|初心者に最適な暗号資産取引ボットとは?
しかし、OpenAIがWorldcoinと協力する可能性は、法的・倫理的なジレンマをさらに引き起こすかもしれない。Worldcoinのバイオメトリックデータ利用に対するアプローチは、データのプライバシーと正確性を確保するというOpenAIの課題と交差する。
さらに、ワールドコインは、ケニア、スペイン、アルゼンチンなど、世界中の法的機関からデータ収集に関する精査を受けている。したがって、この相乗効果は、革新的な技術利用への道を開くか、規制介入強化の先例となる可能性がある。
関連記事:ワールドコイン、レイヤー2デビューを前にPayPal、OpenAIと提携へ
Follow us on:
X(Twitter):@BeInCryptoJapan
Telegramチャンネル:@BeInCrypto Japan オフィシャルチャンネル
免責事項 - Disclaimers
当ウェブサイトに掲載されているすべての情報は、誠意をもって作成され、一般的な情報提供のみを目的としています。当ウェブサイトに掲載されている情報に基づいて行う一切の行為については、読者ご自身の責任において行っていただきますようお願いいたします。