AI(人工知能)が人類の絶滅につながる可能性があると、OpenAIやGoogle Deepmindのトップを含む専門家が警告している。AI安全センターのウェブページにこのほど公表された声明では、AIによる絶滅リスクを軽減することが、パンデミックや核戦争と同様の世界規模のリスクとして全世界の優先課題にすべきとしている。
ChatGPT製作者であるOpenAIサム・アルトマンCEO、Google DeepMindデミス・ハサビスCEO、Anthropicダリオ・アモデイ氏らがこの声明に署名している。同声明に関して、AI安全センターは「これは、AIとの障害を克服し、議論を展開することを目的としている」と述べた。AI安全センターのウェブサイトでは、災害の可能性として以下のシナリオが提示されている。
- AIが武器化される。薬物発見ツールが化学兵器の製造に利用される可能性がある
- AIによって生成された誤情報が社会を不安定化し、「集団意志決定」を崩壊させる可能性がある
- AIの力が少数の手に集中し、全面的な監視と抑圧的な検閲を通じて「狭い価値観」を強制する政権が可能になる
- 人間がAIに依存し、映画『ウォーリー』のシナリオと似た状況が生じる可能性がある
ChatGPTなどのいわゆる大規模言語モデルの最近の進歩は、AIがすぐに誤った情報やプロパガンダを広めるために大規模に使用される可能性がある。何百万人ものホワイトカラーの仕事を排除する可能性があるという懸念も挙がっている。OpenAIのアルトマンCEOは5月、米国議会で初めて証言し、ライセンスという形でAIへの規制を求めた。
一方で、メタ社ヤン・レクン氏は「AIは実存的リスクのリストのトップに挙がるには程遠い。リスクの回避方法を議論するのは時期尚早だ」と語るなど、同氏らの動向に懐疑的になる専門家もいる。
AI安全センターのディレクター、ダン・ヘンドリクス氏は「今日の一部の問題に取り組むことは、明日の多くの後のリスクに対処するために有効だ」と語った。
Follow us on:
X(Twitter):@BeInCryptoJapan
Telegramチャンネル:@BeInCrypto Japan オフィシャルチャンネル
免責事項 - Disclaimers
当ウェブサイトに掲載されているすべての情報は、誠意をもって作成され、一般的な情報提供のみを目的としています。当ウェブサイトに掲載されている情報に基づいて行う一切の行為については、読者ご自身の責任において行っていただきますようお願いいたします。
