戻る

ブテリン氏が警告=超知能AI、予想より早く到来か

author avatar

著者:
Ann Shibu

editor avatar

編集:
Shigeki Mori

06日 1月 2025年 14:56 JST
Trusted-確かな情報源
  • イーサリアム共同創設者、防御的加速の必要性強調:超知能AIの脅威抑制
  • ブテリン、AIシステムを人間の意思決定に結びつけることを提唱:軍事による悪用リスク最小化
  • 同氏、責任ルール‘ソフトポーズ’ボタン、AIハードウェア制御提案:危険な進展遅延
プロモーション

イーサリアム共同創設者のヴィタリック・ブテリン氏は5日、超知能AIに関連するリスクと強力な防御メカニズムの必要性について警鐘を鳴らしました。

ブテリンのコメントは、人工知能の急速な発展に伴い、AIの安全性に関する懸念が大幅に増加している時期に出されました。

Sponsored
Sponsored

ブテリン氏のAI規制案=責任、停止ボタン、国際管理

1月5日付のブログ投稿で、ヴィタリック・ブテリン氏は「d/accまたは防御的加速」の背後にある考えを説明しました。技術は害を与えるのではなく、防御するために開発されるべきです。しかし、これはブテリンが人工知能に関連するリスクについて初めて言及したわけではありません。

「AIが誤った方向に進むことで世界を悪化させるのは、(ほぼ)最悪の方法です。それは文字通り人類の絶滅を引き起こす可能性があります」とブテリン氏は2023年に述べました

ブテリン氏は2023年の理論をさらに発展させました。同氏によれば、超知能は存在するまでに数年しかかからない可能性があります。

「AGIまでのタイムラインは3年、超知能までのタイムラインはさらに3年と見られています。したがって、世界が破壊されるか、不可逆的な罠に陥るのを避けたいのであれば、良いことを加速するだけでなく、悪いことを遅らせる必要があります」とブテリン氏は書きました。

AI関連のリスクを軽減するために、ブテリン氏は人間の意思決定と密接に結びついた分散型AIシステムの創造を提唱しています。AIが人間の手にあるツールであり続けることを保証することで、壊滅的な結果の脅威を最小限に抑えることができます。

ブテリン氏は、軍が「AIの破滅」シナリオの責任ある行動者になる可能性があると説明しました。ウクライナやガザで見られるように、AIの軍事利用は世界的に増加しています。同氏は、施行される可能性のあるAI規制は、軍を免除する可能性が高く、それが大きな脅威になると考えています。

Sponsored
Sponsored

イーサリアム共同創設者は、AIの使用を規制する計画をさらに説明しました。AIに関連するリスクを回避するための第一歩は、ユーザーに責任を負わせることだと述べました。

「モデルがどのように開発され、最終的にどのように使用されるかの関連性はしばしば不明確ですが、ユーザーがAIの使用方法を正確に決定します」とブテリン氏は説明し、ユーザーの役割を強調しました。

責任ルールが機能しない場合、次のステップは、AI規制が潜在的に危険な進展のペースを遅らせることを可能にする「ソフトポーズ」ボタンを実装することです。

「目標は、重要な時期に1〜2年間、世界中で利用可能な計算能力を約90〜99%削減する能力を持ち、人類が準備するための時間を稼ぐことです。」

同氏は、AIの位置確認と登録によってポーズを実施できると述べました。

別のアプローチは、AIハードウェアを制御することです。ブテリン氏は、AIハードウェアに制御用のチップを装備できると説明しました。

そのチップは、国際機関から毎週3つの署名を受け取った場合にのみAIシステムが機能することを許可します。同氏はさらに、少なくとも1つの機関は非軍事関連であるべきだと付け加えました。

それにもかかわらず、ブテリン氏は自身の戦略に穴があり、あくまで「一時的な応急措置」であることを認めました。

免責事項

当ウェブサイトに掲載されているすべての情報は、誠意をもって作成され、一般的な情報提供のみを目的としています。当ウェブサイトに掲載されている情報に基づいて行う一切の行為については、読者ご自身の責任において行っていただきますようお願いいたします。