「AI(人工知能)による滅亡のリスク軽減は、核戦争と並ぶ世界的優先課題だ」「ChatGPT」を運営するオープンAIのCEOらも署名した声明が発表されました。
声明は、「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの社会規模リスクと並ぶ世界的優先課題である」とするわずか4行の簡潔な文章です。
オープンAIのサム・アルトマンCEOのほか、AI研究の第一人者、ジェフリー・ヒントン名誉教授、それにマイクロソフトやグーグルのAI開発部門・グーグルディープマインドの最高幹部らや研究者、合わせて350人余りが署名しています。
この声明を出したアメリカの非営利団体「センター・フォー・AI・セーフティー」は、進化したAIがもたらしかねない最も重大なリスクについて議論を活発化させることが目的だと述べています。
また、より多くの専門家や著名人の間でリスクに関する共通認識を形成していってほしいとしています。