コンテンツへスキップ
Future of Life Institute

AI(人工知能)の安全性とリスクに関する研究組織(FLI)

3月28日、AI(人工知能)の安全性について研究する非営利の研究組織 Future of Life Institute(FLI)は、GPT-4よりも強力なAIシステムの開発と運用を少なくとも6カ月間停止するように呼びかける書簡を公開しています。イーロン・マスク氏や、米Appleの共同創業者スティーブ・ウォズニアック氏、「サピエンス全史」で知られる作家のユヴァル・ノア・ハラリ氏の名前もあり、3月30日現在1,368人が署名しています。この一時停止は「公開され、検証可能」なものでなければならず、すべての主要な関係者を含むものでなければならないと公開書簡は述べ、あまりにも遅かったり、停止しようとしなかったりする場合は、この問題に「介入」するよう政府に促しています。

Artificial intelligence
Artificial intelligence / Wikipedia

この数カ月間における速いペースでのAI研究の進展は、抜本的な対策の必要性を強く示唆していると述べています。「研究は制御不能な競争に陥っており」、ますます強力なシステムを開発しているが、そのシステムを理解、予測、制御することは、その作成者を含めて誰もできないとしています。

研究所と独立した専門家は、外部の専門家が監査・監督する一連の共有安全プロトコルを開発するためにこの期間を利用すべきであり、それによってAIシステムが「合理的な疑いを超えて安全である」ことを確認するべきだと、公開書簡は述べています。

Future of Life Institute
Pause Giant AI Experiments: An Open Letter / FLI

米国のOpenAIが開発した人工知能チャットボットChatGPTの成功をきっかけに、新しいAI製品の市場投入が急がれています。テック業界の大手企業や無数のスタートアップが、この分野全体の将来を左右しかねない急成長する市場で、その地位を確保しようとしのぎを削っており、より高性能な製品の開発に取り組んでいます。

性能だけを追求して開発競争しているAIシステムは、既存の偏見や不平等を悪化させ、誤った情報を広め、政治や経済を混乱させ、「詐欺」「デマ」「サイバー犯罪」などに悪用するハッカーを助けていると専門家は警告しています。長期的には、AIは人類に存亡の危機をもたらすと警告する専門家もいます。

Designed by iuriimotov / Freepik

OpenAIに多額の投資をしているマイクロソフトの創業者で元CEOビル・ゲイツ氏は署名していませんが、最近のブログ(The Age of AI has begun)でマスク氏らが署名した公開書簡で提起されたのと同じ問題の多くを指摘しています。ゲイツ氏は、AIを取り巻く社会的な懸念は、政府と技術を推進する民間企業の間で解決されるべきであり、その技術が良い方向に使われるようにする必要があると述べています。

<追記:4月1日>
FLIでは大学の研究者や OpenAIとともに、米アルファベット傘下の Googleと DeepMindの現役従業員と元従業員を含めた専門家が手がけた計12の研究を引用しています。うち研究が引用されたAI専門家4人がこの公開書簡に懸念を表明しました。

人工知能チャットボットChatGPTをめぐっては、AIの専門家に限らず、数多くの公的機関や一般市民が「倫理規則」や「運用」に疑念・懸念を抱いており、「研究は制御不能な競争に陥っている」や「偽情報」や「ステレオタイプ」の拡散、さらに「悪用」や「個人情報保護」「著作権侵害」などを含めて、公的機関の場で公開討論が必要と思います。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください