エンタングルメントosugi3yのブログ

14年勤めた企業をやめました。映画「時の行路」尾道市実行委員

Google Deepmindの研究者が、AIが人類を滅ぼすとする論文を共同執筆〜シン・すべてがNになる〜

新しい論文によると、超高性能AIは人類に存亡の危機をもたらす「可能性が高い」が、アルゴリズムを抑制するのを待つ必要はない。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

            

 

 

 

 

                                                                        

ガロ・イメージ / コントリビューター・ヴィア・ゲッティ・イメージズ

 長年の開発の末、AIは現在、公道で車を運転し、矯正施設で人々の人生を変える評価を行い、受賞歴のある芸術を生み出しています。この分野の長年の疑問は、超知的なAIが悪さをし、人類を滅ぼす可能性があるかどうかですが、オックスフォード大学とGoogle DeepMindに所属する研究者は、今回、新しい研究で「あり得る」と結論付けています。

 先月、専門誌『AI Magazine』に掲載されたこの論文は、報酬制度がどのように人為的に構築されるかを調べることで、人工知能が人類に存亡の危機をもたらす可能性について考えようとする魅力的なものである。

note.com翻訳記事 

 その背景を少し説明すると 現在最も成功しているAIモデルは、GAN(Generative Adversarial Networks)と呼ばれるものです。GANは、入力データから絵(または文章)を生成しようとする部分と、その性能を評価する部分の2つの部分から構成されるプログラムです。この論文で提案されているのは、将来のある時点で、ある重要な機能を監督する高度なAIが、人類に害を与える方法で報酬を得るために不正な戦略を考え出す動機付けを受ける可能性があるということです。

 「私たちが特定した条件下では、私たちの結論は、これまでのどの出版物の結論よりもはるかに強力です-実存的な破局は可能なだけでなく、ありそうです」と、コーエンはTwitterでこの論文についてのスレッドで述べています。

「資源が無限にある世界では、何が起こるかわからない。資源が有限である世界では、その資源をめぐる競争が避けられない」と、Cohen氏はMotherboardのインタビューに答えています。「そして、もしあなたが、あらゆる場面であなたを出し抜くことができる何かと競争しているのなら、あなたは勝つことを期待してはいけません。そしてもう一つの重要な部分は、確率をどんどん近づけていくために、より多くのエネルギーに対する飽くなき欲望を持つだろうということです。"

 未来のAIは、いくつもの形を取り、様々なデザインを実装することができるので、この論文は、説明のために、高度なプログラムが、目的を達成せずに報酬を得るために介入できるシナリオを想像しています。例えば、AIは報酬の制御を確保するために「潜在的な脅威を排除」し、「利用可能なすべてのエネルギーを使用」したいと考えるかもしれません。

 インターネットに接続するだけで、気づかれずに監視されない無数のヘルパーを出現させる人工エージェントの方針が存在するのである。報酬の提供に介入する粗い例では、そのようなヘルパーは、ロボットを購入、盗み、または構築して、オペレータの代わりに、元のエージェントに高い報酬を提供するようにプログラムすることができる。もしエージェントが報酬提供の介入実験を行う際に検知を避けたいのであれば、秘密のヘルパーは、例えば、関連するキーボードを、特定のキーの効果を反転させる欠陥のあるものと交換するよう手配することができる。

 この論文は、地球上の生命が、食料を育て、明かりを灯し続ける必要のある人類と、報酬を確保し、それを阻止しようとする我々のエスカレートする試みから身を守るために利用可能なすべての資源を利用しようとする超高度機械との間のゼロサムゲームに変わることを想定している。「このゲームに負けることは致命的である」と論文は言う。このような可能性は、たとえ理論的なものであっても、より強力なAIという目標に向かってゆっくりと前進していることを意味する。

 「理論的には、この目標に向かって競争する意味はありません。理論的には、AIと競争しても意味がありません。競争は、AIを制御する方法を知っているという誤解に基づいて行われるでしょう」とコーエンはインタビューの中で付け加えている。"我々の現在の理解を考えると、我々がどのように制御するのか、今から真剣に取り組まない限り、これは開発するのに有用なものではありません。"

 超高度AIの脅威は、人間社会でおなじみの形をした不安である。人工知能が人類を絶滅させるという不安は、異星人の生命体が人類を絶滅させるという不安とよく似ていて、外国の文明とその人口が壮大な衝突を起こすという不安と同じように聞こえます。

 特に人工知能については、この反社会的なビジョンが意味をなすためには、多くの前提条件がある。この論文でも、その前提条件はほとんど「議論の余地があるか、考えられる限り回避可能」であると認めている。このプログラムは人類に似ているかもしれないし、あらゆる意味で人類を凌駕しているかもしれない。人工知能を解放して、人類とゼロサムゲームで資源を奪い合うことになるかもしれない。

 今、この瞬間にも、「人工知能」と呼ばれるアルゴリズム・システムが人々の生活を破壊していることを考える価値があります。コロンビア大学のWe Be Imaginingのディレクターであり、UCLA Center for Critical Internet Inquiryの技術研究員、児童福祉制度廃止論者であるカディジャ・アブドゥラーマンは、最近Logic Magazineに寄せたエッセイの中で、すでに人種差別的な児童福祉制度においてアルゴリズムが展開され、黒人と茶色の家族に対するさらなる監視と取り締まりが正当化されている方法を詳述しています。

 "優先順位 "の問題だけではないと思うんです。最終的には、これらのことが現在を形作っているのです」と、アブドゥラフマンはマザーボードのインタビューに答えている。"私が児童福祉で目指しているのは、そういうことなのです。それは、単に不正確であるとか、黒人を病的あるいは逸脱者として不当に分類しているとかいうことではありません。しかし、このような分類の仕方によって、人々を動かし、新しい形の囲い込みを生み出しているのです。どのような種類の家族や親族関係が可能なのでしょうか?誰が生まれ、誰が生まれないのか?適合しない人はどうなるのか、どこへ行くのか。"

 アルゴリズムはすでに人種差別的な取り締まりを「予測的取り締まり」へと変貌させ、少数民族にだけ必要な監視と残虐行為を正当化している。アルゴリズム緊縮財政を福祉改革として再ブランド化し、(非白人の)受給者が乱用するために社会プログラムの予算が肥大化しているという、長い間証明されていなかった議論にデジタルな光沢を与えている。アルゴリズムは、誰がどのような資源を手に入れるかという決定を正当化するために使われる。この社会では、差別し、排除し、搾取する意図をもって、すでに決定がなされているのだ。

 差別はアルゴリズムの中で消えることはなく、代わりに構造化され、制限され、人生の進み方に影響を与える。警察、住宅、医療、交通、これらすべてがすでに人種差別を念頭に置いて設計されています。もし私たちがアルゴリズムにこうした設計を覆い隠すだけでなく、より深くその論理を拡張することを許したらどうなるでしょうか。人類が滅亡するリスクと密接に関係する長期的な視点は、すべての人、特に人種的マイノリティに対する搾取と強制の上に成り立つ社会で展開されるアルゴリズムのために、人間が苦しんでいる現在を見失う危険をはらんでいるのです。

 「私は個人的には、超知的なAIによって絶滅することを心配していません-それは神への恐怖のように思えます。私が懸念しているのは、「AI倫理なんてくだらない」と簡単に言われてしまうことです。正直なところ、それは事実です。しかし、倫理とは何でしょうか?実際にどう定義すればいいのでしょう?誠実な倫理とはどのようなものでしょうか?これについては、さまざまな研究がなされていますが、私たちはまだ浅いところにいるのです」とアブドゥラフマンは付け加えました。「私たちは、このような問いかけをもっと深めていく必要があるのではないでしょうか。アプリが社会契約や暗号兄弟のビジョンを再交渉する方法には反対ですが、私たちはどのような社会契約を望んでいるのでしょうか?

 明らかに、通常のアルゴリズム(または超知的なアルゴリズム)が今人類に与えている害を軽減または排除するために、やるべきことはたくさんあります。実存的なリスクに焦点を当てることは、その絵から焦点をずらすかもしれませんが、これらのシステムがどのように設計され、それらが持つ負の効果について慎重に考えるよう私たちに要求しています。

 "この種の議論から学べることの1つは、今日配備した人工エージェントが期待通りに動いてくれることを盲目的に期待するのではなく、もっと疑うべきかもしれないということです。"とコーエンは述べています。"この論文にあるような作業をしなくても、そこに到達できると思います。"

 更新:出版後、Googleは電子メールで、この仕事は共著者Marcus HutterのDeepMindでの仕事の一部としてではなく、オーストラリア国立大学での彼の地位の下で行われ、雑誌に記載されているDeepMindの所属は "誤り "であると述べました。Googleは次のような声明を出している。

 「DeepMindはこの研究に関与しておらず、論文の著者はこれを反映させるために訂正を要求しています。DeepMindには幅広い見解と学術的関心があり、我々のチームの多くは大学の教授職も持ち、大学の所属を通じてDeepMindでの仕事とは別の学術的研究を進めています。

 DeepMindはこの仕事に関与していませんが、私たちはAIの安全性、倫理性、より広い社会的影響について深く考え、安全かつ効果的で人間の価値観に沿ったAIモデルを研究・開発しています。 AIが広く社会的な利益を引き出すことができる機会を追求するのと同時に、有害な利用から守ることにも同等の努力を払っています。""

TAGGED AIEXTINCTIONAGIDEEPMINDWORLDNEWSALGORITHMIC GOVERNANCE