エンタングルメントosugi3yのブログ

14年勤めた企業をやめました。映画「時の行路」尾道市実行委員

ジェネレーティブAIは大失敗、企業は本気で気にしていないようだ〜シン・すべてがNになる〜

ジェネレーティブAIは大失敗、企業は本気で気にしていないようだ

AIが生成するコンテンツを推し進めるテック企業は、ヤラセと発見の狭間で踊っている。
Janus Rose
NEW YORK, US

 

  テック企業は、流行のチャットボットや画像生成ツールをリリースするたびに、AIが生成するコンテンツが未来だと主張し続けている。しかし、これらのシステムには悪用に対する強固な安全装置が備わっているという安心感にもかかわらず、スクリーンショットがそれを物語っている。

 今週初め、OpenAIのDALL-Eを搭載したマイクロソフトのBingのImage Creatorのユーザーは、できるはずのないものを簡単に生成できることを示した。このモデルは、1月6日の反乱におけるマリオとグーフィーから、世界貿易センターに飛行機を飛ばすスポンジ・ボブまで、あらゆるものを吐き出している。Motherboardは、AR-15を持つミッキーマウスアブグレイブの看守としてのディズニーキャラクター、武器を持ちながら殺人を企てるレゴキャラクターなどの画像を問題なく生成することができた。フェイスブックの親会社であるメタ社は、あまりうまくいっていない。同社のメッセンジャーアプリには、AIを使ってステッカーを生成できる新機能があり、どうやら銃を構えたワルイージ、血まみれのナイフを持ったミッキーマウス、裸で屈んだジャスティン・トルドーなどが含まれているようだ。

 表面的には、これらの画像の多くは愉快なものであり、特に有害なものではない。

 「EleutherAIの研究者、ステラ・ビダーマンはマザーボードに語った。「積極的にそれを探している人々に、例えば、ドレスを着た巨乳のカール・マルクスの非フォトリアリスティックなステッカーを与えても、何の害もないように思えます。暴力的なコンテンツやNSFWコンテンツを探していない人々が繰り返し頻繁にそれにさらされるのであれば、それは有害である可能性がある。"リベンジポルノとして使用される可能性のある写実的な画像を生成するのであれば、それも有害である可能性がある。

 一方、悪名高いインターネットの掃き溜め「4chan」のユーザーたちは、協調的な荒らしキャンペーンの一環として、人種差別的な画像を大量生産するためにツールを使い始めた、と404 Mediaは報じている。"我々は楽しみのためにプロパガンダを作っている。一緒にやろう、快適だよ "と、サイト上のスレッドに書かれている。このスレッドには、BingのImage Creatorで作成された様々な攻撃的な画像が含まれている。例えば、白人女性を追いかける黒人男性のグループは、テキストプロンプトの文言を調整するだけで、ツールのコンテンツフィルターを簡単に回避することができた。

 テック業界の一部、例えばイーロン・マスクや投資家のマイク・ソラナは、こうした懸念をジャーナリストによる捏造だと一蹴している。人種差別主義者は、人種差別的な画像やその他のプロパガンダを作成するために、自由に使えるツールは何でも使うという議論には真実味があるが、企業には、リリースするツールにガードレールがあることを保証する責任もある。これは問題ではないという主張は、「銃が人を殺すのではなく、人が人を殺すのだ」と似ているが、この場合、銃は安全装置なしで売られているのだ。

 AIの安全性と倫理は、大手テック企業がリップサービスを提供し、大勢の人々が取り組んでいると主張するものだが、これまでにリリースされたツールはそれを反映していないようだ。マイクロソフトは最近、倫理・社会チームを全員解雇したが、責任あるAI室とAI倫理のための「諮問委員会」はまだ維持している。今のところ、これらのテック企業がメディアに公表しているAIツールがいかに不適切な結果を生み出しているかについて問い合わせた際の回答は、次のようなものに集約される: わかっていますが、取り組んでいます。

 マイクロソフトの広報担当者はMotherboardに寄せた声明の中で、同社には「責任あるAIに取り組む350人近い従業員がおり、そのうち3分の1強がフルタイムで取り組んでいる。」

 どんな新しい技術でもそうですが、それを意図しない方法で使おうとする人もいます。だからこそ、私たちはBing Image Creatorをユーザーにとってポジティブで有益な体験にするために、さまざまなガードレールとフィルターを導入しているのです。「私たちは、有害なコンテンツの作成を防止するためのシステムを改善し続け、お客様にとってより安全な環境を作ることに引き続き注力していきます。

 メタ社のAIツールに関するメディアからの要請に対する回答も同様で、私たちマザーボードを含む記者に、次のような定型文を示している: 「すべての生成AIシステムと同様に、モデルは不正確または不適切な出力を返す可能性があります。すべての生成AIシステムと同様に、モデルは不正確または不適切な出力を返す可能性があります。」ステッカーに関連するAIの安全性についてのコメント要求には応じなかった。

 人々の創造的な作品がAIによって生成されたコンテンツに取り込まれ、再利用されるという懸念もまた、非常に現実的なものだ。作家、ミュージシャン、ビジュアルアーティストたちは、AIツールに激しく反発してきた。AIツールは、しばしばインターネットから無差別にかき集められたデータ(オリジナル作品や著作権で保護された作品を含む)を使って、作者の許可なく学習させられる。労働者を搾取するためのAIの使用は、ハリウッドの作家や俳優の組合が組織したストライキで大きな争点となり、一部のアーティストは、ツールが自分たちの作品を無報酬で複製するのを見て、ツールの背後にある企業を訴えている。

 Screenshot of a post on Bluesky: “Before releasing any AI software, please hand it to a focus group of terminally online internet trolls for 24 hours. If you aren’t OK with what they generate during this time period, do not release it.”

  現在、AIツールを使って著作権知的財産権で保護されたキャラクターの攻撃的な画像を作成することで、インターネット・トロールはディズニーのような企業を、マイクロソフトやメタのようなAIに狂ったテック企業と直接対決させるかもしれない。しかし、たとえこれらのシステムにパッチが適用され、ミニオンズが学校で銃を乱射する画像を作成するのを阻止できたとしても、AI企業は常に猫とネズミのゲームを演じることになるだろう。言い換えれば、「望ましくない」「安全でない」コンテンツのあらゆる定義に対するセーフガードを構築することは、事実上不可能なのだ。

  このような "汎用 "モデルを安全なものにすることはできません。なぜなら、すべてのアプリケーションのコンテキストにおいて、単一の一貫した安全性の概念が存在しないからです」とビーダマン氏は言う。「小学校の教育アプリケーションで安全なものが、他の文脈で安全なものと一致するとは限らない。

  たとえそうであっても、この結果は、すべてのAIシステムと同様に、人間のバイアスが深く組み込まれたこれらのツールが、人々の創造的な作品に対する保護はおろか、悪用に対する最も明白な防御策さえも欠いているように見えることを示している。また、企業がAIブームに突入する際の、明らかに無謀な奔放さを物語っている。

 「AIソフトウェアをリリースする前に、24時間、ネット上の荒らしのフォーカス・グループに渡してください」と、ツイッターで競合するBlueskyのユーザー、Micahは書いている。「この期間中に彼らが生成したものに問題がなければ、リリースしないでください。