「生成AIは2023年に世界を席巻します。その未来、そして私たちの未来は、私たちの次の一手によって決まります。」 MITテクノロジーレビューの人工知能担当上級編集者ウィル・ダグラス・ヘブン氏は最近、「これらの6つの質問が生成AIの未来を決定づける」と題した記事を発表し、2023年の生成AIの発展と影響、そして将来直面する6つの重要な課題を紹介した。この記事は、生成型人工知能の現状と将来を包括的かつ詳細に検討し、いくつかの重要な疑問と提案を提起する、貴重な科学技術レビューです。 ジェネレーティブ AI は、新しいコンテンツや製品を自動的に作成できる人工知能テクノロジーです。ディープラーニング、ニューラル ネットワーク、自然言語処理などの高度なアルゴリズムとモデルを活用して、人間の創造性と知恵を模倣し、それを上回ります。生成AIは、音楽、芸術、文学、デザイン、ゲーム、医療、教育、ビジネスなど、さまざまな分野で驚くべき能力と可能性を発揮しています。人々にさらなる利便性と楽しさを提供し、社会にさらなる価値と革新をもたらします。 生成 AI は、データの品質とソース、モデルの信頼性と解釈可能性、倫理的および法的制約と保護など、多くの課題と問題に直面しています。これらの問題は、生成型人工知能の開発と応用に影響を与えるだけでなく、人類の利益と将来にも関係しています。したがって、生成 AI について包括的かつ深く理解し、その長所と短所を探り、機会とリスクを分析し、責任ある使用と持続可能な開発を確保するための合理的なルールと基準を策定する必要があります。 01 生成 AI によって偏見の問題を軽減できるようになるでしょうか?記事ではまず、生成AIにおけるバイアスは、モデルをトレーニングするために社会的差別を反映した実際のデータを使用することで発生し、チャットボット、画像ジェネレーター、顔認識、採用アルゴリズムなどのコンテンツを生成する際にモデルがこれらの差別を再現し、悪化させる原因になると指摘しています。バイアスの問題を根本的に解決するには、新しいデータセットや新しいトレーニング方法が必要ですが、どちらも長い時間と労力がかかります。この記事では、生成型人工知能におけるバイアスを減らすために、人間のフィードバックによる強化学習の使用、合成データセットの使用、多様なクロスドメインデータの使用など、いくつかの現在の研究の方向性を紹介しています。 偏見は人工知能によって引き起こされる危害と同義語になっていますが、それには十分な理由があります。現実世界のデータ、特にインターネットから収集されたテキストや画像には、性別による固定観念から人種差別に至るまで、偏見が満ち溢れています。このデータでトレーニングされたモデルはこれらのバイアスを学習し、使用時に強化します。 チャットボットや画像ジェネレーターは、エンジニアを白人男性として、看護師を白人女性として描写する傾向があります。黒人は警察の顔認識プログラムによって誤認され、不当逮捕につながる危険がある。採用アルゴリズムは女性よりも男性を優遇し、本来対処すべき偏見を悪化させている。 新しいデータセットや新しいトレーニング方法(どちらも何年もの作業が必要)がなければ、バイアス問題の根本的な原因はそのまま残ります。しかし、それが研究の人気テーマになることを妨げることはなかった。 OpenAI は、人間によるフィードバックによる強化学習 (RLHF) などの技術を使用して、大規模な言語モデルの偏りを軽減しようとしています。これにより、モデルの出力は人間のテスターが好むテキストに近くなります。 他の手法では、合成データセットを使用します。たとえば、ビデオ制作用の生成モデルを提供するスタートアップ企業である Runway は、さまざまな人種、性別、職業、年齢の人々の人工的に生成された画像などの合成データを使用して、人気のある画像生成モデルである Stable Diffusion のバージョンをトレーニングしています。同社は、このデータセットでトレーニングされたモデルは、肌の色が濃い人物や女性の画像をより多く生成できると報告している。ビジネスマンの画像をリクエストすると、出力にはスカーフを巻いた女性が含まれます。医師の画像をリクエストすると、出力にはさまざまな肌の色や性別の人々が含まれます。 批評家は、これらの解決策は壊れたベースモデルに単にバンドエイドを貼るだけで、問題を解決するのではなく、問題を覆い隠すだけだと主張しています。しかし、ブーズ・アレン・ハミルトンでスミス氏の同僚であり、同社の責任あるAI担当ディレクターを務めるジェフ・シェーファー氏は、こうしたアルゴリズムによる偏見は社会的な偏見を有益な形で明らかにすることができると考えている。 例えば、データセットから人種に関する明示的な情報が削除されたとしても、人々の住所から人種を推測することができ、隔離や住宅差別のパターンが明らかになるため、人種的偏見が依然としてデータに基づく意思決定に影響を与える可能性があると彼は指摘した。 「大量のデータをまとめると、相関関係が非常に明確になりました」と彼は語った。 シェーファー氏は、この世代の AI でも同様のことが起こると考えている。「こうした社会的偏見が前面に出てくる」。それが、より的を絞った政策立案につながるだろう、と同氏は言う。 しかし、この楽観主義に不満を持つ人は多いだろう。問題が明らかになったからといって、必ずしも解決されるわけではありません。政策立案者たちは、住宅、雇用、融資、警察などの分野で何年も前に現れた社会的偏見に今も取り組んでいる。同時に、個人はその結果を負わなければなりません。 バイアスは、ほとんどの生成 AI モデルの固有の特徴であり続けるでしょう。しかし、いくつかの回避策と意識の向上により、政策立案者は最も顕著な例に対処することができます。 02 人工知能は著作権の適用方法をどのように変えるのでしょうか?AI は著作権の使用方法をどのように変えるのでしょうか?多くのアーティストや作家(そしてプログラマー)は、テクノロジー企業が自分たちの同意なしに自分たちの作品から利益を得ていることに不満を抱いており、OpenAI、Microsoft、その他の企業に対して著作権侵害で集団訴訟を起こしている。ゲッティ社はまた、Stable Diffusionという製品向けの画像を作成する会社であるStability AI社に対しても訴訟を起こした。 サラ・シルバーマンやジョージ・R・R・マーティンなどの著名人による訴訟がメディアの注目を集めている。これらの訴訟により、米国において他人の著作物の公正使用とみなされるものとそうでないものの定義が再定義されることになるだろう。しかし、結果を急いで見ないでください。知的財産ライセンスを専門とする法律事務所、ガンダーソン・デットマーのパートナー、ケイティ・ガードナー氏は、裁判所が最終決定を下すまでには数年かかるだろうと述べた。その頃には「テクノロジーは経済に深く根付いており、元に戻すことはできない」と彼女は言う。 一方、テクノロジー業界は、これらの著作権侵害の疑いのある技術を驚くべき速さで悪用しています。 「企業が様子見するとは思えない」とガードナー氏は言う。「法的リスクはあるが、対応を怠ればリスクはさらに大きくなる」 一部の企業は、侵害の可能性を制限するための措置を講じています。 OpenAIとMetaは、クリエイターが将来のデータセットから自分の作品を削除できる方法を開始したと主張している。 OpenAI は現在、DALL-E のユーザーが現存するアーティストのスタイルで画像を生成するよう要求することを禁止しています。しかし、ガードナー氏は「これらはすべて訴訟における彼らの主張を裏付けるためのものだ」と述べた。 Google、Microsoft、OpenAIは現在、モデルのユーザーを潜在的な法的措置から保護するためのサービスを提供している。マイクロソフトの GitHub Copilot 生成プログラミングアシスタントは、一部のソフトウェア開発者のコードを使用したとして訴えられており、同社の補償ポリシーは、裁判手続き中にそれを使用した人々を原則的に保護することになる。 「当社製品のユーザーが心配しなくても済むよう、当社がその負担を引き受けます」とマイクロソフトのCEO、サティア・ナデラ氏はMITテクノロジーレビューに語った。 同時に、新たなライセンス契約も登場しています。 ShutterstockとOpenAIは、OpenAIに画像の使用を許可する6年間の契約を締結した。 Adobe はまた、独自の画像生成モデルである Firefly では、Adobe Stock データセットまたはすでに著作権が切れている画像からライセンスされた画像のみを使用すると主張しています。しかし、Adobe Stock の寄稿者の中には、相談されなかったことに不満を抱く人もいた。 恨みはたくさんあります。今、アーティストたちは独自のテクノロジーで反撃している。 Nightshade と呼ばれるツールがあり、これを使用すると、人間には気付かないが機械学習モデルにとっては致命的な方法で画像を変更し、トレーニング中に画像を誤分類させることができます。オンラインでのメディアの共有と再利用に関する規範に大きな変化が起こると予想されます。注目を集める訴訟は依然として注目を集めるだろうが、企業が生成モデルの開発を続けることを止めることはないだろう。倫理的なデータセットをめぐる新たな市場が出現し、企業とクリエイターの間でいたちごっこが繰り広げられるでしょう。 03 私たちの仕事はどのように変わるのでしょうか?生成型 AI は、ブルーカラーの仕事だけでなく、データ アナリスト、医師、弁護士、ジャーナリストなどのホワイトカラーの仕事も脅かしています。生成 AI は、大規模な言語モデルを使用して、高度な試験、要約、執筆などを必要とするタスクを完了できます。しかし、これは生成 AI が実際に賢いことを意味するものではなく、また生成 AI がすべての専門職の役割を置き換えることができることを意味するものでもありません。 ウィル・ダグラス・ヘブン氏は記事の中で、ボストン・コンサルティング・グループのコンサルティング実験、エア・ストリート・キャピタルの分析レポート、ランウェイのビデオ制作など、生成AIの活用事例をいくつか紹介しています。この記事では、生成 AI が労働者の効率、品質、革新、満足度の向上にどのように役立つかを説明しています。この記事では、過度の依存を避ける、エラーをチェックする、著作権を尊重するなど、生成型人工知能を使用する際の注意事項についても触れています。 生成 AI の影響は、画像やビデオの制作モデルなどのデスクワークにとどまらず、人間の関与なしに大量の写真や動画を制作できるようになります。記事は、これが2023年のアメリカの脚本家や俳優のストライキのような著作権、倫理、社会問題を引き起こすだろうと指摘している。 生成 AI が仕事に与える全体的な影響は、労働者を置き換えるのではなく、労働者に力を与えることです。技術革新は、大量失業を引き起こすのではなく、新たな雇用機会を生み出すでしょう。それは、ある程度の苦痛と不平等をもたらし、私たちが望む仕事の意味と価値について考えることを要求するでしょう。 生成 AI が影響を与える仕事の種類は、仕事の性質と特徴、および生成 AI の機能と限界によって異なります。一般的に、生成 AI は、データの収集、処理、分析、視覚化など、多くの繰り返しと標準化を必要とするタスクに影響を与えます。これらのタスクは、生成 AI のアルゴリズムとモデルによって簡単に実装および最適化できるため、生成 AI はこれらのタスクを人間よりも速く、正確に、完全に完了できます。生成AIは、音楽、芸術、文学、デザイン、ゲーム、医療、教育、ビジネスなど、高度な創造性と知性が求められる仕事にも影響を与えます。これらの仕事では、生成AIの生成能力と可能性をうまく活用でき、生成AIは人間よりも多くの、より新しく、より優れたコンテンツや製品を生み出すことができるからです。ジェネレーティブ AI は、テキストから画像を生成する、画像から音声を生成する、音声からビデオを生成するなど、クロスドメインおよびクロスメディアの作業を必要とする仕事にも影響を与えます。これらの仕事では、ジェネレーティブ AI の生成技術と生成ツールを簡単に使用でき、ジェネレーティブ AI は人間よりも柔軟、自由、正確にこれらのコンテンツと製品を生成できるためです。 04 AI詐欺のリスクはどれくらい大きいですか?2023年、生成AIは幅広い注目と懸念を集めています。 AIを使って作成された偽の写真がネット上で拡散しており、中にはローマ法王やトランプ大統領、国防総省など、敏感な人物や場所が関係するものもある。こうした虚偽の情報は見分けるのが難しいだけでなく、選挙結果にも影響を及ぼす可能性があります。 OpenAI自身も、自社の技術が有害なプロパガンダの作成に利用される可能性があることを認めている。これらの問題に対処するため、バイデン政権と欧州連合はともに、AIが生成したコンテンツにラベルと透かしを入れることを義務付け、ユーザーがチャットボットに騙されることを防ぐ規制と措置を導入した。同時に、米国は国家安全保障を危険にさらす可能性のあるAIの監査も実施する。しかし、これらの措置が効果的で、タイムリーで、合理的であるかどうかはまだ分からない。 AIの専門家や起業家の中には、AIの将来やリスクについてさまざまな見解を持つ人もいます。AIが人類の絶滅につながることを心配する人もいれば、それはばかげていると考える人もいます。AIの開発を遅らせるべきだと考える人もいれば、AIのイノベーションを加速させるべきだと考える人もいます。彼らの議論はまだ終わっておらず、生成 AI の使用と乱用は続いています。 2023年に最も人気のある3枚の写真は、バレンシアガのダウンジャケットを着た教皇、警察に地面に押さえつけられるトランプ大統領、そしてペンタゴンが爆発する写真だ。それはすべて偽物だったが、何百万人もの人々に見られ、共有された。 生成モデルを使用すると、偽のテキストや偽の画像を作成することがこれまでになく簡単になります。多くの人が、誤った情報が蔓延していると警告しています。 OpenAIは、自社の技術がフェイクニュースキャンペーンで悪用される可能性のあるさまざまな方法を明らかにする研究に参加した。 2023年の報告書では、大規模な言語モデルが、識別が困難で大規模な、より説得力のあるプロパガンダを作成するために使用される可能性があると警告した。米国と欧州連合の専門家は、選挙が危険にさらされていると述べている。 バイデン政権の10月の人工知能に関する大統領令が、AI生成コンテンツのラベル付けと検出に焦点を当てていたのは驚くことではない。しかし、この命令はツールメーカーにテキストや画像をAI創作物としてラベル付けすることを法的に義務付けるものではない。そして、最高の検出ツールでも十分な信頼性はありません。 今月合意されたEUのAI法案はさらに進んだものとなっている。この包括的な法案の一部は、企業に対し、AIが生成したテキスト、画像、動画に透かしを入れ、ユーザーがチャットボットとやり取りしているかどうかを明確にすることを義務付けるものだ。そして、AI法には強制力があり、規則は拘束力があり、違反者は高額の罰金を科せられます。 米国はまた、選挙干渉など国家安全保障に脅威を与える可能性のあるあらゆるAIを監査すると述べている。それは良い一歩だとベナイチ氏は語った。しかし、これらのモデルの開発者ですら、その全機能を把握しているわけではない。「政府やその他の独立機関が、モデルをリリースする前に企業に包括的なテストを強制するというのは非現実的に思えます。」 問題は、テクノロジーが実際に使用されるまで、それがどのように悪用される可能性があるかをすべて知ることは不可能だということです。 「2023年にAI開発が減速するという話はよく出ている」とシェーファー氏は語った。 「しかし我々は反対の見解を持っています。」 これらのツールができるだけ多くの人々によって、できるだけさまざまな方法で使用されない限り、私たちはそれらを改善することはできません、と彼は言いました。「これらの奇妙なリスクが微妙な形でどのように現れるのか、またはどのような出来事がそれらを引き起こすのかを理解することはできません。」 使用が増えるにつれて、新しい形態の乱用が引き続き発生するでしょう。不正選挙に関わるような、注目を集める事例がいくつかあるかもしれません。 05 コストを真剣に受け止めますか?生成 AI の開発には、大量のデータと計算能力だけでなく、多くの人間による介入とレビューも必要です。これらの仕事は、労働条件や精神的健康が軽視されている目に見えない低賃金労働者によって行われることが多い。 2023年、OpenAIは、生成モデルから有害なコンテンツをフィルタリングするためにケニア人労働者を雇用したことがメディアで暴露され、批判された。これにより、生成型 AI の人的コストに関する一般の懸念と疑念が引き起こされました。一方、生成AIの開発も大量のエネルギーを消費し、環境汚染や気候変動につながります。 Nvidiaなどの企業は、AIモデルのトレーニング用ハードウェアを提供することで莫大な利益を上げているが、エネルギーを節約し、革新を進めるプレッシャーも受けている。 AIの労働コストと環境コストに対する一般の認識が高まり、テクノロジー企業に圧力がかかるでしょう。ただし、両方の分野で大幅な改善を達成するには、時間と労力がかかります。 AIはどれくらいコストがかかるのでしょうか?生成 AI の開発コストは、人的コストと環境コストの両方を無視することはできません。目に見えない労働者の問題は公然の秘密です。私たちは、生成モデルが生成する最悪の事態から守られています。その理由の 1 つは、トレーニング データにラベルを付け、テスト中に有害で、時にはトラウマになるような出力を除去する (多くの場合、低賃金の) 隠れた労働者軍団の存在です。これらはデータ時代の搾取工場です。 2023年、ケニアにおけるOpenAIの労働者の活用は、タイム誌やウォールストリート・ジャーナル誌などの主流メディアから注目を集めた。 OpenAI は、憎悪的、わいせつ、その他の不快なコンテンツをユーザーから隠すことができるフィルターを構築することで、生成モデルを改善したいと考えています。しかし、そのためには、人々がそうした有害コンテンツの例を数多く見つけてフラグを立て、自動フィルターがそれらを認識できるようにする必要がある。 OpenAIはアウトソーシング会社Samaを雇ったが、同社はケニアの低賃金労働者を雇用し、彼らにほとんどサポートを提供しなかったとされている。 生成 AI が主流の問題になるにつれ、人的コストがより顕著になり、これらのモデルを構築する企業は、自社の技術向上のために雇用されている世界中の労働者の労働条件に対処せざるを得なくなります。もう 1 つの大きなコストは、大規模な生成モデルのトレーニングに必要なエネルギーであり、この数値は改善される前に増加するでしょう。 8月に、Nvidiaは2024年第2四半期の収益が135億ドルを超え、前年同期の2倍になると発表しました。その収益の大部分(103億ドル)はデータセンター、つまりNvidiaのハードウェアを使用してAIモデルをトレーニングしている他の企業から得られたものだ。 「需要は信じられないほどだ」とエヌビディアのCEOジェンスン・フアン氏は語った。 「私たちは生成型 AI の離陸段階にあります」と彼は言う。彼はエネルギー問題を認めており、このブームがコンピューティング ハードウェアの種類に変化をもたらす可能性もあると予測している。 「世界のコンピューティングインフラの大部分はエネルギー効率が高くなければならない」と彼は語った。 AIの労働コストと環境コストに対する一般の認識が高まり、テクノロジー企業に圧力がかかるでしょう。しかし、いずれの面でもすぐに劇的な改善が見られるとは期待できない。 06 AI終末理論は政策立案に影響を与えるか?AI終末理論、つまり知能機械の創造は壊滅的な、さらには終末的な結果をもたらす可能性があるという信念は、長い間AIの底流となってきました。しかし、誇大宣伝の高まりと、AIの先駆者であるジェフリー・ヒントン氏が5月に、自身が開発に携わったテクノロジーに不安を感じていると発表したことで、この問題が表面化した。 2023年、これより物議を醸す問題はほとんどありません。ヒントン氏や、メタAIラボを設立した別のチューリング賞受賞者であるヤン・ルカン氏のようなAIの権威者たちは、AIの終末について異なる見解を持っており、ソーシャルメディア上で公然と口論したり皮肉を言い合ったりしている。 ヒントン氏、OpenAIのCEOサム・アルトマン氏らは、(将来の)AIシステムには核兵器と同様の安全装置を備えるべきだと提言している。そういった言葉が人々の注目を集めた。しかし、アメリカ科学者連盟の核情報プロジェクトのプログラムマネージャーであるマット・コルダ氏は、7月のVox誌の共同執筆記事の中で、こうした「混乱した類推」とそれが引き起こす「無意味なメディアパニック」を非難した。 警告を発する人々の動機が分からないため、何が真実かを見極めるのは難しいとベナイチ氏は言う。「多くの人がこの薬で大金を稼いでいるのに、その多くがより厳しい規制を主張する人々であるというのは奇妙に思えます。まるで『おい、私はこの非常に強力な薬を発明した!リスクはたくさんあるが、解毒剤を持っている』と言っているようだ」。一部の人々は、このような脅迫の影響を心配している。 X で、ディープラーニングの先駆者であるアンドリュー・ン氏は次のように書いている。「AI の将来に対する私の最大の懸念は、(人類絶滅などの)リスクが誇張され、技術ロビイストがオープンソースを抑圧し、イノベーションを阻害する厳しい規制を可決してしまうことです。」この議論により、偏見、雇用の不安定さ、誤報などのより差し迫ったリスクからリソースと研究者が逸らされることにもなった。 「リスクを冒すことが自社の利益になると考える人もいる」と、グーグルの有力なAI研究者フランソワ・ジョレ氏は言う。 「実存的リスクについて話すことは、自分がいかに道徳的に意識があり責任感があるかを強調すると同時に、より現実的で差し迫った問題から注意をそらすことにもなります。」 ベナイチ氏は、警鐘を鳴らしながらも、企業のために1億ドルを調達している人もいると指摘した。 「終末論は資金集めの戦略だと言えるだろう」と彼は語った。 脅迫は収まるだろうが、政策立案者の政策課題への影響はしばらく続く可能性が高い。より差し迫った被害に再び注意を向けるよう求める声は続くだろう。 07 追加質問:人工知能のキラーアプリケーションはまだ登場していないOpenAIは、同社の以前の大規模言語モデルGPT-3.5をベースにしたチャットボット「ChatGPT」をリリースしたが、会話や質問への回答により適したものとなるよういくつかの改良が加えられている。このチャットボットは多くの人々の興味と好奇心を喚起し、人工知能の分野における画期的な進歩と考えられています。 OpenAIの共同設立者兼主任科学者であるイリヤ・スツケバー氏は、彼と彼のチームは、単語の検索、事実の確認、休暇の計画、プログラミングの学習など、さまざまなことにChatGPTを頻繁に使用していると語った。彼は、人工知能は最もホットなものであり、科学技術と経済の中核であると語った。しかし、OpenAIはChatGPTに明確な目的を設けず、ユーザーが自由にプレイできるようにした。 ChatGPT には驚くべき機能やキラー アプリがないことがわかり、多くの人が混乱し、失望しました。 Google の従業員も自社のチャットボット「Bard」の価値に懐疑的だった。投資会社セコイア・キャピタルのデータによると、生成型人工知能の導入はYouTubeやInstagramなどの人気サービスにはまだ達しておらず、ユーザーの忠誠心は低い。生成 AI は、ニッチ市場、競合他社、技術の変化など、依然として多くの問題と課題に直面しています。 OpenAI のもう 1 人の共同創設者兼 CEO である Sam Schaefer 氏が述べたように、私たちはこれらの問題をこれまでにない方法で解決する必要があります。 ChatGPT はほぼ稼働しませんでした。 OpenAIの共同創設者兼主任科学者であるイリヤ・スツケバー氏は、その精度に満足していなかった。他の人たちは、それはほとんど進歩ではないと感じました。実際、ChatGPT は、OpenAI が以前に開発した大規模な言語モデルである GPT-3.5 と、いくつかの興味深い改善点 (より会話的で関連性の高い回答など) を 1 つの便利なパッケージに組み合わせたものです。 「これは強力で、うまく機能します」とスツケバー氏は語った。 「人工知能の分野で、一般の人が人工知能の進歩を見ることができるようになったのはこれが初めてです。」 ChatGPT の盛り上がりはまだ終わっていません。 「AIは最もホットなものだ」とサツケバー氏は語った。 「AIはテクノロジーと経済の中心です。AIの能力に私たちはこれからも驚かされることになると思います。」 しかし、AI で何ができるかがわかったところで、AI は何に使われるのでしょうか? OpenAIはこの技術の実用性を考慮していませんでした。 ChatGPT がリリースされたとき、彼らは「好きなように使ってください」と言っていました。それ以来、誰もがこの疑問について考え続けています。 「ChatGPTは非常に便利だと思います」とSutskever氏は語った。 「いろんなことに使っています」と彼は言う。単語を調べたり、自分の考えをより明確に表現するのに使っているという。彼は時々、事実を確認するためにそれを使用します(必ずしも正しいとは限りませんが)。 OpenAI の他の人たちは、休暇の計画を立てたり (「世界で最高のスキューバ ダイビング スポット 3 か所はどこですか?」)、プログラミングを学んだり、IT サポートを見つけたりするためにこれを使用しています。 便利ですが、驚くほどではありません。ほとんどの例は、既存のツール (検索など) を使用して実行できます。一方、Google の従業員は、自社のチャットボットである Bard (現在は Google の GPT-4 対応の Gemini を搭載) の有用性について疑問を抱いていると言われている。 「Bard が LLM にとって本当に役立つのか、いまだに疑問に思っています」と、Bard のユーザー エクスペリエンス責任者である Cathy Pearl 氏は 8 月に Discord に書き込んだ。 「何かが本当に変わったような気がする。まだ分からないよ!」 キラーアプリがなければ、「すごい」という効果は生まれません。投資会社セコイア・キャピタルによると、ChatGPT、Character.ai、LensaなどのAIアプリでは、ユーザーが独自の様式化された(そして性差別的な)アバターを作成できるが、YouTubeやInstagramなどの人気サービスよりも急速にユーザーを失っているという。 Tik Tokでも同様です。 「消費者向けテクノロジーのルールは変わらない」とベナイキ氏は言う。 「数か月間大々的に宣伝された後、消えていく実験はたくさんあるだろう。」 もちろん、インターネットの初期の頃には失敗した試みも数多くありました。世界を変える前に、インターネットはバブルを経験しました。今日の生成 AI も失敗し、次の大きなものに置き換えられるかもしれません。 いずれにせよ、AI が主流となった今、ニッチな問題はすべての人の問題になっています。シェーファー氏は「私たちはこれまでとは違う方法でこれらの問題に取り組まなければなりません」と語る。 参照: https://www.technologyreview.com/2023/12/19/1084505/generative-ai-artificial-intelligence-bias-jobs-copyright-misinformation/ |
2018 年には、自然言語処理の分野で多くの刺激的なアイデアやツールが生まれました。概念的な視点から...
汎用人工知能へと進むには、人間の生活の現実世界を理解し、豊富なスキルを習得できる具現化された汎用イン...
言語は思考と知識を伝達し、人類の文明を推進します。そして会話によって機械はより賢くなり、人間にとって...
マルチモーダル学習が直面している主な課題の 1 つは、テキスト、オーディオ、ビデオなどの異種のモダリ...
[[264844]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
[51CTO.com クイック翻訳]顔認識は、セキュリティメカニズムとして、ますます多くの携...
2019年10月26日、Testinが主催する第2回NCTS中国クラウドテスト業界サミットが北京で開...
AI 分野で急成長しているビジネスを運営し、成長させるには、プロセスの構築、顧客の成功、人材の獲得、...
OpenCV と Python を使用してライブ ビデオ ストリームでディープラーニング オブジェク...
スマートカーからスマート道路、スマートシティまで、「複雑な世界をよりシンプルに」という百度の使命によ...