現時点では、ディープラーニング以外の実装方法を模索する必要がある。

現時点では、ディープラーニング以外の実装方法を模索する必要がある。

[51CTO.com クイック翻訳] ディープラーニングは確かに多くの印象的な成功事例をもたらしましたが、それは機械学習技術のほんの一部に過ぎず、機械学習は人工知能のほんの一部にすぎません。私たちの意見では、将来の人工知能はディープラーニングを超えた他の実装方法を模索すべきです。

[[215767]]

ディープラーニング技術 - 人工知能分野の輝く星

今日、誰もが人工知能 (AI) 分野の光り輝く星であるディープラーニング (DL) テクノロジーを学んでいる、あるいは学んでいると主張しています。

現在、あらゆる段階の学習者向けに、有料および無料のディープラーニング コースが 10 万以上あります。多くのスタートアップや製品が「Deep XX」という看板を掲げていますが、鋭い目を持つ人なら誰でも、これが自社を誇示するための単なる仕掛けに過ぎないことはすぐにわかります。実際、ディープラーニングは機械学習 (ML) の 1% しか占めず、機械学習は人工知能の 1% しか占めていないという事実を多くの人が見落としています。残りの99%には、より広い練習スペースがあります。より具体的に言えば、「純粋なディープラーニングの専門家」は「包括的な AI の専門家」としての資格を満たしません。

ディープラーニングは人工知能と同義ではありません。

GoogleやFacebookなどのテクノロジー大手の広告で最も多く取り上げられている人工知能ツールは、依然として主にディープラーニングです。そのため、一般の人々も、現在および将来のすべての人工知能技術の成果は、ディープラーニングに依存して達成する必要があると誤解しています。しかし、そうではありません。

XGBoost のような決定木は注目を集めることはありませんが、多くの Kaggle テーブル コンテストで静かにディープラーニング手法に勝利してきました。メディアはALphaGoを純粋なディープラーニングの産物と呼んでいますが、実際にはモンテカルロ木とディープラーニングを組み合わせた結果であり、純粋なディープラーニングだけでは世界クラスのチェスプレイヤーに勝つには不十分であるという証拠があります。ニューロ進化型 NEAT は多くの強化学習タスクを解決しますが、バックプロパゲーション メカニズムは使用しません。人工知能に関する現在の理解には「深い誤解」があることは明らかです。

もちろん、ディープラーニングが現実世界の課題を解決できないと言っているわけではありません。ディープラーニングは確かに現実世界の課題を解決できる優れた能力を持っています。現時点では、ツリーやその他のアルゴリズムは、ディープラーニングに匹敵する実際のパフォーマンスをもたらすことができないことが多く、特定のタスクを解決するためにディープラーニングを置き換えることはできません。しかし、将来的にはディープラーニング技術に勝てる非ディープラーニングシステムが増えると予想しています。ディープラーニングによる意思決定は法的な問題でもあることを強調しておく価値があります。たとえ結果が正しいとしても、意思決定プロセスを説明しても法的な疑問を解消することはできません。

また、ディープラーニングでは、新しい情報を学習する際に以前に学習した他の情報を突然忘れてしまう「壊滅的な忘却」問題や、過剰適合の傾向が続くという問題がメディアで取り上げられることも楽しみにしています。 「知能」の観点で言えば、ディープラーニングは取得したトレーニングデータを単純に信じるだけで、そのデータが真実か偽か、公平か偏っているかを判断することはできません。人間はフェイクニュースにある程度惑わされる可能性はあるものの、依然として強い自主的な判断力を維持している。具体的には、子供は映画の内容がフィクションであることを知っており、それを信じないだろう。

ディープラーニングはHTMLよりも古い

20 年前は誰もが HTML を学んでいました。 HTML は、Web ページを手書きするために使用されるマークアップ言語であり、当時はこのスキルを習得すれば億万長者になれる可能性があると広く信じられていました。

私も他の人と同じように、HTML、モバイル アプリ、ディープラーニング、その他新しく登場した技術など、役に立つと思われるあらゆるテクノロジーを学びました。しかし、実際のところ、私たちの生活はたった 1 つのテクノロジーを中心に展開できるわけではありません。ディープラーニングを学んだとしても、人工知能の長い開発サイクルの中で満月を垣間見ることはできません。

1995 年初頭には HTML は時代遅れになり始め、その後すぐに CSS、JavaScript、サーバー言語に徐々に置き換えられていきました。同様に、ディープラーニングも時代遅れになるでしょう。現在、主流のモバイル アプリのほとんどには HTML 要素がまったく含まれていないため、将来の AI アプリケーションもディープラーニングに完全に別れを告げることになるかもしれません。誰にもわかりません。

実はディープラーニングは1980年代に誕生した技術で、HTMLよりも古いものです。1970年代の「ニューラルネットワーク+隠れ層」の仕組みにより、より多くのデータでトレーニングすればより理想的な結果が得られることが実証され、その後ディープラーニングと改名され、広く注目を集めました。

1992 年に、私はニューラル ネットワークのソース コードや、フラクタルやセルオートマトンなどの技術的な成果物を簡単に調べました。私も他の人たちと同じように、ディープラーニングは実用性のない純粋に学術的な数学パズルだと考えていました。代わりに、私は 3D ビデオゲーム、インターネットなど、より具体的な他のテクノロジーに焦点を当てました。しかし、私たちは皆、ひどく間違っていたことが判明しました。ディープラーニングはビッグデータを使用して素晴らしい目標を達成できるのです。

2015年、私はDeep DreamとGANに深く魅了されました。しかし、ディープラーニングは私たちが発明する最後の人工知能技術であってはなりませんし、そうであってはなりません。古くからあるディープラーニングは広く研究されており、数十年にわたるアップデートを通じて、より多くのタスクを正確に解決する能力を獲得してきましたが、どのバージョンのディープラーニング(畳み込み、RNN、RNN + LSTM、GAN など)もその意思決定プロセスを説明できません。

ディープラーニングは将来、より多くのタスクを解決し、より多くの関連労働者を置き換えることができるようになることは間違いありませんが、決定の公平性について正当かつ有効な説明を提供できない限り、すべての問題を解決したり、この驚くべき発展を継続したりすることはおそらくないでしょう。

ディープラーニング以外の道を探る

将来の AI は、ディープラーニングだけでなく、古いものから新しいものまで、これまで無視されてきた他の手段も探求できるはずです。

ディープラーニングの主な限界は、統計レベルでより稀な状況を考慮せずに、データ内で頻繁に発生する事実として現実を単純に扱うことです。ディープラーニングの公平性は、テクノロジー自体からではなく、ディープラーニングのために人間が選択し準備したデータから生まれます。ディープラーニングはテキストを読み取ってテキストの内容を翻訳できますが、「人間的な方法」で理解可能な翻訳を完了することはできません。ディープラーニング モデルがトレーニング中に 100 冊の本に触れ、そのうち 40 冊が憎悪、戦争、死、破壊は促進する価値がないと考え、60 冊がヒトラーのナチスのイデオロギーを促進し、促進する価値があると考えている場合、最終的に得られるのは 100% ナチスの傾向になります。

ディープラーニングだけでは、ユダヤ人、同性愛者、障害者を殺害することが間違っているとは決して理解できず、トレーニングデータによって提供されるナチスの見解に単に従うだけでしょう。このため、ディープラーニングは自身の決定を説明することができず、「ナチズムは正しい議論だとよく読むので、正しいはずだ」と単純に考えてしまいます。

ディープラーニングは明らかに欠陥のある論理を学習して模倣しますが、テロリズムを含むあらゆる種類の誤った思考に内在する欠陥を検出することはできません。しかし、ディープラーニングとは異なり、子供でも映画に描かれた悪役を自分で発見することができます。バックプロパゲーションにおける勾配降下法やカスタムディープラーニングハードウェアの成果は確かに評価に値しますが、それらは主に統計的および幾何学的なレベルで機能するため、2037年には人工知能ソリューションを判断する主な基準ではなくなると思います。

多くのタスクでは、AI のディープラーニングは違法となり、コンプライアンス要件に違反することになります。 2018 年 5 月 25 日に正式に施行される一般データ保護規則 (GDPR) の要件によれば、EU​​ 加盟 28 か国の国民のデータ収集に関わるすべての当事者は、規制規定を遵守する必要があります。その時、EU内でのディープラーニングの実用化は厳しく制限されることになる。つまり、人工知能の新興企業はディープラーニングに代わる他の実装方法をできるだけ早く見つける必要があり、さもなければ巨額の罰金の脅威に直面することになる。規則では、罰金は米国市場からの収益を含む多国籍企業の全世界収益の4%と定められている。

自動化された意思決定に関しては、GDPR では、関連する実装テクノロジーを実装し、人種、意見、健康に関連する差別的要素が含まれないようにすることを義務付けています。 GDPR に類似した他の法的規定が世界的に導入されるのは時間の問題です。米国の公正信用報告法では、消費者の信用スコアに悪影響を及ぼす可能性のあるすべての要素を関係者に開示することが義務付けられており、同時に存在する要素は 4 つまでとされています。対照的に、ディープラーニングに関係する要素の数は数万に及ぶことが多いので、それを 4 つに簡略化するにはどうすればよいでしょうか。将来的には、人工知能はビットコインのように、開発の初期段階では規制が欠如しているものの、最終的には関連する法律や処罰制度が出現するだろう。

ディープラーニングの複雑さは、技術者以外の人には説明が難しい

ディープラーニング システムは、画像が猫のものかどうかを判断する、自撮り写真にウサギの耳を追加する方法など、タスクを実行するために必要以上に多くの決定を行う必要があります。そして、将来的には、より単純な非ディープラーニング メカニズムがこれらのタスクを処理できるようになることは明らかです。

ディープラーニングとは異なり、AI ソリューションは、技術的背景を持たない裁判官やユーザーに対して、よりシンプルで法的に有効な言語を使用して、責任を持ってその決定を説明する必要があります。ディープラーニングの複雑さは、裁判官やユーザーにとって「魔法」のように見えるため、単なるクールな機能というよりも、間違いなく法的リスクとなります。ディープラーニングは、例えば医療画像から病気を検出し、医師がそれを検証するなど、人間に対して推奨や警告を行うことができますが、この自動化されたメカニズムにはまだ十分な詳細がありません。 AI によって拒否されたユーザー(例えば、ローンや就職の申し込みが拒否された場合)に対して、関係者がどのように説明するか想像できますか?

法律には「説明する権利」が含まれており、これは申請者の就職や融資の申請が拒否された理由を説明する責任である。しかし、ディープラーニングによって得られる結果には、自然言語(法律言語)で解釈可能な内容が含まれていません。ディープラーニング変数のページを提供することはできますが、審査員やユーザーがそれらにアクセスできないため、最も優秀な数学者や他のアルゴリズムであっても、その内容を理解してディープラーニングモデルに還元することはできません。さらに、人間が決定を下すシナリオの場合でも、AI ツールは詳細かつ識別可能な理由 (たとえば、AI の決定を覆すなど) を提供したり、AI が提供した説明をコピーして貼り付け、確認するだけで迅速な認証を完了したりできる必要があります。

ディープラーニングのアルゴリズムを変更して、人間のような内容に近い簡単な説明を与える方法を誰も見つけていないため、ディープラーニングがコンプライアンス監査に合格できないのは明らかです。この問題は他の多くの人工知能や機械学習アルゴリズムにも影響を及ぼしますが、その影響はディープラーニングの場合よりはるかに小さくなります。決定木は、拡張または組み合わせの場合には解釈できません。しかし将来的には、従来のディープラーニングや人間の判断方法に完全に取って代わり、決定を擁護できるほど強力な、新しい認証メカニズムや再発明された認証メカニズムが登場するだろうと私は信じています。

GDPR では、申請の拒否を処理できるのは HR のみです。AI は申請を受け付けることしかできませんが、ローンや求人の申請の拒否は、拒否された当事者に納得のいく説明を提供できる HR が処理する必要があります。

しかし、この場合でも、AIが拒否を選択した場合、人事部門は依然として何の助けも説明情報も得られず、ディープラーニングが従うロジックが正しいのか間違っているのかを知る方法がありません。彼らは、データを一から再検討し、それでもデータを拒否するかどうか、またそれに対する合理的な説明を提供するかどうかを決定することを余儀なくされるだろう。リスクは、時間とコストを節約するために、人事部門が AI に虚偽の拒否説明を提供したり、AI の承認意見を盲目的に受け入れたりする誘惑に駆られることです。

しかし、裁判官は、同様の状況にある他の人の判断がなぜ受け入れられるのかを問うなど、AI の判断の公平性を検証する必要がある。セキュリティ上の理由から、GDPR などの法律で明示的に要求されているかどうかに関係なく、承認の確固たる正当性を積極的に取得する必要があります。将来の非ディープラーニング AI システムは、ユーザー、審査員、サポートスタッフが参照できるように、人間が読める形式で決定の説明を提供できるようになり、最終的には自動化された意思決定プロセスに完全に導入できるようになります。

説明可能性は、法律やディープラーニングよりも前から存在していました。独占禁止法訴訟では、Google などの企業に対して、なぜ特定の製品が検索結果の上位に表示され、他の製品は表示されないのかが問われます。つまり、ディープラーニングが登場するずっと前から、他の多くのアルゴリズムも理解できない方法でデータを混合して結果を生成しており、決定が下された理由を簡単に再現することは誰にもできなかったのです。

エンジニアたちは裁判官に対し、決定がどのようになされたのか正確には分からないと説明し、何ページにも及ぶ線形代数の資料を証拠として提出した。しかし、これで紛争はうまく解決されず、複数の事例でこれらの企業は数十億ドルの罰金を科せられ、具体的な法律が導入される前から、既存の仕組みに根本的な変更を加える必要があると警告されていた。雇用、ローン、税金還付に関して利用者が申し立てた拒否判決は集団訴訟の「常套手段」となっており、小売、銀行、保険などの関連する自動意思決定部門は、合理的な説明ができないために罰金や広報上の危機に直面する事態に陥っている。

ディープラーニングは説明能力に欠けており、非常に限られたタスクしか解決できない。

私たちが持っているのは、自分自身を説明できない「ディープラーニング AI」だけであり、説明可能性が欠如しているため、解決できるタスクは非常に限られています。ディープラーニングではコストを削減できず、自動化された決定の内容が機密性が高いために処理を中断することもできません。

ほとんどの人にとって、人工知能の典型的な代表例は、知的な説明を提供できる SF 映画に登場する製品です。具体的には、人間はこれらの説明に基づいて主張を裏付けるかどうかを迅速に判断できるため、正当性の検証は難しくありません。

このため、裁判官や GDPR 立法者を含むほとんどの人は、AI テクノロジーを採用する企業は、映画のようにそれを法廷に持ち込み、シンプルかつ明確な方法で自社の決定を擁護できる能力を持つべきだと考えています。しかし、現実は全く逆です。私たちが持っているのは、自分自身を説明できない「ディープラーニングAI」だけであり、説明力の欠如により、解決できるタスクも非常に限られています。ディープラーニングではコストを削減できず、自動化された決定の内容が機密性が高いために処理を中断することもできません。人間が最終決定を下すビジネス プロセスの場合でも、理由や根拠を説明できない現在の「ブラック ボックス」ではなく、AI が独自の推奨事項を説明できるようになることが期待されます。

将来登場する可能性のある説明可能な AI ソリューションは、あらゆる種類の組織がディープラーニングと手動処理プロセスを、より安全に、よりコンプライアンスに準拠して、より迅速に、より低コストで置き換えるのに役立ちます。ディープラーニングが 1960 年代から 1980 年代にかけて発明されたことを考慮すると、この要件を満たすテクノロジーはすでに存在しており、再発見されるか、革命的なアップグレードの波をもたらすのを待っているだけなのかもしれません。

自動化された意思決定に関しては、GDPR では、人種、意見、さらには健康状態などの要素に基づく差別的影響からの保護も義務付けています。しかし、ユーザーが生成したデータ(ソーシャル メディアやニュースを含む)は、医療記録や財務記録などの現実世界のデータとは異なり、常に何らかの悪意のある偏見が含まれています。

前述のように、ディープラーニングは大量のテキストやデータを読み取り、その内容の傾向を模倣することはできますが、批判的に理解することはできません。ディープラーニングは、頻繁に発見される結論のみを信じ、データに現れるパターンや傾向を強調しますが、これは間違いなく、人間社会に存在する偏見の問題をさらに増幅させるでしょう。

データによれば、黒人の投獄率は白人よりも高いため、関連事件が発生した場合、ディープラーニングは自然に黒人を最初に疑うことになります。データによれば、企業の取締役会には女性よりも男性の方がはるかに多く、そのためディープラーニングは求人応募を検討する際には男性候補者を優先することになる。

差別、人種差別、その他の問題におけるディープラーニングによる意思決定

ディープラーニングによる決定は、トレーニング データ内の平均的な例よりも差別的、人種差別的、性差別的になります。この問題はすべての機械学習アルゴリズムに存在しますが、ディープラーニング モデルは間違いなく、テスト、監視、制御、調整が最も難しいモデルの 1 つです。この問題は解決が難しく、チャットボットがナチスのように憎悪的な傾向を示したり、美容アプリが画像内の黒人の顔を直接フィルタリングしたりするなど、広範囲にわたる状況につながる可能性があります。

ディープラーニング モデルのバランスを調整したり、トレーニング後にパッチをインストールしたりすることで、ディープラーニング モデル内の差別的、人種差別的、性差別的な傾向を修正することはできません。ディープラーニングはニューラル ネットワークのセットであり、他の AI 手法とは異なり、ローカル調整で特定の回答を編集することはできず、異なる 100% バランスのとれた偏りのないデータを使用して回答を再トレーニングすることしかできません。明らかに、そのようなデータセットは非常にまれです。

さらに、ディープラーニング モデルはデータ セット内で見つかった結論を模倣しますが、その意味を真に理解することはできません。ディープラーニングはデータを否定せず、データが表す不公平な傾向に気付かず、単に「データを学習」するだけです。これを踏まえると、白人が黒人と同じ割合で逮捕され、そのうちの50%が女性であるなど、理想的な条件下で疑似公平なデータを作成するために人を雇う必要があるかもしれません。

しかし、ディープラーニングをトレーニングするために、人間が編集した偏りのないデータを大量に作成するには、大量のリソースが必要になるため、コストがかかるため、人工知能は実用的ではありません。さらに、そのような真に公平なディープラーニング モデルをトレーニングしたとしても、説明を提供できないため、その結論の公平性を審査員やユーザーに対して証明することはできません。

法的リスクをもたらさない非商用アプリケーションやゲームでは、ディープラーニングは補助的な要素となる可能性があります。説明可能な AI ソリューションが登場しても、ディープラーニング技術はテープレコーダーや CRT テレビのように完全に排除されることはありません。結局のところ、ゲームボットが負けたからといって、勝った理由を説明できないと主張して、ゲームボットを法廷で訴える人はいないのです。

さらに、写真に写っている年上、年下、異性の人物の顔を修正する FaceApp の機能に人々が不満を抱いても、人工知能が外見の判断プロセスを説明できないため、訴訟を起こすことはないだろう。さらに、ディープラーニングを使用して医療画像から病気を検出することは、ユーザーが薬を服用する前に医師に確認する限り、非常に安全です。

ディープラーニングは法的リスクが高い

法的なディープラーニング市場には、規模の面で重大な制限があります。裁判官は、経済的または健康上の格差につながる可能性のある状況や差別的な傾向のある状況に対して罰金を科す可能性がありますが、ディープラーニング アルゴリズムでは、その決定が公正であるかどうか、またその理由を理解できません。

実際、芸術作品の創作、ゲームデザイン、ジョーク編集に加えて、ディープラーニングはより多くの法的リスクを伴います。既存の非ディープラーニング実装は、必要に応じてディープラーニングに取って代わり、関連する新しい方法の開発によって人工知能の歴史的プロセスを推進し続けます。ディープラーニングを超えたあらゆる人工知能と機械学習の技術に誰もが注目してこそ、私たちは真の「総合的な人工知能の専門家」になれるのです。

「違法」問題に加えて、ディープラーニングは他のいくつかの種類のタスクを解決するのにも非常に弱いです。抽象的な推論の点では、人々は自分が見たデータが公平であるかどうかを理解し、その決定の背後にある論理を説明する必要があります。ディープラーニングアルゴリズムに最適で、説明をあまり必要としないと思われる画像認識などのタスクの場合でも、ディープラーニングは依然として人間よりもはるかに安全性が低いです。

実際、「敵対的なサンプル」を使用してディープラーニング アルゴリズムを完全に欺くことができます。つまり、猫の写真に目に見えない干渉要素を追加すると、ディープラーニング アルゴリズムが猫を犬として扱うように誤解する可能性があります。この場合、人間はそれを猫として識別しますが、ディープラーニングはそれを犬、またはハッカーによって密かに埋め込まれた何か他のものとして識別します。これにより、攻撃者は道路標識を改ざんして現在の自動運転車両に干渉することが可能になります。将来の新しい AI システムは、この種のハッキング活動に対処でき、ディープラーニング ベースの方法を完全に置き換える必要があります。

人気のディープラーニングライブラリ Keras の作者は、論文「ディープラーニングの限界」で次のように書いています。「ディープラーニングの唯一の真の成功は、人間が注釈を付けた大量のデータを活用して、連続的な幾何学的変換によって空間 X を空間 Y にマッピングする能力です。」これらの空間には 3 次元だけでなく多くの次元があるため、ディープラーニングはピカソの芸術を模倣したり、テキサス ホールデムでブラフする方法を学んだり、人間の創造性を反映する他のタスクを実行したりできます。

しかし、素人の言い方で言えば、これは、ディープラーニングが、猫が何であるかを理解せずに写真に写っている猫を認識するように訓練できること、また、人種差別が何であるかを知らなくても人種差別的になれることも意味していると思います。これは、猫、人種差別、人種を正しく識別するディープラーニングの能力には影響しませんが、それでも人間の判断方法とは根本的にかけ離れています。

論文「ディープラーニングの未来」では、Keras ライブラリの作者が、ディープラーニング システムが、まだ存在しない将来の「アルゴリズム モジュール」や「メタ学習方法」と「幾何学的モジュール」でのみ対話できるようになるというビジョンを説明しています。このアプローチでは、解決できるタスクの数と種類を増やすことができますが、ディープラーニング モジュールによって行われた特定の決定を説明することはできません。

脳内で計算された感情やイメージを言葉で説明できないのと同じように、人間は特定の説明をすることはできますが、それは多くの場合、正確だと信じている単なる単純化された言い訳に過ぎません。このような状況では、機械に非常に正確な説明を求めるのは公平ではありません。

一方、ディープラーニング以外の人工知能システムの構築に懸命に取り組んでいる専門家も多くいますが、資金不足というジレンマに直面しています。結局のところ、現在の投資の焦点は依然としてディープラーニングにあり、この熱狂はしばらく続くでしょう。 AI の次の波がいつ到来するかは誰にもわかりませんが、それが Deep Learning 2.0 である可能性は低いと思います。

人工知能と機械学習の分野全体に焦点を当てる

ディープラーニングが広く注目され、話題になっている理由は、主にディープラーニングのソフトウェアやハードウェアを販売するメーカーの宣伝によるものです。もう一つの証拠として、ディープラーニングを支持する心理学者や哲学者などの「自然知能」の専門家が存在しないことに気づくかもしれません。

人工知能の分野で挑戦することを急いでいない場合、またはそれに費やす時間があまりない場合は、1.0 の学習をスキップして、人工知能システムの次の変化の波を待つほうがよいでしょう。結局のところ、成熟したテクノロジーだけが学習する価値があります。しかし、AI技術をできるだけ早く習得する必要がある場合は、ディープラーニングだけに焦点を当てるのではなく、人工知能と機械学習の分野全体に焦点を当てることが重要です。

[51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください]

<<:  ディープラーニングを使って背景を除去し、切り抜きを実現する方法の詳細な説明

>>:  AIとビッグデータ2017「成長痛」

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

2020 年の最もクールな機械学習スタートアップ 12 社

人工知能は近年注目されている技術分野です。機械学習は人工知能のサブセットであり、人工知能分野全体の中...

清華大学と快手は、手動注釈なしで単一の参照画像に基づいて画像品質評価方法を生成しました。

導入生成画像の評価に関する既存の研究では、主に生成された画像の分布に基づいてモデルの「全体的な」生成...

人工知能を活用してビジネスを拡大するための 5 つの戦略

現時点では、インテリジェント技術の期待とリターンはまだ不明確であり、製品の創造性と投資を強化するため...

...

...

ドローンの応用シナリオに関する簡単な説明

技術の発展に伴い、ドローンの応用シナリオは絶えず拡大しています。ドローンが様々な業界で活用されている...

検索拡張生成による AI 幻覚問題の解決

ラフル・プラダン出典| https://www.infoworld.com/article/3708...

NeuRAD: 自動運転のためのニューラル レンダリング (複数のデータセットでの SOTA)

論文「NeuRAD: 自動運転のためのニューラル レンダリング」は、Zenseact、チャルマース工...

これらの仕事は今後5年以内に機械に置き換えられる可能性があり、8500万人が解雇される危険にさらされている。

5G ネットワークの誕生と普及により、5G ネットワークのサポートにより、モノのインターネットの新...

陳一然教授の論文が2024 IEEE優秀論文賞を受賞しました! STN-iCNN: エンドツーエンドの顔解析フレームワーク

陳一然教授の論文が賞を受賞しました!この顔認識/分析に関する論文は、2024 IEEE CIS TE...

人工知能アプリケーションのための6つの主要技術、ついに誰かがわかりやすく説明

01 ロボティックプロセスオートメーション(RPA) RPA (ロボティック プロセス オートメーシ...

AI分野に新たな学者が加わりました!清華大学の胡世民が選出され、「Jitu」フレームワークは彼の研究室から生まれた

清華大学の胡世民教授が中国科学院の院士に選出されました! 2023年に両アカデミーから新たに選出され...

デューク大学は、低品質のモザイクを数秒で高解像度の画像に変換するAIアルゴリズムを提案

高画質を追求する時代において、低画質に対する許容度はますます低くなっています。 Zhihuで「低解像...

オープンソースの大規模モデルの王座が交代しました! Google Gemmaが市場に参入、ノートパソコンは動作可能でビジネスにも使用可能

ちょうど今、Google がオープンソースのビッグモデルに参入しました。オープンソースのビッグモデル...

...