AI テクノロジーを悪とみなす個人、政府、企業が増えるにつれ、AI が善良な存在であることを保証するための指標が必要であることは明らかです。
では、AI アプリケーションにおける「悪」をどのように測定するのでしょうか? これはおかしな質問のように聞こえるかもしれませんが、人々は「悪」という言葉を何らかのアプリケーションに適用することが何を意味するのかを自問する必要があります。そして、「邪悪な AI」が避けるべき結果である場合は、納品された成果物にそれが存在しないことを証明できるように、それを測定する方法を学んでください。 もちろん、これは純粋に人間のための実験ですが、AI業界の最近のニュースを注意深く読むと、このトピックの深刻さを感じるでしょう。具体的には、MLPerf が最近、AI 推論およびトレーニング用のベンチマーク スイートの最新バージョンをリリースしたことが注目されました。 MLPerf は、ハードウェア、ソフトウェア、クラウド コンピューティング サービス プロバイダーを含む 40 社の AI プラットフォーム ベンダーのグループです。 標準ベンチマークが AI ベンダーの間でかなりの支持を集めていることは明らかであり、一部のベンダーは、自社のプラットフォーム技術がこれらのスイートとどのように比較されるかを公開し始めています。たとえば、Google Cloud は、自然言語処理とオブジェクト検出用の TPU Pod が、最新の MLPerf ベンチマーク コンペティションで AI モデルのトレーニング記録を更新したと主張しています。速度、つまり特定の AI モデルをトレーニングして特定の結果を達成するために必要な時間を短縮することについてはベンチマーク数値のみが発表されていますが、将来の不特定の時点で、TPU Pod テクノロジーがこれらのワークロードのサポートにもたらすスケールの改善とコスト削減を文書化することが可能になります。 これには本質的に「悪」な点は何もありませんが、これは AI の潜在的な狂気に関するものではなく、AI ランタイムのパフォーマンスの基準です。現在、この技術が社会で懐疑的な見方を受けていることを考慮すると、特定の AI イニシアチブがプライバシーを侵害したり、社会的弱者グループに対して社会経済的偏見を生み出したり、その他の有害な行動を引き起こしたりする可能性を検討する必要があります。 これらの「悪質な AI」メトリックは、特定の成果物アプリケーションよりも、AI DevOps パイプライン全体に適用されます。 AI における「悪」の価値をベンチマークするには、関連する DevOps プロセスを次のように評価する必要があります。
これらのベンチマークが定期的に公開されれば、AI コミュニティはテクノロジーが社会に及ぼす潜在的な悪影響の数を大幅に減らすことができます。 AI の DevOps プロセスに潜む可能性のある「悪」の量をベンチマークしないと、次のような傾向が悪化する可能性があります。 過剰な規制: AI は必要悪として公共政策の議論に頻繁に登場します。この方法でこの問題に取り組むと、政府が他の多くの有望な「デュアルユース」AIイニシアチブを損なうような厳格な規制を制定する可能性が高くなる傾向があります。 AI 実践に関する明確なチェックリストやスコアカードがあれば、規制当局は何を推奨し、何を禁止すべきかを知るのにまさに必要なことになるかもしれません。このようなベンチマークの枠組みが存在しない場合、業界の認証制度などの代替アプローチが社会的観点から最も効果的な AI リスク軽減体制である可能性があるにもかかわらず、納税者が AI アプリケーションを大幅に削減する責任とコストを負担しなければならない可能性があります。 企業は偽善的になりつつある: 多くの企業が開発者やその他のビジネス部門に高度なガイダンスを提供するために「AI 倫理」委員会を設立しています。 AI 開発者がこの種のガイダンスを無視することは珍しくありません。特に、AI が企業がマーケティング、顧客サービス、販売、その他のデジタル ビジネス プロセスで成果を上げるための秘訣である場合はそうです。この状況は、人工知能の悪影響を軽減するための企業の取り組みの真摯さに影響を及ぼす可能性があります。倫理的な AI 最適化のベンチマークを持つことは、企業が AI 開発の実践に効果的な倫理的ガードレールを組み込むために必要なことかもしれません。 従業員の不満: 才能ある開発者の中には、AI が社会の道徳の低下につながる可能性があると考えると、AI プロジェクトに取り組むことを躊躇する人もいるかもしれません。組織内に AI に対する反対意見の文化がある場合、卓越した研究拠点を維持し、テクノロジーの革新的な応用を探求する能力が損なわれる可能性があります。 AI 実践スコアカードを広く受け入れられている企業市民プログラムと組み合わせることで、このような懸念を軽減し、新世代の開発者が悪意のある目的のために働いていると感じることなく、最善の成果を出すよう促すことができます。 AI を悪者扱いすることの危険性は、その技術を悪意ある目的で利用することの危険性と同じくらい現実的です。 「優れた AI」ベンチマークがなければ、企業はこの破壊的なツール、プラットフォーム、方法論のセットから最大限の価値を引き出せない可能性があります。 根拠のない懐疑心によって社会全体が AI の可能性を活用できなければ、私たち全員が貧しくなるでしょう。 根拠のない懐疑心によって社会が AI の可能性を活用できなければ、人々の仕事や生活に悪影響が及ぶでしょう。 |
<<: 2019年ロボカップのハイライト!人間が4対1で勝利し、中国チームが多くの賞を獲得した
>>: ビッグニュース: IBM が 3 つの抗がん AI プロジェクトをオープンソース化しました。
バーチャルリアリティ(VR)は、新しい実用的な技術です。バーチャルリアリティ技術は、コンピュータ、電...
[[199326]]近年、人工知能の力強い台頭、特に昨年のAlphaGoと韓国のチェスプレイヤー、イ...
[[254553]]マーティン・フォードは2015年に出版した『ロボットの台頭』で大きな話題を呼びま...
COVID-19の流行、メンタルヘルスの危機、医療費の高騰、人口の高齢化により、業界のリーダーたちは...
人工知能は、脳内の機能的接続のスキャンを分析するだけで、人の政治的イデオロギーを予測することができま...
[[210219]] 2017 年には、モバイル アプリケーション向けのディープラーニングにおいて大...
「中国の改革開放40年はIT産業の爆発的な成長をもたらしたが、ハイエンドチップは常に輸入に依存してき...
企業が組織内で生成されるデータと外部ソースから収集されるデータの両方を扱うようになると、競争上の優位...
自己教師学習は本当に AGI への重要なステップなのでしょうか? Metaの主任AI科学者であるヤン...
序文Meituan マーチャント データ センター (MDC) には、調整および監査済みの POI ...
著者のJean-Christophe Baillie氏は、Novaquarkの創設者兼社長であり、「...
[[314283]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...