この記事は公開アカウント「Reading Core Technique」(ID: AI_Discovery)から転載したものです。 人工知能はすでに私たちの日常生活に浸透しています。 YouTube のホームページのおすすめから医薬品の製造まで、インターネットはあらゆるところに存在し、私たちの生活に与える影響は想像以上に大きいものです。しかし、AI は必ずしも公平なのでしょうか? いいえ、絶対にそうではありません。
公平な AI とは何かを定義するのは困難です。私が思いつく最良の定義は次のとおりです。社会的差別の対象となる特定のタスクについては、特定の AI モデルが、敏感なパラメーター (性別、人種、性的指向、宗教的信念、障害など) に依存しない結果を出力できる場合、その AI モデルは公平です。 この記事では、AI バイアス、その実際の例、そしてその対処方法について説明します。 質問 AI バイアスは、モデルのトレーニングに使用されるデータに内在するバイアスによって引き起こされ、社会的差別につながり、ひいては機会均等の欠如につながります。 私の仕事が、場所をパラメータとして個人の信用スコアを計算するモデルを作成することだとします。特定の人種グループは特定の場所に集中しているため、作成されたモデルはそれらの人種グループに対して偏りがあり、クレジットカードや銀行ローンの申し込みに影響を及ぼします。偏った AI モデルは、現在の社会的差別を悪化させます。 AIバイアスの実例
これらの例はほんの一滴に過ぎません。開発者が知っているかどうかに関わらず、多くの不公平な AI 慣行が存在します。 この問題を解決するにはどうすればいいでしょうか? 公平な AI への第一歩は、問題を認めることです。 AIは不完全であり、データは不完全であり、アルゴリズムは不完全であり、テクノロジーは不完全です。問題に目をつぶれば、解決策を見つけることは不可能だろう。 次に、このソリューションに AI が必要かどうかを自問してください。被告が再犯する可能性を見つけるなどのタスクなど、データよりも感情に依存する問題の中には、データに依存しないものもあります。 3番目に、責任ある AI プラクティスに従います。 Google の責任ある AI 実践ガイドラインに基づいて、いくつかの重要なポイントを追加しました。責任あるAIの実践:
公正なAIを開発するためのツール
最近、企業や政府は人工知能における偏見を真剣に受け止め始めています。多くの企業が AI の公平性を評価するツールを開発し、AI の偏見に対処するために最善を尽くしています。 AI には大きな可能性がありますが、私たちはこれまで以上に AI システムの潜在的な差別的危険性を念頭に置き、公正な AI モデルの開発に協力しなければなりません。 |
進化し続けるテクノロジーの世界において、魅力的であると同時に不安も抱かせる概念の出現が、スーパー人工...
従来の観点から見ると、目に見えず、実体のない風が新しい日にどのような挙動を示すかを予測することは依然...
コンピューター ビジョンは、製造および生産プロセスを自動化および最適化して、効率を高め、製品の品質を...
これは単純なプッシュです。今日はディープラーニングという名前についてのみお話します。ディープラーニン...
ディープラーニングの分野で最も有名な学者の一人であるヤン・ルカン氏が本日、自身のFacebookに投...
[[312069]] 1月2日のZhidongxiによると、Alibaba Damo Academy...
マッキンゼー・グローバル・インスティテュートは最近の報告書で、テクノロジーの進歩により、将来世界で約...
11月8日、米国現地時間の火曜日、著名な伝記作家アシュリー・ヴァンス氏が、イーロン・マスク氏の脳コン...
今日は対称暗号化アルゴリズムの重要な問題についてお話ししましょう。暗号化の基本的な概念に精通していな...
インターネット時代の恩恵が徐々に薄れていくにつれ、プレイヤーは次の発展のトレンドを求めて模索と実践を...
2020年末、チューリング賞受賞者のジュディア・パール氏、機械学習の専門家ペドロ・ドミンゴス氏、量子...
近年、セキュア アクセス サービス エッジ (SASE) テクノロジーは急速に発展し、産業界で広く使...
[[250218]]ヨシュア・ベンジオ氏は、間違いなく現代の人工知能技術分野の第一人者です。ベンジ...