この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。 ガートナーは「2021年の予測」という一連の調査レポートを発表した。その1つでは、幅広い倫理的・社会的問題を含む、人工知能(AI)が今後数年間に引き起こす重大な影響について概説している。 ガートナーのアナリスト5人がレポート「2021年の予測:人工知能が人々と社会に与える影響」の中で、2025年までに起こる変化を予測している。このレポートは、新技術の予期せぬ結果である、いわゆるAIの第2レベルの結果に特に焦点を当てている。 たとえば、生成 AI により、実際には存在しない人物や物体の驚くほどリアルな写真を作成できるようになりました。
ガートナーは、2023年までにアカウントの20%がこのようなAI生成のディープフェイクに乗っ取られると予測している。 「超現実的なコンテンツを作成し生成するAIの能力は、人々が自分の目で見たものを信頼する方法に革新的な影響を与えるだろう」と報告書は述べている。 このレポートでは、AI 市場の 5 つの観点から予測を示し、企業がこれらの将来の課題にどのように対応し適応できるかについての提案を示します。
これらの分析はそれぞれ単独でも AI ウォッチャーが懸念するのに十分な理由ですが、これらを組み合わせると、倫理的問題、AI の潜在的な誤用、職場でのプライバシーの喪失などを含む暗い未来像が浮かび上がります。 どう対処するか ガートナーのアナリストの予測が正確であれば、AI がプライバシーと真実に与える影響についての懸念は今後数年間で大きな話題となることは間違いありません。成功する企業は、こうした懸念に迅速に適応する準備を整える必要があります。 報告書の主要テーマは、サービスであれ製品であれ、AI を利用する企業内に倫理委員会を設立する必要性である。ガートナーは、職場での会話を記録して分析することを計画している企業にとってこれは特に重要であり、会話データの公正な使用を確保するために従業員の代表者を含む取締役会を設立する必要があると述べた。 ガートナーはまた、企業がAIの責任ある使用に関する基準を確立し、「AIが関連する社会問題を明確に前進させ、対処できることを実証できる」ベンダーを優先することを推奨している。 ディープフェイクと生成 AI を取り巻く安全性の懸念については、ガートナーは組織がディープフェイクに関するトレーニングを実施することを推奨しています。 「我々は今、ゼロトラストの世界に突入している。暗号デジタル署名を使って認証されたことが証明されない限り、何も信頼できない」と報告書は述べている。 このレポートには、長期的には最高のディープフェイク検出ソフトウェアの認識率が 50% に達するというデータなど、多くの興味深い点があります。また、2023年までに米国の大手企業が会話分析を利用して従業員の報酬を決定するようになるだろうと予測しています。これらの分析には、潜在的な解決策だけでなく、懸念すべき点も多くあります。 |
>>: ファーウェイクラウドが年間人工知能リストで3つの賞を受賞
[[409182]] 1. K番目に大きいものを見つけるタイトル順序付けられていない整数配列がありま...
Baiduの無人運転アプリケーションを見ました。私は車の所有者が自動で駐車するのを助けるアウディの...
2017年3月、中国共産党中央委員会の政府活動報告に人工知能が記載され、人工知能は国家戦略となった。...
PwCとCB Insightsによるマネーツリーのレポートによると、人工知能のスタートアップへの投資...
2022年2月10日にarXivにアップロードされた論文「移転可能で適応可能な運転行動予測」は、バー...
医療はこれまでずっと社会から注目されてきた人々の生活の重要な分野です。医療資源の不足、医療スタッフの...
自然言語処理 (NLP) はここ数年で大きな進歩を遂げており、BERT、ALBERT、ELECTRA...
設立から2年を経て、マスク氏の有名な脳コンピューターインターフェース研究会社Neuralinkがつい...