私の友人はソーシャルメディアのアルゴリズムの推奨に「誘惑」され、過激なグループに参加しました

私の友人はソーシャルメディアのアルゴリズムの推奨に「誘惑」され、過激なグループに参加しました

[[380723]]

ビッグデータダイジェスト制作

著者: カレブ

ソーシャル メディアにおけるアルゴリズムによる推奨については、喜びと不安の両方が生じます。

問題はこれです。

当時、友人のジョンはマギル大学で生物学の博士号を取得するために応募しており、私も生化学を勉強していました。私たちは同じ製薬工場でインターンをしていたためすぐに親しくなり、私の家の地下室でよくボール遊びをしたりビデオを録画したりしました。

しかし、1年後、ジョンが変わったことに気づきました。彼は熱狂的に宗教を信じるようになり、宗教的知識こそが世界で唯一の科学であるべきだといつも私と議論していました。ジョンが名前をヤヒヤに変え、ひげを生やし、独特のアクセントで話すようになったのもこの頃からでした。

同時に、ジョンのフェイスブックアカウントには過激なコンテンツが大量に投稿され始め、その中には米国とカナダのいわゆる「異教徒」に対する明らかな憎悪と悪意を含むものもあった。

私が最後にジョンと話したとき、彼が何ヶ月もシークレットサービスの捜査を受けていたことを知っていました。


ジョンの事件をきっかけに、私は Google と DeepMind でのインターンシップ経験、そしてアルゴリズムによる推奨システムの分野での研究を重ね、現在流行している推奨アルゴリズムに基づいたソーシャル メディアについて考え始めました。

ジョンの場合、ジョンがどんどん過激になっていったのは、Facebook の推奨アルゴリズムと深く関係していることは確かです。しかし、ジョンに信念を変えるよう勧めたアルゴリズムが何なのかはまだ不明だ。ジョンの Facebook の投稿がどんどん過激になったとき、ニュースプッシュを生成するためにどのようなアルゴリズムが使われたのだろうか?

アルゴリズムによる推奨に基づいたソーシャル メディアのメリットを味わった後、深刻な悪影響が現れ始めています。これは、米国で最近起きた一連の出来事、特にプラットフォームが自動的に過激なコンテンツを推奨したり、過激な組織に関する関連情報を公開したりするときに見ることができます。

そこで私は、Twitter や他のニュース フィードで過激なビデオをクリックすると、私も目に見えない形で過激な運動の形成に貢献しているのではないか、と考えるようになりました。

ソーシャルメディアで機械学習を使用するリスク

スマートフォンが普及するにつれ、私たちは世界を理解するためにバーチャルアシスタント、ソーシャルメディア、その他のニュースソースを使うことに慣れてきました。時間が経つにつれて、プラットフォームの傾向は私たち自身の傾向や行動にも影響を与えるようになります。

これらの推奨メカニズムの原理はすべて機械学習から生まれています。

機械学習アルゴリズムは、機械がデータ内のパターンを学習し、人間の意思決定を支援するための一連の命令です。たとえば、レコメンデーション システムと呼ばれるタイプの機械学習を使用してニュース フィードを作成できます。これは広告分野でより広く使用される可能性があります。広告主は、ユーザーがどのような広告をクリックする可能性が最も高いかを知り、より多くのリソースを割り当てたいと考えています。

しかし、この特典の背後には、揺るがすことの難しいインセンティブの仕組みと権力構造がある。Facebook、Apple、Googleなどの企業は、依然として会員費や広告費を使って収益を上げることに忙しく、誰もが「部屋の中の象」に目をつぶることを選んでいる。


2020年、S&P 500を構成するビジネスモデルであり、四半期の利益の大半を占める6つのFAANGM企業(Facebook、Amazon、Apple、Netflix、Google、Microsoft)の従業員の平均年収は339,574ドルでした。

この現象が広まると、ソーシャル メディアは機械学習を使用して既存の不平等を拡大し、誤情報の影響を受けやすい人々をターゲットにして、より過激なコンテンツを流す可能性があります。

最大の証拠は、Facebook がテロ対策チームを設立したことだが、皮肉なことに、Facebook 自体も機械学習に依存しており、同じ商業的動機を持っている。つまり、ブロックされるコンテンツが増えると、禁止される人も増え、企業の収益は減少します。

フェイスブックは、ミャンマーに関する報道が偏っていたことを認めた。同様に、Twitter、YouTube、Facebookも米国の最近の政治的出来事に影響を与えており、Facebookの内部告発者は、世界的な政治操作能力の一部が機械学習を通じて構築されたことを認めており、これが地政学的リスクを高める可能性がある。

ジョンのように、自身の経験からソーシャルメディアの影響を受ける可能性のある人々のために、比較的自由な倫理および法律の専門家や機械学習の研究者と社会レベルでより的を絞った議論を行う必要があります。

機械学習の社会的リスクを軽減する方法

アルゴリズムによるソーシャルメディアの有害な影響が文書化されていることを考えると、機械学習を活用したビジネスを規制するための法的手段がどのようなものが存在するのか興味深い。たとえば、個人レベルでは、私たちは皆、法律で保護されており差別できない特定の種類のニュースの影響を受けます。言い換えれば、ソーシャル メディアが私たちのこうした「弱点」を利用して攻撃することは、実際には違法なのです。

問題は、機械学習の成果を維持しながら、脆弱なグループを有害な影響から保護するためにはどのような方法が有効かということです。

科学者が、人種、性別、収入に基づいて機械学習によって推奨されたコンテンツに一部の人々が依存する可能性が高いという決定的な証拠を見つけたとしたら、差別が発生し、それによって企業の市場価値が低下したと主張することはできるでしょうか? 結局のところ、ソーシャル メディア依存は、企業にとってユーザーの粘着性と関与度が高まることを意味しますが、ビジネス指標の数字が良好であっても、それによって影響を受ける人々の状況が改善されるとは限りません。

さらに、より直接的な方法は広告収入を削減することです。 AI を開発している研究室は赤字を計上しており、収益が一定レベルまで低下すると真っ先に撤退することになる。

同時に、Google、Facebook などの大企業のビジネスを支える機械学習ツールは、オープンソースのトレンドにより、よりアクセスしやすくなってきています。広告収入が減少し続けると、アルゴリズムによる偏見が一般に広く知られるようになるでしょう。

収益の継続的な減少、ユーザーのプライバシー意識の高まり、オープンソースコードはすべて、データを通じてユーザーを搾取するのではなく、ソーシャルメディアの健全な発展の原動力になる可能性があります。学術研究室は、機械学習システムの関係者が研究が社会全体にどのように役立つかを理解できるように、透明性の高いオープンソースの取り組みを主導することで役割を果たすこともできます。

しかし、権力者による変化を待ち望みながら、私たちの生活のさまざまな側面で機械学習アルゴリズムがもたらすリスクを理解し、管理する方法を学ぶために、私たち個人としてできることはたくさんあります。

個人は何をすべきでしょうか?

上で述べたように、これらの戦略自体は、実際には自分自身と他の人に代わって N=1 データを主張し、収集するように自分自身に伝えるものであり、そうすれば、大規模なソーシャル プラットフォームの動機をより深く理解できるかもしれません。

影響を受ける人々との対話を開始し、職場環境に関与します。機械学習ツールを構築する場合は、実際に使用してください。このツールが誰に影響を与える可能性があるかを考慮し、その人々と話し合う必要があります。会話には、行われた作業の簡単な説明や、テクノロジーを推進するデータとビジネス上の利点などを含めることができます。

たとえば、機械学習とメンタルヘルスに関する私の研究について説明したところ、強い否定的なフィードバックを受けましたが、それが研究の方向性を決定づけ、方向修正に役立ちました。友人、家族、コミュニティとのこのような非公式な民族誌的フィールドワークは過小評価されていますが、誰と誰のために学ぶかを伝える、リスクが低く影響力の大きい方法を提供します。

産業界と学術界では人々が異なることを研究していることに注目してください。業界は往々にして一方通行です。金儲けをする人が機械学習のリスクを検討したり議論したりすることを躊躇したり、解雇されることを恐れて機械学習の勉強を避けたりする「黄金の檻効果」には注意してください。

たとえば、マイクロソフトが研究者に差別的広告の研究を禁止したとき、アルゴリズムの公平性の分野が注目を集めました。同様に、Google の AI および倫理チームは、Google の検索モデルの欠陥を指摘した論文が原因で解雇されました。このような事件は関係者にとって大きな損失を伴うため、商業上の利益が公共の利益や学問の自由よりも優先される稀なケースでは、関係者が声を上げたり、内部告発したり、あるいは一般市民に情報を提供したりできる場合、追加のサポートが必要になります。

[[380724]]

位置情報をブロックし、プライバシー設定をクリアします。 80億人が個人データを利用してパーソナライズされた広告を選択する場合、誤情報を奨励するビジネスモデルを開発することは困難になります。 uBlock または別のブラウザ拡張機能を使用して、YouTube などで機械学習を使用して作成されたすべてのニュース フィードや HTML 要素およびコンテンツをブロックします。Facebook ですべてのユーザーのフォローを解除して、ニュース フィードをクリアします。

位置情報、ネットワーク、音声履歴の自動削除を有効にしてデータを削除します。個人的な利益のために犠牲にするデータが少なければ少ないほど、認知負荷が減ったことに気づきました。おそらく、自分のデータ、それを適用する可能性のある機械学習システム、そしてシステムが世界に与える二次的、三次的影響に関する予想されるシナリオについての心配が減ったためでしょう。

この記事が、問題の解決方法、問題が発生する可能性のある場所、問題がどのように発生するか、そして問題を解決するためにどのような方法を取るべきかを知る方法を提供してくれることを願っています。

もちろん、この記事の主題に戻ると、過激な態度そのものであれ、誤った情報であれ、機械学習をうまく管理できないことで賢明でない決定を下すビジネス上の動機を防ぐために、私たちは常に警戒する必要があります。

関連レポート:

https://www.reddit.com/r/MachineLearning/comments/l8n1ic/discussion_how_much_responsibility_do_people_who/

https://jaan.io/my-friend-radicalized-this-made-me-rethink-how-i-build-AI

[この記事は51CTOコラムBig Data Digest、WeChatパブリックアカウント「Big Data Digest(id: BigDataDigest)」のオリジナル翻訳です]

この著者の他の記事を読むにはここをクリックしてください

<<:  カナダ当局はクリアビューの顔認識技術がプライバシー法に違反していることを確認した

>>:  一貫性ハッシュアルゴリズムの図

ブログ    
ブログ    
ブログ    

推薦する

...

疫病と戦うための新しい技術!北京で3Dプリント/コピー防護マスクの開発に成功

流行は激しく、科学技術界は全力で流行と戦っています。北京化工大学の楊衛民教授は2月25日、21世紀ビ...

AIダイナミックセキュリティガードデータセンター

最近の世界的な調査によると、企業の事業がハッキングされると莫大な損失が発生し、サイバー攻撃1回あたり...

...

ブロックチェーン + AI、完璧な組み合わせですね?

「この二つの技は同じ名前だが、技の内容は大きく異なる。一つは全真剣術の強力な技で、もう一つは玉女剣...

ボルチモア、これまでで最も厳しい顔認識禁止法を制定する可能性

米国のボルチモア市で検討されている条例は、民間人だけでなく法執行機関や政府機関による顔認識技術の購入...

銀行における会話型 AI – 企業が犯しがちな 3 つの間違い

金融サービス業界は、特定の金融プロセスに不可欠なレガシー機器やシステムを使用しているため、他の業界に...

保険業界は人工知能をどのように活用しているのか

保険業界の企業や顧客にとって AI がどのように役立つか、また代理店向けの最新のポリシーについて説明...

エッジインテリジェンス: リアルタイムのデータ処理とインテリジェントな意思決定を実現する新世代のテクノロジー

ラボガイドエッジインテリジェンスは、人工知能 (AI) とエッジコンピューティングを組み合わせた新し...

なぜSoraはOpenAIから生まれたのでしょうか?最前線で働く従業員の勤務と休息のタイムラインの秘密:私たちは

OpenAI が最初に Sora を作成した理由は何ですか?現在、世界中の研究者、エンジニア、投資家...

AI軍はすでに門を叩いているが、失業はどのくらい先にあるのだろうか?

流行の間、人工知能は再び人気を博しました。人工知能によって合成されたニュースレポートは、私たちに毎日...

...

...

...