私の友人はソーシャルメディアのアルゴリズムの推奨に「誘惑」され、過激なグループに参加しました

私の友人はソーシャルメディアのアルゴリズムの推奨に「誘惑」され、過激なグループに参加しました

[[380723]]

ビッグデータダイジェスト制作

著者: カレブ

ソーシャル メディアにおけるアルゴリズムによる推奨については、喜びと不安の両方が生じます。

問題はこれです。

当時、友人のジョンはマギル大学で生物学の博士号を取得するために応募しており、私も生化学を勉強していました。私たちは同じ製薬工場でインターンをしていたためすぐに親しくなり、私の家の地下室でよくボール遊びをしたりビデオを録画したりしました。

しかし、1年後、ジョンが変わったことに気づきました。彼は熱狂的に宗教を信じるようになり、宗教的知識こそが世界で唯一の科学であるべきだといつも私と議論していました。ジョンが名前をヤヒヤに変え、ひげを生やし、独特のアクセントで話すようになったのもこの頃からでした。

同時に、ジョンのフェイスブックアカウントには過激なコンテンツが大量に投稿され始め、その中には米国とカナダのいわゆる「異教徒」に対する明らかな憎悪と悪意を含むものもあった。

私が最後にジョンと話したとき、彼が何ヶ月もシークレットサービスの捜査を受けていたことを知っていました。


ジョンの事件をきっかけに、私は Google と DeepMind でのインターンシップ経験、そしてアルゴリズムによる推奨システムの分野での研究を重ね、現在流行している推奨アルゴリズムに基づいたソーシャル メディアについて考え始めました。

ジョンの場合、ジョンがどんどん過激になっていったのは、Facebook の推奨アルゴリズムと深く関係していることは確かです。しかし、ジョンに信念を変えるよう勧めたアルゴリズムが何なのかはまだ不明だ。ジョンの Facebook の投稿がどんどん過激になったとき、ニュースプッシュを生成するためにどのようなアルゴリズムが使われたのだろうか?

アルゴリズムによる推奨に基づいたソーシャル メディアのメリットを味わった後、深刻な悪影響が現れ始めています。これは、米国で最近起きた一連の出来事、特にプラットフォームが自動的に過激なコンテンツを推奨したり、過激な組織に関する関連情報を公開したりするときに見ることができます。

そこで私は、Twitter や他のニュース フィードで過激なビデオをクリックすると、私も目に見えない形で過激な運動の形成に貢献しているのではないか、と考えるようになりました。

ソーシャルメディアで機械学習を使用するリスク

スマートフォンが普及するにつれ、私たちは世界を理解するためにバーチャルアシスタント、ソーシャルメディア、その他のニュースソースを使うことに慣れてきました。時間が経つにつれて、プラットフォームの傾向は私たち自身の傾向や行動にも影響を与えるようになります。

これらの推奨メカニズムの原理はすべて機械学習から生まれています。

機械学習アルゴリズムは、機械がデータ内のパターンを学習し、人間の意思決定を支援するための一連の命令です。たとえば、レコメンデーション システムと呼ばれるタイプの機械学習を使用してニュース フィードを作成できます。これは広告分野でより広く使用される可能性があります。広告主は、ユーザーがどのような広告をクリックする可能性が最も高いかを知り、より多くのリソースを割り当てたいと考えています。

しかし、この特典の背後には、揺るがすことの難しいインセンティブの仕組みと権力構造がある。Facebook、Apple、Googleなどの企業は、依然として会員費や広告費を使って収益を上げることに忙しく、誰もが「部屋の中の象」に目をつぶることを選んでいる。


2020年、S&P 500を構成するビジネスモデルであり、四半期の利益の大半を占める6つのFAANGM企業(Facebook、Amazon、Apple、Netflix、Google、Microsoft)の従業員の平均年収は339,574ドルでした。

この現象が広まると、ソーシャル メディアは機械学習を使用して既存の不平等を拡大し、誤情報の影響を受けやすい人々をターゲットにして、より過激なコンテンツを流す可能性があります。

最大の証拠は、Facebook がテロ対策チームを設立したことだが、皮肉なことに、Facebook 自体も機械学習に依存しており、同じ商業的動機を持っている。つまり、ブロックされるコンテンツが増えると、禁止される人も増え、企業の収益は減少します。

フェイスブックは、ミャンマーに関する報道が偏っていたことを認めた。同様に、Twitter、YouTube、Facebookも米国の最近の政治的出来事に影響を与えており、Facebookの内部告発者は、世界的な政治操作能力の一部が機械学習を通じて構築されたことを認めており、これが地政学的リスクを高める可能性がある。

ジョンのように、自身の経験からソーシャルメディアの影響を受ける可能性のある人々のために、比較的自由な倫理および法律の専門家や機械学習の研究者と社会レベルでより的を絞った議論を行う必要があります。

機械学習の社会的リスクを軽減する方法

アルゴリズムによるソーシャルメディアの有害な影響が文書化されていることを考えると、機械学習を活用したビジネスを規制するための法的手段がどのようなものが存在するのか興味深い。たとえば、個人レベルでは、私たちは皆、法律で保護されており差別できない特定の種類のニュースの影響を受けます。言い換えれば、ソーシャル メディアが私たちのこうした「弱点」を利用して攻撃することは、実際には違法なのです。

問題は、機械学習の成果を維持しながら、脆弱なグループを有害な影響から保護するためにはどのような方法が有効かということです。

科学者が、人種、性別、収入に基づいて機械学習によって推奨されたコンテンツに一部の人々が依存する可能性が高いという決定的な証拠を見つけたとしたら、差別が発生し、それによって企業の市場価値が低下したと主張することはできるでしょうか? 結局のところ、ソーシャル メディア依存は、企業にとってユーザーの粘着性と関与度が高まることを意味しますが、ビジネス指標の数字が良好であっても、それによって影響を受ける人々の状況が改善されるとは限りません。

さらに、より直接的な方法は広告収入を削減することです。 AI を開発している研究室は赤字を計上しており、収益が一定レベルまで低下すると真っ先に撤退することになる。

同時に、Google、Facebook などの大企業のビジネスを支える機械学習ツールは、オープンソースのトレンドにより、よりアクセスしやすくなってきています。広告収入が減少し続けると、アルゴリズムによる偏見が一般に広く知られるようになるでしょう。

収益の継続的な減少、ユーザーのプライバシー意識の高まり、オープンソースコードはすべて、データを通じてユーザーを搾取するのではなく、ソーシャルメディアの健全な発展の原動力になる可能性があります。学術研究室は、機械学習システムの関係者が研究が社会全体にどのように役立つかを理解できるように、透明性の高いオープンソースの取り組みを主導することで役割を果たすこともできます。

しかし、権力者による変化を待ち望みながら、私たちの生活のさまざまな側面で機械学習アルゴリズムがもたらすリスクを理解し、管理する方法を学ぶために、私たち個人としてできることはたくさんあります。

個人は何をすべきでしょうか?

上で述べたように、これらの戦略自体は、実際には自分自身と他の人に代わって N=1 データを主張し、収集するように自分自身に伝えるものであり、そうすれば、大規模なソーシャル プラットフォームの動機をより深く理解できるかもしれません。

影響を受ける人々との対話を開始し、職場環境に関与します。機械学習ツールを構築する場合は、実際に使用してください。このツールが誰に影響を与える可能性があるかを考慮し、その人々と話し合う必要があります。会話には、行われた作業の簡単な説明や、テクノロジーを推進するデータとビジネス上の利点などを含めることができます。

たとえば、機械学習とメンタルヘルスに関する私の研究について説明したところ、強い否定的なフィードバックを受けましたが、それが研究の方向性を決定づけ、方向修正に役立ちました。友人、家族、コミュニティとのこのような非公式な民族誌的フィールドワークは過小評価されていますが、誰と誰のために学ぶかを伝える、リスクが低く影響力の大きい方法を提供します。

産業界と学術界では人々が異なることを研究していることに注目してください。業界は往々にして一方通行です。金儲けをする人が機械学習のリスクを検討したり議論したりすることを躊躇したり、解雇されることを恐れて機械学習の勉強を避けたりする「黄金の檻効果」には注意してください。

たとえば、マイクロソフトが研究者に差別的広告の研究を禁止したとき、アルゴリズムの公平性の分野が注目を集めました。同様に、Google の AI および倫理チームは、Google の検索モデルの欠陥を指摘した論文が原因で解雇されました。このような事件は関係者にとって大きな損失を伴うため、商業上の利益が公共の利益や学問の自由よりも優先される稀なケースでは、関係者が声を上げたり、内部告発したり、あるいは一般市民に情報を提供したりできる場合、追加のサポートが必要になります。

[[380724]]

位置情報をブロックし、プライバシー設定をクリアします。 80億人が個人データを利用してパーソナライズされた広告を選択する場合、誤情報を奨励するビジネスモデルを開発することは困難になります。 uBlock または別のブラウザ拡張機能を使用して、YouTube などで機械学習を使用して作成されたすべてのニュース フィードや HTML 要素およびコンテンツをブロックします。Facebook ですべてのユーザーのフォローを解除して、ニュース フィードをクリアします。

位置情報、ネットワーク、音声履歴の自動削除を有効にしてデータを削除します。個人的な利益のために犠牲にするデータが少なければ少ないほど、認知負荷が減ったことに気づきました。おそらく、自分のデータ、それを適用する可能性のある機械学習システム、そしてシステムが世界に与える二次的、三次的影響に関する予想されるシナリオについての心配が減ったためでしょう。

この記事が、問題の解決方法、問題が発生する可能性のある場所、問題がどのように発生するか、そして問題を解決するためにどのような方法を取るべきかを知る方法を提供してくれることを願っています。

もちろん、この記事の主題に戻ると、過激な態度そのものであれ、誤った情報であれ、機械学習をうまく管理できないことで賢明でない決定を下すビジネス上の動機を防ぐために、私たちは常に警戒する必要があります。

関連レポート:

https://www.reddit.com/r/MachineLearning/comments/l8n1ic/discussion_how_much_responsibility_do_people_who/

https://jaan.io/my-friend-radicalized-this-made-me-rethink-how-i-build-AI

[この記事は51CTOコラムBig Data Digest、WeChatパブリックアカウント「Big Data Digest(id: BigDataDigest)」のオリジナル翻訳です]

この著者の他の記事を読むにはここをクリックしてください

<<:  カナダ当局はクリアビューの顔認識技術がプライバシー法に違反していることを確認した

>>:  一貫性ハッシュアルゴリズムの図

ブログ    

推薦する

フォレスター:生成型AIと会話型AIが2023年のトップ10新興テクノロジーを独占

分析会社フォレスターは7月24日、2023年のトップ10新興テクノロジーレポートを発表しました。生成...

あなたの脳は寝ている間に本当に学習します!初めての人間実験証拠:再生速度が1~4倍に

寝る前に本を数ページ読んだり、数語読んだりするだけで、目覚めたときに深い感銘を受けていることに気づき...

...

ディープラーニングの背後にある数学的アイデアを分析する

ディープ ニューラル ネットワーク (DNN) は、基本的に複数の接続されたパーセプトロン (パーセ...

自動運転に関して、私たちはこれら 3 つの重要な問題を意図的に避けているのでしょうか?

Leifeng.com によると、「部屋の中の象」という外国の慣用句は、「ワニの涙」と同じくらい有...

...

...

繊毛もチップにできる!コーネル大学の中国人博士課程学生の初の論文がネイチャーの表紙に掲載

チップを作る上で最も重要な部分は何ですか? より高度な製造プロセスを使用してトランジスタ密度と計算能...

時間はお金だというのは本当です!この日本人男性は9日間で5千円を費やして「タイムマシン」を作ったが、1分巻き戻すのにかかる費用はたった1円だ。

子どもたちが小学生の頃、時間を大切にすることを教えるために、大人たちは「時間はお金であり、お金で時間...

電子鼻のウイスキー識別精度は96%にも達する。ネットユーザー:茅台酒にも作ってみよう

国産茅台酒や一部の外国産高級ウイスキーは高価であるが、偽造品の重要なターゲットでもある。ワイン鑑定家...

ビデオメタデータとは何ですか?

ビデオ メタデータの分析と使用は、セキュリティにおける現在の多くの刺激的な開発の基盤となっています。...

...

人工知能:人種差別との戦いにおける次のフロンティア?

[[350644]]ジョージ・フロイドの悲劇的な殺害が世界に衝撃を与えてから、まだ3か月しか経って...

大型模型のレイアウトは何度も変わります!

ChatGPT の Android バージョンが登場します。 OpenAI は今年 5 月に早くも...

顔認識メイク落としはアリペイを認識できない:馮潔は范冰冰に似せるために整形手術を受けたが、それでも認識できる

「バン」デザインに加えて、指紋認証の代わりに顔認証を使用していることも、iPhone Xの不満点の1...