AIはどのようにして顧客の性格を判断できるのでしょうか?

AIはどのようにして顧客の性格を判断できるのでしょうか?

AI を使用したソーシャル メディアの監視により、仕事、大学入学、賃貸住宅などを失う恐れがあり、本人はそれに気付かないかもしれません。

AirBnBは、別荘を貸し出す前に、顧客が「マキャベリスト」的な性格を持っているかどうかを知りたいと考えている。

AirBnBは、顧客がFacebook、Twitter、Instagramに投稿した情報に基づいて、別荘を借りる顧客が信頼できるかどうかを判断するために人工知能ソフトウェアを使用する可能性がある。

AI システムを非社会化し、アルゴリズムを実行して結果を取得します。このプロセスの反対側にいる人々にとって、透明性も情報もなく、控訴手続きもありません。

同社は、潜在的な訪問者のソーシャルメディア活動を分析して顧客の「性格」を評価し、家主に危害を加える可能性のある高リスク顧客かどうかを判断するように設計された技術の特許を保有している。

彼らの技術の最終成果は、各AirBnB顧客に割り当てられる「信頼性スコア」です。これはソーシャルメディアの活動だけでなく、ブログの投稿や法的記録など、オンラインで見つかった他のデータにも基づくと伝えられている。

この技術は、AirBnBが3年前に買収したTrooliy社によって開発された。 Trooly は、ソーシャル メディアをデータ ソースとして使用し、「信頼関係とやり取りを予測する」ように設計された AI ベースのツールを作成しました。

ソフトウェアは、ソフトウェアが特定した認識された「性格特性」に基づいてスコアを作成します。これには、潜在的に予測可能な特性(誠実さ、開放性、外向性、協調性など)のほか、「ナルシシズム」や「欺瞞性」などの奇妙な特性も含まれます。(興味深いことに、ソフトウェアはクライアントの民事訴訟への関与も調べており、クライアントが訴訟を起こす可能性に基づいて予測を行っている可能性があることを示唆しています。)

AirBnBはこのソフトウェアを使用しているかどうかをまだ明らかにしていない。

ほとんどの人と同じように、このニュースに驚いたり、ショックを受けたり、動揺したりする人は、顧客、市民、従業員、学生など、人々を判断するのにソーシャルメディアに人工知能を適用するという、大規模かつ急速に拡大している慣行に気づいていない。

AirBnB は、ソーシャル メディアをスキャンして性格を判断したり行動を予測したりする唯一の組織ではありません。その他の機関や組織には、米国国土安全保障省、CIA、雇用主、学区、警察署、保険会社などが含まれます。

ある推計によれば、大学の入学審査官の半数以上が、志願者選考プロセスの一環として AI ベースのソーシャル モニタリング ツールを使用しているとのことです。

人事部門や採用マネージャーも、採用前に AI を活用したソーシャル メディア モニタリングを利用するケースが増えています。米国の政府機関、特に機密保持資格を必要とする人を雇用する機関も、信頼できない従業員をチェックするためにソーシャルメディアの監視に依存しています。

また、このスペースで報告されているように、米国に入国する人々に対して米国税関・国境警備局が検査するスマートフォンの数は毎年劇的に増加しています。これらの検索にはソーシャル メディア アカウントが含まれており、後で人工知能を使用して監視および分析できます。

ますます多くの学校が生徒のソーシャルメディアでの活動を監視するようになっているだけでなく、一部の州では法律でそれを義務付け始めています。 AI ベースのソーシャル メディア モニタリングがトレンドになっています。さまざまな団体が積極的に参加しています。

AIベースのソーシャルメディアモニタリングはそれほど賢くない

さまざまな組織が長年にわたりソーシャル メディアの監視に疑問を抱いてきました。しかし最近では、AI ベースの監視ツールが登場し、新しい産業や職業を生み出しています。

これらのツールは、知性、社会的責任、経済的責任、法を遵守し責任ある行動などの性格特性を探します。問題は、AI がデータ収集に適しているかどうかではありません。もちろん。問題は、ソーシャル メディアがユーザーに関する真実を明らかにするかどうかです。一部の専門家はデータの質にも疑問を呈している。

たとえば、誰かの Instagram アカウントをスキャンすると、その人が非常に裕福で、世界中を旅し、シャンパンやキャビアを堪能していることが「明らかになる」かもしれません。真実は、彼が破産し、大きな経済的プレッシャーにさらされているということかもしれないが、彼女たちはホテルやレストランで社交的にそれを誇示しており、彼女たちの自撮り写真は評判を高めるために精巧に偽造された写真にすぎない。ソーシャルメディアを利用して、意図的に自分自身の高尚なイメージを作り出す人もいます。

Twitter アカウントは、ユーザーが高潔で建設的、生産的な社会の一員であることを示しているかもしれませんが、2 つ目の匿名アカウントがソーシャル メディア監視システムに知られると、その人物が反社会的無法者である可能性があることが明らかになる可能性があります。人々は、自分の性格のさまざまな側面を反映する複数のソーシャル メディア アカウントを持っています。匿名の人もいます。

さらに、誰かの Facebook アカウントが、無表情なユーモア、下品な言葉、誇張で満ちていて、監視ツールが、これは信頼できない性格を表していると結論付ける可能性がありますが、実際には、問題は AI にユーモアや皮肉のセンスがないことです。そして、AI ツールの作成者自身も、性格について本当の意味で理解していない可能性があります。

たとえば、オンラインでの不適切な行動は、道徳心の欠如を示すものとして認識されるため、信頼性スコアが低下する可能性があります。しかし、最近の研究ではその逆が真実であることが示唆されており、そのような人々は一般的に、より信頼でき、知的で、正直で、有能で、プロフェッショナルであるということです。では、AI ソフトウェアを構築する開発者は、人間の性格の微妙な部分や複雑さについて知っているのでしょうか、あるいは気にしているのでしょうか?

最近では、多くのソーシャル メディア サイトを頻繁に利用する人もいます。ソーシャルメディアをまったく使わない人もいます。大部分はその中間に位置します。

もちろん世代間の隔たりもあります。統計的に、若者は公開投稿をする可能性が低く、プライベートなメッセージやグループでの交流を好む傾向があります。 AI ベースのソーシャル メディア監視は根本的に年齢差別的なものなのでしょうか?

女性は男性よりも個人情報(自分自身に関する情報)をソーシャルメディアに投稿する傾向が高く、男性は女性よりも非個人情報を投稿する傾向が高い。個人的な事柄について投稿すると、性格がより明らかになる可能性があります。 AIはソーシャルメディア監視に基づいて性差別的になるのか?

極端な結果をもたらす可能性のあるこの監視技術を導入する前に、誰かがこれらの質問をしたでしょうか?

AirBnBのような企業は、現実的な問題を解決しようとしています。 AirBnB の場合、本質的には、あるユーザーの「商品」が別のユーザーとなるマッチメイキング サービスです。これは品質保証の問題です。ユーザーへの被害をどのように最小限に抑えるのでしょうか?

過去 40 年間、テクノロジーの役割は常に誇張されてきたことに留意することが重要です。そして、人工知能は今やこの新しいテクノロジーになりました。業界の人々は、AirBnBのような企業が問題を抱えるのではないかと心配しており、その解決策はAIの魔法で魔法のように問題を解決することだと考えています。彼らは AI システムをソーシャル ネットワークから取り出し、アルゴリズムを実行して結果を取得します。 AI システムは、誰を学校に入学させないか、誰を雇用しないか、誰のセキュリティ クリアランスを剥奪するか、誰を AirBnB から締め出すかを教えてくれます。

AI は適切な候補者を拒否したのでしょうか? どうすればそれがわかるのでしょうか? AI によって「信頼できる」と判断された人の中には、システムを何らかの方法で騙してその地位を獲得した人もいるのでしょうか? どうすればそれがわかるのでしょうか?

ソーシャル メディアの監視に関する情報をインターネットで検索すると、「オンラインで何を投稿するか」に関するアドバイスが数多く見つかりますが、その意味を実際に考えてみると、それらはもっともらしく聞こえます。ソーシャルメディアでの活動を理由に、学校に雇われたり拒否されたりするのではなく、本当に解雇されるべき人物である場合、本当に賢くなって、問題のない人物のソーシャルメディアでの活動を真似したり偽装したりする必要がある、と彼らは言います。

ソーシャルメディア監視の範囲についての知識が広まるにつれて、ソーシャルサイトで人々が行う悪質な行為の一部(AI の視聴者に偽のデータを提供し、機械が信頼できるかどうかを判断できるようにする)を制限することが一般的になるでしょう。

政府機関から企業、シリコンバレーのテクノロジー企業まで、さまざまな種類の組織が AI ベースのソーシャル メディア モニタリングの波に乗っています。こうしたツールを提供する企業が数十社も登場し、その慣行はますます一般的になりつつある。

そして、一般の人々が、この慣行が広まっている現実に気づけば、彼らの反応は必然的にソーシャル メディアでの行動を変え、自分自身の「信頼性スコア」を維持するための正しい方法を採用することになり、ハッカーの攻撃によってすべてが無意味かつ時代遅れのものとなるでしょう。

今こそAIベースのソーシャルメディアモニタリングに注目する時だ

人工知能技術がなくても、ソーシャル ネットワークをスキャンすることで、ある程度の洞察を得ることができます。情報に精通し、技術に精通した一般大衆は、一般的に「監視資本主義」の慣行に警戒しており、個人データの収集、オンライン活動の追跡、さまざまなウェブサイトやアプリの無作為のユーザーの連絡先の広範なデータベースを軽蔑しています。これにより、企業は知っているすべての人の個人情報に本人の知らないうちに許可なくアクセスできます。

一方、AI ベースのソーシャル メディア監視に関するオンライン会話はほとんど聞かれません。しかし、潜在的な「被害」は大きく、職を失ったり、学校から拒否されたり、保険料が上がったりする人もいます。

AI システムを騙して機械の信頼を得るための「信頼できない」レシピはここにはありません。そして、「信頼性」を判断するための AI ベースのソーシャル メディア モニタリング自体も信頼できないものです。

<<:  機械学習がデータセンターを進化させる方法

>>:  ディープラーニングで知っておくべき13の確率分布

ブログ    

推薦する

赤ちゃんのように学習するディープマインド社の新モデルは、28時間で物理世界のルールを学習します

Deepmind は、直感的な物理学を学習できるモデルを構築し、モデルがなぜこの能力を実現するのか...

...

ビッグデータと人工知能に関する冷静な考察

ビッグデータと人工知能は今年最もホットな話題であり、特に司法分野ではホットです。ビッグデータ時代の司...

...

...

人工知能アルゴリズム: 遺伝的アルゴリズム

この本の最初の 2 章では、進化アルゴリズムをやや抽象的な意味で定義しています。スコアリング、選択、...

スタンフォード大学は対照的嗜好学習を提案:強化学習なしで人間のフィードバックから学習する

人間によるフィードバックによる強化学習 (RLHF) は、モデルを人間の意図に合わせるための一般的な...

...

7.4K スター! わずか数分で機械学習モデル用の美しいインタラクティブ インターフェースを生成できます

Gradio は、機械学習やデータ サイエンス関連のデモや Web アプリケーションを構築するための...

何も起こらないときは「自動運転」、何か起こったときは「運転支援」?

近年、スマートカーの事故が多発しており、事故の原因は主にいわゆる「自動運転」機能に関連しており、必然...

...

PyTorch エクスペリエンス ガイド: ヒントと落とし穴

PyTorch の開発者は、PyTorch の哲学は即時のタスクを解決すること、つまり計算グラフをそ...

...

人工知能が人間に取って代わることは決してない

午後は、かわいい子供たちを連れて映画「頭の大きい息子と頭の小さいお父さん 完璧なお父さん」を見に行き...

学問に戻りましょう!シュム氏は清華大学の非常勤教授として、コンピュータビジョンとグラフィックスの博士課程の学生を募集する。

[[317132]]出典:中国ビジネスニュースマイクロソフトの元副社長、ハリー・シャム博士が学界復...