この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)から転載したものです。 インターネット上には大量のデータがあると言うのは控えめな表現です。実際、2020 年までに、デジタル宇宙には 40 兆バイト、つまり 40 ゼタバイトの情報が保存されると予想されています。1 ゼタバイトには、マンハッタンの約 5 分の 1 の大きさのデータ センターを埋め尽くすほどのデータが含まれます。 分析に利用できる情報が大量にあるため、データ収集のタスクを AI に任せるのは理にかなっています。 Web ロボットは、信じられないほどの速度で Web ページをクロールし、必要な関連情報を抽出できます。しかし、多くのデータ サイエンティストやマーケティング担当者は、この情報を完全に倫理的な方法で取得し、使用しています。しかし残念なことに、インターネット人工知能の人気が高まるにつれて、インターネットロボットは徐々に不名誉な評価を受けるようになりました。
AIに対する否定的な認識の多くは、ハリウッド映画やSFによって間接的に引き起こされており、AIは最も明るい場面でさえも慎重に見られています。さらに、一部の Web ユーザーはボットを非倫理的な方法で使用しており、専門的かつ誠実にデータを使用しているユーザーにとっても問題が発生する可能性があります。 Web スクレイピングは、多くの専門家にとって依然として不可欠なツールです。では、ボットを取り巻く偏見に対して私たちは何ができるでしょうか? まず、Web スクレイピングとは何でしょうか? Web スクレイピングは単純にデータ抽出と考えることができます。スクレイピングは、データ サイエンティストやその他の専門家が、非常に複雑なデジタル情報のスタックを分析するために使用されますが、Web サイトからテキストをコピーして貼り付ける行為自体は、単純な形式のスクレイピングと見なすことができます。 ただし、Web サイトに無制限にアクセスできる場合でも、利用可能な情報量が膨大であるため、ソースからデータを収集するのに非常に長い時間がかかる可能性があります。ほとんどの場合、Web スクレイピングは人工知能に任されており、取得したデータをさまざまな目的で徹底的に分析します。これはウェブクローラーにとっては非常に便利ですが、ウェブサイトの所有者や傍観者はインターネット上での人工知能の「乱用」を非常に懸念しています。 Web スクレイピングには Web ロボットを使用する方が良いでしょうか? 分析すべき情報が大量にあるため、データ収集に人工知能を活用するのは理にかなっています。実際、Google 自体は、関心のある人々にとって最も信頼できる Web クローラーのソースの 1 つです。たとえば、データセット検索エンジンを使用すると、無料で使用できると思われるデータにすばやくアクセスしたり、検索をカスタマイズして、その情報が商用利用可能かどうかを確認することもできます。これらのタスクを完了するには数秒しかかかりません。 Google AI が各ウェブサイトの関連データを効率的にチェックする能力がなければ、このような速度を達成することはおそらく不可能でしょう。これは、人工知能を使用して研究やビジネスに役立つ情報を純粋に倫理的な方法で収集する完璧な例であり、その実行速度は、「Web ロボット」を使用して Web スクレイピング タスクを実行するのがいかに簡単であるかを示しています。 AI トラフィックは非常に普及しており、現在ではインターネット トラフィックの半分以上を占めています。それでも、それが及ぼす影響を見落とすのは簡単です。 ロボット交通レポート インターネットトラフィックにおける人工知能の優位性は懸念すべきことだと考える人もいます。問題をさらに悪化させているのは、AI トラフィックのごく一部が「悪質なボット」で構成されているという事実です。クローリングの意図が善意で、方法が倫理的であったとしても、AI の汚名は避けられません。 大量のデータを処理するために Web ロボットを使用することは合理的なステップです。 Web スクレイピングに関しては、AI 以外にも必要なツールを考慮することも重要です。 エージェントがどのように役立つか Web スクレイピングにプロキシを使用すると多くの利点がありますが、匿名性はその 1 つです。たとえば、競合ブランドについて調査し、その情報を活用して自社を改善するための最善の方法を決定したい場合、競合相手の Web サイトにアクセスしたことを誰にも知られたくない場合があります。この場合、プロキシを使用すると、自分の身元を明かすことなくデータにアクセスして検査できるため、両方のメリットを享受できます。 先に進む前に、プロキシ サーバーを簡単に確認してみましょう。
では、なぜ制限を設けるのかという疑問が生じます。このデータはオンラインで自由に利用できるのではないですか? 人間のユーザーにとっては、そうです。典型的な例を以下に示します。価格アグリゲーターのビジネス モデル全体は正確な情報に基づいて構築されており、「製品 X を最も安く購入できるのはどこでしょうか?」という質問に対する明確な答えを提供します。 これは顧客にとってコストを節約する絶好の機会ですが、ベンダーは、Web サイトにアグリゲータの Web クローラー (「ボット」または「スパイダー」と呼ばれることが多い) が追加で負荷をかけるため、他の企業がデータを盗み見ることにあまり乗り気ではありません。したがって、Web サイトの管理者が、特定の Web アクティビティが正規のユーザーによって実行されていないと疑う場合、そのユーザーの Web サイトへのアクセスは制限されます。 プロキシのもう一つの実用的な用途は、検閲禁止を回避することです。住宅プロキシは、その名前が示すように、あなたを国 X の実際のユーザーとして表示し、どの国からのユーザーであるかをカスタマイズできます。住宅用プロキシの必要性は単純です。(疑わしい)Web ボットのアクティビティは特定の国から発生することが多いため、それらの国の正規のユーザーであっても地理的制限に遭遇することがよくあります。 さらに、プロキシの使用は、さまざまな理由でアクセスできないデータ ソースからデータを収集する場合に特に便利です。 Web スクレイピング時にプロキシを使用する方法は多数ありますが、デジタル コミュニティで信頼を築くには、ブランドの信頼と権威を築く方法に固執することをお勧めします。 画像ソース: unsplash 人間の可視性と信頼できるブランドを活用してAIに対する偏見と戦う 現在、人工知能の発展速度はインターネットユーザーの成長率を上回っています。しかし、今後インターネットがどのように発展していくかはまだ不明であるため、この傾向が不可逆的であるとか、本質的に否定的な傾向を表しているとすぐに結論付ける理由はありません。 インターネット上の AI トラフィックを取り巻く否定的な見方を覆す最善の方法は、インターネット上での AI の使用を人間化することです。また、信頼を構築する方法で AI を使用するには、それについてあまり考える必要がないことにも留意することが重要です。
完全に手作業で Web サイトのデータに手動でアクセスできれば安心かもしれませんが、情報量が膨大であるため、これはほぼ不可能です。利用可能なデータの量はほぼ無限であり、人工知能を使用することは、Web をナビゲートし、そのデータを可能な限り効率的に分析するための最良の手段です。しかし、もう少し「人間的なタッチ」が必要かもしれません。 |
<<: クンペンが離陸、ソフトコムが道路を建設、ソフトコム・ウィズダムがファーウェイと手を組み、済南を科学技術革新の高原に築く
>>: サーマルイメージングによって施設と従業員の安全性がどのように向上するのでしょうか?
シンプルな Java 暗号化アルゴリズムは次のとおりです。厳密に言えば、BASE64 は暗号化アルゴ...
CES(コンシューマーエレクトロニクスショー)がラスベガスで盛況だ。インテル、マイクロソフト、グーグ...
リモートワークの標準化により、クラウド監視ソフトウェア市場が生まれました。最近、Enaible とい...
中国のAI研究者の数は過去10年間で10倍に増加したが、そのほとんどは海外、主に米国に居住している。...
[[442506]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...
[[270591]]弁護士は、法律知識、鋭敏な時間管理、説得力、雄弁さなど、多くのスキルを身につけて...
GPUマイニングで米国証券取引委員会から罰金を科されたNvidiaは、最近、暗号化アルゴリズムが解...
私は最近、クローラーを使用してページのスナップショットを取得し、ページの互換性の包括的なテストを実施...
マスクは嫉妬しているのか?彼のニューラリンクは技術的にははるかに進んでおり、豚やサルを使った実験では...