大量データのための2次パーソナルコネクションマイニングアルゴリズム(Hadoop実装)

大量データのための2次パーソナルコネクションマイニングアルゴリズム(Hadoop実装)

私は最近、Sina Weibo の「あなたに興味があるかもしれない人々」の間接的なフォローアップ推奨のように、2 次接続の関係をいくつか見つけ出す必要のあるプロジェクトに取り組みました。簡単な説明は次のとおりです。フォローしている N 人の人が XXX もフォローしています。

プログラムの実装で実際に探しているのは、User1 が 10 人のユーザー {User3、User4、User5、...、User12} をフォローしていて、セット UF1 として記録されている場合、UF1 のこれらのユーザーもフォロー セットを持ち、UF3 (User3 がフォローしているユーザー)、UF4、UF5、...、UF12 として記録されます。また、これらのセットの間には共通部分があり、ほとんどのセットの共通部分によって生成される共通部分こそが、探しているもの、つまり関心のある人々です。

2 次接続アルゴリズムの実装に関する情報をオンラインで検索しました。そのほとんどは、幅検索アルゴリズムを検索するだけで、ためらいの深さは 2 以内であると判断されています。このアルゴリズムは実際には非常に簡単です。最初のステップは、フォローしている人を見つけることです。2 番目のステップは、これらの人がフォローしている人を見つけることです。最後に、2 番目のステップの結果で最も頻繁に表示される 1 人以上の人を見つければ完了です。

しかし、他のユーザーがいる場合、計算中にこれらのユーザーのフォロー関係が必ずメモリに格納され、計算中に順番に検索されます。まず、明確な診断比較がなく、その効果はHadoopに基づくものほど良くないことを説明する必要があります。私はHadoopを使用して実装したいだけで、最近も学習しています。不備があれば、指摘してください。

まず、初期データはファイルであり、各行は ida+'\t'+idb という関係に従います。つまり、ida は idb に従います。次に、2 つの Map/Reduce タスクが使用されました。

Map/Reduce 1:任意のユーザーのフォロー セットとフォロー セットを検索します。図に示すように:

コードは次のとおりです。

マップタスク: 出力キー: 間接アクターAのID、値: フォロワーまたはフォローされている人のID

  1. 公共  void map(テキストキー、IntWritable値、コンテキストコンテキスト)IOException、InterruptedExceptionをスローします{
  2.         戻り値:
  3.          // 2つのユーザーIDを分割する 
  4. 文字列[] _key = Separator.CONNECTORS_Pattern.split(key.toString());
  5.          _key.length == 2 の場合{
  6.              // 「f」プレフィックスはフォローを意味し、「b」プレフィックスはフォローを意味します 
  7. context.write(新しいテキスト(_key[ 0 ])、新しいテキスト( "f" + _key[ 1 ]));
  8. context.write(新しいテキスト(_key[ 1 ])、新しいテキスト( "b" + _key[ 0 ]));
  9.               
  10.               
  11. }
  12. }

削減タスク: 出力キー: 間接アクター A の ID、値は 2 つの文字列で、最初の文字列はフォローしているすべての人々 (区切り文字で区切られています)、2 番目の文字列はフォローしている人々 (これも区切られています)

  1. &nbsp;&nbsp;&nbsp;&nbsp;保護されています  void Reduce(テキストキー、Iterable<TextPair> ペア、コンテキストコンテキスト)
  2.       IOException、InterruptedExceptionをスローします{
  3. StringBuilder の first_follow =新しいStringBuilder();
  4. StringBuilderのsecond_befollow =新しいStringBuilder();
  5.           
  6.          ( TextPair ペア: ペア){
  7. 文字列 id = pair.getFirst().toString();
  8. 文字列値 = pair.getSecond().toString();
  9.              id.startsWith( "f" )の場合{
  10. first_follow.append(id.substring( 1 )).append(Separator.TABLE_String);
  11. }それ以外  id.startsWith( "b" )の場合
  12. second_befollow.append(id.substring( 1 )).append(Separator.TABLE_String);
  13. }
  14. }
  15.           
  16. context.write(キー、新しいTextPair(first_follow.toString()、second_befollow.toString()));
  17. &nbsp;&nbsp;&nbsp;&nbsp;}

Separator.TABLE_String はカスタムセパレーターです。TextPair はカスタムの Writable クラスであり、キーを 2 つの値に対応させ、2 つの値を区別できるようにします。

Map/Reduce 2:前のステップで、B が A に続き、A が T に続く場合、T は B の 2 次接続であり、間接的な人物は A であると結論付けることができるので、同じ 2 次接続の異なる間接的な人物を見つけます。図に示すように:

コードは次のとおりです。

マップタスク: 出力時に、キーは2つの文字列レコードのIDで表される2次関係であり、値はこの2次関係によって生成された間接的な人物のIDです。

  1. 公共  void map(テキストキー、テキストペア値、コンテキストコンテキスト)はIOException、InterruptedExceptionをスローします{
  2. Map<String, String> first_follow = new HashMap<String, String>();
  3. Map<String, String> second_befollow = new HashMap<String, String>();
  4. 文字列 _key = key.toString();
  5. String[] follow = values.getFirst().toString().split(Separator.TABLE_String);
  6.           
  7. 文字列[] 秒 = values.getSecond().toString().split(Separator.TABLE_String);
  8.           
  9.          for (文字列 sf : follow){
  10.               
  11. first_follow.put(sf、_key);
  12.               
  13. }
  14.           
  15.          (文字列 ss : 秒){
  16.               
  17. second_befollow.put(ss, _key);
  18.               
  19. }
  20.           
  21.          ( Entry <String, String> f : first_follow.entrySet()){
  22.              ( Entry<String, String> b : second_befollow.entrySet()){
  23. context.write(新しいTextPair(f.getKey() 、b.getKey())、新しいText(key));
  24. }
  25. }
  26. &nbsp;&nbsp;&nbsp;&nbsp;}

削減タスク: 出力時、キーは引き続き 2 次関係であり、値はカンマで区切られたすべての間接的な人の ID です。

  1. 保護された  void Reduce(TextPair キー、Iterable<Text> 値、Context コンテキスト)
  2.      IOException、InterruptedExceptionをスローします{
  3.       
  4. StringBuilder 結果 = new StringBuilder();
  5.      for (テキストテキスト:値){
  6. 結果.append(text.toString()).append( "," );
  7. }
  8.       
  9. context.write(キー、新しいテキスト(resutl.toString()));
  10. }

この時点で、基本的に2次接続は発見されており、その後の処理は非常に簡単です。もちろん、2次接続に基づいて3次、4次も発見されます:)

オリジナルリンク: http://my.oschina.net/BreathL/blog/75112

<<:  アリの採餌とインターネットアルゴリズム

>>:  App Store 中国、検索アルゴリズムを最適化:名前による検索を復活

ブログ    
ブログ    

推薦する

アリコロニーアルゴリズムの理論と実践ガイド

[[170615]]数年前、私が修士号を取得するために勉強していたとき、大学にアリコロニーアルゴリズ...

Google は、ユーザーにパーソナライズされたヘルプを提供するために、Bard を搭載したアシスタントをリリースしました。

海外メディアの報道によると、グーグルは10月7日、先日開催された「Made by Google 20...

天津市が顔認証訴訟で勝利、コミュニティが顔認証を唯一のアクセス手段として使用することは違法と判断

天津の不動産管理会社は、コミュニティへの出入りの唯一の方法として顔認証を使用していたとして住民から訴...

Rosetta はプライバシー コンピューティングと AI をどのように結び付けるのでしょうか?

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

ボストンのロボットが話題になった後、別のヒューマノイドロボットがデビューした

10年以上前、テヘラン大学の研究者らは、Surenaと呼ばれる原始的なヒューマノイドロボットを発表し...

...

人工知能はクラウドストレージとデータサービスの革新を推進する

[[358649]]従来のストレージとデータ構造が、クラウドネイティブ アプリケーションに必要な移植...

...

機械学習の実践者が直面する8つの大きな課題

機械学習 (ML) や人工知能 (AI) と聞くと、多くの人はロボットやターミネーターを想像します。...

Amazon Translateについて

Amazon Translate は、高速、高品質、手頃な価格の言語翻訳を提供するニューラル機械翻訳...

GitHub 6600 スター、中国人向け: Microsoft AI 教育および学習共同構築コミュニティ 2.0 が開始!

最近のGithubトレンドホットリストでは、Microsoft Research AsiaのAI教育...

【ビッグネームがやってくる、エピソード10】柔軟なビッグデータクラウド分析プラットフォームを構築するためのハードルはゼロ

[51CTO.com からのオリジナル記事] ビッグデータとビッグデータ分析は、現在、企業の注目の的...

...