誇張ではなく、絶対にそうはならない

誇張ではなく、絶対にそうはならない
[[280896]]

01. はじめに

データのクエリ速度を向上させるために、キャッシュがよく使用されます。キャッシュ容量には制限があるため、キャッシュ容量が上限に達すると、新しいデータを追加できるように、一部のデータを削除してスペースを確保する必要があります。キャッシュされたデータはランダムに削除することはできません。一般的に、特定のアルゴリズムに基づいてキャッシュされたデータを削除する必要があります。一般的な除去アルゴリズムには、LRU、LFU、FIFO などがあります。この記事では、LRU アルゴリズムについて説明します。

02. LRUの紹介

LRU は Least Recently Used の略です。このアルゴリズムでは、最も最近使用されたデータはホット データであり、次回も高い確率で再び使用されるとみなされます。最近ほとんど使用されていないデータは、次回も使用されなくなる可能性があります。キャッシュ容量がいっぱいになると、最近あまり使用されていないデータが最初に削除されます。

キャッシュの内部データが以下のようになっていると仮定します。


ここでは、リストの最初のノードをヘッド ノード、最後のノードをテール ノードと呼びます。

キャッシュを呼び出してキー = 1 のデータを取得する場合、図に示すように、LRU アルゴリズムはノード 1 をヘッド ノードに移動する必要があり、他のノードは変更されません。


次にkey=8のノードを挿入します。このときキャッシュ容量が上限に達しているため、追加する前にデータを削除する必要があります。各クエリはデータをヘッド ノードに移動するため、クエリされていないデータはテール ノードに移動します。テールのデータは最もアクセスが少ないデータであると考えられるため、テール ノードのデータは削除されます。


次に、データをヘッドノードに直接追加します。


LRU アルゴリズムの具体的な手順の概要は次のとおりです。

  • 新しいデータはリストの先頭に直接挿入されます
  • キャッシュデータがヒットし、データがリストの先頭に移動される
  • キャッシュがいっぱいになったら、リストの末尾にあるデータを削除します。

03. LRUアルゴリズムの実装

上記の例からわかるように、LRU アルゴリズムではヘッド ノードを追加し、テール ノードを削除する必要があります。リンクリスト内のノードの追加/削除の時間計算量は O(1) であるため、ストレージ キャッシュ データ コンテナーとして非常に適しています。ただし、通常の一方向リンク リストは使用できません。一方向リンク リストには、いくつかの欠点があります。

  1. 任意のノードからデータを取得するたびに、最初のノードからトラバースする必要があり、その結果、ノードを取得する複雑さは O(N) になります。
  2. 中間ノードをヘッドノードに移動するには、中間ノードの前のノードの情報を知る必要があるため、一方向リンクリストを再度走査して情報を取得する必要があります。

上記の問題は、他のデータ構造を組み合わせることで解決できます。

ハッシュテーブルを使用してノードを格納すると、ノードを取得する複雑さは O(1) に削減されます。ノード移動の問題は、前のノード情報を記録するための先行ポインタをノードに追加することで解決できます。これにより、リンク リストが一方向リンク リストから双方向リンク リストに変更されます。

要約すると、図に二重リンクリストとハッシュテーブルの組み合わせを使用したデータ構造が示されています。


2 つの「センチネル」ノードは双方向リンク リストに意図的に追加されており、データの保存には使用されません。センチネル ノードを使用すると、ノードを追加/削除するときに境界ノードが存在しないかどうかを考慮する必要がなくなり、プログラミングの難易度が軽減され、コードの複雑さが軽減されます。

LRU アルゴリズムの実装コードは次のとおりです。簡略化のため、key と val は両方とも int 型とみなされます。

  1. パブリッククラスLRUCache {
  2.  
  3. エントリーヘッド、テール;
  4. int容量;
  5. 整数 サイズ;
  6. マップキャッシュ;
  7.  
  8.  
  9. パブリックLRUCache( int容量) {
  10. this.capacity = 容量;
  11. // リンクリストを初期化する
  12. リンクリストを初期化します。
  13. サイズ= 0;
  14. キャッシュ = 新しい HashMap<>(容量 + 2);
  15. }
  16.  
  17. /**
  18. * ノードが存在しない場合は -1 を返します。存在する場合は、ノードをヘッド ノードに移動し、ノードのデータを返します。
  19. *
  20. * @paramキー 
  21. * @戻る 
  22. */
  23. 公共  int get( int  ) {
  24. エントリノード = cache.get( key );
  25. if (ノード == null ) {
  26. -1 を返します
  27. }
  28. // モバイルノードがあります
  29. ノードを先頭に移動します。
  30. ノード値を返します
  31. }
  32.  
  33. /**
  34. * ヘッドノードにノードを追加します。容量がいっぱいになると、テールノードは削除されます。
  35. *
  36. * @paramキー 
  37. * @パラメータ値
  38. */
  39. パブリックvoid put( int  キー int値){
  40. エントリノード = cache.get( key );
  41. if (ノード ​​!= null ) {
  42. ノードの値 = 値;
  43. ノードを先頭に移動します。
  44. 戻る;
  45. }
  46. // 存在しません。最初に追加し、その後末尾のノードを削除します
  47. // この時点で容量がいっぱいなので、末尾のノードを削除します
  48. if (サイズ== 容量 ) {
  49. エントリ lastNode = tail.pre;
  50. 最後のノードを削除します。
  51. cache.remove( lastNode.key );
  52. サイズ- ;  
  53. }
  54. // ヘッドノードを追加する
  55.  
  56. エントリ newNode = new Entry();
  57. newNode.key =キー;
  58. 新しいノードの値 = 値;
  59. ノードを追加します(新しいノード)。
  60. cache.put(キー、newNode);
  61. サイズ++;
  62.  
  63. }
  64.  
  65. プライベート void moveToHead(エントリノード) {
  66. // まず元のノードの関係を削除します
  67. ノードを削除します。
  68. ノードを追加します。
  69. }
  70.  
  71. プライベート void addNode(エントリノード) {
  72. ノードを次のノードにドラッグします。
  73. ノードの次=ヘッドの次;
  74.  
  75. ノードの先頭に、
  76. ノードを次に示します
  77. }
  78.  
  79. プライベート void deleteNode(エントリノード) {
  80. ノードのpre.next =ノードのnext ;
  81. ノードを次のノードにリンクします。
  82. }
  83.  
  84.  
  85. 公共 静的クラスエントリ{
  86. 公開エントリー事前;
  87. 公開エントリ次へ;
  88. 公共 整数 ;
  89. 公共  int値;
  90.  
  91. パブリックエントリ( int  キー int値){
  92. this.key =キー;
  93. this.value = 値;
  94. }
  95.  
  96. パブリックエントリ() {
  97. }
  98. }
  99.  
  100. プライベートvoid initLinkedList() {
  101. head = 新しいエントリ();
  102. tail = 新しいエントリ();
  103.  
  104. ヘッドの次= テール;
  105. tail.pre = ヘッド;
  106.  
  107. }
  108.  
  109. 公共 静的void main(String[] args) {
  110.  
  111. LRUCache キャッシュ = 新しい LRUCache(2);
  112.  
  113. キャッシュに1をセットします。
  114. キャッシュにデータを格納する。
  115. System.out.println (cache.get(1)) ;
  116. キャッシュにデータを格納する。
  117. System.out.println (cache.get(2)) ;
  118.  
  119. }
  120. }

04. LRUアルゴリズムの分析

キャッシュ ヒット率は、キャッシュ システムの非常に重要な指標です。キャッシュ システムのキャッシュ ヒット率が低すぎると、クエリがデータベースに逆流し、データベースにかかる負荷が増加します。

上記の分析と組み合わせると、LRU アルゴリズムの長所と短所がわかります。

LRU アルゴリズムの利点は、実装が難しくなく、ホット データの場合、LRU 効率が非常に優れていることです。

LRU アルゴリズムの欠点は、履歴データのバッチ クエリなどの不定期のバッチ操作では、キャッシュ内の人気データがこれらの履歴データに置き換えられ、キャッシュ汚染が発生し、キャッシュ ヒット率が低下し、通常のデータ クエリが遅くなる可能性があることです。

05. LRUアルゴリズムの改善

以下のソリューションはMySQL InnoDB LRU改良アルゴリズムから派生したものである。

図に示すように、リンク リストをホット データ領域とコールド データ領域の 2 つの部分に分割します。


改善後、アルゴリズムのフローは次のようになります。

  1. アクセスされたデータがホット データ領域にある場合、以前の LRU アルゴリズムと同様に、ホット データ領域のヘッド ノードに移動されます。
  2. データを挿入するときに、キャッシュがいっぱいの場合は、末尾のノードにあるデータを削除します。次に、コールド データ領域のヘッド ノードにデータを挿入します。
  3. コールド データ領域のデータにアクセスするたびに、次の判断を行う必要があります。
  4. データが指定された時間(1 秒など)を超えてキャッシュ内に保持されている場合、そのデータはホット データ領域のヘッド ノードに移動されます。
  5. データが指定された時間より前の時間に存在する場合、位置は変更されません。

時々実行されるバッチ クエリの場合、データは単にコールド データ領域に送られ、すぐに削除されます。よく使用されるデータ領域のデータは影響を受けないため、LRU アルゴリズムのキャッシュ ヒット率が低下する問題が解決されます。

その他の改良された方法には、LRU-K、2Q、LIRS アルゴリズムなどがあります。興味のある学生はぜひチェックしてみてください。

<<:  PythonコードからAPPまで、必要なのは小さなツールだけ:GitHubには3,000以上のスターがある

>>:  自動運転車の未来はどうなるのか?マッキンゼーは言う

ブログ    

推薦する

マイクロソフトによるニュアンスの買収が大きな意味を持つ理由

[[394293]]マイクロソフトは最近、音声認識と人工知能による会話サービスを主に提供するNuan...

LlamaIndex と ChatGPT を使用したコードレス検索拡張生成 (RAG)

翻訳者 | 李睿レビュー | Chonglou検索拡張生成 (RAG) は、大規模言語モデル (LL...

スタートアップがAIを活用している3つの分野

[[311550]] [51CTO.com クイック翻訳] 人工知能は最新の開発トレンドであり、その...

...

人工知能は2018年にこれら5つの業界に革命を起こすだろう

科学技術分野における人工知能技術に関する議論は最高潮に達したようだ。昨年半ば、国務院は「新世代人工知...

経験からの教訓: 機械学習の問題に適したアルゴリズムを選択するにはどうすればよいでしょうか?

機械学習がますます普及するにつれて、タスクを適切に処理できるアルゴリズムがますます多く登場しています...

...

チャットボット開発の三銃士: LLAMA、LangChain、Python

チャットボットの開発は、複数のテクノロジーとツールを組み合わせて使用​​する必要がある複雑で困難な作...

10億のパラメータを持つAIモデルSE​​ERは、すべての人を平等に扱い、富裕層と世界に貢献します。

厳選されラベル付けされたデータ セットを使用して AI システムをトレーニングすると、オブジェクト認...

人工知能が人間の神経を刺激し、2017年は世界的な技術革新が活発化

[[183471]]図1:2017年1月7日、知能ロボット「小宝」が上海市楊浦区のショッピングモール...

...

AI: いつも HD ビデオが欲しいなら、ここにあります

Magnific の画像超解像度および強化ツールはまだテスト中ですが、その強力な画像アップスケーリン...

...

...

35 歳の技術者が管理職に転身するにはどうすればいいでしょうか?アリババの上級アルゴリズム専門家が10の考えを明かす

[[313295]] 35歳前後というのはエンジニアにとって珍しい年齢です。技術者は、純粋に技術的な...