Caffeine ソースコード解釈 - キャッシュ有効期限の削除に関連するアルゴリズム

Caffeine ソースコード解釈 - キャッシュ有効期限の削除に関連するアルゴリズム

[[410588]]

この記事はWeChatの公開アカウント「Muscular Coder」から転載したもので、著者はZou Xueです。この記事を転載する場合は、Muscle Coder の公開アカウントにご連絡ください。

導入:

前回の記事では、Caffeine のフレームワーク部分を例を使って説明しました。この記事では、引き続き、キャッシュの有効期限に関するアルゴリズム部分を例を使って説明し、guava キャッシュの設計とどのように異なるかを確認します。

使用例:

同じ例を使い続けますが、まずは PUT と GET から始めましょう。ワークフローを理解すれば、キャッシュの有効期限のロジックも自然にわかるようになります。

  1. //初期化
  2. Cache<String, String> キャッシュ = Caffeine.newBuilder().maximumSize(100)
  3. .expireAfterWrite(1, TimeUnit.SECONDS).build();
  4. //置く
  5. キャッシュに格納します。 "a" "b"
  6. //得る
  7. システム.out.println (cache.getIfPresent( "a" ));

グアバは期限が切れて保存中に除去されますが、カフェインも同様でしょうか?

置く/取得:

ほとんどの場合、境界付きキャッシュが作成され、put メソッドは BoundedLocalCache のこのメソッドに入ります: put(K key, V value, boolean notificationWriter, boolean onlyIfAbsent)。キャッシュに前の要素が含まれていない場合は、次のコードが実行されます。

  1. // キャッシュから前の値を取得する
  2. Node<K, V> の事前データ= data.get(nodeFactory.newLookupKey( key ));
  3. if (事前== null ) {
  4. // prior = null前の要素が存在しないことを意味します
  5. //要素が存在しないため、キーと値に基づいて新しいノードを作成する必要があります
  6. // ここでのnull判断は、ロジックのこの部分の外側の層がループであるということです。ループを使用する理由は、後続の非同期操作が成功することを保証する必要があるためです。
  7. if (ノード == null ) {
  8. //新しいノードを作成する
  9. ノード = nodeFactory.newNode(キー, keyReferenceQueue(),
  10. 値、valueReferenceQueue()、newWeight、now);
  11. //有効期限戦略のノードの初期時間を設定する
  12. setVariableTime(ノード、expireAfterCreate(キー、値、現在));
  13. setAccessTime(ノード、現在);
  14. setWriteTime(ノード、現在);
  15. }
  16. (notifyWriter && hasWriter())の場合{
  17. .............................
  18. } else { //キーがまだ書き込まれていない場合
  19. //新しく作成されたノードをデータに書き込む
  20. 事前= data.putIfAbsent(node.getKeyReference(), ノード);
  21. if (事前== null ) {
  22. //値がまだ存在しない場合は、afterWrite操作を実行し、AddTaskタスクを実行します
  23. afterWrite(新しい AddTask(ノード、新しい重み));
  24. 戻る ヌル;
  25. }
  26. }
  27. }

一貫性コードがたくさんあるため、最初に中国語のコメントを読むだけで済みます。コードから、書き込みキャッシュ操作は比較的単純であることがわかります。新しいノードを作成してデータに書き込み、最後に afterWrite をトリガーして null を返します。

afterWrite メソッドは最後のステップで何を実行しますか?

まず、AddTask とは何かを見てみましょう。

  1. 最終クラス AddTask は Runnable を実装します {
  2. 最終的なNode<K, V>ノード;
  3. 最終的なint の重量;
  4.  
  5. AddTask(Node<K, V> ノード、 int重み) {
  6. this.weight = 重量;
  7. ノードをコピーします。
  8. }
  9. ...............................
  10. }

AddTask は実行可能なインターフェイスを実装します。つまり、追加操作が完了した後、追加タスクが非同期で実行されます。これが、AddTask と guava の最大の違いです。非同期です。まずは同期部分を終わらせましょう。結局のところ、put 操作が null を返す前に実行する必要があります。afterWrite メソッドは次のとおりです。

  1. void afterWrite(実行可能なタスク) {
  2. if (buffersWrites()) {
  3. ( int i = 0; i < WRITE_BUFFER_RETRIES; i++) {
  4. (writeBuffer().offer(タスク))の場合{
  5. //書き込み後のスケジュールをトリガーする
  6. スケジュール後に書き込み();
  7. 戻る;
  8. }
  9. スケジュールされたDrainBuffers();
  10. }
  11. ..........
  12. }それ以外{
  13. スケジュール後に書き込み();
  14. }
  15. }

上記のコードから、このメソッドは書き込み後のスケジュールをトリガーし、最終的にdrainBuffersTaskを非同期的に実行します。このタスクは、キャッシュ内の各ノードのステータスを整理して処理します。

  1. void スケジュールドレインバッファ() {
  2. (drainStatus() >= PROCESSING_TO_IDLE)の場合{
  3. 戻る;
  4. }
  5. if (evictionLock.tryLock()) {
  6. 試す {
  7. //ステータスを取得
  8. ドレインステータス
  9. // 3つの状態のみが許可されます
  10. ドレインステータス >= PROCESSING_TO_IDLE の場合 {
  11. 戻る;
  12. }
  13. 処理中からアイドル状態に移行します。
  14. //メモリ調整タスクdrainBuffersTaskを非同期に呼び出す
  15. executor()。drainBuffersTaskを実行します
  16. } キャッチ (Throwable t) {
  17. logger.log(レベル.WARNING、 「メンテナンス タスクの送信時に例外がスローされました」 、t);
  18. メンテナンス(/* 無視されます */ null );
  19. ついに
  20. 削除ロックを解除します。
  21. }
  22. }
  23. }

上記の手順から、put プロセスは次のようになります。最初に要素をキャッシュに書き込み、次にスケジュールをトリガーします。スケジュールは、アイドル状態とビジー状態に基づいて非同期の dockBuffersTask を実行するかどうかを決定します。

get のプロセスは put のプロセスと似ています。get はキーの使用方法を変更し、有効期限の結果に影響を与えるため、最終的には、drainBuffersTask をトリガーしてメンテナンス メソッドを実行し、キャッシュをクリーンアップする可能性があります。

  1. void メンテナンス(@Nullable 実行可能なタスク) {
  2. 処理中からアイドル状態に移行します。
  3.  
  4. 試す {
  5. //読み取りキャッシュを取り出す
  6. バッファをドレインします。
  7. //書き込みキャッシュを空にする
  8. バッファをドレインします。
  9. タスクがnull場合
  10. タスクを実行します。
  11. }
  12.    
  13. //キー参照を除外する
  14. キー参照を排出します。
  15. //値参照を除外する
  16. ドレイン値参照();
  17. //期限切れのエントリ
  18. エントリの有効期限が切れます。
  19. //エントリを削除
  20. エントリを削除します。
  21. ついに
  22. ドレインステータス() が PROCESSING_TO_IDLE の場合 || cas​​DrainStatus(PROCESSING_TO_IDLE, IDLE) の場合 {
  23. lazySetDrainStatus(必須);
  24. }
  25. }
  26. }

データ構造

前の記事では、Caffeine がすべてのデータを格納するために ConcurrencyHashMap を使用することについて説明しましたが、このセクションでは主に有効期限の削除戦略で使用されるデータ構造について説明します。書き込み有効期限は writeOrderDeque を使用しますが、これは比較的単純なのでこれ以上の説明は必要ありません。読み取り有効期限は比較的複雑で、W-TinyLFU の構造とアルゴリズムを使用します。

インターネット上には、W-TinyLFU 構造を紹介する記事がたくさんあります。ぜひチェックしてみてください。ここでは、主にソースコードから分析します。一般的には、accessOrderEdenDeque、accessOrderProbationDeque、accessOrderProtectedDeque の 3 つの両端キューを使用します。両端キューを使用する理由は、LRU アルゴリズムをサポートする方が便利だからです。

accessOrderEdenDeque は eden 領域に属し、データの 1% をキャッシュし、残りの 99% はメイン領域にキャッシュされます。

accessOrderProbationDeque はメイン領域に属し、メインのデータの 20% をキャッシュします。この部分はコールド データであり、すぐに削除されます。

accessOrderProtectedDeque はメイン領域に属し、メインのデータの 20% をキャッシュします。この部分はホット データであり、キャッシュ全体のメイン メモリ領域です。

まず消去法のエントリを見てみましょう。

  1. void evictEntries() {
  2. if (!evicts()) {
  3. 戻る;
  4. }
  5. //まずedn領域から削除
  6. int候補 = evictFromEden();
  7. //edenによって削除されたデータはメインエリアに入り、その後メインエリアから削除されます
  8. evictFromMain(候補者);
  9. }

accessOrderEdenDeque は、W-TinyLFU の W(window) に相当します。最新の書き込みデータの参照を格納します。LRU 消去を使用します。ここでのデータは主にバースト トラフィックの問題に対処するために使用されます。消去されたデータは accessOrderProbationDeque に入ります。コードは次のとおりです。

  1. intエデンからの退去() {
  2. int候補 = 0;
  3. ノード<K, V> ノード = accessOrderEdenDeque().peek();
  4. edenWeightedSize() が edenMaximum() より大きい場合
  5. // 保留中の操作によりサイズが調整されます 正しい体重を反映する
  6. if (ノード == null ) {
  7. 壊す;
  8. }
  9.  
  10. ノード<K, V> next = node.getNextInAccessOrder();
  11. (node.getWeight() != 0)の場合{
  12. ノードを初期化します。
  13. // まずエデンエリアから削除
  14. accessOrderEdenDeque().remove(ノード);
  15. //削除されたデータはメインエリアの試用キューに追加されます
  16. accessOrderProbationDeque() にノードを追加します
  17. 候補者++;
  18.  
  19. edenWeightedSize を遅延設定します (edenWeightedSize() - node.getPolicyWeight());
  20. }
  21. ノード =;
  22. }
  23.  
  24. 候補者を返す
  25. }

データが試用キューに入った後、次のコードの実行を続けます。

  1. void evictFromMain( int候補) {
  2. int被害者キュー = PROBATION;
  3. ノード<K, V>犠牲者 = accessOrderProbationDeque().peekFirst();
  4. ノード<K, V> 候補 = accessOrderProbationDeque().peekLast();
  5. (weightedSize() > maximum()) の場合 {
  6. //候補者を追い出そうするのをやめ常に被害者を優先する
  7. (候補者数 == 0)の場合{
  8. 候補 = null ;
  9. }
  10.  
  11. //保護されたキューエデンキューから削除を試みる
  12. if ((候補 == null ) && (犠牲者 == null )) {
  13. if (victimQueue == PROBATION) {
  14. 被害者 = accessOrderProtectedDeque().peekFirst();
  15. 被害者キュー = 保護されています;
  16. 続く;
  17. }そうでない場合 (victimQueue == PROTECTED) {
  18. 被害者 = accessOrderEdenDeque().peekFirst();
  19. 被害者キュー = EDEN;
  20. 続く;
  21. }
  22.  
  23. // 保留中の操作によりサイズが調整されます 正しい体重を反映する
  24. 壊す;
  25. }
  26.  
  27. //重みゼロのエントリをスキップする
  28. 被害者がnullの場合、victim.getPolicyWeight() は 0 になります。
  29. 被害者 = 被害者.getNextInAccessOrder();
  30. 続く;
  31. }そうでない場合 ((候補 != null ) && (candidate.getPolicyWeight() == 0)) {
  32. 候補 = 候補.getPreviousInAccessOrder();
  33. 候補者--;  
  34. 続く;
  35. }
  36.  
  37. //エントリ1 つだけ存在する場合はすぐに削除します
  38. 被害者がnull場合
  39. 候補者--;  
  40. ノード<K, V> evict = 候補;
  41. 候補 = 候補.getPreviousInAccessOrder();
  42. evictEntry(evict, RemovalCause.SIZE , 0L);
  43. 続く;
  44. }そうでない場合 (候補 == null ) {
  45. ノード<K, V> evict =victim;
  46. 被害者 = 被害者.getNextInAccessOrder();
  47. evictEntry(evict, RemovalCause.SIZE , 0L);
  48. 続く;
  49. }
  50.  
  51. // エントリが収集された場合はすぐに削除します
  52. K 被害者キー = 被害者.getKey();
  53. K 候補キー = 候補.getKey();
  54. 被害者キーがnull場合
  55. ノード<K, V> evict =victim;
  56. 被害者 = 被害者.getNextInAccessOrder();
  57. evictEntry(evict, RemovalCause.COLLECTED, 0L);
  58. 続く;
  59. }そうでない場合 (候補キー == null ) {
  60. 候補者--;  
  61. ノード<K, V> evict = 候補;
  62. 候補 = 候補.getPreviousInAccessOrder();
  63. evictEntry(evict, RemovalCause.COLLECTED, 0L);
  64. 続く;
  65. }
  66.  
  67. // 候補の重みが最大値を超えた場合は直ちに排除する
  68. (候補.getPolicyWeight() > 最大値())の場合{
  69. 候補者--;  
  70. ノード<K, V> evict = 候補;
  71. 候補 = 候補.getPreviousInAccessOrder();
  72. evictEntry(evict, RemovalCause.SIZE , 0L);
  73. 続く;
  74. }
  75.  
  76. //最も頻度低いエントリを削除します
  77. 候補者--;  
  78. // コア アルゴリズムは次のとおりです。試用期間の先頭と末尾から 2 つのノードを取得し、それらの頻度を比較します。頻度の小さい方が削除されます。
  79. if (admit(候補キー、被害者キー)) {
  80. ノード<K, V> evict =victim;
  81. 被害者 = 被害者.getNextInAccessOrder();
  82. evictEntry(evict, RemovalCause.SIZE , 0L);
  83. 候補 = 候補.getPreviousInAccessOrder();
  84. }それ以外{
  85. ノード<K, V> evict = 候補;
  86. 候補 = 候補.getPreviousInAccessOrder();
  87. evictEntry(evict, RemovalCause.SIZE , 0L);
  88. }
  89. }
  90. }

上記のコードのロジックは、probation の先頭と末尾から 2 つのノードを取得し、頻度を比較することです。頻度の小さい方が削除されます。末尾の要素は、前の部分で eden から削除された要素です。2 段階のロジックを組み合わせると、次のようになります。eden キューで lru によって削除された「候補」が、probation キューで lru によって削除された「排除」と比較されます。敗者は実際にキャッシュから削除されます。比較ロジックを見てみましょう。

  1. ブール値の承認(K 候補キー、K 被害者キー) {
  2. int被害者の頻度 = 頻度スケッチ()。頻度(被害者キー);
  3. int候補周波数 = 周波数スケッチ()。周波数(候補キー);
  4. //候補の頻度が高い場合は、排除された候補を排除する
  5. (候補者の頻度>被害者の頻度)の場合{
  6. 戻る 真実;
  7. //追い出されたものの頻度が候補のものより高く、候補の頻度が5以下の場合、追い出されたものは
  8. }それ以外の場合 (候補頻度 <= 5) {
  9. // 最大頻度は15履歴を古くなるようにリセットする7半分なります。攻撃は
  10. // ホットな候補者ホットな犠牲者ため拒否されるという悪用。ホットな候補者閾値は
  11. // 候補者はランダム承認数を減らしてヒット率への影響を最小限に抑えます
  12. 戻る 間違い;
  13. }
  14. //ランダム排除
  15. intランダム = ThreadLocalRandom.current ().nextInt() ;
  16. ((ランダム & 127) == 0)を返します
  17. }

候補者と排除される人の頻度を、frequencySketch から取得します。候補者の頻度が高い場合は、排除される人を排除します。排除される人の頻度が候補者の頻度より高く、候補者の頻度が 5 以下の場合は、排除される人を排除します。最初の 2 つの条件が満たされない場合は、排除される人をランダムに排除します。

protectedDeque はプロセス全体に効果がないことがわかりましたか? ほとんどのデータを保存するメイン メモリ領域としてどのように機能するのでしょうか?

  1. //onAccessメソッドはこのメソッドをトリガーします
  2. void 再順序付けプロバクション(Node<K, V> ノード) {
  3. if (!accessOrderProbationDeque(). contains (node)) {
  4. //エントリ古いアクセス無視します もはや存在しない
  5. 戻る;
  6. }そうでない場合 (node.getPolicyWeight() > mainProtectedMaximum()) {
  7. 戻る;
  8. }
  9.  
  10. mainProtectedWeightedSize を長くすると、 mainProtectedWeightedSize() と node.getPolicyWeight() が返されます。
  11. //まずは試用期間から外す
  12. accessOrderProbationDeque().remove(ノード);
  13. //保護対象に追加
  14. accessOrderProtectedDeque() にノードを追加します
  15. ノードをProtectedにする
  16.  
  17. mainProtectedMaximum は、次の式で定義されます。
  18. //保護から削除
  19. mainProtectedWeightedSize が mainProtectedMaximum より大きい場合、
  20. 降格されたノード<K, V> = accessOrderProtectedDeque().pollFirst();
  21. if (降格 == null ) {
  22. 壊す;
  23. }
  24. 降格.makeMainProbation();
  25. //試用期間に追加
  26. accessOrderProbationDeque()を追加します(降格)
  27. メインの保護された重み付けサイズ -= node.getPolicyWeight();
  28. }
  29.  
  30. mainProtectedWeightedSize を遅延設定します。
  31. }

データがアクセスされ、保護状態にある場合、データは保護状態に移動され、同時に、データは保護状態から削除され、lru を通じて保護状態に置かれます。

このように、データ フローのロジックは完全に接続されています。新しいデータは Eden に入り、LRU によって Probation に排除され、Probation で LRU によって排除されたデータと使用頻度を競います。勝った場合は、引き続き Probation に留まります。失敗した場合は、直接排除されます。このデータにアクセスすると、Protected に移動されます。他のデータにアクセスすると、lru を通じて保護から保護対象に削除される可能性があります。

小さなLFU

従来の LFU では、一般的にキーと値の形式を使用して各キーの頻度を記録します。利点は、データ構造が非常にシンプルで、キャッシュ自体のデータ構造で再利用できることです。頻度を記録するには、属性を追加するだけです。欠点は、頻度属性が多くのスペースを占有することです。しかし、頻度が圧縮された方法で保存されている場合はどうでしょうか。頻度が占めるスペースは確かに削減できますが、別の問題が発生します。圧縮されたデータから対応するキーの頻度を取得するにはどうすればよいでしょうか。

TinyLFU のソリューションはビットマップ方式に似ています。キーをハッシュしてビット インデックスを取得し、そのインデックスを使用して頻度を見つけます。ただし、ビットマップには 0 と 1 の 2 つの値しかないため、頻度が非常に大きくなる可能性があります。これをどのように処理しますか? さらに、ビットマップの使用には非常に大きなスペースが必要です。この問題をどのように解決しますか?

TinyLFU は、最大データ サイズ設定に従って long 配列を生成し、4 つの long の 4 ビットに頻度値を保存します (4 ビットは 15 を超えません)。頻度値を取得するときは、4 つのうち最小の値が取得されます。

Caffeine は、15 を超える周波数を非常に高いものと見なし、ホット データと見なすため、それらの保存には 4 ビットしか必要ありません。Long は 8 バイトと 64 ビットなので、16 の周波数を保存できます。ハッシュ値を取得し、それを左に 2 桁シフトしてから、ハッシュを 4 回追加します。この方法では、16 のうち 13 を使用できるため、使用率が高くなります。おそらく、16 すべてを使用できるより優れたアルゴリズムがあるでしょう。

  1. パブリックvoid 増分(@Nonnull E e) {
  2. 初期化されていない場合
  3. 戻る;
  4. }
  5.  
  6. intハッシュ = spread(e.hashCode());
  7. int開始 = (ハッシュ & 3) << 2;
  8.  
  9. // ループ展開によりスループット500 万オペレーション/秒向上します
  10. int index0 = indexOf(hash, 0); //indexOf もハッシュメソッドですが、tableMask によって範囲が制限されます。
  11. int index1 = indexOf(ハッシュ、1);
  12. int index2 = indexOf(ハッシュ、2);
  13. int index3 = indexOf(ハッシュ、3);
  14.  
  15. ブール値 added = incrementAt(index0, start);
  16. 追加 |= incrementAt(index1, start + 1);
  17. 追加 |= incrementAt(index2, start + 2);
  18. 追加 |= incrementAt(index3, start + 3);
  19.  
  20. //データ書き込み回数がデータ長に達したらリセットする
  21. if (追加 && (++サイズ== サンプルサイズ)) {
  22. リセット();
  23. }
  24. }

対応するビット位置の 4 ビット Int 値に 1 を加算します。

  1. ブール増分( int i, int j) {
  2. intオフセット = j << 2;
  3. ロングマスク = (0xfL << オフセット);
  4. //15に達すると、その数はそれ以上増加しなくなります
  5. if ((テーブル[i] & マスク) != マスク) {
  6. テーブル[i] += (1L << オフセット);
  7. 戻る 真実;
  8. }
  9. 戻る 間違い;
  10. }

値を取得する方法は、4 つのハッシュを介して取得し、最小値を取得することです。

  1. 公共  int頻度(@Nonnull E e) {
  2. 初期化されていない場合
  3. 0を返します
  4. }
  5.  
  6. intハッシュ = spread(e.hashCode());
  7. int開始 = (ハッシュ & 3) << 2;
  8. int頻度 = Integer.MAX_VALUE ;
  9. //4つのハッシュ
  10. ( int i = 0; i < 4; i++)の場合{
  11. 整数 インデックス= indexOf(ハッシュ、i);
  12. // 4ビットのIntを取得する
  13. 整数  count = ( int ) ((テーブル[インデックス] >>> ((start + i) << 2)) & 0xfL);
  14. //最小値を取得する
  15. 頻度 = Math.min (頻度、カウント);
  16. }
  17. 返品頻度;
  18. }

データの書き込み数がデータ長に達すると、その数は半分になります。このプロセス中に一部のコールド データが 0 にリセットされ、ハッシュの競合が減少します。

  1. void リセット() {
  2. 整数 カウント= 0;
  3. ( int i = 0; i <テーブル.length; i++) {
  4. count += Long.bitCount(テーブル[i] & ONE_MASK);
  5. テーブル[i] = (テーブル[i] >>> 1) & RESET_MASK;
  6. }
  7. サイズ= (サイズ>>> 1) - (カウント>>> 2);
  8. }

<<:  AI搭載マシンビジョンの台頭は企業のデータ管理に影響を与える

>>:  人工知能の雇用見通しはどれほど明るいのでしょうか?これらのポジションは不足しており、経済的見通しは良好です

ブログ    
ブログ    

推薦する

...

...

効率が1200倍にアップ! MIT、医薬品製造向けの新たなAIモデルを開発

海外メディアTech Xploreによると、MITの研究者らは最近、新しいタンパク質分子の構造を事前...

...

量子コンピューティングは人工知能の未来でしょうか?

量子コンピューティングは「量子状態」でさまざまな結果に対応できるため、機械学習や人工知能の問題に対す...

ジェネレーションオートメーション:AI主導の労働力

生成 AI は AI の「津波」を引き起こし、AI 駆動型アプリケーションの急速な開発、広範な採用、...

ニューラルネットワーク技術の進化について

ニューラル ネットワークとディープラーニング技術は、今日の高度なインテリジェント アプリケーションの...

...

チャット記録をアップロードして自分自身を「複製」する。このスタートアップは「ブラックミラー」の第 1 話を現実のものにしました

10年前に放映されたアメリカのテレビシリーズ「ブラックミラー」の第1話のタイトルは「Be Right...

最新レポート: 従業員の 25% が ChatGPT などの AI ツールに機密データをアップロードしている

新たな調査によると、従業員の15%がChatGPTに会社のデータを頻繁にアップロードしており、そのデ...

グラフ最適化のためのエンドツーエンドの転送可能な深層強化学習

[[425806]]多様なアクセラレータ セットでトレーニングされた大規模で複雑なニューラル ネット...

AIの安全性:中国のAIに100本の毒

人間がAIを見つめると、AIも人間を見つめる。大規模 AI モデルの大規模な応用と進化において、ネッ...

クラウドコンピューティングと人工知能の発展により、ITセキュリティは大幅に向上しました。

データ侵害が頻繁に起こるようになるにつれて、IT セキュリティの重要性がますます高まります。幸いなこ...

...