完全なマーケティング効果評価におけるベイズ構造モデルの応用

完全なマーケティング効果評価におけるベイズ構造モデルの応用

著者について

Ctrip のデータアナリストである Yiwen 氏は、ユーザー増加、因果推論、データサイエンスなどの分野に重点を置いています。

1. 背景

製品戦略が観測された指標に与える影響を科学的に推測することは非常に重要です。これにより、製品とオペレーションが戦略の価値をより正確に把握し、その後の方向性を反復して調整できるようになります。

因果推論の枠組みでは、実験の転換が完全にランダムかつ均一であると考えられるため、効果評価の黄金比は「AB 実験」でなければなりません。これに基づいて、実験グループとコントロール グループ間の指標の違いを比較すると、特定の介入によってもたらされた増分値を反映できます。しかし、多くのシナリオでは、厳密な AB 実験を行うことは困難です。たとえば、ホテルの価格設定や現金報酬の分配では、異なるグループの人々に異なるコンテンツを表示することは適切ではありません。これらの問題に対しては、因果推論法を使用して戦略の有効性を評価します。

この記事では、主に BSTS モデルの原理と CausalImpact によるモデルのコード実装を紹介し、特定の周期的特性を持つデータに直面したときに因果効果値をより正確かつ科学的に推定することを目的としています。以下の記事では、まずモデルの原理について簡単に説明し、次にシミュレートされたデータを使用してコード ロジックを実証し、最後に特定のビジネス シナリオでそれを実践します。

2. 既存の方法と潜在的な問題点

ほとんどの業務や製品が、完全に開始された戦略の有効性を評価する場合、最も一般的な方法は、開始前と開始後の結果の違いを確認することです。しかし、この方法の最大の問題は、その仮定にあります。オンライン関数が効果に影響を与える唯一の変数であると仮定している(つまり、他の介在変数や交絡変数は存在しない)のですが、この仮定は現実には達成するのが難しいことがよくあります。

そこで私たちは、PSM(傾向スコアマッチング)などのより因果推論的な方法を使用して、すべての非実験グループのユーザーの中から実験グループのユーザーと非常に類似した特性を持つ人々のグループを見つけ、その指標データ(注文率、注文収益など)を実験グループのユーザーのものと比較して、介入の影響を反映させようとしました。ただし、この方法は、選択されたユーザー機能と最終的なマッチング効果に大きく依存します。

もう 1 つの例は、いくつかの連続した領域を使用して「類似の仮想領域」を合成し、「オンライン戦略のある領域」と全体的に比較する SCM (合成制御方式) です。しかし、これには重要な前提も必要です。それは、比較のために、長期にわたる変化の傾向が高度に同期している地域を見つけることが可能であるということですが、これを実現するのは多くの場合困難です。

さらに、従来のSCMをベースに、アンサンブル学習に似た手法を用いて複数の非介入対照群を入力値として取り、実験群自体の長期時系列変動に基づいて非介入仮想対照群を当てはめ、 「対照群と実験群は高度に同期している」という強い仮説を弱い仮説に還元することを試みます。この記事で紹介する BSTS モデルは、ある種の「長期時系列変動」を特徴付けるために使用されるデータ モデルであり、CausalImpact はそのようなデータの因果効果値を推定するために使用されます。以下では、この2つのツールについて詳しく紹介します。

3. モデルの紹介

BSTS モデル (ベイジアン構造化時系列) は、「ベイジアン構造化時系列」と呼ばれます。その名前が示すように、その主な機能は次のとおりです。

  • 構造的特徴を持つ時系列データに適用可能
  • ベイズ思考を用いてパラメータを推定する

構造化された時系列データは日常生活では珍しいことではありませんが、特にCtripのようなOTA業界ではそうです。プラットフォーム上の注文状況には、実際に一定の時間パターンがあります。たとえば、週末と休日は注文のピーク期間であり、平日はオフピークの注文期間などです。一方、ベイズ的思考とは、サンプルデータを取得する前に、推定するパラメータに関する何らかの「生得的知識」が存在し、この知識に基づいて、サンプルデータと組み合わせて事後分布を取得することを意味します(以下の式に示すように)。

したがって、BSTS モデルは主に構造化された時系列データに対してモデルのフィッティングと予測を実行し、フィッティング プロセスではベイ​​ズ事前分布の考え方が使用されます。利点は、予測値の信頼区間を与えることができるため、予測結果がより科学的で信頼できるものになることです。これらのアイデアを以下で一つずつ紹介します。

3.1 状態空間モデル

構造化された時系列データとは、ある観測データの背後に、実際には時間の経過とともに変化するさまざまな状態があり、観測値と状態値の間には対応関係があり、異なる時間における状態間には変換関係もあることを意味します。通常、これら 2 つのマッピング ロジックを特徴付けるために、次の状態空間モデルを使用します。

(1)は観測方程式と呼ばれ、観測値とその背後にある隠れた状態との関係を反映します。(2)は状態方程式と呼ばれ、時間の経過に伴うさまざまな状態間の遷移を反映します。 ;これらはすべて、異なる変数間の「関係マッピング行列」であり、他の変数から独立しており、正規分布に従うノイズです。いわゆるデータの「構造化」には、主に次のものが含まれます。

  • 線形ローカルトレンド: 一定期間にわたる単調性(単調に増加または減少)
  • 季節性: 年間を通じての気温の変化に似た、一定の長さの変動。
  • 周期的: 季節性と似ていますが、変動や頻度が不規則です。

図3-1: 観測データとその構造要素。最初の図は元のデータの変動を反映し、2 番目の図は季節要因を反映し、3 番目の図は地域的な傾向を反映しています。

マッピング関係に共変量Xを追加する場合は、(1)を次のように拡張できます。

これは、共変量 X と観測データの関係を表します。共変量項のパフォーマンスが良好である場合 (大きな影響を与えるなど)、対応するローカル トレンドは比較的弱くなります。上記の 3 つの式のパラメータは、次のテキストで推定されます。

3.2 ベイズ法とMCMC(マルコフモンテカルロ法)

状態方程式(2)の各瞬間の状態シーケンスがモデル内のすべてのパラメータを表していると仮定する。ここで θ を推定します。主な手順は次のとおりです。

  • θの事前分布と初期状態の分布を設定する
  • マルコフ連鎖を構築し、MCMC法を使用して
  • パラメータの事後分布はベイズの式で計算される。

各ステップで使用される方法の簡単な説明は次のとおりです。

1)ベイズ推定: BSTS モデルの主な特徴は、パラメータ推定にベイズ推定を使用することです。つまり、推定前にパラメータ設定の事前分布が与えられ、次にサンプル データに基づいてパラメータの事後分布が与えられます。さまざまなタイプのパラメータに対して、一般的に使用される事前分布がいくつかあります。たとえば、平均には通常正規分布が使用され、分散には逆ガンマ分布が使用され、共分散行列には IW 分布が使用されます。事前分布の設定は、その後のMCMC収束や事後分布の精度にある程度影響を与えることに留意する必要があります。したがって、事前分布をあまり恣意的に設定するわけにはいきません。できるだけ実際のデータに基づいて最も適切な事前分布を導出するか、各事前分布の下での事後分布と尤度関数の値を比較して選択する必要があります。

2) MCMC法:マルコフ連鎖(現在の瞬間の状態値は前の瞬間の状態値にのみ関連し、シーケンスは最終的に安定した分布に収束する特別なシーケンス)を構築して、その最終的な収束した定常状態分布がパラメータの事後分布になるようにします。このプロセスは、ギブスサンプリングによって実装できます。事前分布を設定した後、初期状態から始めて、α を固定し、毎回 θ をサンプリングします。次に、θ を固定して α をサンプリングし、2 つのパラメータセットを徐々に何度も更新して、最終的にマルコフ特性 に従うリンクを形成します。その定常収束の分布は であることが証明できます。ここで、 はすべての観測データを表します。

3)予測値推定:を得た後、分布から(α,θ)をサンプリングし、それを状態空間方程式(1)に代入してyを予測し、 を得るここで、 は時点n以降のyの予測値を表す。

図 3-2: 構造化された時系列データと、その背後にある各状態遷移のプロセスを示します。状態 α には、ローカル トレンド: (ローカル トレンド)、ローカル レベル: (ローカル トレンドの平均)、およびすべての観測データを表す共変量 x が含まれており、状態モデルに従って取得された予測データを表します。の標準偏差をそれぞれ と表します。これらのパラメータは MCMC によって推定されます。

4. モデルの適用とコードの実装

上記では、BSTS モデルと MCMC 法の簡単な理論的導出と結果出力を示しました。主な目的は、観測値 y を予測することです。次に、因果推論シナリオに BSTS モデルを適用する方法を紹介します。

政策の有効性を評価する上で、最も必要なのは、観測対象の「反事実値」、例えば「この広告が掲載されていなかったら、ユーザーの閲覧行動はどうなるだろうか?」です。従来のPSMやSCM方式と比較すると、BSTSは時系列データの有効性を評価する能力に優れています。同時に、ベイズ推定を使用して反事実値yの予測を出力し、予測値の信頼区間を与えることで、反事実値予測の変動性をある程度低減し、効果評価の精度と安定性を向上させることができます。

実際のアプリケーションでは、BSTSモデルはGoogleのオープンソースCausalImpactパッケージを通じて実装することができ、PythonとRの両方で呼び出すことができます。詳細なコード実装については、参考文献[7][8]を参照してください。

図 4-1: コードを実行するときの 3 つのステップ (BSTS モデルのトレーニング、反事実値の予測、効果値の点推定値と信頼区間を含む因果効果値の計算) を示します。

4.1 コードの実装

以下は、シミュレートされたデータを通じてコードを表示するための特定のコマンドです。

 import tensorflow as tf import tensorflow_probability as tfp from causalimpact import CausalImpact # 模型初始化- 自定义时间序列数据: def plot_time_series_components(ci): component_dists = tfp.sts.decompose_by_component(ci.model, ci.observed_time_series, ci.model_samples) num_components = len(component_dists) mu, sig = ci.mu_sig if ci.mu_sig is not None else 0.0, 1.0 for i, (component, component_dist) in enumerate(component_dists.items()): component_mean = component_dist.mean().numpy() component_stddev = component_dist.stddev().numpy() # 自定义观测方程以及真实值y: def plot_forecast_components(ci): component_forecasts = tfp.sts.decompose_forecast_by_component(ci.model, ci.posterior_dist, ci.model_samples) num_components = len(component_forecasts) mu, sig = ci.mu_sig if ci.mu_sig is not None else 0.0, 1.0 for i, (component, component_dist) in enumerate(component_forecasts.items()): component_mean = component_dist.mean().numpy() component_stddev = component_dist.stddev().numpy() # 生成模拟数据,包括一个实验组数据(有干预)以及两条对照组数据(无干预) observed_stddev, observed_initial = (tf.convert_to_tensor(value=1, dtype=tf.float32),tf.convert_to_tensor(value=0., dtype=tf.float32)) level_scale_prior = tfd.LogNormal(loc=tf.math.log(0.05 * observed_stddev), scale=1, name='level_scale_prior') # 设置先验分布initial_state_prior = tfd.MultivariateNormalDiag(loc=observed_initial[..., tf.newaxis], scale_diag=(tf.abs(observed_initial) + observed_stddev)[..., tf.newaxis], name='initial_level_prior') # 设置先验分布ll_ssm = tfp.sts.LocalLevelStateSpaceModel(100, initial_state_prior=initial_state_prior, level_scale=level_scale_prior.sample()) #训练时序模型ll_ssm_sample = np.squeeze(ll_ssm.sample().numpy()) # 整合数据x0 = 100 * np.random.rand(100) # 对照组1 x1 = 90 * np.random.rand(100) # 对照组2 y = 1.2 * x0 + 0.9 * x1 + ll_ssm_sample #生成真实值y y[70:] += 10 #设置干预点data = pd.DataFrame({'x0': x0, 'x1': x1, 'y': y}, columns=['y', 'x0', 'x1'])

図4-2: シミュレーションデータの表示。点線は介入が行われた時点を示し、青い線は介入の対象となった観測データを示し、黄色の線と緑の線は介入の対象とならなかった 2 つのコントロール データ グループを示します。

 # 调用模型: pre_period = [0, 69] #设置干预前的时间窗口post_period = [70, 99] #干预后的窗口ci = CausalImpact(data, pre_period, post_period) #调用CausalImpact # 对于causalImpact的使用我们核心需要填写三个参数:观测数据data、干预前的时间窗口、干预后的时间窗口。 # 输出结果: ci.plot() ci.summary()图4-3:展示CausalImpact输出的结果图,图1表示真实值与模型拟合值的曲线;图2表示每个时刻真实值与预测值的差异;图3表示真实值与预测值的累计差值。表3-1:展示CausalImpact输出的结果表格,量化效应值effect的估计及其置信区间,反映效应值是否具有显著性。107.71表示干预之后实际值的平均;96.25表示干预之后预测值的平均,3.28表示估计的标准差,[89.77,102.64]表示反事实估计的置信区间。11.46表示实际值与预测值的差距,[5.07,17.94]表示差值的置信区间,由于差距的置信区间在0的右侧,表示干预有显著的提升作用。

図4-3: CausalImpactの出力を示す結果グラフ。図1は真値とモデルフィッティング値の曲線を示しています。図2は各瞬間の真値と予測値の差を示しており、オレンジ色の部分は信頼区間を示しています。図3は真値と予測値の累積差を示しています。

表 3-1: CausalImpact によって出力された結果表を表示します。この表は、効果値とその信頼区間を定量化し、効果値が有意であるかどうかを反映します。 107.71は介入後の実際の値の平均を表し、96.25は介入後の予測値の平均を表し、3.28は推定値の標準偏差を表し、[89.77, 102.64]は反事実推定値の信頼区間を表します。 11.46は実測値と予測値の差を表し、[5.07,17.94]は差の信頼区間を表しています。差の信頼区間が0より右側にあることから、介入によって有意な改善効果があることがわかります。

4.2 モデルの検証

モデルフィッティングの結果については、AB 実験と同様の「AA 検証」を実施する必要があります。一般的に、グラフ結果の 2 番目の図を使用して、介入前の真の値と予測値の差の信頼区間に 0 が含まれているかどうかを観察できます。0 が含まれている場合、テストが合格し、モデル適合効果が良好であることを意味します。上の図では、信頼区間にはすべて 0 が含まれており、モデルが適用可能であることを示しています。

4.3 モデルの調整

  • プロセス パラメータ: Tensorflow の分解を使用して、周期性/季節性など、時系列モデル内のさまざまな構造要素を表示できます。
 seasonal_decompose(data)

図 4-4 は、データ生成の背後にある状態要素を示しています。最初のグラフは元のデータの傾向を反映し、2 番目のグラフはローカル傾向要因を反映し、3 番目のグラフは季節要因を反映します。データには季節的な構造と単調な増加傾向があることがわかります。

  • カスタム パラメータ: パラメータの事前分布、反復回数、周期的な時間ウィンドウの長さなどをカスタマイズできます。多くの場合、パラメータの調整は出力結果に影響を与えます。たとえば、事前分布を正しく選択すると結果の精度が向上し、反復回数を増やすと MCMC がより安定して収束します (ただし、モデルの実行時間が長くなる可能性もあります)。最も重要なのは時間ウィンドウの長さの設定であり、これは観測データの周期性を正しく反映する必要があります。年ディメンション データが週単位のサイクルに基づいている場合は、neasnotallow=52 を設定します。日ディメンション データが時間単位のサイクルに基づいている場合は、neasnotallow=24 を設定します。
 CausalImpact(..., model.args = list(niter = 20000, nseasons = 24))

図 4-5 は、CausalImpact パッケージ内の各パラメータの意味とそのデフォルト値を示しています。

  • カスタム時系列モデル: causalImpact パッケージは、デフォルトで BSTS モデルをトレーニングに使用します。他の時系列モデルに変更することもできますが、前提条件として、データが標準化されている必要があります。 (デフォルトの BSTS を使用する場合は正規化する必要はありません)
 from causalimpact.misc import standardize normed_data, _ = standardize(data.astype(np.float32)) #标准化数据obs_data = normed_data.iloc[:70, 0] # 使用tfp中的其他模型来训练时序数据linear_level = tfp.sts.LocalLinearTrend(observed_time_series=obs_data) linear_reg = tfp.sts.LinearRegression(design_matrix=normed_data.iloc[:, 1:].values.reshape(-1, normed_data.shape[1] -1)) model = tfp.sts.Sum([linear_level, linear_reg], observed_time_series=obs_data) # 将自义定时序模型代入CausalImpact包中ci = CausalImpact(data, pre_period, post_period, model=model)

5. ビジネスシナリオの実践

ユーザーマーケティングは、リテンションとコンバージョンを促進するための重要な方法であり、その中でも、特に休暇中のチケット購入のピーク時には、メッセージでユーザーにリーチすることが中核的な手段となります。方法には、サイト内プッシュ、WeChatミニプログラムのサブスクリプションメッセージ、公式アカウントまたは企業のマイクロ環境などがあります。目的には、ユーザーにチケットの購入をリマインドすること、ブランド機能の宣伝、ユーザーのコンバージョンを引き付けるためのクーポンの発行などが含まれますが、これらに限定されません。休暇後に、このマーケティング活動の効果を評価したいと考えています。

これは、AB 実験に適さない典型的なシナリオです。まず、休日はトラフィックのピーク期間であるため、50% のユーザーに厳密に予約されて到達しない場合は、潜在的なコンバージョン ユーザーのグループを失う可能性があります。コントロール グループに少数の人を予約すると、たとえば、コントロール グループ: 実験グループ = 1:9 の場合、その後のコンバージョン比較の科学性に影響します。第二に、休日のプッシュ戦略は多くの場合非常に洗練されており、合計で数十のメッセージがあります。ユーザーにクロスリーチされる可能性があるため、コントロール グループのユーザーの「純粋さ」を保証することは困難です。

さまざまな問題により、従来のAB方式ではプッシュによるコンバージョン効果を評価することが困難です。したがって、この問題を解決するために因果推論を使用することを検討します。一般的なオプションと潜在的な問題は次のとおりです。

  • PSM を使用する場合は、プッシュ受信者と似ているがプッシュされていないユーザーをコントロール グループとして市場から見つける必要があります。ただし、休日にコンテンツをプッシュする場合、通常はフォールバック戦略があり、プラットフォームユーザーの約95%をカバーします。条件を満たしているが、比較のためにプッシュされていない人を見つけるのは困難です。
  • SCM を使用する場合、合成する適切なコントロール グループを見つけるのがより困難になります。例えば、休暇BUのプッシュ効果を評価する場合、各生産ラインのユーザーニーズが異なるため、鉄道、航空券、ホテルなど、さまざまな生産ラインを使用して「仮想休暇BU」を合成できる可能性は低く、このように合成された仮想コントロールグループを使用して休暇注文のコンバージョン率を比較することは科学的ではありません。
  • DID 方式でも同様です。プッシュの前後を比較するために、平行トレンド仮説を満たし、類似のビジネス シナリオを持つコントロール グループを見つけるのは困難です。

要約すると、従来の因果推論方法の中には技術的には実行可能なものもありますが、ビジネス上の解釈可能性に欠けています。さらに、上記の 3 つの方法はいずれも、ユーザーのチケット購入行動の「時間周期性」を考慮していません。そのため、たとえ対照群を合成したとしても、それが必ずしも実験群の真の構造特性と一致するとは限らず、効果値の計算に偏りが生じる可能性があります。そこで、まずユーザーのチケット購入データの周期性を検証することを検討し、周期的なパターンを見つけた後、CausalImpact と組み合わせた BSTS モデルを使用して反事実値を予測しようとしました。次の記事では、2022年ドラゴンボートフェスティバルの列車チケットマーケティングプッシュシナリオを実践として選択します。

図 5-1 は、ドラゴンボートフェスティバル期間中にさまざまな戦略でユーザーにリーチするために使用されるプッシュ通知を示しています。

5.1 データの選択

  • サイクルウィンドウとして時間を使用し、簡単なグラフを通じて、市場で列車のチケットを注文する人の数が時間の経過とともに一定の傾向を示していることがわかります。

図5-2は、端午節期間中(端午節の前後10日間)に1時間当たりに支払った列車切符購入者の数を示しています。

  • 端午節の休日による自然なトラフィック増加を考慮すると、決済数の増加はプッシュに完全に起因するものではありません。そのため、時系列モデルのトレーニングでは、2019年から2021年までの端午節データ(端午節の前後10日間)をすべて選択し、BSTSモデルに入力してトレーニングし、端午節ウィンドウ内の固有の構造状態を取得しました。次に、この構造化モデルを使用して、2022年の端午節データを置き換え、2022年の端午節プッシュ後のコンバージョン数を予測しました。
  • 最後に、実際のコンバージョン数と予測数の差を使用して、このマーケティング プッシュの有効性を反映させます。

5.2 Rコードの実装

# 选取19-22年每年的端午窗口,按照小时划分,共960个数据点y_hour=c(x1,x2,x3,x4) x_time_hour=c(1:960) data_hour <- cbind(y_hour, x_time_hour) pre.period <- c(1, 808) # 2022年的推送发生在第808个时间点,故以此为干预节点。 post.period <- c(809, 960) # nseasnotallow=24, 迭代次数2000,fit the model impact_hour <- CausalImpact(data_hour, pre.period, post.period, model.args = list(niter = 20000, nseasons = 24)) summary(impact_hour) plot(impact_hour)

図 5-3 は、CausalImpact を使用して返される結果グラフを示しています。最初の図は実際の支払者数と予測支払者数を示しています。2 番目の図は実際の値と予測値の差と信頼区間を示しています。3 番目の図は累積差と信頼区間を示しています。

画像は、モデルが AA 検証に合格し、モデルが有効であることを示しています。介入ポイント以降は予測値と比較して実測値が増加しましたが、増加の信頼区間に0が含まれていたため、有意なレベルには達しませんでした。 2022年の端午節マーケティング戦略によりコンバージョン数は増加したが、その効果は大きくなかったことが分かります。

6. この方法の利点と欠点

従来の因果推論方法と比較して、BSTS モデルには 2 つの主な利点があります。

  • データの背後にある構造的特徴を識別し、より優れた予測を行うことができます。
  • ベイズ推定の考え方はパラメータの事後分布を得るために使用され、効果値を計算するときに信頼区間を与えることができます。しかし、ポイント(2)はBSTSモデルにとって「諸刃の剣」です。事前分布が適切に設定されていない場合、MCMCの収束速度と方向、さらには最終的な事後分布にも影響を与えます。したがって、事前分布を選択する際には注意が必要です。

7. メソッドの拡張

この記事で紹介する構造化時系列モデルは、データの周期的な特徴をトレンド項目、季節項目、周期項目などに分割し、各要素を一つずつ探っていきます。さらに、時系列を周期の長さに応じて分割し、長期項目 (大きなスライディング ウィンドウを使用)、短期項目 (小さなスライディング ウィンドウを使用)、季節項目などに分けることができます。これの利点は、いくつかの小さなウィンドウ内の周期的な条件が長周期の情報によって平滑化されることを防ぎ、データの周期的な特性をさまざまな程度でより適切に反映できることです。具体的な方程式は次の形式に分解できます。

これは、異なる時点での状態値を表します。4 つのモジュールは、長期項/短期項/季節項/シリアル相関項 (共変量 X を含む) を表します。各構造モジュールには、平均と標準偏差があります。

図 7-1 は、時系列の背後にある 4 つのモジュールを示しています。上から下に、元のデータ、季節要因、短期サイクル項目、相関項目、長期サイクル項目です。短期的にはデータの変動が顕著ですが、長期的にはデータの変動はそれほど顕著ではありません。そのため、長期データによって平滑化されないように、短期的なデータ構造を考慮する必要があります。

次に、上記の 4 つのモジュールを個別に予測します。長い周期と季節性については、短期間ではあまり変化しないため、対応する方程式で μ と σ を直接使用して予測できます。短い周期の項と相関項については、他の機械学習手法を使用して予測できます。各モジュールの予測結果が得られた後、各モジュールの特徴を組み合わせて全体的な予測結果が得られます。文献[4]では、より具体的な予測方法と従来の方法との比較結果が示されている。

図 7-2 は、長期サイクルと短期サイクルのさまざまな予測方法を示しています。長期サイクルの項と季節項は μ を使用して直接予測できますが、短期サイクルと共変量関連の項はカスタム機械学習モデルを使用して予測されます。

上記の方法で時系列予測モデルを取得したら、それをCausalImpactのコードに置き換え、パラメータモデルをカスタム時系列モデルに調整します。

8. 結論

この記事では、因果推論を使用して時系列データに対するポリシーの効果を評価する方法を紹介します。BSTS の状態空間モデルを使用して反事実値を予測し、CausalImpact のコードを通じて実装します。

他の因果推論法の枠組みとは異なり、本論文の方法は、すべてのハイパーパラメータに対してベイズ推定を行い、その後事後分布に対してMCサンプリングを行って反事実予測値を得る。主な利点は、すべてのコントロールグループと実験グループ自体の構造的特徴を最大限に考慮して、反事実予測値の推定値と信頼区間を与え、効果値の有意性を測定できることである。

同時に、この記事で紹介する方法は、主に構造化された時系列データに焦点を当て、BSTS モデルを使用して観測データの背後にある状態値と状態間の変換を識別し、反事実的予測を行う際に隠れた状態の影響を可能な限り排除します。

BSTS モデルを使用する前に、データが本当に周期的な特徴を持っているかどうか、構造要素は何か (長いサイクルか短いサイクルかなど) を検証し、トレーニングに適した時系列モデルを選択する必要があることに注意してください。同時に、最終的な効果推定が可能な限り科学的で安定したものになるように、パラメータの事前分布も慎重に設定する必要があります。

<<:  登ったり、ジャンプしたり、狭い隙間を通り抜けたり:オープンソースの強化学習戦略により、ロボット犬がパルクールを行えるようになる

>>:  SurroundOcc: サラウンド 3D 占有グリッドの最新技術!

推薦する

...

金融ビジネスイノベーションを実現する自社開発グラフデータベースに基づくナレッジグラフ実装

人工知能の急速な発展に伴い、ナレッジグラフの実装と商業化の可能性は継続的に強化され、社内のデータ分析...

...

SafetyNet: 自動運転における機械学習戦略のための安全な計画アプローチ

[[427712]] 2021年9月28日にarXivにアップロードされた論文「SafetyNet:...

ImageNetに匹敵するこのデータセットは、MITによって腹立たしい理由で緊急に削除されました。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

ChatGPTが新たな著作権紛争に巻き込まれる: ホラー小説作家2人が、訓練のために作品を盗んだとしてOpenAIを訴えた

7月6日、AIモデルのトレーニングデータソースの著作権は常に話題となっていた。以前、マイクロソフトは...

...

人工知能はどれくらい怖いのでしょうか?ホーキング博士はなぜ人々に慎重になってほしいのでしょうか?本当に40%の雇用が失われるのでしょうか?

ビル・ゲイツ氏はまた、現在私たちに安心感を与えている人工知能が、最終的には現実世界に脅威を与える可能...

自己注意メカニズムとは何ですか?

[[241487]]著者: キオン・キムマシンハートが編集参加者: Geek AI、Liu Xia...

プライベート5GとAI技術は自動化から自律性への移行を加速させる

モノのインターネットとインダストリー 4.0 の登場以来、マシン ビジョン、人工知能、機械学習、ディ...

OpenAIはAPIのアップグレードと価格引き下げでメジャーアップデートを実施

6月14日、OpenAIは生成型人工知能の分野での競争上の優位性を維持するため、テキスト生成モデルを...

ディープラーニング:先入観、限界、そして未来

ブログのタイトルに使うには奇妙な言葉だとは思いますが、先日、私が今考えている疑問のいくつかにまさに当...

推薦システムの主なアルゴリズムの概要とYoutubeのディープラーニング推薦アルゴリズムの例

協調フィルタリング協調フィルタリング (CF) とそのバリエーションは、最も一般的に使用される推奨ア...

...