Multi-task Causal Learning with Gaussian Processes
イントロ
- 意思決定において介入実験が重要
- 図1のように収穫量 \(Y\)は肥料 \(X\), 異なる時刻における虫の率 \(Z=\{Z_1,Z_2,Z_3\}\)で決まる
- 実験を繰り返すことでintervention functionを学習する
- ナイーブにはintervention functionを各々モデル化することができる
- しかしこのアプローチは実験ごとの出力間の相関を考慮できない
- intervention functionは相関している
- 例えばintervention set \({X, Z_1}\)について実験をした場合, \(X\)もしくは \({X, Z_1, Z_2, Z_3}\)を変化させた場合の情報も得られる
- 因果推論とマルチタスクラーニングを組み合わせたフレームワークを提案
- 確率的因果推論では実験が難しい時にd分離を使って介入効果の推定をする
- do演算子を用いた定式化では各々のintervention functionを独立に扱う
- Multi-task GPは出力同士の相関をモデル化するのに使われる
提案手法
- 確率的構造方程式モデルでは内生変数 \(v\), 外生変数 \(u\), (決定的)関数 \(f\), 外生変数の分布 \(p(u)\)の4つの変数がある
- 関数\(f\)と分布\(p(u)\)から分布\(p(v)\)が決まる
- intervention functionsを\({\bf T}\)と置く
- 独立な外生変数 \({\bf U}\)とその分布 \(P({\bf U})\), 観測された外生変数 \({\bf V}\)からなるSCMを考える
- 観測された外生変数 \({\bf V}\)の一部がtreatment variables \(X\), 残りが出力 \(Y\)
- \(y\)を \(x\)で回帰する \({\bf T}\)を学習
- \(t_s({\bf x})=L_s(f)({\bf x})\)となる積分演算子 \(L_s\)を用いて \({\bf T}\)を記述
- 各実験の出力間の潜在的構造を特徴付け, 各々の介入に対して\(f\)と \(L_s\)の両方を書き下す
- \(f\)の事前分布としてGPを課し, \({\bf T}\)の複数要素の同時分布を解析的に解けるようにする
- 事前分布は因果関係を考慮し観測変数, 介入変数についての積分を取ることができる