Vol.2 No.1 2009
7/94
研究論文:大規模データからの日常生活行動予測モデリング(本村)−4−Synthesiology Vol.2 No.1(2009)データから決定したいことがある。構造の学習はグラフ構造をある初期状態から探索するものになる。グラフ構造の良さをはかる評価規準としては、尤度の他にAICやBIC、 MDLなどの情報量規準が用いられる。グラフのノード数が大きくなると探索空間は爆発的に増大し、グラフ構造を全て探索することは計算量の点から困難になるため、欲張り法(Greedy algorithm)や各種のヒューリスティックを使い準最適な構造を探索することが必要となる。こうしたグラフ構造の学習アルゴリズムとしてK-2アルゴリズム[5]がある。これは(i)各ノードについて親ノードになりえる候補を限定しておく、(ii)ある子ノードを一つ選び、候補となる親ノードを一つずつ加えてグラフを作る、(iii)そのグラフのもとでパラメータを決定し、評価する、(iv)評価が高くなった時だけ親ノードとして採用し、(v)親ノードとして加える候補がなくなるか、加えても評価が高くならなくなったら他の子ノードへ移る、(vi)全ての子ノードについて(i)-(v)を繰り返す、という探索アルゴリズムである。一般的には親の探索空間は組み合わせ的に大きくなるので、始めにノードを順序づけして候補となる親ノードの組合せを限定して計算量の増大を避ける工夫が必要になる。またグラフの探索部分(ii)、(v)とモデルの評価部分(iii)をそれぞれ独立に考えることで様々な学習方法が考えられる。ベイジアンネットを用いることで大量のデータから非決定的なモデルを統計的学習によって構築するアプローチの有効性が期待できる。しかし因果的構造を統計データだけから求めることは本質的に困難であり、またグラフ構造の探索問題はNP困難である。そこで実際には変数候補や探索範囲の限定などを巧妙に行うことや適切な潜在変数の導入も必要である。3.4 確率推論グラフ構造を持つモデルは他にもあるが、その多くはデータを説明するグラフ構造を可視化するために用いられることが多い。一方、ベイジアンネットは離散確率変数と条件付確率表で構成されていることにより、モデルの中の任意の確率変数の確率分布推定を行う確率推論のアルゴリズムを非常に効率良く実行することができる。これが他のグラフィカルモデルにはない大きな特長であり、知的な学習システムを現実的な計算量で動作させるために重要な性質である。ベイジアンネットの上の確率的推論は、i)観測された変数の値(e)をノードにセットする、ii)親ノードも観測値も持たないノードに事前確率分布を与えておく、iii)知りたい対象の変数(X)の事後確率分布P(X¦e)を計算する、という手順で行なわれる。iii)における事後確率を求めるために、変数間の依存関係にしたがって各変数の確率分布を更新していく確率伝搬法が用いられる。ベイジアンネットのリンクの向きを考慮しないグラフ構造内の全てのパスがループを持たない時、そのベイジアンネットはsingly connected なネットワークと呼ばれる。この場合には、親ノード、子ノードが複数存在するような構造のネットワークでも、条件付独立性の性質を使うことで、各ノードについて上流からの伝搬、下流からの伝搬、上流への伝搬、下流への伝搬の4種についての確率伝搬計算を行なうことで計算は完了する(図2)。この計算量はネットワークのサイズ(リンク数)に対して線形オーダで済み、計算効率は非常に高い。リンクの向きを考慮しないでネットワークを見たときに、どこか一つでもパスがループしている部分がある時、このベイジアンネットはmultiply connectedと呼ばれる。この場合には厳密解となる保証はないが、近似解法として確率伝搬法を適用することができ、LooyBP法と呼ばれている。4 ユーザのモデリング情報システムとユーザが対話的に処理を進めるということは、その情報システムは部分であって、動作主体としてのシステム全体としては、情報システムとそのユーザ、さらにそれらをとりまく環境や状況まで含めて考えなければならない。したがって制御対象としてのシステム全体をみると人間の行動や反応も計算対象の一部として考えるべきである。そこでユーザがある状況下では何を要求しており、またシステムの出力結果を得てどのように反応するのか、などを評価したい。そこでこうしたユーザの認知的な状態をシステム内で計算可能なモデル、ユーザモデルとして記述し、取り扱うことが必要となる。機械学習の発展により機械(プログラム)がデータにより学習する、つまりモデルはデータによって構築され、逐次的に修正されるというアプローチが可能となった。機械学習におけるモデル構築は、統計的検定を情報量規準による自動的なモデル選択として繰り返し実行し、最適なモデルを結果としている。すなわち、統計的に有意なモデルを広範な探索空間の中から機械学習により選んでいるわけで図2 確率伝搬法Xへの入力Xからの出力Xへの入力Xからの出力Y1YjUiU1Xπ( )Xλ ( )YXXλ ( )XUuπ ( )XYXπ ( )UXuλ( )X.)()|()()(,)()()(,)()(,)()|()().()()Pr(ikkUkXikxXUijkYkXXYjYjYjXUiUiXuuUxPxuxxxxxUiuUXPxxxxX
元のページ