Chapter 2-3. 基礎時系列分析
この章では、時系列分析でよく出てくる用語と知っておくべき概念を簡単にまとめてみたい。
確率過程(Stochastic Process)
確率過程は確率変数の数列である。つまり、{Y(t)、t = 0、±1、±2、…}の形で表すことができ、時系列データを理解するには、Y(t)の結合確率分布を分析する必要があります。なぜなら、一般的な時系列データは独立ではないので、結合確率分布を各確率変数の分布に分解することができないからである。しかし、平均と分散を分析すると、結合確率分布の多くの部分を理解することができます。
平均、分散、共分散、相関係数
前の章1.基礎線形代数と統計学で簡単に紹介した概念を数式で調べましょう。平均分散は、その時点の確率変数の平均分散です。
共分散、相関係数は、他の時点の確率変数との関連性を表します。
そして、次の2つの式は時系列の相関性を分析する際によく使われるのでよく知っておきましょう。
ホワイトノイズ
白色雑音過程は、何のパターンもなく、ランダムに振動する確率過程である。すなわち、以下を満たす確率過程である。開発したモデルが正しくモデル化されているかどうかを分析するときは、残差がホワイトノイズに従うことを確認する必要があります。もはやモデルに追加すべきパターンがデータにないという意味だからだ。
上記の式でiidとは、identical and independentの略で、white noise同士は独立しており(互いに線形/非線形的な関係がない)、互いに同じ分布に従うことを意味する。

白色雑音過程の平均、分散、共分散は次の通りである。 平均と分散は各時点で一定であり、共分散はゼロであることがわかります。.
実際にグラフを見ても、ほとんどのデータはゼロ付近の値を持っています。 分散度一定で値が変動しても一定値内で振動する。
Random Walk
Random Walkは、現在の視点データは、以前の視点データに現在のランダム誤差が加わって生成されたと判断されたときに使用できる確率過程である。 つまり、次の2つの式と同じです。
ランダムウォークプロセスの平均、分散、共分散は次のとおりです。
式を解釈すると平均はゼロに一定であり、分散は時点tが大きくなるほど大きくなる。 そして、視差が小さいほど高い線形相関を示すが、大きくなるほど相関は低くなる。 実際に下のグラフを見ると、視点が1000になるほど分散が大きくなり平均である0から遠くなることが分かる。 後に学ぶが、Random Walkは異常時系列だ。
.png)
時系列データの特徴
정상성(Stationarity)
正常性は時系列分析における重要な概念です。データが正常性を満たさない場合、時系列は異常時系列(Non-Stationary Time Series)になり、時系列分析を実行できません。正常性を満たさないデータは、正常性を満たすように前処理しなければ分析を行うことができない。正常性の概念は大きく2つあります。最初はStrict Stationarityです。Strict Stationarityの定義は次のとおりです。
視差 k と視点
をどのように選択しても、結合確率分布が常に一定でなければならないという意味である。そうして観測された部分時系列だけを利用して全体確率過程に対する推論ができるからだ。しかし、strict stationarityを見ることは容易ではないので、これに似ていますが、数学的に弱くなったweak stationarity仮定ができました。Weak stationarityは、次の2つの条件を満たすと成立します。
平均が一定で、共分散が時差のみに依存すると、weak stationarity時系列です。 一般的に言うstationarityはweak stationarityを意味する。 代表的な正常時系列は白い雑音プロセスである。
トレンドと季節性、サイクル
トレンドは、時系列が短期的または長期的に見える傾向を意味し、季節性は一定の頻度を持ち、繰り返し表示されるパターンを意味します。 一方、周期とは、一定の頻度を持たずに繰り返し現れるパターンを意味する。 アイスクリームの販売量のような場合は、一般的に夏に高く冬に低くなるので、1年間隔の季節性と見なすことができる。 一方、景気循環は繰り返されますが、好況と不況は一定の間隔を持たず、周期と見なすことができます。 時系列は、トレンド、季節性、周期、ランダムノイズの合計として見るか、それぞれに分解できます。
XAIOpsの長期負荷予測モデルは、単一のモデルを使用せず、時系列を各成分に分解し、各成分ごとにモデルを作成して予測後に再統合する方式を使用しています。 各成分を予測する際に回帰分析や時系列モデルを活用して進めてもよい。
正常時系列(Stationary Time Series)
移動平均コース(Moving Average Process)
現在の誤差が過去の誤差と相関している場合、以下の移動平均過程でモデル化することができる。
qが1、2、そして一般化されたkのときにどのような特徴を持つかを見てみましょう。
q=1であればモデル化でき、MA(1)確率過程の特徴は次の通りである。ここで共分散、相関係数はk = 1の場合にのみ成立し、その他の場合にはすべて0である。
一次移動平均過程は平均がゼロに一定であり、共分散が時点によって変わらないので正常確率過程である。そして時差が1の場合には線形相関があり、それ以降はない。
平均がゼロの理由は確率変数
確率コース{
平均を引いたものと仮定するからです。
q = 2の場合
でモデル化でき、確率過程の特徴は以下の通りである。
二次移動平均過程MA(2)も平均が0で一定であり、共分散が時点に依存しないため、正常確率過程である。 ただし、以前とは異なり、時差が2の場合でも線形相関があり、それ以降はない。
q = kの場合を推測してみましょう。 平均がゼロで、共分散は時点に依存しないため、通常の確率プロセスです。 そして時差がkの場合までは線形相関があり、k以降からはないと推測できる。 q=kであるMA(K)確率過程の特徴は次の通りである。 証明は上記の方法と同様に進めばよい。
.png)
자기 회귀 과정(Auto Regressive Process)
自己回帰プロセスは、現在の値が過去のp時点以前のデータの影響を受けると判断されたときに使用できます。式で表現すると、次のようになります。
一次自己回帰プロセスを見てみましょう。は白色雑音過程であり、現時点の誤差は過去データと独立であると仮定する。p = 1の場合は次のとおりです。
AR(1)確率過程の特徴は次の通りである。
移動平均過程と異なり、自己回帰過程では視差が1より大きくなっても自己相関があることが分かる。そして移動平均過程とは異なり、自己回帰過程は特定の条件を満たさなければ正常性を満足する。式を再帰的に無限に使用すると、現在の値は過去の時点の誤差の加重です。
上記の式は線形確率過程(General Linear Process)であり、
が収束しなければ正常確率過程になることが知られている。この式を満たす範囲は
である。そうでなければ、最新のデータよりも過去の視点データの重みが大きく、論理的に妥当でないモデルになるからである。
AR(2)の場合
という3つの式をすべて満足しなければ正常時系列となり、3次以上は複雑で省略する。
.png)
ARモデルのような場合は、過去の視点の値が現在の視点に連鎖的に影響を与えるため、特定の視点値間の相関を測定するには、中間視点の影響力を排除して比較する必要があります。これを測定した関数が部分自己相関関数である。部分自己相関関数
は次の通りです。
つまり、中間時点の値は与えられた値として報告されます
と
間のばらつきだけ計算したのだ。
を計算する具体的に計算する方法は次のとおりです。
線形回帰分析を使用してY_tに影響を与える
の影響力を排除し、
秋
に及ぼす影響力を取り除き、
と
の相関だ。AR(1)モデルとMA(1)モデルの部分自己相関関数はそれぞれ次の通りである。
と仮定する。
自己相関関数はARモデルが少しずつ減少し、MAモデルはq時差が過ぎると全部0であった。逆に、部分自己相関関数は、ARモデルがp視差が過ぎると全部0であるが、MAモデルは少しずつ減る。
可逆性(invertibility)
ARモデルは、MAモデルの次数を無限に増やした確率過程と見なすことができる。逆にMAモデルもARモデル形態で表すことができれば、MAモデルが可逆的であると言う。
を再帰的に使うと、次のようになる。
AR形態で解くと、次の通りである。
可逆性を満たすには、-1 <
< 1 でなければならない。そうでなければ、最新の観測値が過去の観測値よりも小さい重みを持つことになるからです。
自己回帰移動平均(Auto Regressive Moving Average)プロセス
自己回帰移動平均過程は、自己回帰過程と移動平均過程の組み合わせでデータを説明するものである。各過程の次数に応じてARMA(p、q)と表現する。ARMA(1、1)のプロセスは次のとおりです。
ARMA(1、1)の自己相関関数はϕ、θに依存し、ARのようにϕに従って徐々に減少することがわかり、正常性を満たす条件は−1<
< 1 です。
ARMA (p、q)は通常、正常性と可逆性を満たす必要があります。
異常(Non-Stationarity)時系列
時系列データが常に正常性を満たすわけではありません。異常時系列はどのような特徴を持ち、どのように前処理しモデリングするか調べてみよう。
AR(1)の過程で正常性を満たすためには、-1 <ϕ < 1でなければなりません。これを満たさない場合はどうなるか確認してみましょう。異常AR(1)コース
を考えてみましょう。式を再帰的に解いてみると、次のようになる。
現在の値は過去の誤差の加重和ですが、過去の時点の誤差が現在の値に大きな影響を与え、時系列は発散します。
の特性は次の通りである。
と仮定しましょう。
時間が経つにつれて分散がますます大きくなることがわかり、kがある程度大きくなっても自己相関が1に近い値であることが分かる。もし
この場合、すでに述べたランダムウォークプロセスとなる。
差分(Differencing)
差分は、異常時系列を正常時系列にする方法の一つである。時系列
形で作られたとしましょう。
はランダムウォーク
に影響を受ける異常時系列だ。一次落ち着いた時系列
は次の通りです。
時系列
のAuto Correlationは
として計算されます。相関が視点に依存しないので、落ち着くと正常時系列になることがわかる。
過大差分(Over-differencing)
差分をすれば正常時系列にすることができるが、必要以上の差分をすることになるとモデルに問題を起こすことになる。Random Walk モデル
を考えてみましょう。
Random Walkモデルを一次落ち着いた
はホワイトノイズとなって正常時系列である。Random Walk を二次差分すると
形態の一次移動平均過程となる。一次差分で正常性を既に満足しているので、あえて差分をもう一度する必要はない。二次差分をすると、むしろ不要な移動平均モデルのパラメータを推定しなければならず、移動平均モデルの可逆性が崩れることもある。差分は通常1回、最大2回程度で十分です。
自己回帰累積移動平均(ARIMA)モデル
d回の落ち着いた時系列がARMA(p、q)に従うと、元の時系列はARMA(p、d、q)に従うことになります。
と書くことができる。
予測(Forecasting)
現在時点tからp時点後の予測値
(p)は次のように定義できます。
条件付きコメント値を使う理由は、数学的に予測誤差を最も最小化するからだ。確率過程は様々な経路を見せることができ、過去の値は複数の経路の一つが実現されたものなので、それ自体に情報があると見ることができる。この情報を使用して将来を予測することは直感的にも妥当です。再帰的に予測値を求めて目標時点の予測値を計算する。
AR(1)
これから
の平均がゼロではないとしましょう。もしそうなら、
を書くと次のようになる。上で紹介したAR(1)過程の平均は0と仮定したからである。
を予測する必要があるので、
と書くことができる。条件付コメント値を求めると次のようになる。
が与えられたため、中間の条件付見解値は定数となり、将来の誤差は過去の値と独立であると仮定したからである。
一般化すると、
になる。再帰的に計算すると、
は次の通りです。
AR(1) の stationary condition は -1 <
<1であるので、AR(1)の予測値は長期的に平均に収束することがわかる。
MA(1)
が移動平均過程であれば、次の通りである。
を求めてみましょう。
移動平均プロセスが可逆的であれば、
は
で表現されるので定数のように扱われる。したがって、
は次の通りです。
を求めてみましょう。
移動平均過程はpが1より大きい場合、予測値は常に平均値となる。
ARMA(p, q)
ARMA(p,q) モデルは長期的には確率過程の平均
に収束する。他にも季節性を反映した模型、条件付き二分散模型など多様な模型がある。そのモデルが捕捉しようとしているパターンを理解するときは、上記の知識が基本的な構成要素になるので、熟知してください。
次の章では、本格的に機械学習(Machine Learning)が何であるかを勉強してみましょう。機械学習の定義について学び、いくつかのアルゴリズムのトレーニングコースを勉強し、実践をしましょう。