[Zurück]

Titel Mai 2005

Titel:

Peter J. Brockwell, Richard A. Davis; Introduction to Time Series and Forecasting;
Verlag Berlin, Heidelberg, New York 2002; ISBN 0-387-95351-5.
Reihe: Springer Texts in Statistics.
Incl. CD-Rom.

Inhalt:

Preface

1. Introduction

1.1. Examples of Time Series
1.2. Objectives of Time Series Analysis
1.3. Some Simple Time Series Models

1.3.1. Some Zero-Mean Models
1.3.2. Models with Trend and Seasonality
1.3.3. A General Approach to Time Series Modeling
1.4. Stationary Models and the Autocorrelation Function
1.4.1. The SampIe Autocorrelation Function
1.4.2. A Model for the Lake Huron Data
1.5. Estimation and Elimination ofTrend and Seasonal Components
1.5.1. Estimation and Elimination ofTrend in the Absence of
  Seasonality
1.5.2. Estimation and Elimination of Both Trend and Seasonality
1.6. Testing the Estimated Noise Sequence Problems

2. Stationary Processes
2.1. Basic Properties
2.2. Linear Processes
2.3. Introduction to ARMA Processes
2.4. Properties of the SampIe Mean and Autocorrelation Function
2.4.1. Estimation of µ
2.4.2. Estimation of y (.) and p (.)
2.5. Forecasting Stationary Time Series
2.5.1. The Durbin-Levinson Algorithm
2.5.2. The Innovations Algorithm
2.5.3. Prediction of a Stationary Process in Terms of Infinitely Many Past Values
2.6. The Wold Decomposition Problems

3. ARMA Models
3.1. ARMA(p, q) Processes
3.2. The ACF and PACF of an ARMA(p, q) Process
3.2.1. Calculation ofthe ACVF
3.2.2. The Autocorrelation Function
3.2.3. The Partial Autocorrelation Function
3.2.4. Examples
3.3. Forecasting ARMA Processes
Problems

4. Spectral Analysis
4. 1. Spectral Densities
4.2. The Periodogram
4.3. Time-Invariant Linear Filters
4.4. The Spectral Density of an ARMA Process Problems

5. Modeling and Forecasting with ARMA Processes
5.1. Preliminary Estimation
5.1.1. Yule-Walker Estimation
5.1.2. Burg's Algorithm
5.1.3. The Innovations Algorithm
5.1.4. The Hannan-Rissanen Algorithm
5.2. Maximum Likelihood Estimation
5.3. Diagnostic Checking
5.3.1. The Graph of
{Rt = 1, ..., n}
5.3.2. The SampIe ACF of the Residuals
5.3.3. Tests for Randomness of the Residuals
5.4. Forecasting
5.5. Order Selection
5.5.1. The FPE Criterion
5.5.2. The AICC Criterion
Problems

6. Nonstationary and Seasonal Time Series Models
6.1. ARIMA Models for Nonstationary Time Series
6.2. Identification Techniques
6.3. Unit Roots in Time Series Models
6.3.1. Unit Roots in Autoregressions
6.3.2. Unit Roots in Moving Averages
6.4. Forecasting ARlMA Models
6.4.1. The Forecast Function
6.5. Seasonal ARlMA Models
6.5.1. Forecasting SARIMA Processes
6.6. Regression with ARMA Errors
6.6.1. OLS and GLS Estimation
6.6.2. ML Estimation
Problems

7. Multivariate Time Series

7.1. Examples

7.2. Second-Order Properties of Multivariate Time Series

7.3. Estimation of the Mean and Covariance Function

7.3.1. Estimation of µ

7.3.2. Estimation of G(h)

7.3.3. Testing for Independence ofTwo Stationary Time Series

7.3.4. Bartlett's Formula

7.4. Multivariate ARMA Processes

7.4.1. The Covariance Matrix Function of a Causal ARMA Process

7.5. Best Linear Predictors of Second-Order Random Vectors

7.6. Modeling and Forecasting with Multivariate AR Processes

7.6.1. Estimation für Autoregressive Processes Using Whittle's Algorithm

7.6.2. Forecasting Multivariate Autoregressive Processes

7.7. Cointegration

Problems

 

8. State-Space Models

8.1. State-Space Representations

8.2. The Basic Structural Model

8.3. State-Space Representation of ARIMA Models

8.4. The Kalman Recursions

8.5. Estimation For State-Space Models

8.6. State-Space Models with Missing Observations

8.7. The EM AIgorithm

8.8. Generalized State-Space Models

8.8.1. Parameter-Driven Models

8.8.2. Observation-Driven Models

Problems

 

9. Forecasting Techniques

9.1. The ARAR Algorithm

9.1.1. Memory Shortening

9.1.2. Fitting a Subset Autoregression

9.1.3. Forecasting

9.1.4. Application ofthe ARAR Algorithm

9.2. The Holt-Winters Algorithm

9.2.1. The Algorithm

9.2.2. Holt-Winters and ARIMA Forecasting

9.3. The Holt-Winters Seasonal Algorithm

9.3.1. The Algorithm

9.3.2. Holt-Winters Seasonal and ARIMA Forecasting

9.4. Choosing a Forecasting Algorithm

Problems

 

10. Further Topics

10.1. Transfer Function Models

10.1.1. Prediction Based on a Transfer Function Model

10.2. Intervention Analysis

10.3. Nonlinear Models

10.3.1. Deviations from Linearity

10.3.2. Chaotic Deterministic Sequences

10.3.3. Distinguishing Between White Noise and iid Sequences

10.3.4. Three Useful Classes of Nonlinear Models

10.3.5. Modeling Volatility

10.4. Continuous- Time Models

10.5. Long-Memory Models

Problems

 

A. Random Variables and Probability Distributions

A.1. Distribution Functions and Expectation

A.2. Random Vectors

A.3. The Multivariate Normal Distribution Problems

 

B. Statistical Complements

B.I. Least Squares Estimation

B.I.I. The Gauss-Markov Theorem

B.1.2. Genera1ized Least Squares

B .2. Maximum Likelihood Estimation

B.2.I. Properties ofMaximum Likelihood Estimators

B.3. Confidence Intervals

B.3.I. Large-Sample Confidence Regions

BA. Hypothesis Testing

BA.I. Error Probabilities

BA.2. Large-Sample Tests Based on Confidence Regions

 

C. Mean Square Convergence

C.1. The Cauchy Criterion

 

D. An ITSM Tutorial
D.I. Getting Started

D.1.1. Running ITSM

D.2. Preparing Your Data for Modeling

D.2.I. Entering Data

D.2.2. Information

D.2.3. Filing Data

D.2A. Plotting Data

D.2.5. Transforming Data

D.3. Finding a Model for Your Data

D.3.I. Autofit

D.3.2. The SampIe ACF and PACF

D.3.3. Entering a Model

D.3A. Preliminary Estimation

D.3.5. The AICC Statistic

D.3.6. Changing Your Model

D.3.7. Maximum Likelihood Estimation

D.3.8. Optimization Results

DA. Testing Your Model

DA.I. Plotting the Residuals

DA.2. ACF/PACF of the Residuals

DA.3. Testing for Randomness of the Residuals

D.5. Prediction

D.5 .1. Forecast Criteria

D.5.2. Forecast Results

D.6. Model Properties

D.6.l. ARMA Models

D.6.2. Model ACF, PACF

D.6.3. Model Representations

D.6.4. Generating Realizations of a Random Series

D.6.5. Spectral Properties

D.7. Multivariate Time Series

References

Index

 

Kurzreferenz:

Zunächst wird die Betrachtung einer Zeitreihe als Familie von Zufallsvariablen erklärt. Eine konkrete

Beobachtungsreihe ist dann eine entsprechende Realisierung. Während ältere einführende Lehrbücher

meist von der Beobachtungsreihe ausgehen, wird hier konsequent der zugrundeliegende Zufallsprozeß

in den Vordergrund gestellt.

 

Beispielhaft werden zunächst wichtige Prozesse, wie unabhängiges identisch verteiltes Rauschen (IID

Noise) und weißes Rauschen (White Noise) erklärt, welche die Ausgangsbasis für andere wichtige

Prozesse darstellen. Als nächstes werden die wichtigen Begriffe der Autokovarianz und der Auto-

korrelation, sowie der Begriff der Stationarität erläutert. Leider wird in Kapitel 1.5 keine ausführ-

liche Begründung der dort angegebenen Schätzmethoden angegeben. Stattdessen wird auf den wei-

teren Band Brockwell, Davis; Time Series: Theory and Methods, verwiesen. Dies ist einigermaßen

unangenehm, da man das Gefühl hat, es wird einem etwas wichtiges vorenthalten, so daß man ge-

zwungen ist, auch diesen Band zu kaufen (s. unten [1] ).

 

In Kapitel zwei werden die Grundeigenschaften der Autokorrelationsfunktion und des (stark) statio-

nären Prozesses angeführt. Es erfolgt ein einführendes Studium der Moving-Average Prozesse, sowie

der autoregressiven und der autoregressive moving-average Prozesse (ARMA). Es wird gezeigt,

wie die Autokovarianzfunktion und der Autokorrelationsfunktion durch die entsprechenden Stichpro-

benfunktionen geschätzt werden können.

 

In Kapitel drei werden einfache Vorhersagemodelle, insbesondere Vorhersagen in Bezug auf den

ARMA Prozess besprochen. Dabei werden die wichtigen Begriffe Kausalität und Invertierbarkeit

erläutert, sowie die Bedingungen für die Existenz einer Lösung für den ARMA(p,q) Prozess aufge-

zeigt.

 

In den folgenden Kapiteln werden verschiedene Schätzer für die Koeffizienten, sowie die Ord-

nungen besprochen. Unter anderem sind dies Yule-Walker Schätzer für die Kovarianzen eines

ARMA-Prozesses, die Likelihood-Funktion für Gauss-Prozesse. Weitere Themen sind diejeni-

gen Prozesse, die nach mehrfacher Anwendung des Differenzen-Operators einen ARMA-Prozess

darstellen (ARIMA), saisonale ARMA-Prozesse (SARMA). Des weiteren werden multivariate

Prozesse und zugehörige Schätzer dargestellt.

 

Lesbarkeit:

Die Darstellung folgt nahezu ausschließlich dem Prinzip der Betrachtung der Zeitreihe vom Begriff

des Zufallsprozesses her. Der Text ist durchweg gut lesbar, enthält jedoch eine für eine Einführung

vergleichsweise ungeheure Fülle von Information. Unangenehm ist die Tatsache, daß einige (wenige)

Male im Text auf den mehr theoretischen Band 'Time Series: Theory and Methods' der beiden Au-

toren verwiesen wird ([1]). Man ist gezwungen, sich diesen Band zu beschaffen, wenn man die In-

formation nachlesen will.

 

Dies ist umso verwunderlicher, da die Autoren glaubten, die grundlegenden Begriffe der Stochastik,

wie Verteilungsfunktion, Mittelwert, Varianz etc.in einen Anhang darlegen zu müssen. Dies steht aber

in jedem vernünftigen Lehrbuch über Wahrscheinlichkeitsrechnung, das einer sowieso schon hat, wenn

er sich an solche Lektüre, wie das vorliegende Buch macht. Man hätte besser diesen Raum benutzt,

um Verweise auf ein anderes Buch (das auch noch von denselben Autoren stammt!) zu vermeiden.

Zum Buch gehört eine CD-Rom mit dem Programm ITSM in einer Student version, die einige wenige

Restriktionen besitzt. So können nur bis zu drei Projekte gleichzeitig geöffnet werden, und die Zeit-

reihen können maximal 250 Werte umfassen. Dies genügt sogar für manchen professionellen Einsatz.

Auf die beigefügten Beispiel-Files wird im Text ständig verwiesen, so daß die Autoren wohl davon

ausgehen, daß wer sich mit ihrem Buch befaßt, auch einen Computer hat. Die Funktionalität des Pro-

gramms ist umfassend, der Gebrauch wird in einem Anhang ausführlich erklärt. Ein Update auf das

reguläre Programm ist über die Autoren erhältlich.

 

Das Buch ist absolut empfehlenswert, ist jedoch nur zusammen mit seinem Schwester-Band [1] eine

wirklich runde Sache.

 

Zielgruppe:

 

Mathematiker, Statistiker, Soziologen, Volkswirtschaftler und Bankfachleute. Studenten der Mathe-

matik und Statistik. Fachfremde Wissenschaftler, die sich intensiv mit den neueren Methoden der

Zeitreihenanalyse befassen wollen, werden kaum um dieses Buch herum kommen. Mathematiker

werden eher nur mit beiden Bänden vollkommen zufrieden sein.

 

Beide Bücher wurden vom Verlag im Jahr 2005 im Zuge einer Verkaufsaktion verbilligt angeboten.

Wer nicht zugegriffen hat, ist fast zu bedauern.

 

Weitere Bücher zum Themenkreis:

Es gibt eine Fülle von Büchern zu diesem Thema. Hier eine Auswahl.

 

[1] P. J. Brockwell, R. A. Davis; Time Series: Theory and Methods; Springer 1991;

ISBN 0-387-97429-6. [Companion-Band. Mehr theoretisch. Wird hier demnächst besprochen]

 

[2] Ulf Grenander, Murray Rosenblatt; Statistical Analysis of Stationary Time Series; Chelsea;

ISBN 0-8284-0320-1. [Klassiker zu diesem Thema]

 

[3] Christopher Chatfield; Analyse von Zeitreihen; Carl Hanser Verlag (deutsche Lizenzausgabe) 1982;

ISBN 3-446-13597-9. [Gute Einführung. Breiten Raum nimmt die Darstellung der beschreibenden

Techniken ein].

 

[4] Bernd Leiner; Einführung in die Zeitreihenanalyse; Oldenbourg 1991; ISBN 3-486-21906-5.

[Das Buch wendet sich vor allem an angehende Wirtschaftswissenschaftler und praktizierende

Ökonomen, wie der Autor im Vorwort betont. Siehe auch Buchbesprechung des Folgemonats!]

 

[5] Helmut Lütkepohl; Introduction to Multiple Time Series Analysis; Springer 1993;

ISBN 3-540-56940-5. [Ausführliche Darstellung auf über 500 Seiten, was im hier besprochenen

Titel in Kapitel 7 behandelt wird]

 

[6] Murray Rosenblatt; Stationary Sequences and Random Fields; Birkhäuser 1985;

ISBN 3-7643-3264-6. [Umfaßt auch Grenzwertbetrachtungen und asymptotische Abschätzungen]