[Zurück]

Titel März 2005

 

Titel:

Bernard Flury; A First Course in Multivariate Statistics; Springer Texts in Statistics; Springer 1997; ISBN 0-387-98206-X.

 

Inhalt:

Preface

 

Software and Data Files

 

1. Why Multivarate Statistics?

 

Exercises for Chapter 1

 

2. Joint Distribution of Several Random Variables

2.1 Introductory Remarks

2.2 Probability Density Function and Distribution Function of a Bivariate Random Variable

2.3 Marginal Distributions

2.4 Independence of Random Variables

2.5 Expected Values, Moments, Covariance, and Correlation

2.6 Conditional Distributions

2.7 Conditional Expectation and Regression

2.8 Mixed Discrete-Continuous Distributions and Finite Mixtures

2.9 Sums of Random Variables

2.10 Notions and Concepts of p-variate Distributions

2.11 Transformations of Random Vectors

 

3. The Multivariate Normal Distribution

3.1 Review of the Univariate Normal Distribution

3.2 Definition and Properties of the Multivariate Normal Distribution

3.3 Further Properties of the Multivariate Normal Distribution

3.4 Spherical and Elliptical Distributions

 

4. Parameter Estimation

4.1 Introduction

4.2 Plug-in Estimators

4.3 Maximum Likelihood Estimation

4.4 Maximum Likelihood Estimation with Incomplete Data

 

5. Discrimination and Classification, Round 1

5.1 Introduction

5.2 Standard Distance and the Linear Discriminant Function

5.3 Using the Linear Discrimininant Function

5.4 Normal Theory Linear Discrimination

5.5 Error Rates

5.6 Linear Discriminant Functions and Conditional Means

 

6. Statistical Inference for Means

6.1 Introduction

6.2 The One-Sample T²-Test

6.3 Confidence Regions for Mean Vectors

6.4 The Two-Sample T²-Test

6.5 Inference for Discriminant Function Coefficients

6.6 Union-Intersection and Likelihood Ratio Testing

6.7 Resampling-Based Testing

 

7. Discrimination and Classification, Round 2

7.1 Optimal Classification

7.2 Normal Theory Classification Revisited: Linear vs Quadratic

7.3 Canonical Disciminant Functions

7.4 Multivariate Analysis of Variance

7.5 Simple Logistic Regression

7.6 Multiple Logistic Regression

 

8. Linear Principal Component Analysis

8.1 Introduction

8.2 Self-Consistent Approximation

8.3 Self-Consistent Projections and Orthogonal Least Squares

8.4 Properties of Linear Principal Components

8.5 Applications

8.6 Sampling Properties

8.7 Outlook

 

9. Normal Mixtures

9.1 Introduction

9.2 Maximum Likelihood Estimation

9.3 The four Normal Mixtures

9.4 Examples

9.5 Epilogue: Normal Theory Discrimiation with Partially

Classified Data.

 

Appendix: Selected Results from Matrix Algebra

A.0 Preliminaries

A.1 Partitioned Matrices

A.2 Positive Definite Matrices

A.3 The Cholesky Decomposition

A.4 Vector and Matrix Differentiation

A.5 Eigenvectors and Eigenvalues

A.6 Spectral Decomposition of Symmetric Matrices

A.7 The Square Root of a Positive Definite Symmetric Matrix

A.8 Orthogonal Projections on Lines and Planes

A.9 Simultaneous Decomposition of Two Symmetric Matrices

 

Bibliography

Index

 

Kurzreferenz:

In einem einleitenden Kapitel legt der Autor dar, wozu Multivariate Statistik dient und - anhand ein-

zelner Beispiele - welche Anwendungen man erwarten kann. Hier erscheinen auch bereits auf den

ersten Seiten die berühmten Flury-Riedwyl faces zur Darstellung Multivariater Variablen. Der Autor

bespricht dann in den folgenden beiden Kapiteln sehr ausführlich den Umgang mit Verteilungsfunk-

tionen, bei der Normalverteilung dabei ausgehend von univariaten Verteilungen.

 

In Kapitel 4 beleuchtet der Autor die wichtigsten Aspekte der Schätztheorie. Hierin erläutert er

auch das Prinzip der von ihm so genannten 'Plug-in-Estimators', und warum sie so wichtig und erfolg-

reich sind. Plug-in-Estimtors sind dabei die Größen der Stichprobe, die der Größe der Grundgesamt-

heit entsprechen, die man schätzen will (Mittelwert der Stichprobe entsprechend dem Mittelwert der

Grundgesamtheit).

 

In den Kapiteln 5 bis 7 werden die Grundzüge der Diskriminanzanalyse dargestellt. Dabei hält der

Autor ein recht moderates Niveau mit ausführlicher Darstellung ein. Dies ist auch seine Absicht,

wie er schon zu Beginn der Einleitung zu Kapitel 5 herausstellt. Er streift aber auch die dazugehöri-

gen Gebiete Logistische Regression und Multivariate Varianzanalyse.

 

Kapitel 8 führt in die Theorie der Hauptkomponentenanalyse ein. Hierbei verfolgt der Autor den

ursprünglichen, auf Pearson zurückgehenden Ansatz der Approximation. Dies wird im Abschnitt

8.2 (Self-Consistent Approximations) besonders deutlich. Auch hier wieder, wie in den anderen

Kapiteln auch, führt der Autor durch einleitende Betrachtung von Beispielen in die Problematik ein.

Kapitel 9 schließlich ist dem noch relativ neuen Gebiet der Mischungen gewidmet. Hier werden Ge-

samtheiten betrachtet, die aus Mischungen anderer (reiner) Gesamtheiten bestehen. Z.B. Verteilungen,

die aus zwei normalverteilten Komponenten bestehen.

 

In den meisten Abschnitten sind Aufgaben am Ende eingearbeitet, auch wenn diese im Inhaltsver-

zeichnis nicht erwähnt ist. Zudem findet der Leser Literaturhinweise für die einzelnen Kapitel, die

über den dargestellten Stoff hinausgehen.

 

Lesbarkeit:

Das Buch ist ganz im Stile jener einführenden Lehrbücher geschrieben, die den Stoff darstellen wollen,

ohne dem Leser allzu viel zuzumuten. Der Autor bleibt dabei keinesfalls oberflächlich, im Gegenteil er-

reicht er manchen Tiefgang. Dabei legt er aber ein recht gemächliches Tempo vor, und scheint den

Leser vor schwierigen Auseinandersetzungen mit den Sachinhalten geradezu bewahren zu wollen. So

wird zum Beispiel der Ausdruck für die Dichte der Normalverteilung eines zwei(!)-dimensionalen Zu-

fallsvektors auf Seite 30 als 'frightening formula' bezeichnet.

 

Dies hat den enormen Vorteil, daß man solche Bücher zurückgelehnt im Sessel lesen kann, d.h. ohne

sich ständig nebenher Notizen zum besseren Verständnis des Textes machen zu müssen. Solche Bücher

sind sehr empfehlenswert, wenngleich sie auch den Nachteil haben, daß man sich durch sehr viel Stoff

lesen muß, um nichts wichtiges zu verpassen.

 

Zielgruppe:

Studenten der Mathematik, aber auch besonders Interessierte und Forschende der Psychologie und

Sozialwissenschaften, sowie der Biologie und Medizin. Wegen seiner relativ leichten Lesbarkeit ist

das Buch für Nichtmathematiker bestens geeignet.

 

Weitere Bücher zum Themenkreis:

Es gibt eine Vielzahl von teilweise hervorragenden Titeln zu diesem Thema. Es können natürlich hier

nur einige wenige Erwähnung finden.

 

1. Donald F. Morrison; Multivariate Statistical Methods; McGraw-Hill; ISBN 0-07-043186-8.

Mittlerweile schon ein Klassiker zu diesem Thema, der auch in vielen Lehrbüchern in den Literatur-

hinweisen erscheint.

 

2. Joachim Hartung und Bärbel Elpelt; Multivariate Statistik; Oldenbourg; ISBN 3-486-23500-1.

Umfangreiches Buch mit nahezu enzyklopädischem Charakter.

 

3. Gerhard Marinell; Multivariate Verfahren; Oldenbourg; ISBN 3-486-24785-9.

Knappe Darstellung der Verfahren mit einer geistreichen Einteilung in solche zur Aufdeckung von

Unterschieden und solchen zur Aufdeckung von Zusammenhängen.

 

4. Neil H. Timm; Applied Multivariate Analysis; Springer; ISBN 0-387-95347-7.

Anwendung der einzelnen Methoden mit Hinweisen zur Anwendung konkreter multivariater Modelle.