ST410: Diario lezioni,
I semestre 2019-2020
- Lezione 1 (25 settembre).
Modello di campionamento casuale a popolazione finita e infinita.
Richiami delle principali distribuzioni di probabilità:
Bernoulli, Geometrica, Esponenziale, Poisson, Uniforme e Normale.
Introduzione a modello statistico e classificazione
tra modelli parametrici e non parametrici, e modelli identifiabili e non identifiabile.
- Lezione 2 (27 settembre).
Definizione di statistica e esempi. Definizione di statistica sufficiente e esempi.
- Lezione 3 (2 ottobre).
Teorema della fattorizzazione di Neyman-Fisher, con dimostrazione nel caso discreto.
Trasformazione biunivoca di una statistica sufficiente e' anche una statistica sufficiente.
Definizione di statistiche sufficienti minimali. Teorema di Lehmann-Scheffé per statistiche sufficienti minimali.
- Lezione 4 (4 ottobre).
Dimostrazione del Teorema di Lehmann-Scheffé.
Esempi e esercizi di statistica minimale.
Trasformazione biunivoca di una statistica sufficiente minimale e' anche una statistica sufficiente minimale.
- Lezione 5 (8 ottobre).
Definizione di stimatori e stimatori non distorti. La media campionaria e la varianza campionaria sono stimatori non distorti.
Definizione di rischio quadratico e decomposizione distorzione-varianza del rischio quadratico.
Convergenza in probabilità e stimatori consistenti. Disuguaglianza di Markov e Chebyshev, e la dimostrazione che se il rischio quadratico di un
stimatore va a zero, allora il stimatore è consistente.
- Lezione 6 (9 ottobre).
La varianza campionaria è un stimatore consistente. Stimatori dei momenti. Funzione di massima verosimiglianza e log-massima verosimiglianza.
Definizione di stimatori di massima verosimiglianza.
- Lezione 7 (11 ottobre).
Esercizi per calcolo del stimatore di massima verosimiglianza. Proprietà di invarianza del stimatore di massima verosimiglianza.
Il stimatore di massima verosimiglianza, quando unico, è funzione di tutte le statistiche sufficienti.
- Lezione 8 (16 ottobre).
Stimatore di massima verosimiglianza con piu di un parametro. Algoritmo EM.
- Lezione 9 (18 ottobre).
Disuguaglianza di Jensen. Dimostrazione che ogni passo del Algoritmo EM aumenta il valore della funzione di verosimiglianza. Esempio del uso del algoritmo EM per una mistura di distribuzioni.
- Lezione 10 (22 ottobre).
Stimatore di Bayes: distribuzione a priori, distribuzione a posteriori e distribuzione coniugate. Distribuzioni Beta e Gamma.
- Lezione 11 (23 ottobre).
Stimatore di Bayes è funzione di ogni statistica sufficiente. Teorema di Rao-Blackwell. Stimatore UMVUE e unicità dei stimatori UMVUE.
Statistica completa.
- Lezione 12 (25 ottobre).
Esempio di statistica completa e non completa. Definizione di statistica completa limitata e il Teorema di Bahadur.
Teorema di Lehmann-Scheffá per la costruzione di stimatore UMVUE tramite l'applicazione di Rao-Blackwell con una statistica completa.
Informazione di Fisher, stimatore efficiente e il Teorema di Cramer-Rao.
- Lezione 13 (29 ottobre).
Famiglia Esponenziale. Intervallo di confidenza. Intervallo di confidenza per la media di una distribuzione normale con varianza nota.
Distribuzioni χ2 e t-Student. Intervallo di confidenza per la media di una distribuzione normale con varianza incognita.
Convergenza di variabili aleatorie in distribuzione e il teorema del limite centrale.
- Lezione 14 (30 ottobre).
Metodo della quantità pivotale. Intervallo di confidenza per la esponenziale, per la varianza della normale e per la uniforme.
Strategia di trovare il intervallo di confidenza più piccolo. Metodo della quantità pivotale per la funzione cummulativa.
- Lezione 15 (05 novembre).
Dimostrazione del teorema per il intervallo più piccolo con livello di confidenza γ quando la distribuzione è unimodale.
Metodi asintotici: teorema di Slutsky e convergenza a una normale usando stimatore consistente per la varianza.
- Lezione 16 (06 novembre).
Il metodo delta (con idea della dimostrazione). Convergenza di stimatori efficienti e stimatori di massima verosimiglianza alla normale.
Intervallo di confidenza per stimatore di Bayes. Introduzione alla verifica di ipotese.
- Lezione 17 (08 novembre).
Il rapporto di verosimiglianza e il test usando il rapporto di verosimiglianza.
Rilazione tra la verifica di ipotese e il intervallo di confidenza.
- Lezione 18 (19 novembre).
Test Z e test T. Come ottenere un rapporto di verosimiglianza dal intervallo di confidenza.
- Lezione 19 (20 novembre).
Verifica d'ipotese per l'esponenziale. Funzione di potenza e test uniformemente più potente. Lemma di Neyman-Pearson con dimostrazione.
Proprietà del rapporto di verosimiglianza monotono e il Teorema di Karlin-Rubin. La proprietà del rapporto di verosimiglianza monotono per una
statistica sufficiente implica che la densità della statistica ha rapporto di verosimiglianza monotono.
- Lezione 20 (22 novembre).
Dimostrazione del teorema di Karlin-Rubin e generalizzazione per i casi di rapporto non-crescente e/o ipotese nulla del tipo θ > θ0.
Esempi di distribuzione con rapporto monotono, includendo la famiglia esponenziale con parametro unidimensionale.
- Lezione 21 (27 novembre).
Analisi di varianza (ANOVA). Definizione di "one way ANOVA". Decomposizione della varianza campionaria globale (S2) sotto l'ipotese nulla.
Distribuzione di Fisher.
- Lezione 22 (29 novembre).
Continuazione e esempi su analisi di varianza (ANOVA). Dimostrazione che il test F è il test via rapporto di verosimiglianza.
- Lezione 23 (04 dicembre).
Paradosso di Simpson. Regressione lineare e i suoi stimatori di massima verosimiglianza. Valore atesso e varianza dei stimatori di massima verosimiglianza per la
regressione lineare.
- Lezione 24 (06 dicembre).
Regressione lineare: intervallo di confidenza, verifica d'ipotese e previsione di valore future.
- Lezione 25 (10 dicembre). Introduzione alla regressione lineare multipla, regressione lineare generalizzata, regressione di Poisson e regressione logistica.
- Lezione 26 (11 dicembre). Test di Pearson (Test χ2, test goodness-of-fit).
- Lezione 27 (13 dicembre). Esempio per il test χ2 per la riduzione nel numero di parametri. Tabella di contingenza.
- Lezione 28 (17 dicembre). Test di Kolmogorov-Smirnov. Esercizio sul programma del corso.
- Lezione 29 (18 dicembre). Esercizio sul programma del corso.
- Lezione 30 (21 gennaio). Progetto del corso.