|
|
Claudio Barbaranelli
|
|
- Introduzione
- Definizioni: prova ed evento, probabilità e frequenza
- Proprietà e principi della probabilità
- Proprietà degli eventi: indipendenti vs dipendenti; incompatibilità tra eventi.
- Principi calcolo della probabilità: somma, prodotto, probabilità condizionata
- Probabilità composite
- Variabili casuali
|
|
|
Claudio Barbaranelli
|
|
- Popolazione e campione
- Proprietà dei campioni e del campionamento. Parametri e indicatori
- Stima dei parametri
- Distribuzione campionaria
- Uso della Distribuzione Campionaria (DC) nell'inferenza statistica; intervalli di confidenza e errore standard
- t di Student per piccoli campioni
- Gradi di libertà (GDL)
|
|
|
Claudio Barbaranelli
|
|
- Ipotesi statistiche e ipotesi sulle medie
- Logica della verifica di ipotesi: decisioni e valore critico
- Decisioni probabilistiche, rischi delle inferenze e tipi di errori
- Formulazione delle ipotesi: ipotesi bidirezionali vs monodirezionali
- Verifica di ipotesi sulla media di 1 campione: esempio (parte 1)
- Determinazione parametri DCM e decisione (esempio parte 2)
- Piccoli campioni: test con t di student
|
|
|
Claudio Barbaranelli
|
|
- Campioni indipendenti. Formulazione delle ipotesi e modello di riferimento.
- Distribuzione campionaria delle differenze tra le medie (DCDM): costruzione, proprietà ed uso di z per la verifica delle ipotesi
- Esempio uso di z per verifica (campioni grandi n>30)
- Campioni piccoli: il test con t di Student
- Campioni non indipendenti
- Esempio di test delle differenze delle medie di campioni correlati
- Verifica ipotesi sulle varianze
|
|
|
Claudio Barbaranelli
|
|
|
|
Claudio Barbaranelli
|
|
- Relazione tra più variabili: forma della relazione (diagrammi di dispersione); relazioni lineari.
- Intensità e direzione della relazione. Coefficiente di correlazione lineare r di Pearson. Concordanza e discordanza.
- Formule di calcolo di r. Covarianza. Formula per calcoli manuali.
- Verifica di ipotesi su r. Rapporto di r con t di student
- Esempio (con uso della formula di r per calcoli manuali)
- Relazione tra 2 variabili dicotomiche (coefficiente phi). Relazione tra una variabile dicotomica ed una continua (coefficiente di correlazione "punto-biseriale").
- Relazione tra 2 variabili su scala ordinale (coefficiente rho di Spearman: correlazione tra i ranghi).
|
|
|
Claudio Barbaranelli
|
|
- Relazione lineare. Predittori e criteri. Scopi dell'analisi: spiegare e predire; conoscere la forma della relazione.
- Regressione semplice o bivariata. Ipotesi di dipendenza
- La forma della relazione lineare: equazione di regressione. Parametri. Linearità. Errori o residui.
- Identificazione della retta di regressione. Minimi quadrati. Esempio.
- Coefficienti di regressione, normali e standardizzati.
- Adeguatezza della soluzione. Devianza totale, spiegata e d'errore (residua). Coefficiente di determinazione R2. Coefficiente di alienazione.
- Errore standard della stima. Precisione della retta.
|
|
|
Claudio Barbaranelli
|
|
- Regressione multipla. Equazione di regressione ed interpretazione geometrica
- Coefficienti di regressione multipla (parziali) e modi per determinarli (Minimi quadrati multipli). Espressione matriciale dell'equazione
- Misure di associazione. Diagrammi di Venn. Correlazione semi-parziale e parziale. Coefficienti di regressione.
- Varianza spiegata. Coefficiente di determinazione multipla R2 e di correlazione multipla. Test di significatività di R2 e dei coefficienti di regressione.
- Assunzioni di base della regressione multipla
- Violazione delle assunzioni e modi per individuarle. Esame dei residui. Multicollinearità ed autocorrelazione. Test di Durbin-Watson
- Esame della distribuzione dei residui. Esempi.
|
|
|
Claudio Barbaranelli
|
|
- Strategie analitiche di regressione. Regressione standard, gerarchica e statistica, e rispettivi ambiti d'impiego
- La Regressione standard
- La regressione gerarchica. Individuare il contributo dei singoli predittori
- La regressione statistica. Introduzione e varianti: Forward, backward e stepwise
- Critiche alla regressione statistica.
- Confronto tra le strategie di regressione. Scegliere la strategia.
- Conclusioni e limiti della regressione
|
|
|
Claudio Barbaranelli
|
|
- Scopi dell'analisi fattoriale. Variabili latenti. Dalla matrice delle correlazioni a quella delle saturazioni
- Modello teorico dell'analisi. Fattori comuni (F), saturazioni (a) ed unicità. Equazione del modello e versione matriciale
- Scomposizione della varianza osservata. Comunalità ed unicità. Correlazioni riprodotte e residue. Equazione fondamentale dell'analisi fattoriale
- Ricavare la matrice delle saturazioni. Analisi delle componenti principali. Autovettori ed autovalori
- Autovalori e varianza spiegata
|
|
|
Claudio Barbaranelli
|
|
- Metodi di estrazione dei fattori. Massimizzare la varianza vs la riproduzione di R. Requisiti di partenza.
- Analisi Componenti Principali (ACP)
- Analisi Fattori Principali (AFP). Stima delle comunalità iniziali.
- Altri metodi: Minimi quadrati ordinari e generalizzati. Massima verosimiglianza (Maximum likelihood). Test di bontà dell'adattamento.
- Stabilire il numero di fattori: metodi possibili. Mineigen
- Stabilire il numero di fattori: Scree Test degli autovalori
- Altri metodi per stabilere il numero dei fattori: Test statistico, % varianza spiegata, massima correlazione residua. Replicabilità della soluzione
|
|
|
Claudio Barbaranelli
|
|
- Rotazione dei fattori. Scopi e principi. Rotazioni ortogonali vs oblique
- Il criterio della struttura semplice
- Rotazioni ortogonali: varimax e quartimax
- Rotazioni oblique: oblimin e promax. Matrice di pattern e matrice di struttura
- Interpretazione dei fattori. Grandezza delle saturazioni
- Assunzioni e prerequisiti
- Conclusione e riassunto dei metodi e processi dell'analisi fattoriale, ed ambiti di applicazione in psicologia
|
|
|
Claudio Barbaranelli
|
|
- Analisi della varianza (ANOVA): scopi e modelli
- Analisi della varianza univariata: disegni tra I soggetti ad un fattore. Modello lineare dell'ANOVA.. Scarti dalla media e scomposizione delle fonti di variazione (totale, tra i gruppi e dentro i gruppi). Gradi di libertà. Mean square.
- I confronti pianificati. Coefficienti ed ortogonalità dei confronti
- F di Fisher e test delle ipotesi.
- Assunzioni dell'ANOVA
- Esempio di ANOVA ad una via tra i soggetti
- I confronti tra le medie. Confronti post-hoc. Confronti simultanei e controllo dell'errore. Procedura HSD di Tukey.
- I confronti pianificati. Coefficienti ed ortogonalità dei confronti
|
|
|
Claudio Barbaranelli
|
|
- Disegni fattoriali. Definizione, concetti e vantaggi. Effetti principali ed interazione
- Esempio di design fattoriale. Medie marginali. Classi di ipotesi. Rappresentazione grafica dell'interazione
- Design tra I soggetti. Modello teorico. Stime campionarie. Scomposizione dei punteggi e scarti dalla media
- Somme dei quadrati (devianze) e scomposizione delle devianze. Calcolo delle varianze (MS) e degli F. Test delle ipotesi
- Esempio di analisi di un design fattoriale
- Analisi degli effetti principali
- Analisi dell'interazione e degli effetti semplici. Reinterpretazione dell'analisi degli effetti principali
|
|
|
Claudio Barbaranelli
|
|
- Design entro i soggetti. Scomposizione della devianza
- Vantaggi e svantaggi del design entro i soggetti. Assunzioni. Sfericità.
- Esempio di design entro i soggetti
- 2 fattori entro i soggetti
- Design fattoriali misti
- Effect size
- Potenza statistica dei test
|