Obiettivi formativi
L’obiettivo del corso è fornire allo studente la capacità di comprendere ed
applicare le regole di base dell'apprendimento automatico, e in
particolare:
- applicare i principali test statistici nella classificazione tra diverse
categorie
- sintetizzare la struttura del classificatore ottimo e valutarne l'errore di
classificazione
- applicare i principali metodi di estrazione delle features dai dati
- applicare i principali stimatori in uso nel campo dell'apprendimento
automatico
- applicare i principali algoritmi di clustering nell'apprendimento non
supervisionato
Le capacità di applicare le conoscenze sopra elencate risultano essere in
particolare:
- progettare ed analizzare le prestazioni di un classificatore
nell'apprendimento automatico
- selezionare le feature più appropriate per discriminare le categorie di
ingresso
- selezionare gli algoritmi di clustering più appropriati nella progettazione
di un classificatore non supervisionato.
Prerequisiti
Corsi di base in algebra lineare e teoria della probabilità, quali ad
esempio quelli offerti nel corso di laurea triennale corrispondente, sono
necessari prerequisiti per questo corso.
Contenuti dell'insegnamento
PART 1: Fundamentals (Bononi)
(follows ref [1] Ch 1-9)
_____________________________________________
1. Introduction:
- problem statement and definitions
- Examples of machine learning problems
2. Basic probability refresher:
- Bayes formula
- conditional density functions
3. Classical Decision Rules
- binary Bayes rule
- M-ary Bayes rule
- receiver operating curve (ROC) and its properties
- Glossary of equivalent terms in Radar detecton theory, hypothesis
testing and machine learning
4. Linear Algebra refresher
- Unitary and Hermitian matrices
- spectral decomposition (SD)
- covariance matrices and diagonalization
5. Feature extraction
- sufficient statistics
- feature extraction based on eigenvector analysis
6. Quadratic and linear classifiers
- discriminant functions
- classification with Gaussian vectors
- Bounds on classifiers error probability
7. parameter estimation
- maximum likelihood and properties
- bayes estimation: MMSE and MAP
- Bounds on MS error
PART 2: Advanced topics and applications (Cagnoni)
________________________________________________________
8. Nonparametric estimation
- Parzen density estimation
- k-Nearest-Neighbor algorithm
9. Linear Discriminant Analysis
- Fisher linear classifier
- Support Vector Machines
10. Classifier evaluation:
- generalization and overfitting (Training/validation/test sets)
- performance indices, representations curve, confusion matrices
- Classification risk: are all errors equally relevant ?
11. Unsupervised classification and clustering
- K-means and Isodata algorithms
- Self-Organizing Maps
- Learning Vector Quantization
- Kohonen networks
Programma esteso
- - -
Bibliografia
[1] C. W. Therrien, "Decision, estimation and classification" Wiley, 1989
[2] C. M. Bishop "Pattern Recognition and Machine Learning", Springer,
2006.
[3] R O Duda, P, E. Hart, D. G. Stork, "Pattern classification", 2nd Ed.,
Wiley, 2001
Metodi didattici
Didattica frontale 42 ore.
Esercitazioni 6 ore.
Esercizi assegnati per casa.
Modalità verifica apprendimento
Part 1, Bononi: Esame orale, su appuntamento. Al momento dell'iscrizione, contattare il docente all'indirizzo alberto.bononi[AT]unipr.it
specificando la data desiderata. L'esame richied la soluzione di alcuni
esercizi e la discussione dei dettagli teorici ad essi collegati, pe runa
durata di circa un'ora.
E' consentito l'uso di un formulario su un foglio A4 per consultazione
durante l'esame.
Part 2, Cagnoni: Assegnazione di un progetto pratico, i cui risultati
dovranno essere presentati in forma di relazione scritta e di
presentazione orale.
Altre informazioni
Ricevimento
Bononi: Lunedi' 11:30-13:30 (Sede Scientifica Ingegneria, Pal. 2, I piano,
Stanza 2/19T).
Cagnoni: su appuntamento(Sede Scientifica Ingegneria, Pal.1, I piano,
email cagnoni[AT]ce.unipr.it).
Obiettivi agenda 2030 per lo sviluppo sostenibile
- - -