User Tools

Site Tools


start

Visione Artificiale

Corso di Laurea Magistrale in Informatica, A.A. 2015/16

Docente: Paola Campadelli (campadelli@di.unimi.it)


Obiettivi del corso

Obiettivo del corso è fornire elementi di base che consentano di inferire uno stato del mondo da immagini digitali; per esempio, inferire la presenza o la assenza di un particolare oggetto o classe di oggetti.

Programma del corso

  • Estrazione di caratteristiche: Filtri lineari,Bordi, Angoli, Scale Invariant Feature Trasform (SIFT), Histograms of Oriented Gradients (HOG), Local Binary Patterns (LBP).
  • Algoritmi di apprendimento non supervisionato: clustering, riduzione della dimensionalità con tecniche lineari (analisi delle componenti principali e SVD).
  • Algoritmi di apprendimento supervisionato: percettrone semplice, percettrone multistrato, reti “deep”.
  • Applicazioni: riconoscimento di oggetti mediante Reti convoluzionali e ricorrenti.

Materiale: fornito dal docente

Libri

  1. R.C.Gonzales, R.E.Woods. Digital Image Processing, 3°edizione, Prentice Hall (2008) (paragrafi 4.6, 4.7, 4.8, 4.9.1, 4.9.2, 4.9.3, 7.1.1, 10.2.4, 10.2.5, 10.2.6).
  2. J. Goodfellow, J.Bengio, A. Courville. Deep Learning, in preparation for MIT Press http://www.deeplearningbook.org (capitoli da 1 a 6 completi; paragrafi 8.1, 8.2, 8.3, 8.4 8.5; capitolo 9)

Esame

Lo studente potrà scegliere tra un progetto o l'approfondimento di temi trattati nel corso

Orario lezioni

Mercoledì dalle 15.30 alle 17.30, sala lauree. Giovedì dalle 15.30 alle 17,30, aula alfa.


Argomenti delle lezioni

  1. 8 marzo 2017: Presentazione del contenuto del corso.
  2. 9 marzo 2017: Convoluzione e Correlazione. Trasformata di Fourier Discreta.
  3. 15 marzo 2017: Filtri lineari nel dominio spaziale e nel dominio delle frequenze. Filtro gaussiano.
  4. 16 marzo 2017: Edge detection: concetti generali, operatori derivativi; Laplaciano della Gaussiana. Canny edge detector.
  5. 22 marzo 2017: Piramidi Gaussiane, Piramidi Laplaciane, Filtri di Gabor, Harris corner detector. Materiale didattico: harris.pdf
  6. 23 marzo 2017: SIFT, HOG. Materiale didattico: sift.pdf, siftpresentazione.pdf, hog.pdf.
  7. 29 marzo 2017: Esercitazione sui metodi presentati
  8. 30 marzo 2017: LBP, Richiami di teoria dell'Informazione. Materiale didattico: lbpfourierfeature.pdf
  9. 5 aprile 2017: Richiami di algebra lineare e Principal Component Analysis (PCA)
  10. 6 aprile 2017: Applicazione di PCA e Singular Value Decomposition (SVD)
  11. 12 aprile 2017: Apprendimento da esempi: elementi introduttivi
  12. 19 aprile 2017: Bayes Decesion Theory e bias-Variance trade off della funzione errore “SSE”
  13. 20 aprile 2017: Funzioni discriminanti lineari e algoritmo del percettrone
  14. 26 aprile 2017: Percettrone Multistrato e algoritmo di retropropagazione dell'errore
  15. 27 aprile 2017: Funzioni di attivazione e problemi associati alla determinazione del “learning rate”
  16. 3 maggio 2017: Presentazione di “Tensor Flow” e addestramento di una semplice rete. Materiale didattico: tensorflow.pdf
  17. 4 maggio 2017: Reti Convoluzionali. Materiale didattico: alexnet.pdf
  18. 10 maggio 2017: Metodi di Regolarizzazione. Materiale didattico: regolarizzazione.pdf
  19. 11 maggio 2017: Reti Convoluzionali per la classificazione e la segmentazione di immagini. Materiale didattico: vggzisserman.pdf, long_shelhamer_fcn.pdf, noh_learning_deconvolution_network_iccv_2015_paper.pdf,
  20. 17 maggio 2017: ResNet e GoogleNet. Materiale didattico: resnetgooglenet.pdf,
  21. 18 maggio 2017: Una applicazione e Riduzione della dimensionalità di reti convoluzionali. Materiale didattico: efficientandaccurateapproximations2015.pdf, presentazione_va.pdf,
  22. 24 maggio 2017: Reinforcment Learning. Materiale didattico: deep_reinforcment_learning.pdf
start.txt · Last modified: 2017/05/25 17:59 by paola