Moduł oferowany także w ramach programów studiów:
Informacje ogólne:
Nazwa:
Metody rozpoznawania obrazów i podstawy uczenia maszynowego
Tok studiów:
2014/2015
Kod:
IIN-1-785-s
Wydział:
Informatyki, Elektroniki i Telekomunikacji
Poziom studiów:
Studia I stopnia
Specjalność:
-
Kierunek:
Informatyka
Semestr:
7
Profil kształcenia:
Ogólnoakademicki (A)
Język wykładowy:
Polski
Forma i tryb studiów:
Stacjonarne
Strona www:
 
Osoba odpowiedzialna:
prof. zw. dr hab. inż. Dzwinel Witold (dzwinel@agh.edu.pl)
Osoby prowadzące:
prof. zw. dr hab. inż. Dzwinel Witold (dzwinel@agh.edu.pl)
Łazarz Radosław (radek.lazarz@gmail.com)
Krótka charakterystyka modułu

Wprowadzenie studenta w problematykę rozpoznawania obrazów i uczenia maszynowego. Celem jest wykształcenie umiejętności generacji reprezentacji, rozpoznawania wzorców i budowy modeli analizy danych.

Opis efektów kształcenia dla modułu zajęć
Kod EKM Student, który zaliczył moduł zajęć wie/umie/potrafi Powiązania z EKK Sposób weryfikacji efektów kształcenia (forma zaliczeń)
Wiedza
M_W001 Zna i rozumie podstawowy formalizm matematyczny związany z metodami rozpoznawania obrazów i uczeniem maszynowym IN1A_W01 Kolokwium
M_W002 Dysponuje wiedzą na temat metod generacji, selekcji i ekstrakcji cech IN1A_W07, IN1A_W03 Kolokwium
M_W003 Zna i rozumie zasady analizy danych bazujące na uczeniu z i bez nauczyciela. IN1A_W07, IN1A_W03 Kolokwium
Umiejętności
M_U001 Potrafi skonstruować model uczący się na dostarczanych na bieżąco danych. IN1A_U07 Zaliczenie laboratorium
M_U002 Potrafi zbudować system informatyczny przeznaczony do rozpoznawania obiektów np. w zadaniach autentyfikacji i autoryzacji. IN1A_U04, IN1A_U07 Zaliczenie laboratorium
Kompetencje społeczne
M_K001 Posiada kompetencje pracy w zespole i umie zorganizować sobie pracę nad złożonym zagadnieniem informatycznym IN1A_K04, IN1A_K02
Matryca efektów kształcenia w odniesieniu do form zajęć
Kod EKM Student, który zaliczył moduł zajęć wie/umie/potrafi Forma zajęć
Wykład
Ćwicz. aud
Ćwicz. lab
Ćw. proj.
Konw.
Zaj. sem.
Zaj. prakt
Zaj. terenowe
Zaj. warsztatowe
Inne
E-learning
Wiedza
M_W001 Zna i rozumie podstawowy formalizm matematyczny związany z metodami rozpoznawania obrazów i uczeniem maszynowym + - - - - - - - - - -
M_W002 Dysponuje wiedzą na temat metod generacji, selekcji i ekstrakcji cech + - - - - - - - - - -
M_W003 Zna i rozumie zasady analizy danych bazujące na uczeniu z i bez nauczyciela. + - - - - - - - - - -
Umiejętności
M_U001 Potrafi skonstruować model uczący się na dostarczanych na bieżąco danych. - - + - - - - - - - -
M_U002 Potrafi zbudować system informatyczny przeznaczony do rozpoznawania obiektów np. w zadaniach autentyfikacji i autoryzacji. - - + - - - - - - - -
Kompetencje społeczne
M_K001 Posiada kompetencje pracy w zespole i umie zorganizować sobie pracę nad złożonym zagadnieniem informatycznym - - - - - - - - - - -
Treść modułu zajęć (program wykładów i pozostałych zajęć)
Wykład:
  1. Wprowadzenie do metod rozpoznawania obrazów. Podstawowe pojęcia

    Metody rozpoznawania obrazów, a metody inteligencji obliczeniowej. Przykłady zastosowań. Meody całościowe i syntaktyczne. Podstawowe terminy: przestrzeń cech, wektor cech, obraz, klasyfikator etc.

  2. Wprowadzenie do metod rozpoznawania obrazów. Przestrzenie Hilberta i podstawy analizy funkcjonalnej

    Przestrzenie wektorowe. Iloczyn skalarny. Przestrzenie unormowane. Funkcje bazowe. Współczynniki Fouriera. Równość Parsevala. Ortogonalność, biortogonalność ciasne rozpięcie. Transformata Fouriera. Transformata cosinusowa. Zastosowania w rozpoznawaniu obrazów.

  3. Wstęp do teorii analizy sygnałów – transformacje sygnałów czasowych

    Twierdzenie o próbkowaniu. Twierdzenie Shannona. Zasada nieoznaczoności Heisenberga. Hipoteza rzadkiej reprezentacji. Compressed sensing. Transformacja falkowa w 1-D.

  4. Wstęp do algorytmów analizy obrazu.

    Transformacja falkowa w analizie obrazu. Curvelety i Ridglety. Transformacja SVD. Transformacja Hougha i Radona. Momenty Hu i momenty Zernike.

  5. Metody kompresji obrazu

    Metody oparte na transformacji kosinusowej i falkowej. Kompresja fraktalna. Fraktale. Twierdzenie Banacha o punkcie stałym. Atraktory. Iterowany zbiór funkcji i przestrzenie Hausdorfa.

  6. Metody selekcji cech

    Przekleństwo wymiaru. Dychotomie a wymiar przestrzeni cech. Filtry i wrapery. Proste algorytmy redukcji cech: FFS, FBS i pochodne. Metody selekcji cech oparte o heurystyki.

  7. Metody ekstrakcji cech – metody liniowe

    Transformata Karhunena-Loeve. Metody PCA i LDA. Klasyfikator Fischera. Przykłady zastosowań. Nieliniowe metody ekstrakcji cech skalowanie wielowymiarowe i pochodne. Sieci złożone i deskryptory w metodach rozpoznawania obrazów.

  8. Metody wizualizacji przestrzeni wielowymiarowych

    Wizualizacja przestrzeni wielowymiarowych przy pomocy algorytmów bazujących na PCA i MDS. Metoda Sammona i Niemanna. Metoda minimalizacji energii w systemie oddziaływujących cząstek.

  9. Podstawowe pojęcia i problemy teorii uczenia maszynowego

    Podstawy teorii PAC. Fundamentalne twierdzenie PAC. Teoria Vapnika-Chervonienkis. Wymiar V-C. Podstawowe ograniczenia w teorii V-C. Moc klasyfikatora a wymiarowość przestrzeni cech.

  10. Klasyfikatory proste

    Klasyfikator 1-NN. Klasyfikator K-NN. Algorytmy poszukiwania najbliższego obrazu. Komórki Hockneya. Metoda Friedmana. Kd-drzewa. Interesujące zastosowania klasyfikatora NN i jego moc. Klasyfikatory liniowe. Perceptron. Metody uczenia. Liniowy klasyfikator SVM. Klasyfikatory kawałkami liniowe.

  11. Klasyfikatory Bayesowskie

    Wielowymiarowe rozkładów gęstości prawdopodobieństwa. Zasada Bayesa. Klasyfikatory Bayesa. Drzewa Bayesa. Estymacja rozkładów losowych.

  12. Klasyfikatory SVM

    Aproksymacja, interpolacja a problemy uczenia maszynowego. Nieliniowa interpretacja klasyfikatora SVM. Trik „kernelowy”. Przykłady zastosowań.

  13. Klasyfikatory zespołowe

    Sieci neuronowe wielowarstwowe. Krytyka. Nowoczesne klasyfikatory zespołowe. Klasyfikatory boostujące. Ada boost. Metody tworzenia klasyfikatorów zespołowych opartych o współdziałanie klasyfikatorów prostych.

  14. Miary podobieństwa i niepodobieństwa

    Pojęcie miary podobieństwa i niepodobieństwa. Przestrzenie Minkowskiego. Inne miary Chudhuri, Mahalanobisa. Różne aspekty wykorzystania miary Tanimoto. Miary zbiór-zbiór. Miara Hausdorfa. Miary oparte na macierzach odległości. Miary podobieństwa wykorzystujące najbliższych sąsiadów.

  15. Metody i algorytmy klasteryzacji danych

    Proste metody klasteryzacji danych. Algorytm k-means. Algorytm fuzzy k-means. Algorytm Isodata. Metody hierarchiczne. Algorytm MNN. Metody kernelowe. Nowoczesne metody klasteryzacji: DBSCAN, CHAMELEON, SNN.

Ćwiczenia laboratoryjne:
  1. Ćwiczenie 1

    Zapoznanie się z podstawowymi narzędziami analizy sygnałów i obrazów przy pomocy odpowiednich pakietów języka Python. Rozwiązanie prostego i złożonego problemu filtracji obrazu.

  2. Ćwiczenie 2

    Rozwiązanie problemu rozpoznawania danego kształtu na zdjęciu metodami korelacji, analizy Fourierowskiej i metodami Hougha i Radona

  3. Ćwiczenie 3

    Generacja wektora cech na podstawie szeregów czasowych z wykorzystaniem analizy falkowej

  4. Ćwiczenie 4

    Wizualizacja danych z repozytorium UCI przy pomocy metody PCA oraz LDA

  5. Ćwiczenie 5

    Zastosowanie klasyfikatora SVM do rozwiązania problemu autoryzacji i klasyfikacji

  6. Ćwiczenie 6

    Zastosowanie klasyfikatora boostującego i sieci neuronowych do rozwiązania problemu rozpoznawania twarzy.

  7. Ćwiczenie 7

    Zastosowanie algorytmów klasteryzacji k-means oraz algorytmów hierarchicznych do analizy dużych zbiorów danych.

  8. Ćwiczenie 8

    Stworzenie własnego systemu rozpoznawania obejmującego wszystkie etapy rozpoznawania obrazów: generacja cech, selekcja cech, ekstrakcja i wizualizacja, klasteryzacja i klasyfikacja

Nakład pracy studenta (bilans punktów ECTS)
Forma aktywności studenta Obciążenie studenta
Sumaryczne obciążenie pracą studenta 88 godz
Punkty ECTS za moduł 3 ECTS
Samodzielne studiowanie tematyki zajęć 20 godz
Udział w wykładach 14 godz
Egzamin lub kolokwium zaliczeniowe 2 godz
Przygotowanie do zajęć 23 godz
Przygotowanie sprawozdania, pracy pisemnej, prezentacji, itp. 15 godz
Udział w ćwiczeniach laboratoryjnych 14 godz
Pozostałe informacje
Sposób obliczania oceny końcowej:

1. Aby uzyskać pozytywną ocenę końcową niezbędne jest uzyskanie pozytywnej oceny z laboratorium oraz kolokwium (ustnego) podczas oddawania projektu indywidualnego. Ocenę uzyskuje się za jakość wykonania projektu, którą ocenia prowadzący.
2. Obliczamy średnią ważoną z ocen z laboratorium (75%) i wykładów (25%) uzyskanych we wszystkich terminach.
3. Wyznaczmy ocenę końcową na podstawie zależności:
if sr>4.75 then OK:=5.0 else
if sr>4.25 then OK:=4.5 else
if sr>3.75 then OK:=4.0 else
if sr>3.25 then OK:=3.5 else OK:=3
4. Jeżeli pozytywną ocenę z laboratorium i zaliczenia wykładu uzyskano w pierwszym terminie oraz ocena końcowa jest mniejsza niż 5.0 to ocena końcowa jest podnoszona o 0.5

Nieobecność na zajęciach laboratoryjnych wymaga wykonania ćwiczenia w domu z zadanym (krótkim) terminem realizacji. Większa liczba nieobecności niż 3 wymaga ponadto zdania przed prowadzącym ustnego kolokwium obejmującego materiał ćwiczeń.

Wymagania wstępne i dodatkowe:

1. Znajomość podstawowych zagadnień analizy matematycznej i algebry.
2. Znajomość algorytmów metod numerycznych.
3. Dobra znajomość algorytmiki.

Zalecana literatura i pomoce naukowe:

Literatura podstawowa:

1. Bishop Ch.K. Pattern Recognition and Machine Learning, Springer, New York, 2007.
2. Theodoris S and Koutroumbas K, Pattern Recognition, Academic Press, San Diego, London, Boston, 1998

Literatura uzupełniająca:

3. Mitra, S. and Acharya T., Data Mining: Multimedia, Soft Computing and Bioinformatics, J. Wiley, 2003.
4. Czasopisma: Pattern Recognition, Pattern Recognition Letters, Elsevier.

Publikacje naukowe osób prowadzących zajęcia związane z tematyką modułu:

Wójcik P., Quellet T., Balcerzak M., Dzwinel, W., Identification of biomarker genes for resistance to a pathogen by a novel method for meta-analysis of single-channel microarray datasets. Journal of Bioinformatics and Computational Biology, 13(4), 1550013 (19 pages) 2015. IF=0.785
2. Pawliczek P, Dzwinel W, Yuen DA, Visual exploration of data by using multidimensional scaling on multi-core CPU, GPU and MPI cluster, Concurrency and Computation: Practice and Experience, 26(3): 662-682, 2014. IF =0.997
3. Kurdziel M, Boryczko K, Dzwinel W, Procrustes analysis of truncated least squares multidimensional scaling, Computing and Informatics, 31 (6), 1417-1440, 2012. IF =0.254
4. Czech, W., Dzwinel, W., Goryczka S., Arodź, T., Dudek, A.Z., Exploring biological networks with Graph Investigator research application, Computing and Informatics, 30, 1001–1031, 2011 IF =0.239
5. Dzwinel, W., Wcisło, R., ivhd: A robust linear-time and memory efficient method for visual exploratory data analysis, 13thConference on Machine Learning and Data Mining, MLDM, New York, July 15-20, 2017, Lecture Notes of Artificial Intelligence, LNAI, 10358, 345-360, 2017
6. Czech, W., Mielczarek, W., Dzwinel, W., Comparison of Large Graphs Using Distance Information, 11th International Conference, PPAM 2015, Lecture Notes of Computer Science, LNCS 9573, 195-206, 2016
7. Dzwinel, W., Wcisło, R., Very fast interactive visualization of large sets of high-dimensional data, 2015 International Conference of Computational Science, ICCS 2015, Reykjavik, 1-3.06.2015. Procedia of Computer Science, 51, 572-581, 2015.
8. Pawliczek, P., Dzwinel, W., Yuen, DA, Visual Exploration of Data with Multi-thread MIC Computer Architectures, in Rutkowski et al. (Eds.): ICAISC 2015, Part II, Lecture Notes of Artificial Intelligence, LNAI 9120, 25–35, 2015

Informacje dodatkowe:

Nieobecność na zajęciach laboratoryjnych wymaga wykonania ćwiczenia w domu z zadanym (krótkim) terminem realizacji. Większa liczba nieobecności niż 3 wymaga ponadto zdania przed prowadzącym ustnego kolokwium obejmującego materiał ćwiczeń.