Schița de curs

ZIUA 1 - REȚELE NEURONALE ARTIFICIALE

Introducere și Structura ANN.

  • Neuroni biologici și neuroni artificiali.
  • Modelul unei rețele neuronale artificiale (ANN).
  • Funcții de activare utilizate în ANN-uri.
  • Clase tipice de arhitecturi de rețea.

Fundații Matematice și Mecanisme de Învățare.

  • Revederea algebrei vectorilor și matricelor.
  • Concepte ale spațiului de stări.
  • Concepte de optimizare.
  • Învățarea prin corectarea erorii.
  • Învățarea bazată pe memorie.
  • Învățarea Hebbian.
  • Învățarea competitivă.

Perceptroni unisi stratifi.

  • Structura și învățarea perceptronilor.
  • Clasificator de modele - introducere și clasificatori Bayes.
  • Perceptron ca clasificator de modele.
  • Covergența perceptronului.
  • Limițările unui perceptron.

Rețele ANN feedforward.

  • Structuri ale rețelelor feedforward cu mai multe straturi.
  • Algoritmul de propagare inversă (backpropagation).
  • Propagarea inversă - învățare și covergență.
  • Aproximarea funcțională cu propagarea inversă.
  • Istoriile practice și de design ale învățării prin propagare inversă.

Rețele cu Funcții Radiale (RBF).

  • Separația modelului și interpolarea modelului.
  • Teoria regularizării.
  • Regularizarea și rețelele RBF.
  • Proiectarea și învățarea rețelelor RBF.
  • Pozițiile de aproximare ale RBF-urilor.

Învățarea Competitivă și Rețelele Neuronale Autoorganizante.

  • Proceduri de clusterizare generale.
  • Vectorii de Învățare cu Cuantificare (LVQ).
  • Algoritmi și arhitecturi de învățare competitivă.
  • Hărți autoorganizante ale caracteristicilor.
  • Pozițiile hărților de caractere.

Rețele Neuronale Fuzzy.

  • Sisteme neuro-fuzzy.
  • Fundamentele mulțimilor fuzzy și logicii fuzzy.
  • Proiectarea sistemelor fuzzy.
  • Proiectarea rețelelor neuronale fuzzy.

Aplicații

  • Vor fi discutate câteva exemple de aplicații ale rețelelor neuronale, împreună cu avantajele și problemele acestora.

ZIUA 2 - MACHINE LEARNING

  • Cadru de Învățare PAC
    • Garanții pentru setul de ipoteze finit - cazul consistent
    • Garanții pentru setul de ipoteze finit - cazul inconsistens
    • Generalități
      • Scenarii deterministice vs. stochastice
      • Eroarea Bayes
      • Erorile de estimare și aproximare
      • Selectia modelului
  • Complexitatea Rademacher și Dimensiunea VC
  • Compromisul Bias-Varianta
  • Regularizarea
  • Pesteînvățare (Over-fitting)
  • Validare
  • Machieile cu Vectori de Suport (Support Vector Machines - SVM)
  • Kriging (Regressie cu Procese Gaussiane)
  • PCA și Kernel PCA
  • Hărțile Autoorganizante (Self Organisation Maps - SOM)
  • Spațiul vectorial indus de kernel
    • Nuclele Mercer și metricile de similaritate induce de kernel
  • Învățarea Reinforcement Learning

ZIUA 3 - DEEP LEARNING

Acest lucru va fi predat în relație cu subiectele acoperite în Ziua 1 și Ziua 2

  • Regressia Logistică și Softmax
  • Autoencoderi Rari (Sparse Autoencoders)
  • Vectorializarea, PCA și Albirea (Whitening)
  • Învățarea Autodidactă (Self-Taught Learning)
  • Rețele Profunde (Deep Networks)
  • Decoderi Lineari
  • Convoluție și Pooling
  • Codificare Rară (Sparse Coding)
  • Analiza Componentelor Independente (Independent Component Analysis - ICA)
  • Analiza Corelației Canonice (Canonical Correlation Analysis - CCA)
  • Demo-uri și Aplicații

Cerințe

Înțelegere bună a matematicii.

Înțelegere bună a statisticilor de bază.

Skilluri de programare de bază nu sunt necesare, dar se recomandă.

 21 ore

Numărul de participanți


Pret per participant

Mărturii (2)

Cursuri viitoare

Categorii înrudite