Schița de curs

ZIUA 1 - REȚELE NEURONALE ARTIFICIALE

Introducere și structura RNA.

  • BioNeuronii logici și neuronii artificiali.
  • Modelul unei RNA.
  • Funcții de activare utilizate în RNA.
  • Clase tipice de arhitecturi de rețea .

Mathematical Fundamente și mecanisme de învățare.

  • Revizitarea algebrei vectoriale și matriceale.
  • Concepte de spațiu de stare.
  • Concepte de optimizare.
  • Învățarea prin corectarea erorilor.
  • Învățarea bazată pe memorie.
  • Învățarea hebbiană.
  • Învățare competitivă.

Perceptroni cu un singur strat.

  • Structura și învățarea perceptronilor.
  • Clasificator de modele - introducere și clasificatori Bayes.
  • Perceptronul ca clasificator de modele.
  • Convergența perceptronului.
  • Limitările unui perceptron.

RNA feedforward.

  • Structuri ale rețelelor feedforward multistrat.
  • Algoritmul de propagare înapoi.
  • Propagarea înapoi - formare și convergență.
  • Aproximarea funcțională cu retropropagare.
  • Aspecte practice și de proiectare ale învățării prin propagare inversă.

Rețele cu funcție de bază radială.

  • Separabilitatea și interpolarea modelelor.
  • Teoria regularizării.
  • Regularizarea și rețelele RBF.
  • Proiectarea și formarea rețelelor RBF.
  • Proprietăți de aproximare ale RBF.

Învățarea competitivă și RNA autoorganizatoare.

  • Proceduri generale de grupare.
  • Cuantizarea vectorului de învățare (LVQ).
  • Algoritmi și arhitecturi de învățare competitivă.
  • Hărți de caracteristici autoorganizate.
  • Proprietăți ale hărților caracteristice.

Fuzzy Neural Networks.

  • Sisteme neuro-fuzzy.
  • Context al seturilor și logicii fuzzy.
  • Proiectarea tulpinilor fuzzy.
  • Proiectarea de RNA fuzzy.

Aplicații

  • Vor fi discutate câteva exemple de aplicații ale rețelelor neuronale, avantajele și problemele acestora.

ZIUA -2 ÎNVĂȚAREA AUTOMATĂ

  • Cadrul de învățare PAC
    • Garanții pentru setul finit de ipoteze - caz consecvent
    • Garanții pentru un set finit de ipoteze - caz inconsistent
    • Generalități
      • Cv. deterministe Scenarii stocastice
      • Zgomotul erorii Bayes
      • Erori de estimare și aproximare
      • Selectarea modelului
  • Complexitatea Radmeacher și VC - Dimensiune
  • Bias - Varianță
  • Regularizarea
  • Supraajustarea
  • Validare
  • Mașini vectoriale de suport
  • Kriging (regresia procesului Gaussian)
  • PCA și Kernel PCA
  • Hărți de autoorganizare (SOM)
  • Spațiu vectorial indus de nucleu
    • Mercer Kernels și metrici de similaritate induse de Kernel
  • Reinforcement Learning

ZIUA 3 - ÎNVĂȚAREA PROFUNDĂ

Aceasta va fi predată în legătură cu subiectele abordate în ziua 1 și ziua 2

  • Regresia logistică și Softmax
  • Autoencodere dispersate
  • Vectorizare, PCA și albire
  • Învățarea autodidactă
  • Rețele profunde
  • Decodificatoare liniare
  • Convoluție și pooling
  • Codare dispersată
  • Analiza componentelor independente
  • Analiza corelației canonice
  • Demonstrații și aplicații

Cerințe

Good înțelegere a matematicii.

Good înțelegere a statisticilor de bază.

Competențele de programare de bază nu sunt necesare, dar sunt recomandate.

 21 ore

Numărul de participanți


Pret per participant

Mărturii (2)

Upcoming Courses