Schița de curs

ZIUA 1 - REȚELE NEURONALE ARTIFICIALE

Introducere și structura RRA.

  • Neuroni biologici și neuroni artificiali.
  • Modelul unei RRA.
  • Funcții de activare utilizate în RRA.
  • Categorii tipice de arhitecturi ale rețelelor.

Fundamente matematice și mecanisme de învățare.

  • Revederea algebrei vectorilor și matricelor.
  • Concepte de spațiul de stări.
  • Concepte de optimizare.
  • Învățarea prin corectarea erorii.
  • Învățarea bazată pe memorie.
  • Învățarea Hebbian.
  • Învățarea competitivă.

Perceptroni cu o singură stratificare.

  • Structura și învățarea perceptronilor.
  • Clasificator de modele - introducere și clasificatori Bayes.
  • Perceptron ca clasificator de modele.
  • Limitările unui perceptron.

Rețele neuronale feedforward.

  • Structuri ale rețelelor feedforward cu mai multe stratificări.
  • Algoritmul de propagare inversă.
  • Propagarea inversă - învățare și convergență.
  • Aproximarea funcțională prin propagare inversă.
  • Probleme practice și de design ale învățării cu propagare inversă.

Rețele neuronale cu funcții bazate pe radial.

  • Separația modelelor și interpolarea.
  • Teoria regularizării.
  • Regularizarea și rețelele RBF.
  • Proiectarea și învățarea rețelelor RBF.
  • Proprietățile de aproximare ale rețelelor RBF.

Învățarea competitivă și rețelele neuronale autoorganizante.

  • Proceduri de grupare generale.
  • Vectorizarea învățării (LVQ).
  • Algoritmi și arhitecturi de învățare competitivă.
  • Hărți autoorganizante ale caracteristicilor.
  • Proprietățile hărților de caracteristici.

Rețele neuronale fuzzy.

  • Sisteme neuro-fuzzy.
  • Contextul mulțimilor și logicii fuzzy.
  • Proiectarea sistemelor fuzzy.
  • Proiectarea rețelelor neuronale fuzzy.

Aplicații

  • Vor fi discutate câteva exemple de aplicații ale rețelelor neuronale, cu avantajele și problemele lor.

ZIUA 2 - ÎNVĂȚAREA MAȘINII

  • Cadru PAC pentru învățare
    • Garante pentru seturi finite de ipoteze - cazul consistent
    • Garante pentru seturi finite de ipoteze - cazul inconsistent
    • Generalități
      • Scenarii deterministe vs. stochastice
      • Eroarea Bayes de zgomot
      • Erorile de estimare și aproximare
      • Selectia modelului
  • Complexitatea Rademacher și dimensiunea VC.
  • Compromisul între bias și varianță.
  • Regularizarea.
  • Pesteajustarea (overfitting).
  • Validarea.
  • Mășinile de vectori de suport (SVM).
  • Kriging (regresia procesului Gaussian).
  • PCA și Kernel PCA.
  • Hărțile autoorganizante (SOM).
  • Spațiul vectorial indus de kernel
    • Nucleii Mercer și metricile de similaritate inducute de kernel
  • Învățarea cu întărirea.

ZIUA 3 - ÎNVĂȚAREA PROFUNDĂ

Aceasta va fi predată în relație cu subiectele acoperite în Ziua 1 și Ziua 2

  • Regresia logistică și softmax.
  • Autoencoderi rari.
  • Vectoreziere, PCA și albire.
  • Învățare autoîndrumată.
  • Rețele profunde.
  • Decodificatori liniari.
  • Convoluție și pooling.
  • Codificarea rară.
  • Analiza componentelor independente.
  • Analiza corelației canonice.
  • Demonstrații și aplicații.

Cerințe

O bună înțelegere a matematicii.

O bună înțelegere a statisticilor de bază.

Skill-urile de programare de bază nu sunt necesare, dar se recomandă.

 21 ore

Numărul de participanți


Pret per participant

Mărturii (2)

Cursuri viitoare

Categorii înrudite