Schița de curs
ZIUA 1 - REȚELE NEURONALE ARTIFICIALE
Introducere și structura RRA.
- Neuroni biologici și neuroni artificiali.
- Modelul unei RRA.
- Funcții de activare utilizate în RRA.
- Categorii tipice de arhitecturi ale rețelelor.
Fundamente matematice și mecanisme de învățare.
- Revederea algebrei vectorilor și matricelor.
- Concepte de spațiul de stări.
- Concepte de optimizare.
- Învățarea prin corectarea erorii.
- Învățarea bazată pe memorie.
- Învățarea Hebbian.
- Învățarea competitivă.
Perceptroni cu o singură stratificare.
- Structura și învățarea perceptronilor.
- Clasificator de modele - introducere și clasificatori Bayes.
- Perceptron ca clasificator de modele.
- Limitările unui perceptron.
Rețele neuronale feedforward.
- Structuri ale rețelelor feedforward cu mai multe stratificări.
- Algoritmul de propagare inversă.
- Propagarea inversă - învățare și convergență.
- Aproximarea funcțională prin propagare inversă.
- Probleme practice și de design ale învățării cu propagare inversă.
Rețele neuronale cu funcții bazate pe radial.
- Separația modelelor și interpolarea.
- Teoria regularizării.
- Regularizarea și rețelele RBF.
- Proiectarea și învățarea rețelelor RBF.
- Proprietățile de aproximare ale rețelelor RBF.
Învățarea competitivă și rețelele neuronale autoorganizante.
- Proceduri de grupare generale.
- Vectorizarea învățării (LVQ).
- Algoritmi și arhitecturi de învățare competitivă.
- Hărți autoorganizante ale caracteristicilor.
- Proprietățile hărților de caracteristici.
Rețele neuronale fuzzy.
- Sisteme neuro-fuzzy.
- Contextul mulțimilor și logicii fuzzy.
- Proiectarea sistemelor fuzzy.
- Proiectarea rețelelor neuronale fuzzy.
Aplicații
- Vor fi discutate câteva exemple de aplicații ale rețelelor neuronale, cu avantajele și problemele lor.
ZIUA 2 - ÎNVĂȚAREA MAȘINII
- Cadru PAC pentru învățare
- Garante pentru seturi finite de ipoteze - cazul consistent
- Garante pentru seturi finite de ipoteze - cazul inconsistent
- Generalități
- Scenarii deterministe vs. stochastice
- Eroarea Bayes de zgomot
- Erorile de estimare și aproximare
- Selectia modelului
- Complexitatea Rademacher și dimensiunea VC.
- Compromisul între bias și varianță.
- Regularizarea.
- Pesteajustarea (overfitting).
- Validarea.
- Mășinile de vectori de suport (SVM).
- Kriging (regresia procesului Gaussian).
- PCA și Kernel PCA.
- Hărțile autoorganizante (SOM).
- Spațiul vectorial indus de kernel
- Nucleii Mercer și metricile de similaritate inducute de kernel
- Învățarea cu întărirea.
ZIUA 3 - ÎNVĂȚAREA PROFUNDĂ
Aceasta va fi predată în relație cu subiectele acoperite în Ziua 1 și Ziua 2
- Regresia logistică și softmax.
- Autoencoderi rari.
- Vectoreziere, PCA și albire.
- Învățare autoîndrumată.
- Rețele profunde.
- Decodificatori liniari.
- Convoluție și pooling.
- Codificarea rară.
- Analiza componentelor independente.
- Analiza corelației canonice.
- Demonstrații și aplicații.
Cerințe
O bună înțelegere a matematicii.
O bună înțelegere a statisticilor de bază.
Skill-urile de programare de bază nu sunt necesare, dar se recomandă.
Mărturii (2)
Lucrând în mod concentrat din principii de bază și trecerea la aplicarea studiilor de caz în aceeași zi
Maggie Webb - Department of Jobs, Regions, and Precincts
Curs - Artificial Neural Networks, Machine Learning, Deep Thinking
Tradus de catre o masina
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.
Jonathan Blease
Curs - Artificial Neural Networks, Machine Learning, Deep Thinking
Tradus de catre o masina