Schița de curs
ZIUA 1 - REȚELE NEURONALE ARTIFICIALE
Introducere și structura RNA.
- BioNeuronii logici și neuronii artificiali.
- Modelul unei RNA.
- Funcții de activare utilizate în RNA.
- Clase tipice de arhitecturi de rețea .
Mathematical Fundamente și mecanisme de învățare.
- Revizitarea algebrei vectoriale și matriceale.
- Concepte de spațiu de stare.
- Concepte de optimizare.
- Învățarea prin corectarea erorilor.
- Învățarea bazată pe memorie.
- Învățarea hebbiană.
- Învățare competitivă.
Perceptroni cu un singur strat.
- Structura și învățarea perceptronilor.
- Clasificator de modele - introducere și clasificatori Bayes.
- Perceptronul ca clasificator de modele.
- Convergența perceptronului.
- Limitările unui perceptron.
RNA feedforward.
- Structuri ale rețelelor feedforward multistrat.
- Algoritmul de propagare înapoi.
- Propagarea înapoi - formare și convergență.
- Aproximarea funcțională cu retropropagare.
- Aspecte practice și de proiectare ale învățării prin propagare inversă.
Rețele cu funcție de bază radială.
- Separabilitatea și interpolarea modelelor.
- Teoria regularizării.
- Regularizarea și rețelele RBF.
- Proiectarea și formarea rețelelor RBF.
- Proprietăți de aproximare ale RBF.
Învățarea competitivă și RNA autoorganizatoare.
- Proceduri generale de grupare.
- Cuantizarea vectorului de învățare (LVQ).
- Algoritmi și arhitecturi de învățare competitivă.
- Hărți de caracteristici autoorganizate.
- Proprietăți ale hărților caracteristice.
Fuzzy Neural Networks.
- Sisteme neuro-fuzzy.
- Context al seturilor și logicii fuzzy.
- Proiectarea tulpinilor fuzzy.
- Proiectarea de RNA fuzzy.
Aplicații
- Vor fi discutate câteva exemple de aplicații ale rețelelor neuronale, avantajele și problemele acestora.
ZIUA -2 ÎNVĂȚAREA AUTOMATĂ
- Cadrul de învățare PAC
- Garanții pentru setul finit de ipoteze - caz consecvent
- Garanții pentru un set finit de ipoteze - caz inconsistent
- Generalități
- Cv. deterministe Scenarii stocastice
- Zgomotul erorii Bayes
- Erori de estimare și aproximare
- Selectarea modelului
- Complexitatea Radmeacher și VC - Dimensiune
- Bias - Varianță
- Regularizarea
- Supraajustarea
- Validare
- Mașini vectoriale de suport
- Kriging (regresia procesului Gaussian)
- PCA și Kernel PCA
- Hărți de autoorganizare (SOM)
- Spațiu vectorial indus de nucleu
- Mercer Kernels și metrici de similaritate induse de Kernel
- Reinforcement Learning
ZIUA 3 - ÎNVĂȚAREA PROFUNDĂ
Aceasta va fi predată în legătură cu subiectele abordate în ziua 1 și ziua 2
- Regresia logistică și Softmax
- Autoencodere dispersate
- Vectorizare, PCA și albire
- Învățarea autodidactă
- Rețele profunde
- Decodificatoare liniare
- Convoluție și pooling
- Codare dispersată
- Analiza componentelor independente
- Analiza corelației canonice
- Demonstrații și aplicații
Cerințe
Good înțelegere a matematicii.
Good înțelegere a statisticilor de bază.
Competențele de programare de bază nu sunt necesare, dar sunt recomandate.
Mărturii (2)
Working from first principles in a focused way, and moving to applying case studies within the same day
Maggie Webb - Department of Jobs, Regions, and Precincts
Curs - Artificial Neural Networks, Machine Learning, Deep Thinking
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.