Schița de curs

ZIUA 1 - REȚELE NEURALE ARTIFICIALE

Introducere și Structura ANN.

    Bioneuroni logici și neuroni artificiali. Modelul unui ANN. Funcții de activare utilizate în ANN-uri. Clase tipice de arhitecturi de rețea.

Mathematical Fundamente și mecanisme de învățare.

    Re-vizitând algebra vectorială și matriceală. Concepte de spațiu de stat. Concepte de optimizare. Învățare cu corectarea erorilor. Învățare bazată pe memorie. Învățare hebbiană. Învățare competitivă.

Perceptroni cu un singur strat.

    Structura și învățarea perceptronilor. Clasificatorul de tipare - introducere și clasificatorii lui Bayes. Perceptron ca clasificator de modele. Convergența perceptronului. Limitările unui perceptron.

Feedforward ANN.

    Structuri ale rețelelor feedforward multistrat. Algoritm de propagare înapoi. Propagarea spatelui - antrenament și convergență. Aproximare funcțională cu propagare inversă. Probleme practice și de proiectare ale învățării cu propagare inversă.

Rețele cu funcție de bază radială.

    Separabilitatea și interpolarea modelelor. Teoria regularizării. Rețele de regularizare și RBF. Proiectarea și formarea rețelei RBF. Proprietățile de aproximare ale RBF.

Învățare competitivă și autoorganizare ANN.

    Proceduri generale de grupare. Learning Vector Quantization (LVQ). Algoritmi și arhitecturi de învățare competitive. Hărți de caracteristici cu autoorganizare. Proprietățile hărților de caracteristici.

Fuzzy Neural Networks.

    Sisteme neuro-fuzzy. Fundal de seturi neclare și logica. Design de tulpini neclare. Proiectarea ANN-urilor fuzzy.

Aplicații

    Vor fi discutate câteva exemple de aplicații ale rețelei neuronale, avantajele și problemele acestora.

ZIUA -2 ÎNVĂȚAREA MAȘINĂ

    Cadrul de învățare PAC Garanții pentru mulțime de ipoteze finite – caz consistent Garanții pentru mulțime de ipoteze finite – caz inconsecvent Generalități cv determinist. Scenarii stocastice Zgomot eroare Bayes Erori de estimare și aproximare Selectare model
Radmeacher Complexity și VC – DimensiunePrejudecăți - Compensație varianță
  • Regularizare
  • Suprapotrivire
  • Validare
  • Suport mașini vectoriale
  • Kriging (regresia procesului Gaussian)
  • PCA și Kernel PCA
  • Hărți de autoorganizare (SOM)
  • Kernel indus vector space Mercer Kernels și Kernel - metrici de similaritate indusă
  • Reinforcement Learning
  • ZIUA 3 - ÎNVĂȚAREA PROFUNDĂ
  • Acest lucru va fi predat în legătură cu subiectele abordate în Ziua 1 și Ziua 2
  • Regresie logistică și Softmax Autoencodere rare Vectorizare, PCA și albire Învățare autodidactă Rețele profunde Decodoare liniare Convoluție și punere în comun Codare rară Analiză independentă a componentelor Analiza corelației canonice Demonstrări și aplicații
  • Cerințe

    O bună înțelegere a matematicii.

    Goo înțelegere a statisticilor de bază.

    Competențele de bază în programare nu sunt necesare, dar sunt recomandate.

     21 ore

    Numărul de participanți



    Pret per participant

    Mărturii (2)

    Categorii înrudite