Cursuri de pregatire From Data to Decision with Big Data and Predictive Analytics
Public
Dacă încercați să înțelegeți din datele pe care aveți acces la sau doriți să analizați datele nestructurate disponibile pe net (cum ar fi Twitter, Linked in, etc ...), acest curs este pentru dvs.
Se adresează în special factorilor de decizie și persoanelor care au nevoie să aleagă ce date merită să fie colectate și ce merită analizat.
Nu este destinat persoanelor care configurează soluția, dar acești oameni vor beneficia de imaginea de ansamblu.
Modul de livrare
În timpul cursului, delegații vor fi prezentați cu exemple de lucru ale tehnologiilor cu sursă în mare parte.
Prelegerile scurte vor fi urmate de prezentări și de exerciții simple de către participanți
Conținutul și software-ul folosit
Tot software-ul folosit este actualizat de fiecare dată când cursul este rulat, așa că verificăm cele mai noi versiuni posibile.
Acesta acoperă procesul de obținere, formatare, prelucrare și analiză a datelor, pentru a explica modul de automatizare a procesului de luare a deciziilor cu învățarea în mașină.
Schița de curs
Prezentare generală rapidă
- Surse de date
- Minding Data
- Sisteme de recomandare
- Țintă Marketing
Tipuri de date
- Structurat vs nestructurat
- Static vs transmis în flux
- Date de atitudine, comportamentale și demografice
- Analiză bazată pe date vs. analiză bazată pe utilizator
- valabilitatea datelor
- Volumul, viteza și varietatea datelor
Modele
- Construire modele
- Modele statistice
- Învățare automată
Clasificarea datelor
- Clustering
- kGrupuri, k-înseamnă, cei mai apropiați vecini
- Colonii de furnici, păsări în turmă
Modele predictive
- Arbori de decizie
- Suport mașină vectorială
- Clasificarea naiv Bayes
- Rețele neuronale
- Modelul Markov
- Regresia
- Metode de ansamblu
ROI
- Raport beneficiu/cost
- Costul software-ului
- Costul dezvoltării
- Beneficii potențiale
Modele de constructii
- Pregătirea datelor (MapReduce)
- Curățarea datelor
- Alegerea metodelor
- Model de dezvoltare
- Model de testare
- Evaluarea modelului
- Implementarea și integrarea modelului
Prezentare generală a software-ului open source și comercial
- Selectarea pachetului R-project
- Python biblioteci
- Hadoop și Mahout
- Proiecte Apache selectate legate de Big Data și Analytics
- Soluție comercială selectată
- Integrare cu software-ul și sursele de date existente
Cerințe
Înțelegerea metodelor tradiționale de gestionare și analiză a datelor, cum ar fi SQL, depozitele de date, business intelligence, OLAP etc... Înțelegerea statisticilor de bază și a probabilităților (medie, varianță, probabilitate, probabilitate condiționată etc.) ....)
Cursurile publice necesita 5+ participanti
Cursuri de pregatire From Data to Decision with Big Data and Predictive Analytics - Rezervare
Cursuri de pregatire From Data to Decision with Big Data and Predictive Analytics - Solicita Oferta
From Data to Decision with Big Data and Predictive Analytics - Cerere de consultanta
Mărturii (2)
Conținutul, deoarece mi s-a părut foarte interesant și cred că m-ar ajuta în ultimul meu an de facultate.
Krishan - NBrown Group
Curs - From Data to Decision with Big Data and Predictive Analytics
Tradus de catre o masina
Richard's training style kept it interesting, the real world examples used helped to drive the concepts home.
Jamie Martin-Royle - NBrown Group
Curs - From Data to Decision with Big Data and Predictive Analytics
Upcoming Courses
Cursuri înrudite
Predictive AI in DevOps: Enhancing Software Delivery
14 oreAcest curs de formare live, condus de un instructor în România (online sau la fața locului) se adresează profesioniștilor DevOps de nivel intermediar care doresc să integreze inteligența artificială predictivă în practicile lor DevOps.
La finalul acestui curs de formare, participanții vor fi capabili să:
- Să implementeze modele de analiză predictivă pentru a prognoza și a rezolva provocările din cadrul DevOps pipeline-ului.
- Să utilizeze instrumente bazate pe AI pentru o monitorizare și operațiuni îmbunătățite.
- Să aplice tehnici de învățare automată pentru a îmbunătăți fluxurile de lucru pentru livrarea de software.
- Să conceapă strategii de inteligență artificială pentru rezolvarea proactivă a problemelor și pentru optimizare.
- Navigați printre considerentele etice ale utilizării IA în DevOps.
Introduction to Predictive AI
21 oreAcest curs de instruire live, condus de un instructor în România (online sau la fața locului) se adresează profesioniștilor IT de nivel începător care doresc să înțeleagă elementele de bază ale inteligenței artificiale predictive.
La finalul acestui curs de formare, participanții vor fi capabili să:
- Înțeleagă conceptele de bază ale AI predictiv și aplicațiile sale.
- Să colecteze, să curețe și să preproceseze datele pentru analiza predictivă.
- Să exploreze și să vizualizeze datele pentru a descoperi informații.
- Să construiască modele statistice de bază pentru a face predicții.
- Să evaluați performanța modelelor predictive.
- Aplicați conceptele de inteligență artificială predictivă la scenarii din lumea reală.
Data Vault: Building a Scalable Data Warehouse
28 oreÎn acest training live, condus de un instructor în România, participanții vor învăța cum să construiască un Data Vault.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Înțelegeți arhitectura și conceptele de design din spatele Data Vault 2.0, precum și interacțiunea sa cu Big Data, NoSQL și AI. .
- Utilizați tehnicile de data vaulting pentru a permite auditarea, urmărirea și inspectarea datelor istorice într-un depozit de date. .
- Dezvoltați un proces ETL (Extract, Transform, Load) consistent și repetabil. .
- Construiți și implementați depozite foarte scalabile și repetabile. .
Spark Streaming with Python and Kafka
7 oreAcest curs de instruire live, condus de un instructor în România (online sau la fața locului) se adresează inginerilor de date, oamenilor de știință de date și programatorilor care doresc să utilizeze caracteristicile Spark Streaming în procesarea și analiza datelor în timp real.
La sfârșitul acestui curs, participanții vor putea utiliza Spark Streaming pentru a procesa fluxuri de date în timp real pentru a le utiliza în baze de date, sisteme de fișiere și tablouri de bord în timp real.
Confluent KSQL
7 oreAcest curs de instruire live, condus de un instructor în România (online sau la fața locului) este destinat dezvoltatorilor care doresc să implementeze procesarea fluxurilor Apache Kafka fără a scrie cod.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Instalați și configurați Confluent KSQL. .
- Configurați o conductă de procesare a fluxurilor folosind doar comenzi SQL (fără codare Java sau Python). .
- Realizați filtrarea datelor, transformările, agregările, îmbinările, fereastrarea și sesizarea în întregime în SQL. .
- Proiectați și implementați interogări interactive și continue pentru ETL în flux și analize în timp real. .
Apache Ignite for Developers
14 oreAcest curs de instruire live, condus de un instructor în România (online sau la fața locului) se adresează dezvoltatorilor care doresc să învețe principiile care stau la baza stocării persistente și pure în memorie, pe măsură ce parcurg crearea unui proiect de exemplu de calcul în memorie.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
-
Utilizați Ignite pentru persistența în memorie, pe disc, precum și pentru o bază de date pur distribuită în memorie.
Obțineți persistență fără a sincroniza datele cu o bază de date relațională.
Utilizați Ignite pentru a efectua îmbinări SQL și distribuite.
Îmbunătățiți performanța prin mutarea datelor mai aproape de CPU, folosind memoria RAM ca stocare.
Răspândiți seturile de date pe un cluster pentru a obține scalabilitate orizontală.
Integrați Ignite cu RDBMS, NoSQL, Hadoop și procesoare de învățare automată.
Unified Batch and Stream Processing with Apache Beam
14 oreApache Beam este un model de programare unificat, open source, pentru definirea și executarea conductelor paralele de procesare a datelor. Puterea sa constă în capacitatea sa de a rula conducte de loturi și de streaming, execuția fiind realizată de unul dintre back-end-urile de procesare distribuite acceptate de Beam: Apache Apex , Apache Flink , Apache Spark și Go ogle Cloud Dataflow. Apache Beam este utilă pentru sarcinile ETL (Extract, Transform și Load), cum ar fi mutarea datelor între diferite suporturi de stocare și surse de date, transformarea datelor într-un format mai dorit și încărcarea datelor într-un nou sistem.
În acest training, instruit în direct (la fața locului sau la distanță), participanții vor învăța cum să implementeze SDK-urile Apache Beam într-o Java sau Python care definește o conductă de prelucrare a datelor pentru descompunerea unui set de date mari în bucăți mai mici pentru o prelucrare independentă și paralelă .
Până la sfârșitul acestui antrenament, participanții vor putea:
- Instalați și configurați Apache Beam .
- Utilizați un singur model de programare pentru a efectua atât procesarea lotului, cât și fluxul, pentru a elimina Java lor Java sau Python .
- Executați conducte în mai multe medii.
Formatul cursului
- Partea de prelegere, o discuție parțială, exerciții și practici practice
Notă
- Acest curs va fi disponibil Scala în viitor. Vă rugăm să ne contactați pentru a vă aranja.
Apache Apex: Processing Big Data-in-Motion
21 oreApache Apex este o platformă nativă YARN care unifică procesarea fluxurilor și loturilor. Procesează date mari în mișcare într-un mod care poate fi scalabil, performant, tolerant la erori, statistic, sigur, distribuit și ușor operabil.
Această instruire în direct, dirijată de instructor, introduce arhitectura de procesare a fluxurilor unificate de Apache Apex și parcurge participanții prin crearea unei aplicații distribuite folosind Apex pe Hadoop .
Până la sfârșitul acestui antrenament, participanții vor putea:
- Înțelegeți conceptele conductelor de procesare a datelor, cum ar fi conectori pentru surse și chiuvete, transformări comune de date etc.
- Construiți, scalați și optimizați o aplicație Apex
- Procesați fluxuri de date în timp real în mod fiabil și cu latență minimă
- Utilizați Apex Core și biblioteca Apex Malhar pentru a permite dezvoltarea rapidă a aplicației
- Utilizați API-ul Apex pentru a scrie și reutiliza codul Java existent
- Integrați Apex în alte aplicații ca motor de procesare
- Reglarea, testarea și scalarea aplicațiilor Apex
Formatul cursului
- Prelegeri și discuții interactive.
- O mulțime de exerciții și practică.
- Implementarea practică într-un mediu de laborator live.
Opțiuni de personalizare a cursului
- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
Apache Storm
28 oreApache Storm este un motor de calcul distribuit în timp real utilizat pentru a permite inteligența de afaceri în timp real. Acest lucru se face prin a permite aplicațiilor să proceseze în mod fiabil fluxurile nedeterminate de date (de exemplu. prelucrarea fluxului).
"Storm este pentru prelucrarea în timp real ceea ce Hadoop este pentru prelucrarea batch!"
În această pregătire directă condusă de instructori, participanții vor învăța cum să instaleze și să configureze Apache Storm, apoi să dezvolte și să implementeze o aplicație Apache Storm pentru prelucrarea datelor mari în timp real.
Unele dintre subiectele incluse în această formare includ:
- Apache Storm în contextul Hadoop
- Lucrarea cu date nelimitată
- Computație continuă
- Analiza în timp real
- Procesare distribuită RPC și ETL
Cere acest curs acum!
Audienţă
- Software și dezvoltatori ETL
- Profesioniștii Mainframe
- Știință de date
- Analistii Big Data
- [ 0 ] Profesioniști
Formatul cursului
- Lecții parțiale, discuții parțiale, exerciții și practici grele
Apache NiFi for Administrators
21 oreÎn cadrul acestui curs de instruire live, condus de un instructor în România (la fața locului sau la distanță), participanții vor învăța cum să implementeze și să administreze Apache NiFi într-un mediu de laborator live.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Instalați și configurați Apachi NiFi.
- Furnizați, transformați și gestionați date din surse de date disparate, distribuite, inclusiv baze de date și lacuri de date mari. .
- Automatizați fluxurile de date. .
- Activați analizele de streaming. .
- Aplicați diverse abordări pentru ingestia de date. .
- Transformați Big Data și în informații de afaceri. .
Apache NiFi for Developers
7 oreÎn acest curs de instruire live, condus de un instructor în România, participanții vor învăța elementele de bază ale programării bazate pe fluxuri pe măsură ce vor dezvolta o serie de extensii, componente și procesoare demonstrative folosind Apache NiFi.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Înțelegeți arhitectura NiFi's și conceptele de flux de date.
- Dezvoltați extensii folosind NiFi și API-uri de la terți.
- Dezvoltă personalizat propriul procesor Apache Nifi. .
- Ingerați și procesați date în timp real din formate de fișiere și surse de date disparate și neobișnuite.
Apache Flink Fundamentals
28 oreAcest curs de instruire live, condus de un instructor în România (online sau la fața locului) introduce principiile și abordările din spatele procesării distribuite a fluxurilor și a datelor pe loturi și îi conduce pe participanți prin crearea unei aplicații de streaming de date în timp real în Apache Flink.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
-
Crearea unui mediu pentru dezvoltarea aplicațiilor de analiză a datelor.
Înțelegeți cum funcționează biblioteca de procesare grafică Apache Flink's s (Gelly).
Împachetați, executați și monitorizați aplicațiile de streaming de date bazate pe Flink, tolerante la erori.
Gestionați diverse sarcini de lucru.
Efectuați analize avansate.
Configurați un cluster Flink cu mai multe noduri.
Măsurați și optimizați performanța.
Integrați Flink cu diferite sisteme Big Data.
Comparați capacitățile Flink cu cele ale altor cadre de procesare a datelor mari.
Python and Spark for Big Data (PySpark)
21 oreÎn cadrul acestui curs de instruire live, condus de un instructor în România, participanții vor învăța cum să utilizeze Python și Spark împreună pentru a analiza date mari în timp ce lucrează la exerciții practice.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Învățați cum să utilizați Spark cu Python pentru a analiza Big Data.
- Lucrați la exerciții care imită cazuri din lumea reală.
- Utilizați diferite instrumente și tehnici de analiză a datelor mari folosind PySpark. .
Introduction to Graph Computing
28 oreÎn cadrul acestui curs de instruire live, condus de un instructor în România, participanții vor învăța despre ofertele tehnologice și abordările de implementare pentru procesarea datelor grafice. Scopul este de a identifica obiectele din lumea reală, caracteristicile și relațiile acestora, apoi de a modela aceste relații și de a le procesa ca date utilizând o abordare Graph Computing (cunoscută și sub numele de Graph Analytics). Începem cu o prezentare generală și ne concentrăm asupra unor instrumente specifice pe măsură ce parcurgem o serie de studii de caz, exerciții practice și implementări live.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Înțelegeți modul în care datele grafice sunt persistate și traversate.
- Selectați cel mai bun cadru pentru o anumită sarcină (de la baze de date grafice la cadre de procesare pe loturi.) .
- Implementați Hadoop, Spark, GraphX și Pregel pentru a efectua calculul grafic pe mai multe mașini în paralel. .
- Veziți problemele de big data din lumea reală în termeni de grafuri, procese și traversări. .
Apache Spark MLlib
35 oreMLlib este biblioteca Spark de învățare automată (ML). Scopul său este de a face învățarea practică a mașinilor scalabilă și ușoară. Se compune din algoritmi și utilități comune de învățare, inclusiv clasificarea, regresia, gruparea, filtrarea colaborativă, reducerea dimensiunilor, precum și primitivele de optimizare la nivel inferior și API-urile de conducte de nivel superior.
Se împarte în două pachete:
spark.mllib conține API original construit pe partea de sus RDDs.
spark.ml furnizează API de nivel superior construit pe partea de sus a DataFrames pentru construirea conductelor ML.
Public
Acest curs este adresat inginerilor și dezvoltatorilor care încearcă să utilizeze o mașină de bibliotecă construită pentru Apache Spark