Cursuri Big Data

Cursuri Big Data

Cursurile de instruire a cursanților locali, instruiți de instructori, încep cu o introducere la conceptele elementare ale Big Data, apoi progresul în limbile de programare și metodologiile utilizate pentru a efectua analiza datelor. Instrumentele și infrastructura pentru a permite stocarea datelor mari, procesarea distribuită și scalabilitatea sunt discutate, comparate și implementate în sesiuni de practică demo. Ansamblul de formare a datelor este disponibil ca "formare live la fața locului" sau "formare live la distanță". Training-ul live la fața locului poate fi efectuat la fața locului la sediul clientului România sau în centrele de formare corporativa NobleProg din România România . Instruirea live la distanță este realizată printr-un desktop interactiv, la distanță. NobleProg - Furnizorul dvs. de formare locală

Machine Translated

Mărturii

★★★★★
★★★★★

Big Data Course Outlines

Numele cursului
Durata
Sinoptic
Numele cursului
Durata
Sinoptic
14 hours
Sinoptic
Go al:

Învățați să lucrați cu SPSS la nivelul independenței

Destinatarii:

Analiști, cercetători, oameni de știință, studenți și toți cei care doresc să dobândească capacitatea de a utiliza pachetul SPSS și de a învăța tehnici populare de exploatare a datelor.
28 hours
Sinoptic
MonetDB este o bază de date open source care a pionierat abordarea tehnologiei storalelor În acest training instruit, participanții vor învăța cum să folosească MonetDB și cum să obțină cea mai mare valoare din acesta Până la sfârșitul acestui curs, participanții vor putea: Înțelegeți MonetDB și caracteristicile acestuia Instalați și începeți cu MonetDB Explorați și efectuați diferite funcții și sarcini în MonetDB Accelerați livrarea proiectului prin maximizarea capacităților MonetDB Public Dezvoltatori Experți tehnici Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
7 hours
Sinoptic
Spark SQL este modulul Apache Spark pentru lucrul cu date structurate și nestructurate. Spark SQL oferă informații despre structura datelor, precum și despre calculul efectuat. Aceste informații pot fi utilizate pentru a realiza optimizări. Două utilizări comune pentru Spark SQL sunt:
- pentru a executa interogări SQL .
- pentru a citi datele dintr-o instalație Hive existentă.

În cadrul acestui training, instruit în direct (la fața locului sau la distanță), participanții vor învăța cum să analizeze diverse tipuri de seturi de date folosind Spark SQL .

Până la sfârșitul acestui antrenament, participanții vor putea:

- Instalați și configurați Spark SQL .
- Efectuați analiza datelor utilizând Spark SQL .
- Seturi de date de interogare în diferite formate.
- Vizualizați datele și rezultatele interogării.

Formatul cursului

- Prelegeri și discuții interactive.
- O mulțime de exerciții și practică.
- Implementarea practică într-un mediu de laborator live.

Opțiuni de personalizare a cursului

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
7 hours
Sinoptic
Obiectivul cursului este de a permite participanților să dobândească o stăpânire a elementelor fundamentale ale R și modul de lucru cu datele.
14 hours
Sinoptic
Obiectiv : Acest curs de formare își propune să îi ajute pe participanți să înțeleagă de ce Big Data ne schimbă viața și cum modifică modul în care întreprinderile ne văd ca consumatori. Într-adevăr, utilizatorii de date mari din întreprinderi consideră că datele mari dezlănțuie o sumedenie de informații și informații care se traduce în profituri mai mari, costuri reduse și riscuri mai mici. Cu toate acestea, dezavantajul a fost frustrarea uneori când s-a pus prea mult accent pe tehnologiile individuale și nu s-a concentrat suficient pe pilonii gestionării datelor mari.

Participanții vor învăța pe parcursul acestui curs cum să gestioneze datele mari utilizând cei trei piloni ai integrării datelor, guvernării datelor și securității datelor, pentru a transforma datele mari în valoarea reală a afacerii. Diferite exerciții efectuate pe un studiu de caz al managementului clienților îi vor ajuta pe participanți să înțeleagă mai bine procesele de bază.
14 hours
Sinoptic
Apache Hama este un cadru bazat pe modelul de calcul Bulk Synchronous Parallel (BSP) și este utilizat în principal pentru analiza Big Data .

În cadrul acestui instruire, instruit în direct, participanții vor învăța fundamentele lui Apache Hama timp ce pășesc prin crearea unei aplicații bazate pe BSP și a unui program centrat pe vertex, folosind cadrele Apache Hama .

Până la sfârșitul acestui antrenament, participanții vor putea:

- Instalați și configurați Apache Hama
- Înțelegeți elementele fundamentale ale modelului de programare paralel (BSP) Apache Hama și Bulk Synchronous Parallel (BSP)
- Construiți un program bazat pe BSP folosind cadrul BSP Apache Hama
- Construiți un program centrat pe vertex folosind Apache Hama Graph Framework
- Construiește, testează și depanează propriile aplicații Apache Hama

Public

- Dezvoltatori

Formatul cursului

- Partea de prelegere, o discuție parțială, exerciții și practici practice

Notă

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
14 hours
Sinoptic
Această sesiune de instruire bazată pe clasă va explora Big Data . Delegații vor avea exemple pe computer și exerciții de studiu de caz pe care să le întreprindă cu instrumente relevante pentru date mari
7 hours
Sinoptic
Kafka Streams este o bibliotecă din partea clientului pentru construirea de aplicații și microservicii ale căror date sunt transmise către și de la un sistem de mesagerie Kafka. În mod tradițional, Apache Kafka s-a bazat pe Apache Spark sau Apache Storm pentru a prelucra date între producătorii de mesaje și consumatori. Apelând API-ul Kafka Streams din cadrul unei aplicații, datele pot fi procesate direct în Kafka, ocolind nevoia de a trimite datele către un cluster separat pentru procesare.

În cadrul acestui training, instruit în direct, participanții vor învăța cum să integreze Kafka Streams într-un set de aplicații Java care să treacă date de la și de la Apache Kafka pentru procesarea fluxului.

Până la sfârșitul acestui antrenament, participanții vor putea:

- Înțelegeți caracteristicile și avantajele Kafka Streams față de alte cadre de procesare a fluxurilor
- Procesați fluxul de date direct în cadrul unui cluster Kafka
- Scrieți o aplicație sau microservice Java sau Scala care se integrează cu Kafka și Kafka Streams
- Scrieți un cod concis care transformă subiectele Kafka de intrare în subiecte Kafka de ieșire
- Construiți, împachetați și implementați aplicația

Public

- Dezvoltatori

Formatul cursului

- Partea de prelegere, o discuție parțială, exerciții și practici practice

notițe

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza
21 hours
Sinoptic
Dremio este o "platformă de date cu autoservire" care acceleră interogarea diferitelor tipuri de surse de date Dremio se integrează cu bazele de date relaționale, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch și alte surse de date Acesta suportă SQL și oferă un interfață web pentru construirea de interogări În acest training instruit, participanții vor învăța cum să instaleze, să configureze și să utilizeze Dremio ca un strat unificator pentru instrumentele de analiză a datelor și depozitele de date care stau la baza acestora Până la sfârșitul acestui curs, participanții vor putea: Instalați și configurați Dremio Executați interogări împotriva mai multor surse de date, indiferent de locație, dimensiune sau structură Integrați Dremio cu BI și surse de date cum ar fi Tableau și Elasticsearch Public Cercetătorii de date Analiști de afaceri Ingineri de date Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră notițe Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a aranja .
7 hours
Sinoptic
Apache Drill este un motor de interogare SQL în coloane schemafree, distribuit, inmemory pentru Hadoop, NoSQL și alte sisteme de stocare a informațiilor din cloud și fișiere Puterea aplicației Apache Drill constă în capacitatea sa de a se alătura datelor din mai multe magazine de date folosind o singură interogare Apache Drill suportă numeroase baze de date NoSQL și sisteme de fișiere, inclusiv HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS și fișierele locale Apache Drill este versiunea open source a sistemului Google Dremel, disponibil ca serviciu de infrastructură numit Google BigQuery În această instruire live, participanții vor învăța cum să optimizeze și să depaneze Apache Drill pentru a îmbunătăți performanța interogărilor pe seturi de date foarte mari Cursul începe cu o imagine de ansamblu arhitecturală și o comparare a caracteristicilor dintre Apache Drill și alte instrumente interactive de analiză a datelor Participanții apoi parcurg o serie de sesiuni interactive practice, care includ instalarea, configurarea, evaluarea performanței, optimizarea interogărilor, partiționarea datelor și depanarea unei instanțe Apache Drill într-un mediu de laborator live Până la sfârșitul acestui curs, participanții vor putea: Instalați și configurați Apache Drill Înțelegeți arhitectura și caracteristicile Apache Drill Înțelegeți modul în care Apache Drills primește și execută interogări Optimizați interogările Drill pentru execuția SQL distribuită Debug Apache Drill Public Dezvoltatori Administratori de sisteme Analiști de date Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră notițe Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a aranja .
7 hours
Sinoptic
În cadrul acestui training, instruit în direct, participanții vor învăța conceptele de bază din spatele Arhitecturii Stream MapR pe măsură ce dezvoltă o aplicație de streaming în timp real.

Până la sfârșitul acestei formări, participanții vor putea construi aplicații pentru producători și consumatori pentru procesarea datelor în flux în timp real.

Public

- Dezvoltatori
- Administratorii

Formatul cursului

- Partea de prelegere, o discuție parțială, exerciții și practici practice

Notă

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
21 hours
Sinoptic
Apache Drill este un motor de interogare SQL în coloane schemafree, distribuit, inmemory pentru Hadoop, NoSQL și alte sisteme de stocare a informațiilor din cloud și fișiere Puterea aplicației Apache Drill constă în capacitatea sa de a se alătura datelor din mai multe magazine de date folosind o singură interogare Apache Drill suportă numeroase baze de date NoSQL și sisteme de fișiere, inclusiv HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS și fișierele locale Apache Drill este versiunea open source a sistemului Google Dremel, disponibil ca serviciu de infrastructură numit Google BigQuery În această instruire instruită, participanții vor învăța bazele Apache Drill, apoi vor folosi puterea și comoditatea SQL pentru a interoga interactiv datele mari din mai multe surse de date, fără a scrie cod Participanții vor învăța, de asemenea, cum să optimizeze interogările Drill pentru execuția SQL distribuită Până la sfârșitul acestui curs, participanții vor putea: Efectuați explorări "auto-servicii" pe date structurate și semistructurate despre Hadoop Interogare cunoscute, precum și date necunoscute, folosind interogări SQL Înțelegeți modul în care Apache Drills primește și execută interogări Scrieți interogări SQL pentru a analiza diferite tipuri de date, inclusiv date structurate în Hive, date semistructurate în tabelele HBase sau MapRDB și date salvate în fișiere precum Parquet și JSON Utilizați Apache Drill pentru a efectua descoperirea schemei onthefly, ocolind nevoia de operații complexe ETL și schema Integrați aplicația Apache Drill cu BI (Business Intelligence), cum ar fi Tableau, Qlikview, MicroStrategy și Excel Public Analiști de date Cercetătorii de date Programatori SQL Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
28 hours
Sinoptic
Mem SQL este un sistem de gestionare a bazelor de date SQL distribuit în memorie, pentru cloud și local. Este un depozit de date în timp real, care oferă informații despre date live și istorice.

În acest training, instruit în direct, instruit, participanții vor învăța esențialele Mem SQL pentru dezvoltare și administrare.

Până la sfârșitul acestui antrenament, participanții vor putea:

- Înțelegeți conceptele și caracteristicile cheie ale Mem SQL
- Instalează, proiectează, întreține și operează Mem SQL
- Optimizați schemele în Mem SQL
- Îmbunătățiți interogările în Mem SQL
- Performanța de referință în Mem SQL
- Creați aplicații de date în timp real folosind Mem SQL

Public

- Dezvoltatori
- Administratorii
- Ingineri de funcționare

Formatul cursului

- Partea de prelegere, o discuție parțială, exerciții și practici practice
21 hours
Sinoptic
Amazon Redshift este un serviciu de stocare de date pe bază de date pe bază de date pe bază de date pe bază de cloud în AWS În acest training instruit, participanții vor învăța fundamentele Amazon Redshift Până la sfârșitul acestui curs, participanții vor putea: Instalați și configurați Redshift Amazon Încărcați, configurați, implementați, interogați și vizualizați date cu Amazon Redshift Public Dezvoltatori Profesioniști IT Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră Notă Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a aranja .
28 hours
Sinoptic
Hadoop este un cadru popular de prelucrare a datelor Python este un limbaj de programare de nivel înalt renumit pentru sintaxa clară și citirea codului În acest training instruit, participanții vor învăța cum să lucreze cu Hadoop, MapReduce, Pig și Spark utilizând Python, deoarece parcurg exemple și cazuri multiple Până la sfârșitul acestui curs, participanții vor putea: Înțelegeți conceptele de bază din spatele lui Hadoop, MapReduce, Pig și Spark Utilizați Python cu Hadoop Distributed File System (HDFS), MapReduce, Porc și Spark Utilizați Snakebite pentru a accesa în mod programatic HDFS în Python Utilizați mrjob pentru a scrie sarcini MapReduce în Python Scrie programele Spark cu Python Extindeți funcționalitatea porcului utilizând UDF-urile Python Gestionați lucrările MapReduce și scripturile Pig folosind Luigi Public Dezvoltatori Profesioniști IT Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
21 hours
Sinoptic
Python este un limbaj de programare la nivel înalt, renumit pentru sintaxa și lizibilitatea codurilor sale. Spark este un motor de procesare a datelor utilizat în interogare, analiză și transformare de date mari. PySpark permite utilizatorilor să interfețe Spark cu Python .

În cadrul acestui antrenament, instruit în direct, participanții vor învăța cum să folosească împreună Python și Spark pentru a analiza datele mari pe măsură ce lucrează la exerciții practice.

Până la sfârșitul acestui antrenament, participanții vor putea:

- Aflați cum să utilizați Spark cu Python pentru a analiza Big Data .
- Lucrați la exerciții care imită circumstanțele din lumea reală.
- Utilizați diferite instrumente și tehnici pentru analiza datelor mari utilizând PySpark .

Formatul cursului

- Partea de prelegere, o discuție parțială, exerciții și practici practice
35 hours
Sinoptic
Avansele tehnologiilor și cantitatea din ce în ce mai mare de informații transformă modul în care se execută aplicarea legii. Provocările pe care Big Data prezintă sunt la fel de descurajante ca promisiunea Big Data . Stocarea eficientă a datelor este una dintre aceste provocări; analiza eficientă este alta.

În cadrul acestui training, instruit în direct, participanții vor învăța mentalitatea cu care să abordeze tehnologiile Big Data , să evalueze impactul lor asupra proceselor și politicilor existente și să implementeze aceste tehnologii în scopul identificării activității infracționale și prevenirii criminalității. Studiile de caz de la organizațiile de aplicare a legii din întreaga lume vor fi examinate pentru a obține informații despre abordările, provocările și rezultatele adoptării lor.

Până la sfârșitul acestui antrenament, participanții vor putea:

- Combinați tehnologia Big Data cu procesele tradiționale de colectare a datelor pentru a crea împreună o poveste în timpul unei investigații
- Implementați soluții industriale de stocare și prelucrare a datelor pentru analiza datelor
- Pregătiți o propunere pentru adoptarea celor mai adecvate instrumente și procese care să permită o abordare bazată pe date privind cercetarea penală

Public

- Specialiștii în aplicarea legii, cu pregătire tehnică

Formatul cursului

- Partea de prelegere, o discuție parțială, exerciții și practici practice
14 hours
Sinoptic
Pentru a respecta conformitatea reglementatorilor, CSP-urile (furnizorii de servicii de Communication ) pot apela la Big Data Analytics, care nu numai că îi ajută să îndeplinească conformitatea, dar, în cadrul aceluiași proiect, pot crește satisfacția clienților și astfel pot reduce puterea. De fapt, întrucât conformitatea este legată de Calitatea serviciului legată de un contract, orice inițiativă în vederea respectării conformității va îmbunătăți „avantajul competitiv” al CSP-urilor. Prin urmare, este important ca autoritățile de reglementare să fie în măsură să consilieze / să ghideze un set de practici analitice Big Data pentru CSP-uri care vor avea un beneficiu reciproc între autoritățile de reglementare și CSP-uri.

Cursul este format din 8 module (4 în ziua 1 și 4 în ziua 2)
28 hours
Sinoptic
Un număr mare de probleme ale lumii reale pot fi descrise în termeni de grafice De exemplu, graficul Web, graficul rețelei sociale, graficul rețelei de tren și graficul de limbă Aceste grafice tind să fie extrem de mari; prelucrarea acestora necesită un set specializat de instrumente și procese, aceste instrumente și procese pot fi denumite Graph Computing (cunoscut și sub numele de Graph Analytics) În acest training instruit, participanții vor învăța despre ofertele de tehnologie și abordările de implementare pentru prelucrarea datelor grafice Scopul este de a identifica obiectele din lumea reală, de caracteristicile și relațiile lor, apoi de a modela aceste relații și de a le procesa ca date folosind o abordare grafică de calcul Începem cu o privire de ansamblu largă și se restrânge instrumentele specifice pe măsură ce trecem printr-o serie de studii de caz, exerciții de manevră și implementări live Până la sfârșitul acestui curs, participanții vor putea: Înțelegeți modul în care datele grafice persistă și traversează Selectați cel mai bun cadru pentru o anumită sarcină (de la baze de date grafice la cadre de procesare în bloc) Implementați Hadoop, Spark, GraphX ​​și Pregel pentru a efectua calcul grafic în mai multe mașini în paralel Vizualizați problemele mari de date realworld din punct de vedere al graficelor, proceselor și traverselor Public Dezvoltatori Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
7 hours
Sinoptic
Apache NiFi (Hortonworks DataFlow) este o platformă de logistică integrată în timp real a datelor și o simplă platformă de procesare a evenimentelor care permite mutarea, urmărirea și automatizarea datelor între sisteme. Este scris folosind o programare bazată pe fluxuri și oferă o interfață de utilizator bazată pe web pentru a gestiona fluxurile de date în timp real.

În cadrul acestui training, instruit în direct, participanții vor învăța fundamentele programării bazate pe fluxuri, deoarece dezvoltă o serie de extensii demo, componente și procesoare care folosesc Apache NiFi .

Până la sfârșitul acestui antrenament, participanții vor putea:

- Înțelegeți arhitectura NiFi și conceptele fluxului de date.
- Dezvoltați extensii folosind API-uri NiFi și terțe părți.
- Personalizate dezvoltă propriul procesor Apache Nifi.
- Ingerați și prelucrați datele în timp real din formate de fișiere și surse de date diferite și neobișnuite.

Formatul cursului

- Prelegeri și discuții interactive.
- O mulțime de exerciții și practică.
- Implementarea practică într-un mediu de laborator live.

Opțiuni de personalizare a cursului

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
21 hours
Sinoptic
Apache NiFi (Hortonworks DataFlow) este o platformă de logistică integrată în timp real a datelor și o simplă platformă de procesare a evenimentelor care permite mutarea, urmărirea și automatizarea datelor între sisteme. Este scris folosind o programare bazată pe fluxuri și oferă o interfață de utilizator bazată pe web pentru a gestiona fluxurile de date în timp real.

În cadrul acestui training, instruit în direct (la fața locului sau la distanță), participanții vor învăța cum să se implementeze și să gestioneze Apache NiFi într-un mediu de laborator live.

Până la sfârșitul acestui antrenament, participanții vor putea:

- Instalați și configurați Apachi NiFi.
- Sursa, transformarea și gestionarea datelor din surse de date disparate, distribuite, inclusiv baze de date și lacuri de date mari.
- Automatizarea fluxurilor de date.
- Activați analizele de streaming.
- Aplicați diverse abordări pentru ingestia de date.
- Transformați Big Data și în perspective de afaceri.

Formatul cursului

- Prelegeri și discuții interactive.
- O mulțime de exerciții și practică.
- Implementarea practică într-un mediu de laborator live.

Opțiuni de personalizare a cursului

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
14 hours
Sinoptic
Apache SolrCloud este un motor distribuit de procesare a datelor care facilitează căutarea și indexarea fișierelor într-o rețea distribuită În acest training instruit, participanții vor învăța cum să înființeze o instanță SolrCloud pe Amazon AWS Până la sfârșitul acestui curs, participanții vor putea: Înțelegeți caracteristicile SolCloud și cum se compară cu cele ale clusterelor convenționale de master Configurați un cluster centralizat SolCloud Automatizați procesele, cum ar fi comunicarea cu fragmente, adăugarea de documente la cioburi, etc Utilizați Zookeeper împreună cu SolrCloud pentru a automatiza procesele Utilizați interfața pentru a gestiona raportarea erorilor Load balance (Balanță de încărcare) o instalare SolrCloud Configurați SolrCloud pentru procesare continuă și failover Public Dezvoltatori Solr Manageri de proiect Administratorii de sistem Analiști de căutare Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
28 hours
Sinoptic
Modelul de sablare a datelor este o tehnică de modelare a bazelor de date care asigură stocarea istorică pe termen lung a datelor care provin din mai multe surse Un seif de date stochează o singură versiune a faptelor sau "toate datele, tot timpul" Designul său flexibil, scalabil, consistent și adaptabil cuprinde cele mai bune aspecte ale formulei 3D (3NF) și al stelei În acest training instruit, participanții vor învăța cum să construiască un Seif de date Până la sfârșitul acestui curs, participanții vor putea: Înțelegeți conceptele de arhitectură și design din spatele Data Vault 20 și interacțiunea cu Big Data, NoSQL și AI Utilizați tehnici de trecere a datelor pentru a permite auditarea, urmărirea și inspectarea datelor istorice dintr-un antrepozit de date Elaborați un proces ETL (extracție, transformare, încărcare) consecventă și repetabilă Construiți și desfășurați depozite foarte scalabile și repetabile Public Modelatori de date Specialist în domeniul depozitării datelor Specialiști în Business Intelligence Ingineri de date Administratorii de baze de date Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
14 hours
Sinoptic
Datameer este o platformă de business intelligence și de analiză construită pe Hadoop Permite enduserilor să acceseze, să exploreze și să coreleze datele de mari dimensiuni, structurate, semistructurate și nestructurate într-o manieră simplă În această instruire instruită, participanții vor învăța cum să folosească Datameer pentru a depăși curba de învățare abruptă a lui Hadoop, deoarece ei parcurg configurarea și analiza unei serii de mari surse de date Până la sfârșitul acestui curs, participanții vor putea: Creați, curățați și explorați interactiv un lac de date pentru întreprinderi Accesați depozite de date de business intelligence, baze de date tranzacționale și alte magazine analitice Utilizați o interfață de utilizator a foii de calcul pentru a proiecta conducte de procesare a datelor endtoend Accesați funcțiile pre-construite pentru a explora relații complexe de date Utilizați vrăjitoare draganddrop pentru a vizualiza date și a crea tablouri de bord Utilizați tabele, grafice, grafice și hărți pentru a analiza rezultatele interogării Public Analiști de date Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
21 hours
Sinoptic
Stream Processing se referă la procesarea în timp real a „datelor în mișcare”, adică efectuarea de calcule pe date așa cum sunt primite. Aceste date sunt citite ca fluxuri continue din surse de date , cum ar fi evenimente de senzori, activitatea utilizatorilor site - ul, tranzacțiile financiare, glisări de card de credit, faceți clic pe fluxuri etc. Stream Processing cadre sunt capabile să citească volume mari de date de intrare și de a oferi perspective valoroase aproape instantaneu.

În cadrul acestui training, instruit în direct (la fața locului sau la distanță), participanții vor învăța cum să configureze și să integreze diferite cadre de Stream Processing fluxurilor cu sistemele de stocare de date mari existente și aplicațiile software și microserviciile aferente.

Până la sfârșitul acestui antrenament, participanții vor putea:

- Instalați și configurați diferite cadre de Stream Processing fluxurilor, cum ar fi Spark Streaming și Kafka Streaming.
- Înțelegeți și selectați cadrul cel mai potrivit pentru job.
- Procesarea datelor în mod continuu, concomitent și într-o manieră record-by-record.
- Integrați soluțiile de Stream Processing fluxurilor cu bazele de date existente, depozite de date, lacuri de date etc.
- Integrați cea mai potrivită bibliotecă de procesare a fluxurilor cu aplicații de întreprindere și microservicii.

Public

- Dezvoltatori
- Arhitecți software

Formatul cursului

- Partea de prelegere, o discuție parțială, exerciții și practici practice

notițe

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
28 hours
Sinoptic
Pentaho Open Source BI Suite Community Edition (CE) este un pachet de informații de afaceri care oferă integrare de date, raportare, tablouri de bord și capacități de încărcare.

În cadrul acestui training, instruit în direct, participanții vor învăța cum să maximizeze caracteristicile Pentaho Open Source BI Suite Community Edition (CE).

Până la sfârșitul acestui antrenament, participanții vor putea:

- Instalați și configurați Pentaho Open Source BI Suite Community Edition (CE)
- Înțelegeți fundamentele instrumentelor Pentaho CE și caracteristicile acestora
- Creați rapoarte folosind Pentaho CE
- Integrați datele terților în Pentaho CE
- Lucrați cu date mari și analitice în Pentaho CE

Public

- Programatorii
- Dezvoltatori BI

Formatul cursului

- Partea de prelegere, o discuție parțială, exerciții și practici practice

Notă

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
14 hours
Sinoptic
Apache Ignite este o platformă de calcul în memorie care se află între stratul de aplicație și de date pentru a îmbunătăți viteza, scala și disponibilitatea.

În cadrul acestui instruire, instruit în direct, participanții vor învăța principiile din spatele stocării persistente și pure în memorie în timp ce pășesc prin crearea unui proiect de calcul de memorie în memorie.

Până la sfârșitul acestui antrenament, participanții vor putea:

- Utilizați Ignite pentru persistență pe memorie, pe disc, precum și o bază de date în memorie pur distribuită.
- Obțineți persistență fără a sincroniza datele înapoi la o bază de date relațională.
- Utilizați Ignite pentru a efectua uniri SQL și distribuite.
- Îmbunătățirea performanței prin apropierea de date de procesor, utilizând memoria RAM ca stocare.
- Difuzați seturi de date într-un cluster pentru a obține scalabilitatea orizontală.
- Integrați aprinderea cu RDBMS, Fără procesoare SQL , Hadoop și mașină.

Formatul cursului

- Prelegeri și discuții interactive.
- O mulțime de exerciții și practică.
- Implementarea practică într-un mediu de laborator live.

Opțiuni de personalizare a cursului

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
21 hours
Sinoptic
Scala este o versiune condensată a Java pentru programări funcționale și orientate pe obiecte la scară largă. Streamingul de Apache Spark este o componentă extinsă a API-ului Spark pentru procesarea seturilor de date mari ca fluxuri în timp real. Împreună, Spark Streaming și Scala permit transmiterea de date mari.

Acest training, instruit în direct (la fața locului sau la distanță), se adresează inginerilor de software care doresc să transmită date mari cu Spark Streaming și Scala .

Până la sfârșitul acestui antrenament, participanții vor putea:

- Creați aplicații Spark cu limbajul de programare Scala .
- Utilizați Spark Streaming pentru a procesa fluxuri continue de date.
- Procesați fluxuri de date în timp real cu Spark Streaming.

Formatul cursului

- Prelegeri și discuții interactive.
- O mulțime de exerciții și practică.
- Implementarea practică într-un mediu de laborator live.

Opțiuni de personalizare a cursului

- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
7 hours
Sinoptic
This instructor-led, live training in România (online or onsite) is aimed at data engineers, data scientists, and programmers who wish to use Apache Kafka features in data streaming with Python.

By the end of this training, participants will be able to use Apache Kafka to monitor and manage conditions in continuous data streams using Python programming.
28 hours
Sinoptic
This instructor-led, live training in România (online or onsite) is aimed at technical persons who wish to deploy Talend Open Studio for Big Data to simplifying the process of reading and crunching through Big Data.

By the end of this training, participants will be able to:

- Install and configure Talend Open Studio for Big Data.
- Connect with Big Data systems such as Cloudera, HortonWorks, MapR, Amazon EMR and Apache.
- Understand and set up Open Studio's big data components and connectors.
- Configure parameters to automatically generate MapReduce code.
- Use Open Studio's drag-and-drop interface to run Hadoop jobs.
- Prototype big data pipelines.
- Automate big data integration projects.

Upcoming Big Data Courses

Sfarsit de saptamana Big Data Cursuri, Seara Big Data Training, Big Data Camp, Big Data Cu instructor, Sfarsit de saptamana Big Data Training, Seara Big Data Cursuri, Big Data Coaching, Big Data Instructor, Big Data Trainer, Big Data Cursuri, Big Data Clase, Big Data Pe pagina, Big Data curs privat, Big Data one on one training

Reduceri pentru cursuri

Newsletter Oferte Cursuri

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Câțiva dintre clienții noștri

is growing fast!

We are looking for a good mixture of IT and soft skills in Romania!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions