Cursuri Big Data

Cursuri Big Data

Cursurile de formare Big Data online sau la fața locului, susținute live de un instructor, încep cu o introducere în conceptele elementare ale Big Data, apoi trec la limbajele de programare și la metodologiile utilizate pentru a efectua analiza datelor. Instrumentele și infrastructura pentru a permite stocarea Big Data, procesarea distribuită și scalabilitatea sunt discutate, comparate și implementate în sesiuni practice demonstrative.

Formarea Big Data este disponibilă ca "formare online live" sau "formare live la fața locului". Instruirea live online (aka "remote live training") se realizează prin intermediul unui desktop interactiv, remote desktop. Instruirea live la fața locului poate fi efectuată la nivel local, în incinta clientului în România sau în centrele de instruire corporative NobleProg în România.

NobleProg -- Furnizorul dvs. local de instruire

Machine Translated

Mărturii

★★★★★
★★★★★

Big Data Course Outlines

Numele cursului
Durata
Sinoptic
Numele cursului
Durata
Sinoptic
21 hours
Python este o limbă de programare scalabilă, flexibilă și utilizată pe scară largă pentru știința datelor și învățarea mașinilor. Spark este un motor de prelucrare a datelor utilizat în căutarea, analizarea și transformarea datelor mari, în timp ce Hadoop este un cadru de bibliotecă software pentru stocarea și prelucrarea datelor la scară largă. Această formare directă (online sau on-site) este destinată dezvoltatorilor care doresc să utilizeze și să integreze Spark, Hadoop, și Python pentru a procesa, analiza și transforma seturi de date mari și complexe. La sfârșitul cursului, participanții vor putea:
    Configurați mediul necesar pentru a începe prelucrarea datelor mari cu Spark, Hadoop, și Python. Înțelegeți caracteristicile, componentele de bază și arhitectura Spark și Hadoop. Aflați cum să integrați Spark, Hadoop, și Python pentru prelucrarea datelor mari. Explorați instrumentele din ecosistemul Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka și Flume). Construiți sisteme de recomandare de filtrare colaborative similare cu Netflix, YouTube, Amazon, Spotify și Google. Utilizați Apache Mahout pentru a scala algoritmele de învățare cu mașină.
Formatul cursului
    Lecții și discuții interactive. Multe exerciții și practici. Implementarea pe mâini într-un mediu live-lab.
Opțiuni de personalizare
    Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a organiza.
14 hours
Waikato Environment for Knowledge Analysis (Weka) este un software de vizualizare pentru minarea datelor cu sursă deschisă. Acesta oferă o colecție de algoritmi de învățare automată pentru pregătirea datelor, clasificarea, clusterarea și alte activități de minare a datelor. Această instruire condusă de instructori, formare live (online sau on-site) este destinată analistilor de date și cercetătorilor de date care doresc să utilizeze Weka pentru a îndeplini sarcinile de minare a datelor. La sfârșitul cursului, participanții vor putea:
    Instalați și configurați Weka Înțelegeți mediul Weka și bențul de lucru. Realizarea sarcinilor de minare a datelor folosind Weka.
Formatul cursului
    Lecții și discuții interactive. Multe exerciții și practici. Implementarea pe mâini într-un mediu live-lab.
Opțiuni de personalizare
    Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a organiza.
14 hours
IBM SPSS Modeler este un software utilizat pentru minarea datelor și analiza textului. Acesta oferă un set de instrumente de minare a datelor care pot construi modele predictive și să efectueze sarcini de analiză a datelor. Această formare directă, condusă de instructori (online sau on-site) este destinată analistilor de date sau oricui dorește să utilizeze SPSS Modeler pentru a efectua activități de minare a datelor. La sfârșitul cursului, participanții vor putea:
    Înțelegeți fundamentele minării datelor. Aflați cum să importați și să evaluați calitatea datelor cu Modelul. Dezvoltați, implementați și evaluați în mod eficient modelele de date.
Formatul cursului
    Lecții și discuții interactive. Multe exerciții și practici. Implementarea pe mâini într-un mediu live-lab.
Opțiuni de personalizare
    Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a organiza.
35 hours
Participanții care completează această instruire condusă de instructor, vor dobândi o înțelegere practică, reală a Big Data și a tehnologiilor, metodologiilor și instrumentelor sale conexe. Participanții vor avea posibilitatea de a pune aceste cunoștințe în practică prin exerciții practice. Interacțiunea de grup și feedback-ul instructorului reprezintă o componentă importantă a clasei. Cursul începe cu o introducere la conceptele elementare ale Big Data, apoi progresează în limbile de programare și metodologiile utilizate pentru a efectua Data Analysis. În cele din urmă, vom discuta despre instrumentele și infrastructura care permit Big Data stocare, prelucrare distribuită și Scalacapacitate. Formatul cursului
    Lecție parțială, dezbatere parțială, practică practică și implementare, quiz ocazional pentru a măsura progresul.
21 hours
Python este un limbaj de programare la nivel înalt, renumit pentru sintaxa și lizibilitatea codurilor sale. Spark este un motor de procesare a datelor utilizat în interogare, analiză și transformare de date mari. PySpark permite utilizatorilor să interfețe Spark cu Python . În cadrul acestui antrenament, instruit în direct, participanții vor învăța cum să folosească împreună Python și Spark pentru a analiza datele mari pe măsură ce lucrează la exerciții practice. Până la sfârșitul acestui antrenament, participanții vor putea:
  • Aflați cum să utilizați Spark cu Python pentru a analiza Big Data .
  • Lucrați la exerciții care imită circumstanțele din lumea reală.
  • Utilizați diferite instrumente și tehnici pentru analiza datelor mari utilizând PySpark .
Formatul cursului
  • Partea de prelegere, o discuție parțială, exerciții și practici practice
7 hours
Acest curs acoperă modul de utilizare a limbajului SQL Hive (AKA: Hive HQL, SQL on Hive , Hive QL) pentru persoanele care extrag date din Hive
21 hours
Descoperirea cunoștințelor în baze de date (KDD) este procesul de descoperire a cunoștințelor utile dintr-o colecție de date. Aplicațiile de viață reală pentru această tehnică de minerit de date includ marketing, detectarea fraudelor, telecomunicații și fabricarea. În acest curs de instruire, live, introducem procesele implicate în KDD și efectuăm o serie de exerciții pentru a practica implementarea acestor procese. Audienţă
    Analiștii de date sau oricine este interesat să învețe cum să interpreteze datele pentru a rezolva problemele
Formatul cursului
    După o dezbatere teoretică a KDD, instructorul va prezenta cazuri de viață reală care solicită aplicarea KDD pentru a rezolva o problemă. Participanții vor pregăti, selecta și curăța seturile de date de eșantion și vor folosi cunoștințele lor anterioare cu privire la datele pentru a propune soluții bazate pe rezultatele observațiilor lor.
14 hours
Apache Kylin este un motor de analiză extremă, distribuită pentru datele mari. În această formare directă condusă de instructori, participanții vor învăța cum să folosească Apache Kylin pentru a crea un depozit de date în timp real. La sfârșitul cursului, participanții vor putea:
    Consumați date de streaming în timp real folosind Kylin Utilize Apache Kylin's caracteristici puternice, bogate SQL interfață, spark cubing și latență de întrebare subsecundă
Notă
    Folosim cea mai recentă versiune a lui Kylin (în conformitate cu această scrisoare, Apache Kylin v2.0)
Audienţă
    Inginerul Big Data [ 0 ] Analiștii
Formatul cursului
    Lecții parțiale, discuții parțiale, exerciții și practici grele
14 hours
Datameer este o platformă de business intelligence și de analiză construită pe Hadoop Permite enduserilor să acceseze, să exploreze și să coreleze datele de mari dimensiuni, structurate, semistructurate și nestructurate într-o manieră simplă În această instruire instruită, participanții vor învăța cum să folosească Datameer pentru a depăși curba de învățare abruptă a lui Hadoop, deoarece ei parcurg configurarea și analiza unei serii de mari surse de date Până la sfârșitul acestui curs, participanții vor putea: Creați, curățați și explorați interactiv un lac de date pentru întreprinderi Accesați depozite de date de business intelligence, baze de date tranzacționale și alte magazine analitice Utilizați o interfață de utilizator a foii de calcul pentru a proiecta conducte de procesare a datelor endtoend Accesați funcțiile pre-construite pentru a explora relații complexe de date Utilizați vrăjitoare draganddrop pentru a vizualiza date și a crea tablouri de bord Utilizați tabele, grafice, grafice și hărți pentru a analiza rezultatele interogării Public Analiști de date Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
14 hours
Minerirea datelor este procesul de identificare a tiparelor în date mari cu metode de știință a datelor, cum ar fi învățarea automată. Utilizând Excel ca o suită de analiză a datelor, utilizatorii pot efectua analiza și analiza datelor. Acest training, instruit în direct (la fața locului sau la distanță), este orientat către oamenii de știință care doresc să utilizeze Excel pentru extragerea datelor. Până la sfârșitul acestui antrenament, participanții vor putea:
  • Explorați date cu Excel pentru a efectua analiza și analiza datelor.
  • Utilizați algoritmi Microsoft pentru extragerea datelor.
  • Înțelegeți conceptele din Excel datelor Excel .
Formatul cursului
  • Prelegeri și discuții interactive.
  • O mulțime de exerciții și practică.
  • Implementarea practică într-un mediu de laborator live.
Opțiuni de personalizare a cursului
  • Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
21 hours
Dremio este o platformă de date cu sursă deschisă "self-service" care accelerează căutarea diferitelor tipuri de surse de date. Dremio este integrat cu baze de date relative, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, și alte surse de date. Acesta susține SQL și oferă un UI web pentru întrebări de construcție. În această instruire directă, participanții vor învăța cum să instaleze, să configureze și să utilizeze Dremio ca un strat unificator pentru instrumentele de analiză a datelor și repositoriile de date de bază. La sfârșitul cursului, participanții vor putea:
    Instalarea și configurarea Dremio Executați întrebări împotriva mai multor surse de date, indiferent de locație, dimensiune sau structură Integrați Dremio cu BI și surse de date cum ar fi Tableau și Elasticsearch
Audienţă
    Știință de date Business Analiștii Inginerul de date
Formatul cursului
    Lecții parțiale, discuții parțiale, exerciții și practici grele
Notă
    Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a organiza.
21 hours
Apache Drill este un motor de interogare SQL în coloane schemafree, distribuit, inmemory pentru Hadoop, NoSQL și alte sisteme de stocare a informațiilor din cloud și fișiere Puterea aplicației Apache Drill constă în capacitatea sa de a se alătura datelor din mai multe magazine de date folosind o singură interogare Apache Drill suportă numeroase baze de date NoSQL și sisteme de fișiere, inclusiv HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS și fișierele locale Apache Drill este versiunea open source a sistemului Google Dremel, disponibil ca serviciu de infrastructură numit Google BigQuery În această instruire instruită, participanții vor învăța bazele Apache Drill, apoi vor folosi puterea și comoditatea SQL pentru a interoga interactiv datele mari din mai multe surse de date, fără a scrie cod Participanții vor învăța, de asemenea, cum să optimizeze interogările Drill pentru execuția SQL distribuită Până la sfârșitul acestui curs, participanții vor putea: Efectuați explorări "auto-servicii" pe date structurate și semistructurate despre Hadoop Interogare cunoscute, precum și date necunoscute, folosind interogări SQL Înțelegeți modul în care Apache Drills primește și execută interogări Scrieți interogări SQL pentru a analiza diferite tipuri de date, inclusiv date structurate în Hive, date semistructurate în tabelele HBase sau MapRDB și date salvate în fișiere precum Parquet și JSON Utilizați Apache Drill pentru a efectua descoperirea schemei onthefly, ocolind nevoia de operații complexe ETL și schema Integrați aplicația Apache Drill cu BI (Business Intelligence), cum ar fi Tableau, Qlikview, MicroStrategy și Excel Public Analiști de date Cercetătorii de date Programatori SQL Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
14 hours
Apache Arrow este un cadru de procesare a datelor în memorie open-source. Este adesea utilizat împreună cu alte instrumente de știință a datelor pentru accesarea magazinelor de date diferite pentru analiză. Se integrează bine cu alte tehnologii precum baze de date GPU , biblioteci și instrumente de învățare automată, motoare de execuție și cadre de vizualizare a datelor. În acest training instruit în direct, instruit în direct, participanții vor învăța cum să integreze Apache Arrow cu diverse cadre de Data Science pentru a accesa date din surse de date diferite. Până la sfârșitul acestui antrenament, participanții vor putea:
  • Instalați și configurați Apache Arrow într-un mediu distribuit grupat
  • Utilizați Apache Arrow pentru a accesa date din surse de date diferite
  • Utilizați Apache Arrow pentru a evita necesitatea construirii și menținerii conductelor ETL complexe
  • Analizați datele pe surse de date diferite, fără a fi necesar să le consolidați într-un depozit centralizat
Public
  • Cercetătorii de date
  • Ingineri de date
Formatul cursului
  • Partea de prelegere, o discuție parțială, exerciții și practici practice
Notă
  • Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
14 hours
Obiectivul cursului este de a permite participanților să dobândească o manieră a modului de lucru cu limba SQL în baza de date Oracle pentru extragerea datelor la nivel intermediar.
14 hours
Pentru a respecta conformitatea reglementatorilor, CSP-urile (furnizorii de servicii de Communication ) pot apela la Big Data Analytics, care nu numai că îi ajută să îndeplinească conformitatea, dar, în cadrul aceluiași proiect, pot crește satisfacția clienților și astfel pot reduce puterea. De fapt, întrucât conformitatea este legată de Calitatea serviciului legată de un contract, orice inițiativă în vederea respectării conformității va îmbunătăți „avantajul competitiv” al CSP-urilor. Prin urmare, este important ca autoritățile de reglementare să fie în măsură să consilieze / să ghideze un set de practici analitice Big Data pentru CSP-uri care vor avea un beneficiu reciproc între autoritățile de reglementare și CSP-uri. Cursul este format din 8 module (4 în ziua 1 și 4 în ziua 2)
35 hours
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information. High-value government solutions will be created from a mashup of the most disruptive technologies:
  • Mobile devices and applications
  • Cloud services
  • Social business technologies and networking
  • Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured. But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog. The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it. The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge. Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.). Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
35 hours
Ziua 1 - oferă o imagine de ansamblu la nivel înalt a domeniilor esențiale ale Big Data . Modulul este împărțit într-o serie de secțiuni, fiecare fiind însoțită de un exercițiu practic. Ziua 2 - explorează o serie de subiecte care se referă la practicile și instrumentele de analiză pentru mediile Big Data . Nu intră în detalii de implementare sau de programare, ci menține acoperirea la un nivel conceptual, concentrându-se pe subiecte care permit participanților să dezvolte o înțelegere cuprinzătoare a funcțiilor și funcțiilor comune de analiză oferite de soluțiile Big Data . Ziua 3 - oferă o imagine de ansamblu asupra domeniilor tematice fundamentale și esențiale referitoare la arhitectura platformelor de soluții Big Data . Acopera mecanismele Big Data necesare dezvoltarii unei platforme de solutii Big Data si optiuni arhitecturale pentru asamblarea unei platforme de procesare a datelor. Scenariile obișnuite sunt, de asemenea, prezentate pentru a oferi o înțelegere de bază a modului în care este utilizată în general o platformă de soluții Big Data . Ziua 4 - se construiește în ziua a 3-a prin explorarea subiectelor avansate referitoare la arhitectura platformei de soluții Big Data . În special, sunt introduse și discutate diferite straturi arhitecturale care alcătuiesc platforma de soluții Big Data , inclusiv sursele de date, intrarea datelor, stocarea datelor, procesarea datelor și securitatea. Ziua 5 - acoperă o serie de exerciții și probleme concepute pentru a testa capacitatea delegaților de a aplica cunoștințe despre subiectele abordate Ziua 3 și 4.
35 hours
Avansele tehnologiilor și cantitatea din ce în ce mai mare de informații transformă modul în care se execută aplicarea legii. Provocările pe care Big Data prezintă sunt la fel de descurajante ca promisiunea Big Data . Stocarea eficientă a datelor este una dintre aceste provocări; analiza eficientă este alta. În cadrul acestui training, instruit în direct, participanții vor învăța mentalitatea cu care să abordeze tehnologiile Big Data , să evalueze impactul lor asupra proceselor și politicilor existente și să implementeze aceste tehnologii în scopul identificării activității infracționale și prevenirii criminalității. Studiile de caz de la organizațiile de aplicare a legii din întreaga lume vor fi examinate pentru a obține informații despre abordările, provocările și rezultatele adoptării lor. Până la sfârșitul acestui antrenament, participanții vor putea:
  • Combinați tehnologia Big Data cu procesele tradiționale de colectare a datelor pentru a crea împreună o poveste în timpul unei investigații
  • Implementați soluții industriale de stocare și prelucrare a datelor pentru analiza datelor
  • Pregătiți o propunere pentru adoptarea celor mai adecvate instrumente și procese care să permită o abordare bazată pe date privind cercetarea penală
Public
  • Specialiștii în aplicarea legii, cu pregătire tehnică
Formatul cursului
  • Partea de prelegere, o discuție parțială, exerciții și practici practice
14 hours
Obiectiv : Acest curs de formare își propune să îi ajute pe participanți să înțeleagă de ce Big Data ne schimbă viața și cum modifică modul în care întreprinderile ne văd ca consumatori. Într-adevăr, utilizatorii de date mari din întreprinderi consideră că datele mari dezlănțuie o sumedenie de informații și informații care se traduce în profituri mai mari, costuri reduse și riscuri mai mici. Cu toate acestea, dezavantajul a fost frustrarea uneori când s-a pus prea mult accent pe tehnologiile individuale și nu s-a concentrat suficient pe pilonii gestionării datelor mari. Participanții vor învăța pe parcursul acestui curs cum să gestioneze datele mari utilizând cei trei piloni ai integrării datelor, guvernării datelor și securității datelor, pentru a transforma datele mari în valoarea reală a afacerii. Diferite exerciții efectuate pe un studiu de caz al managementului clienților îi vor ajuta pe participanți să înțeleagă mai bine procesele de bază.
21 hours
Big Data sunt termeni care se referă la soluții destinate stocării și procesării seturilor de date mari. Dezvoltate inițial de Go ogle, aceste soluții Big Data au evoluat și au inspirat alte proiecte similare, dintre care multe sunt disponibile ca open-source. R este un limbaj popular de programare în industria financiară.
14 hours
Atunci când tehnologiile tradiționale de stocare nu se ocupă de cantitatea de date de care aveți nevoie pentru a stoca, există hundere de alternative Acest curs încearcă să ghideze participanții care sunt alternativele pentru stocarea și analizarea datelor mari și care sunt argumentele pro și contra lor Acest curs este axat în principal pe discuții și prezentări de soluții, deși exerciții de manoperă sunt disponibile la cerere .
14 hours
Cursul face parte din setul de cunoștințe Data Scientist (Domeniu: date și tehnologie).
14 hours
This classroom based training session will explore Big Data. Delegates will have computer based examples and case study exercises to undertake with relevant big data tools
21 hours
Public Dacă încercați să înțelegeți din datele pe care aveți acces la sau doriți să analizați datele nestructurate disponibile pe net (cum ar fi Twitter, Linked in, etc ...), acest curs este pentru dvs. Se adresează în special factorilor de decizie și persoanelor care au nevoie să aleagă ce date merită să fie colectate și ce merită analizat. Nu este destinat persoanelor care configurează soluția, dar acești oameni vor beneficia de imaginea de ansamblu. Modul de livrare În timpul cursului, delegații vor fi prezentați cu exemple de lucru ale tehnologiilor cu sursă în mare parte. Prelegerile scurte vor fi urmate de prezentări și de exerciții simple de către participanți Conținutul și software-ul folosit Tot software-ul folosit este actualizat de fiecare dată când cursul este rulat, așa că verificăm cele mai noi versiuni posibile. Acesta acoperă procesul de obținere, formatare, prelucrare și analiză a datelor, pentru a explica modul de automatizare a procesului de luare a deciziilor cu învățarea în mașină.
35 hours
Datele mari sunt seturi de date atât de voluminoase și complexe încât softurile tradiționale de aplicații de prelucrare a datelor nu sunt adecvate pentru a le trata. Provocările de date mari includ captarea datelor, stocarea datelor, analiza datelor, căutarea, partajarea, transferul, vizualizarea, interogarea, actualizarea și confidențialitatea informațiilor.
7 hours
This instructor-led, live training (online or onsite) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data. By the end of this training, participants will:
  • Understand the evolution and trends for machine learning.
  • Know how machine learning is being used across different industries.
  • Become familiar with the tools, skills and services available to implement machine learning within an organization.
  • Understand how machine learning can be used to enhance data mining and analysis.
  • Learn what a data middle backend is, and how it is being used by businesses.
  • Understand the role that big data and intelligent applications are playing across industries.
Format of the Course
  • Interactive lecture and discussion.
  • Lots of exercises and practice.
  • Hands-on implementation in a live-lab environment.
Course Customization Options
  • To request a customized training for this course, please contact us to arrange.
7 hours
Apache Sqoop este o interfață de linie de comandă pentru mutarea datelor din baze de date relaționale și Hadoop. Apache Flume este un software distribuit pentru gestionarea big data. Folosind Sqoop și Flume, utilizatorii pot transfera date între sisteme și pot importa volume mari de date în arhitecturi de stocare, ar fi Hadoop. Acest instructor-a condus, de formare live (la fața locului sau de la distanță) se adresează inginerilor software care doresc să utilizeze Sqoop și Flume pentru transferul de date între sisteme. Până la sfârșitul acestei instruiri, participanții vor putea:
  • Ingera big data cu Sqoop și Flume.
  • Ingera date din mai multe surse de date.
  • Mutați datele din bazele de date relaționale în HDFS și Hive.
  • Exportați date din HDFS într-o bază de date relațională.
Formatul cursului
  • Interactive prelegere și discuții.
  • O mulțime de exerciții și practică.
  • Punerea în aplicare hands-on într-un mediu live-lab.
Opțiuni de personalizare a cursului
  • Pentru a solicita o instruire personalizată pentru acest curs, vă rugăm să ne contactați pentru a aranja.
28 hours
Talend Open Studio pentru Big Data este un instrument ETL de sursă deschisă pentru prelucrarea datelor mari. Acesta include un mediu de dezvoltare pentru a interacționa cu Big Data surse și obiective și pentru a efectua locuri de muncă fără a trebui să scrie cod. Această formare directă, condusă de instructori (online sau on-site) este destinată persoanelor tehnice care doresc să implementeze Open Studio pentru Big Data pentru a simplifica procesul de citire și crunching prin Big Data. La sfârșitul cursului, participanții vor putea:
    Instalați și configurați Talend Open Studio pentru Big Data. Conectați-vă cu sistemele Big Data cum ar fi Cloudera, HortonWorks, MapR, Amazon EMR și Apache. Înțelegeți și configurați componentele și conectorele de date mari ale Open Studio. Configurați parametrii pentru a genera automat codul MapReduce. Utilizați Open Studio's drag-and-drop interfață pentru a rula Hadoop locuri de muncă. Pipe de date mari de prototip. Proiecte de integrare automată a datelor mari.
Formatul cursului
    Lecții și discuții interactive. Multe exerciții și practici. Implementarea pe mâini într-un mediu live-lab.
Opțiuni de personalizare
    Pentru a solicita o pregătire personalizată pentru acest curs, vă rugăm să ne contactați pentru a organiza.
14 hours
Vespa un motor de prelucrare și servire a datelor de mare capacitate creat de Yahoo Acesta este folosit pentru a răspunde la întrebările utilizatorilor, pentru a face recomandări și pentru a oferi conținut personalizat și reclame în timp real Instruirea live instruitã introduce provocãrile de a servi date largi de date ºi plãteºte participanþii prin crearea unei aplicaþii care poate calcula rãspunsurile la cererile utilizatorilor, pe seturi mari de date în timp real Până la sfârșitul acestui curs, participanții vor putea: Utilizați Vespa pentru a calcula rapid datele (stocare, căutare, rang, organizare) la timpul de servire în timp ce un utilizator așteaptă Implementați Vespa în aplicații existente care implică căutarea, recomandările și personalizarea Integrați și desfășurați Vespa cu sistemele de date mari existente, cum ar fi Hadoop și Storm Public Dezvoltatori Formatul cursului Prelegere parte, discuții parțiale, exerciții și practici grele de manevră .
7 hours
Alluxio este un sistem de stocare distribuit virtual cu sursă deschisă care unifică sisteme de stocare diferite și permite aplicațiilor să interacționeze cu datele la viteza de memorie. Acesta este utilizat de companii precum Intel, Baidu și Alibaba. În această instruire condusă de instructori, cursuri live, participanții vor învăța cum să utilizeze Alluxio pentru a purta diferite cadre de calcul cu sisteme de stocare și pentru a gestiona în mod eficient datele de scară multi-petabyte pe măsură ce trec prin crearea unei aplicații cu Alluxio. La sfârșitul cursului, participanții vor putea:
    Dezvoltați o aplicație cu Alluxio Conectați sistemele de date mari și aplicațiile în timp ce păstrați un spațiu de nume Extrage eficient valoarea din datele mari în orice format de stocare Îmbunătățirea performanței sarcinii de lucru Dezvoltați și gestionați Alluxio independent sau clusterat
Audienţă
    Știință de date Dezvoltatori Administratorul sistemului
Formatul cursului
    Lecții parțiale, discuții parțiale, exerciții și practici grele

Last Updated:

Sfarsit de saptamana Big Data Cursuri, Seara Big Data Training, Big Data Camp, Big Data Cu instructor, Sfarsit de saptamana Big Data Training, Seara Big Data Cursuri, Big Data Coaching, Big Data Instructor, Big Data Trainer, Big Data Cursuri, Big Data Clase, Big Data Pe pagina, Big Data curs privat, Big Data one on one training

Reduceri pentru cursuri

No course discounts for now.

Newsletter Oferte Cursuri

Respectăm confidențialitatea adresei dvs. de email. Nu vom transmite sau vinde adresa altor părți. Puteți să schimbați preferințele sau să vă dezabonați complet în orice moment.

Câțiva dintre clienții noștri

is growing fast!

We are looking for a good mixture of IT and soft skills in Romania!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions