Cursuri de pregatire Big Data Analytics in Health
Analiza datelor mari implică procesul de examinare a unor cantități mari de seturi de date variate pentru a descoperi corelații, tipare ascunse și alte informații utile.
Industria sănătății are cantități masive de date medicale și clinice eterogene complexe. Aplicarea analizelor de date mari asupra datelor de sănătate prezintă un potențial imens în obținerea unor perspective pentru îmbunătățirea furnizării asistenței medicale. Cu toate acestea, enormitatea acestor seturi de date prezintă provocări mari în analize și aplicații practice într-un mediu clinic.
În cadrul acestui instruire, instruit în direct (de la distanță), participanții vor învăța cum să efectueze analize de date mari în sănătate, în timp ce parcurg o serie de exerciții practice în laborator live.
Până la sfârșitul acestui antrenament, participanții vor putea:
- Instalați și configurați instrumente de analiză a datelor mari precum Hadoop MapReduce și Spark
- Înțelegeți caracteristicile datelor medicale
- Aplicați tehnici de date mari pentru a trata datele medicale
- Studiați sisteme de date mari și algoritmi în contextul aplicațiilor pentru sănătate
Public
- Dezvoltatori
- Oamenii de știință de date
Formatul cursului
- Partea de prelegere, o discuție parțială, exerciții și practici practice.
Notă
- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza.
Schița de curs
Introducere în Big Data Analytics în sănătate
Prezentare generală a Big Data Tehnologii de analiză
- Apache Hadoop MapReduce
- Apache Spark
Instalarea și configurarea Apache Hadoop MapReduce
Instalare și configurare Apache Spark
Utilizarea modelării predictive pentru datele de sănătate
Utilizarea Apache Hadoop MapReduce pentru date de sănătate
Efectuarea fenotipării și grupării pe date de sănătate
- Măsuri de evaluare a clasificării
- Metode de ansamblu de clasificare
Folosind Apache Spark pentru datele de sănătate
Lucrul cu ontologia medicală
Utilizarea analizei grafice asupra datelor de sănătate
Reducerea dimensionalității datelor de sănătate
Lucrul cu valorile de similitudine ale pacienților
Depanare
Rezumat și Concluzie
Cerințe
- O înțelegere a conceptelor de învățare automată și de minerit de date
- Experiență avansată de programare (Python, Java, Scala) .
- Cunoștințe în domeniul datelor și al proceselor ETL .
Cursurile publice necesita 5+ participanti
Cursuri de pregatire Big Data Analytics in Health - Booking
Cursuri de pregatire Big Data Analytics in Health - Enquiry
Big Data Analytics in Health - Cerere de consultanta
Cerere de consultanta
Mărturii (1)
The VM I liked very much The Teacher was very knowledgeable regarding the topic as well as other topics, he was very nice and friendly I liked the facility in Dubai.
Safar Alqahtani - Elm Information Security
Curs - Big Data Analytics in Health
Upcoming Courses
Cursuri înrudite
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 oreAcest curs se adresează dezvoltatorilor și cercetătorilor de date care doresc să înțeleagă și să implementeze inteligența artificială în aplicațiile lor. O atenție deosebită este acordată analizei datelor, inteligenței artificiale distribuite și procesării limbajului natural.
Big Data Analytics with Google Colab and Apache Spark
14 oreAceastă instruire live, cu instructor în România (online sau la fața locului) se adresează cercetătorilor și inginerilor de date de nivel mediu care doresc să utilizeze Google Colab și Apache Spark pentru prelucrarea și analiza datelor mari.
Până la sfârșitul acestei formări, participanții vor fi capabili să:
- Configurați un mediu de date mari utilizând Google Colab și Spark.
- Să proceseze și să analizeze eficient seturi mari de date cu Apache Spark.
- Să vizualizeze date mari într-un mediu colaborativ.
- Să integreze Apache Spark cu instrumentele bazate pe cloud.
Introduction to Graph Computing
28 oreÎn cadrul acestei formări live cu instructor în România, participanții vor învăța despre ofertele tehnologice și abordările de implementare pentru prelucrarea datelor grafice. Scopul este de a identifica obiecte din lumea reală, caracteristicile și relațiile acestora, apoi de a modela aceste relații și de a le prelucra ca date utilizând o abordare Graph Computing (cunoscută și sub denumirea de Graph Analytics). Vom începe cu o prezentare generală și ne vom concentra pe instrumente specifice pe măsură ce parcurgem o serie de studii de caz, exerciții practice și implementări live.
Până la sfârșitul acestui curs, participanții vor fi capabili să:
- Să înțeleagă modul în care datele grafice sunt păstrate și parcurse.
- Să selecteze cel mai bun cadru pentru o anumită sarcină (de la baze de date grafice la cadre de procesare pe loturi).
- Să implementeze Hadoop, Spark, GraphX și Pregel pentru a efectua calculul grafurilor pe mai multe mașini în paralel.
- Vizualizarea problemelor reale legate de big data în termeni de grafuri, procese și traversări.
Hadoop and Spark for Administrators
35 oreAcest curs de instruire live, condus de un instructor în România (online sau la fața locului) se adresează administratorilor de sistem care doresc să învețe cum să configureze, să implementeze și să gestioneze Hadoop clustere în cadrul organizației lor.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Instalați și configurați Apache Hadoop.
- Înțelegeți cele patru componente majore din ecosistemul Hadoop: HDFS, MapReduce, YARN și Hadoop Common. .
- Utilizați Hadoop Distributed File System (HDFS) pentru a scala un cluster la sute sau mii de noduri. .
- Configurați HDFS pentru a funcționa ca motor de stocare pentru implementări Spark pe loc. .
- Configurați Spark pentru a accesa soluții de stocare alternative, cum ar fi Amazon S3 și sisteme de baze de date NoSQL, cum ar fi Redis, Elasticsearch, Couchbase, Aerospike etc. .
- Executați sarcini administrative, cum ar fi provizionarea, gestionarea, monitorizarea și securizarea unui cluster Apache Hadoop. .
Hortonworks Data Platform (HDP) for Administrators
21 oreAceastă instruire live, condusă de un instructor în România (online sau la fața locului) prezintă Hortonworks Data Platform (HDP) și conduce participanții prin implementarea soluției Spark + Hadoop.
Până la sfârșitul acestui training, participanții vor fi capabili să:
- Să utilizeze Hortonworks pentru a rula fiabil Hadoop la scară largă.
- Unifice capacitățile de securitate, guvernanță și operațiuni ale Hadoop cu fluxurile de lucru analitice agile ale Spark.
- Utilizați Hortonworks pentru a investiga, valida, certifica și sprijini fiecare dintre componentele unui proiect Spark.
- Procesați diferite tipuri de date, inclusiv structurate, nestructurate, în mișcare și în repaus.
Data Analysis with Hive/HiveQL
7 oreAcest curs acoperă modul de utilizare a limbajului SQL Hive (AKA: Hive HQL, SQL on Hive , Hive QL) pentru persoanele care extrag date din Hive
Impala for Business Intelligence
21 oreCloudera Impala este un motor de interogare SQL de procesare masiv paralelă (MPP) cu sursă deschisă pentru clustere Apache Hadoop.
Impala permite utilizatorilor să emită interogări SQL cu latență redusă pentru datele stocate în Hadoop Distributed File System și Apache Hbase fără a necesita deplasarea sau transformarea datelor.
Audiență
Acest curs se adresează analiștilor și cercetătorilor de date care efectuează analize asupra datelor stocate în Hadoop prin intermediul instrumentelor Business Intelligence sau SQL.
După acest curs, delegații vor fi capabili să
- Să extragă informații semnificative din clusterele Hadoop cu Impala.
- Scrie programe specifice pentru a facilita Business Intelligence în Impala SQL dialect.
- Să rezolve problemele Impala.
A Practical Introduction to Stream Processing
21 oreÎn cadrul acestui curs de instruire live, condus de un instructor în România (la fața locului sau la distanță), participanții vor învăța cum să configureze și să integreze diferite cadre Stream Processing cu sistemele de stocare de date mari existente și cu aplicațiile software și microserviciile aferente.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Instalați și configurați diferite cadre Stream Processing, cum ar fi Spark Streaming și Kafka Streaming.
- Înțelegeți și selectați cel mai potrivit cadru pentru treaba respectivă. .
- Procesați date în mod continuu, simultan și în mod înregistrare cu înregistrare. .
- Integrați Stream Processing soluțiile cu bazele de date existente, depozitele de date, lacurile de date, etc. .
- Integrați cea mai potrivită bibliotecă de procesare a fluxurilor cu aplicații de întreprindere și microservicii.
SMACK Stack for Data Science
14 oreAcest curs de instruire live, condus de un instructor în România (online sau la fața locului) se adresează oamenilor de știință care doresc să utilizeze stiva SMACK pentru a construi platforme de procesare a datelor pentru soluții de date mari.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Implementați o arhitectură de conducte de date pentru procesarea datelor mari.
- Dezvoltați o infrastructură de cluster cu Apache Mesos și Docker. .
- Analizați datele cu Spark și Scala. .
- Gestionați datele nestructurate cu Apache Cassandra. .
Apache Spark Fundamentals
21 oreAcest curs de instruire live, condus de un instructor în România (online sau la fața locului) se adresează inginerilor care doresc să configureze și să implementeze un sistem Apache Spark pentru procesarea unor cantități foarte mari de date.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Instalați și configurați Apache Spark.
- Procesați și analizați rapid seturi de date foarte mari. .
- Înțelegeți diferența dintre Apache Spark și Hadoop MapReduce și când să folosiți fiecare. .
- Integrați Apache Spark cu alte instrumente de învățare automată. .
Administration of Apache Spark
35 oreAcest curs de instruire live, condus de un instructor în România (online sau la fața locului) se adresează administratorilor de sistem de nivel începător sau intermediar care doresc să implementeze, să mențină și să optimizeze clusterele Spark.
La finalul acestui curs de formare, participanții vor fi capabili să:
- Să instaleze și să configureze Apache Spark în diverse medii.
- Să gestioneze resursele clusterului și să monitorizeze aplicațiile Spark.
- Să optimizeze performanța clusterelor Spark.
- Să implementeze măsuri de securitate și să asigure o disponibilitate ridicată.
- Depanarea și rezolvarea problemelor comune ale Spark.
Apache Spark in the Cloud
21 oreCurba de învățare a lui Apache Spark crește încet la început, are nevoie de mult efort pentru a obține primul randament. Acest curs își propune să sară prin prima parte grea. După ce au luat acest curs, participanții vor înțelege elementele de bază ale lui Apache Spark , vor diferenția clar RDD de DataFrame, vor învăța API-ul Python și Scala , vor înțelege executorii și sarcinile etc. De asemenea, urmând cele mai bune practici, acest curs se concentrează puternic pe implementare cloud, baze de date și AWS. De asemenea, studenții vor înțelege diferențele dintre AWS EMR și AWS Glue, unul dintre ultimele servicii Spark ale AWS.
PUBLIC:
Inginer de date, DevOps , Data Scientist
Python and Spark for Big Data (PySpark)
21 oreÎn cadrul acestui curs de formare live, condus de un instructor în România, participanții vor învăța cum să utilizeze Python și Spark împreună pentru a analiza date mari, pe măsură ce lucrează la exerciții practice.
Până la sfârșitul acestui training, participanții vor fi capabili să:
- Să învețe cum să utilizeze Spark cu Python pentru a analiza Big Data.
- Să lucreze la exerciții care imită cazuri din lumea reală.
- Să utilizeze diferite instrumente și tehnici pentru analiza datelor mari utilizând PySpark.
Apache Spark MLlib
35 oreMLlib este biblioteca Spark de învățare automată (ML). Scopul său este de a face învățarea practică a mașinilor scalabilă și ușoară. Se compune din algoritmi și utilități comune de învățare, inclusiv clasificarea, regresia, gruparea, filtrarea colaborativă, reducerea dimensiunilor, precum și primitivele de optimizare la nivel inferior și API-urile de conducte de nivel superior.
Se împarte în două pachete:
spark.mllib conține API original construit pe partea de sus RDDs.
spark.ml furnizează API de nivel superior construit pe partea de sus a DataFrames pentru construirea conductelor ML.
Public
Acest curs este adresat inginerilor și dezvoltatorilor care încearcă să utilizeze o mașină de bibliotecă construită pentru Apache Spark