Cursuri de pregatire Migrating CUDA Applications to Chinese GPU Architectures
Arhitecturile chinezești GPU, cum ar fi Huawei Ascend, Biren și Cambricon MLU, oferă alternative CUDA adaptate pentru piețele locale de AI și HPC.
Acest training live (online sau presencial), condus de un instrucțurator, se adresează programatorilor avansati și specialistilor infrastructurii care doresc să migreze și să optimizeze aplicațiile existente CUDA pentru a fi depozitate pe platformele hardware chinezești.
La sfârșitul acestui training, participanții vor putea:
- Evaluea compatibilitatea sarcinilor de lucru CUDA existente cu alternativele de chipuri chinezești.
- Migra bazile de cod CUDA către mediul Huawei CANN, Biren SDK și Cambricon BANGPy.
- Compara performanța și identifica punctele de optimizare pe mai multe platforme.
- Răspunde la provocările practice în sprijinul și depunerea multi-arhitectură.
Formatul cursului
- Lecții interactive și discuții.
- Laboratoare practice de traducere a codului și compararea performanței.
- Sesiuni guiâte cu accent pe strategiile de adaptare multi-GPU.
Opțiuni pentru personalizarea cursului
- Pentru a solicita un training personalizat bazat pe platforma sau proiectul CUDA dvs., vă rugăm să ne contactați pentru a organiza.
Schița de curs
Prezentarea ecosistemului AI chinezesc GPU
- Comparație între Huawei Ascend, Biren, Cambricon MLU
- CUDA vs CANN, Biren SDK și modelele BANGPy
- Trenduri industriale și ecosisteme de furnizori
Pregătirea pentru migrație
- Evaluarea codului sursă CUDA
- Identificarea platformelor țintă și versiunilor SDK
- Instalarea lanțurii instrumentale și configurarea mediu
Tehnici de traducere a codului
- Ponterizarea accesului la memorie CUDA și logica nucleelor
- Mapearea modelelor grilei de calcul/threads
- Opțiuni de traducere automatizată vs manuală
Implementări specifice platformelor
- Folosirea operatorilor Huawei CANN și nucleelor personalizate
- Pipeline-ul de conversie Biren SDK
- Reconstrucția modelului cu BANGPy (Cambricon)
Testare și optimizare inter-platformă
- Afisarea profilurilor executiei pe fiecare platforma țintă
- Ajustarea memoriei și comparațiile de execuție paralelă
- Urmarirea performanței și iterații
Gestionarea mediilor mixte GPU
- Distribuirea hibridă cu mai multe arhitecturi
- Strategii de cădere înapoi și detecția dispozitivului
- Niveluri de abstracție pentru menținerea codului
Cazuri studiu și cele mai bune practici
- Ponterizarea modelelor de visionare/NLP spre Ascend sau Cambricon
- Adăugarea pipeline-urilor de inferență pe clustere Biren
- Gestionarea discrepanțelor de versiuni și gâlbi ale API-urilor
Synopsis și următoarele pași
Cerințe
- Experiență în programare cu CUDA sau aplicații bazate pe GPU
- Înțelegere a modelelor de memorie și nucleelor de calcul ale GPU
- Familiaritate cu fluxurile de lucru pentru deploy sau accelerare a modelelor AI
Publicul vizat
- Programatori GPU
- Arhitecți de sistem
- Especialiști în portabilizare
Cursurile publice necesita 5+ participanti
Cursuri de pregatire Migrating CUDA Applications to Chinese GPU Architectures - Booking
Cursuri de pregatire Migrating CUDA Applications to Chinese GPU Architectures - Enquiry
Migrating CUDA Applications to Chinese GPU Architectures - Cerere de consultanta
Cerere de consultanta
Upcoming Courses
Cursuri înrudite
Developing AI Applications with Huawei Ascend and CANN
21 oreHuawei Ascend este o familie de procesatoare IA concepute pentru inferență și antrenament cu performanță ridicată.
Acest training guiț la distanță sau pe locație, este destinat inginerilor AI intermediari și științificilor ai datelor care doresc să dezvolte și să optimizeze modele de rețele neuronale folosind platforma Ascend a Huawei și cai-tookitul CANN.
La sfârșitul acestui training, participanții vor putea:
- Să configureze mediul de dezvoltare CANN.
- Să dezvolte aplicații AI folosind MindSpore și fluxurile CloudMatrix.
- Să optimizze performanța pe Ascend NPU-uri folosind operatori personalizați și tiling.
- Să distribuie modelele în mediul la bord sau cloud.
Format al cursului
- Lecții interactive și discuții.
- Folosirea practică a lui Huawei Ascend și cai-tookitul CANN în aplicații de exemplu.
- Exerciții guițe concentrându-se pe construirea, antrenarea și distribuirea modelului.
Opțiuni de personalizare a cursului
- Pentru a solicita un training personalizat bazat pe infrastructura sau seturile de date ale dumneavoastră, vă rugăm să ne contactați pentru a organiza acest lucru.
Deploying AI Models with CANN and Ascend AI Processors
14 oreCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Inference and Deployment with CloudMatrix
21 oreCloudMatrix este platforma unificată de dezvoltare și implementare AI a lui Huawei, concepută pentru a susține canalele de inferență la scară produs.
Acest training în direct (online sau presencial) se adresează profesionistilor AI cu niveluri de începător până la intermediar care doresc să implementeze și să monitorizeze modelele AI folosind platforma CloudMatrix cu integrarea CANN și MindSpore.
La sfârșitul acestui training, participanții vor putea:
- Să utilizeze CloudMatrix pentru ambalarea, implementarea și servirea modelelor.
- Să convertesc și optimizăm modelele pentru chipseturile Ascend.
- Să configureze canale pentru sarcinile de inferență în timp real și în loturi.
- Să monitorizeze implementările și să tuneze performanța în setările de producție.
Format al cursului
- Lecții interactive și discuții.
- Utilizarea practică a lui CloudMatrix cu scenarii reale de implementare.
- Exerciții guiți care se concentrează pe conversie, optimizare și scalare.
Opțiuni pentru personalizarea cursului
- Pentru a solicita un training personalizat bazat pe infrastructura AI sau mediul cloud al dumneavoastră, vă rugăm să ne contactați pentru a organiza acest lucru.
GPU Programming on Biren AI Accelerators
21 oreBiren AI Accelerators are high-performance GPUs designed for AI and HPC workloads with support for large-scale training and inference.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level developers who wish to program and optimize applications using Biren’s proprietary GPU stack, with practical comparisons to CUDA-based environments.
By the end of this training, participants will be able to:
- Understand Biren GPU architecture and memory hierarchy.
- Set up the development environment and use Biren’s programming model.
- Translate and optimize CUDA-style code for Biren platforms.
- Apply performance tuning and debugging techniques.
Format of the Course
- Interactive lecture and discussion.
- Hands-on use of Biren SDK in sample GPU workloads.
- Guided exercises focused on porting and performance tuning.
Course Customization Options
- To request a customized training for this course based on your application stack or integration needs, please contact us to arrange.
Cambricon MLU Development with BANGPy and Neuware
21 oreCambricon MLUs (Machine Learning Unități) sunt chipuri AI specializate optimizate pentru inferență și antrenament în scenarii la marginea rețelei și în centre de date.
Acest training live, condus de un instrucțurator (online sau pe locație), se adresează dezvoltatorilor cu nivel intermediar care doresc să construiască și să deployeze modele AI folosind cadrul BANGPy și SDK-ul Neuware pe hardware Cambricon MLU.
La sfârșitul acestui training, participanții vor putea:
- Să configureze mediile de dezvoltare pentru BANGPy și Neuware.
- Să dezvolte și să optimizeze modele bazate pe Python și C++ pentru Cambricon MLUs.
- Să deployeze modelele la dispozitive de margine sau centre de date care rulează runtime-ul Neuware.
- Să integreze fluxurile de lucru AI cu caracteristici specifice de accelerare MLU.
Formatul cursului
- Lecții interactive și discuții.
- Utilizarea practică a BANGPy și Neuware pentru dezvoltare și deploy.
- Exerciții guiite cu accent pe optimizare, integrare și testare.
Opțiuni de personalizare a cursului
- Pentru a solicita un training personalizat pentru acest curs bazat pe modelul dispozitivului Cambricon sau scenariul dumneavoastră, vă rugăm să ne contactați pentru a organiza.
Introduction to CANN for AI Framework Developers
7 oreCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 oreHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 oreHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 oreCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 oreThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 oreCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Performance Optimization on Ascend, Biren, and Cambricon
21 oreAscend, Biren și Cambricon sunt platforme hardware de IA lider în China, oferind fiecare instrumente unice de accelerare și profilare pentru sarcinile AI la scară de producție.
Acest antrenament live, sub conducerea instruirei (online sau pe locație), se adresează inginerilor avansați de infrastructură AI și performanță care dorește optimizarea fluxurilor de lucru pentru inferența și antrenarea modelelor pe mai multe platforme de chipuri AI chinezești.
La sfârșitul acestui antrenament, participantii vor putea:
- Benchmark-a modelle pe platformele Ascend, Biren și Cambricon.
- Identifica bocanci de sistem și ineficiențe la nivelul memoriei/sursei de calcul.
- Aplica optimizări la nivelul graficului, nucleului și operatorului.
- Tuneaza pipeline-urile de implementare pentru a îmbunătăți fluxul și întârzierile.
Format al cursului
- Lecții interactive și discuții.
- Utilizarea practică a instrumentelor de profilare și optimizare pe fiecare platformă.
- Exerciții guiți care se concentrează pe scenarii practice de tuneare.
Opțiuni pentru personalizarea cursului
- Pentru a solicita un antrenament personalizat pentru acest curs în funcție de mediul dvs. de performanță sau tipul modelului, vă rugăm să ne contactați pentru a organiza.