Performance Optimization on Ascend, Biren, and Cambricon Treningskurs
Ascend, Biren og Cambricon er ledende AI-hardwareplattformer i Kina, og hver av dem tilbyr unike akselerasjon- og profileringverktøy for AI-belastninger på produksjonsnivå.
Denne instruktørledede, live-utdanningen (online eller på stedet) er rettet mot avanserte AI-infrastruktur- og ytelsesingeniører som ønsker å optimalisere modellinferens og treningarbeidsflyter over flere kinesiske AI-chipplattformer.
Ved slutten av denne utdanningen vil deltakerne kunne:
- Benkmark-modeller på Ascend, Biren og Cambricon-plattformer.
- Identifisere systemflaskehalser og minne-/beregningsineffektiviteter.
- Bruke grafnivå-, kjerne-nivå- og operatørnivå-optimaliseringer.
- Tune deploymentsrørledninger for å forbedre gjennomstrømning og latens.
Kursformat
- Interaktiv forelesning og diskusjon.
- Prøving av profilering- og optimaliseringsverktøy på hver plattform.
- Veiledede øvelser som fokuserer på praktisk tuning.
Kursets tilpasningsmuligheter
- For å be om en tilpasset utdanning for dette kurset basert på din ytelsesmiljø eller modelltype, vennligst kontakt oss for å ordne.
Kursplan
Ytelsekonsepter og metrikker
- Latenstid, gjennomstrømning, strømforbruk, ressursutnyttelse
- System- vs modellenivåflasker
- Profilering for inferens vs trening
Profilering på Huawei Ascend
- Bruk av CANN Profiler og MindInsight
- Kernel- og operatordiagnostikk
- Offload-mønstre og minnekartlegging
Profilering på Biren GPU
- Biren SDK ytelsesovervåkningsfunksjoner
- Kernel-fusjon, minnejustering og utførelseskøer
- Strøm- og temperaturbevisst profilering
Profilering på Cambricon MLU
- BANGPy og Neuware ytelsesverktøy
- Kernelnivå-visibilitet og loggtolkning
- MLU-profilerintegrering med distribusjonsrammeverk
Graf- og modellenivåoptimering
- Grafuttrenging og kvantiseringsstrategier
- Operatorfusjon og omstrukturering av beregningsgraf
- Standardisering av inndatastrøm og batchjustering
Minne- og kerneloptimering
- Optimalisering av minnelayout og gjenbruk
- Effektiv bufferhåndtering over chipsett
- Kernelnivåjusteringsteknikker per plattform
Best practises over plattformer
- Ytelsesportabilitet: abstraksjonsstrategier
- Bygging av felles justeringspipelines for multichip-miljøer
- Eksempel: justering av en objektdeteksjonsmodell over Ascend, Biren og MLU
Oppsummering og neste steg
Krav
- Erfaring med arbeid med AI-modelltrening eller utplasseringspipeliner
- Forståelse av GPU/MLU beregningsprinsipper og modelloptimalisering
- Grundleggende kjennskap til ytelsesprofilering-verktøy og metrikker
Målgruppe
- Ytelsesingeniører
- Maskinlæring infrastrukturlag
- AI-systemarkitekter
Open Training Courses require 5+ participants.
Performance Optimization on Ascend, Biren, and Cambricon Treningskurs - Booking
Performance Optimization on Ascend, Biren, and Cambricon Treningskurs - Enquiry
Performance Optimization on Ascend, Biren, and Cambricon - Consultancy Enquiry
Consultancy Enquiry
Upcoming Courses
Relaterte kurs
Developing AI Applications with Huawei Ascend and CANN
21 timerHuawei Ascend er en familie av AI-prosessorer som er designet for høyytelsesfull inferens og trening.
Denne instruktørledede, live-trainingen (online eller på sted) er rettet mot mellomnivå AI-ingeniører og datavitere som ønsker å utvikle og optimalisere neuronnettverksmodeller ved hjelp av Huaweis Ascend-plattform og CANN-verktøykassen.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Sette opp og konfigurere CANN-utviklingsmiljøet.
- Utvikle AI-applikasjoner ved hjelp av MindSpore og CloudMatrix-arbeidsflyt.
- Optimalisere ytelse på Ascend NPU-er ved hjelp av tilpassede operatører og tiling.
- Distribuere modeller til kant- eller sky-miljøer.
Formatet på kurset
- Interaktiv forelesning og diskusjon.
- Hendene-i-bruk av Huawei Ascend og CANN-verktøykassen i eksempelapplikasjoner.
- Veiledende øvelser fokusert på modellbygging, trening og distribusjon.
Kursets tilpassingsmuligheter
- For å be om en tilpasset opplæring for dette kurset basert på din infrastruktur eller datasett, kontakt oss for å ordne.
Deploying AI Models with CANN and Ascend AI Processors
14 timerCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Inference and Deployment with CloudMatrix
21 timerCloudMatrix er Huaweis enhetlige AI-utviklings- og implementeringsplattform som er designet for å støtte skalerbare, produksjonsnivå-inferens-pipeliner.
Denne instruktørledede, live-trainingen (online eller på sted) er rettet mot AI-profesjonelle på begynnernivå til mellomnivå som ønsker å implementere og overvåke AI-modeller ved hjelp av CloudMatrix-plattformen med CANN og MindSpore-integrasjon.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Bruke CloudMatrix for modellpakking, implementering og levering.
- Konvertere og optimalisere modeller for Ascend-chipset.
- Sette opp pipeliner for realtid- og batch-inferensoppgaver.
- Overvåke implementeringer og justere ytelsen i produksjonssetninger.
Kursets format
- Interaktiv forelesning og diskusjon.
- Hånds-on bruk av CloudMatrix med virkelige implementeringsscenarier.
- Veiledede øvelser som fokuserer på konvertering, optimalisering og skalerbarhet.
Tilpassingsalternativer for kurset
- For å be om en tilpasset opplæring for dette kurset basert på din AI-infrastruktur eller sky-miljø, vennligst kontakt oss for å avtale.
GPU Programming on Biren AI Accelerators
21 timerBiren AI Accelerators are high-performance GPUs designed for AI and HPC workloads with support for large-scale training and inference.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level developers who wish to program and optimize applications using Biren’s proprietary GPU stack, with practical comparisons to CUDA-based environments.
By the end of this training, participants will be able to:
- Understand Biren GPU architecture and memory hierarchy.
- Set up the development environment and use Biren’s programming model.
- Translate and optimize CUDA-style code for Biren platforms.
- Apply performance tuning and debugging techniques.
Format of the Course
- Interactive lecture and discussion.
- Hands-on use of Biren SDK in sample GPU workloads.
- Guided exercises focused on porting and performance tuning.
Course Customization Options
- To request a customized training for this course based on your application stack or integration needs, please contact us to arrange.
Cambricon MLU Development with BANGPy and Neuware
21 timerCambricon MLUs (Machine Learning Units) er spesialiserte AI-kretser som er optimalisert for inferens og opplæring i edge- og datasenter-scenarier.
Denne instruktørlede, live-undervisningen (online eller på sted) er rettet mot mellomnivåutviklere som ønsker å bygge og distribuere AI-modeller ved bruk av BANGPy-rammeverket og Neuware SDK på Cambricon MLU-hardware.
Ved slutten av denne opplæringen vil deltakerne kunne:
- Sette opp og konfigurere BANGPy- og Neuware-utviklingsmiljøene.
- Utvikle og optimalisere Python- og C++-baserte modeller for Cambricon MLUs.
- Distribuere modeller til edge- og datasenter-enheter som kjører Neuware-runtime.
- Integere ML-arbeidsflyter med MLU-spesifikke akselerasjonsfunksjoner.
Kursets format
- Interaktiv forelesning og diskusjon.
- Hånds-on bruk av BANGPy og Neuware for utvikling og distribuering.
- Veiledede øvelser som fokuserer på optimalisering, integrering og testing.
Kursets tilpassingsmuligheter
- For å bestille en tilpasset opplæring for dette kurset basert på din Cambricon-enhetsmodell eller bruksområde, kontakt oss for å avtale.
Introduction to CANN for AI Framework Developers
7 timerCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 timerHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 timerHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 timerCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 timerThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 timerCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Migrating CUDA Applications to Chinese GPU Architectures
21 timerKinesiske GPU-arkitekturer som Huawei Ascend, Biren, og Cambricon MLUs tilbyr CUDA-alternativer tilpasset for lokale AI- og HPC-marked.
Denne instruktørledede, live-trening (online eller på stedet) er rettet mot avanserte GPU-programmerere og infrastrukturspesialister som ønsker å migrere og optimalisere eksisterende CUDA-applikasjoner for deployering på kinesiske hardwarplattformer.
Ved slutten av denne treningen vil deltakerne kunne:
- Vurdere kompatibiliteten til eksisterende CUDA-arbeidsbelastninger med kinesiske chip-alternativer.
- Flytte CUDA-kodebaser til Huawei CANN, Biren SDK, og Cambricon BANGPy-miljøer.
- Sammenligne ytelse og identifisere optimaliseringspunkter over plattformer.
- Behandle praktiske utfordringer med kryssarkitekturstøtte og deployering.
Kursets format
- Interaktiv forelesning og diskusjon.
- Praktiske kodeoversettings- og ytelsessammenligningslaboratorier.
- Veiledede øvelser fokusert på fler-GPU-tilpasningsstrategier.
Tilpasningsmuligheter for kurset
- For å be om en tilpasset trening for dette kurset basert på din plattform eller CUDA-prosjekt, vennligst kontakt oss for å avtale.