Intrati in legatura

Schița de curs

Mediul ML pe iOS și Configurarea Dezvoltării

  • Arhitectura ML pe dispozitiv a Apple: CoreML, Vision, Speech, NaturalLanguage
  • Configurarea mediului de dezvoltare: Anaconda, Python, Xcode și Swift
  • Introducere în coremltools și pipeline-ul de conversie ML pentru iOS
  • Laborator 1: Validează mediul macOS/Swift, configurează Python/Anaconda și verifică integrarea liniei de comandă Xcode

Antrenarea Modelelor Personalizate cu Python și Biblioteci ML Populare

  • Selectarea modelului: Când să folosești Keras/TensorFlow versus scikit-learn versus libsvm
  • Prelucrarea datelor, bucle de antrenament și metrici de evaluare în Python
  • Integrarea Anaconda & Spyder pentru dezvoltarea și depanarea eficientă a modelelor
  • Gestionarea modelelor vechi: importarea rețelelor Caffe prin coremltools
  • Laborator 2: Antrenează un model de clasificare/regresie personalizat în Python (Keras/scikit-learn) și exportă în .h5/.pkl

Conversia Modelelor în CoreML și Integrarea pe iOS

  • Folosirea coremltools pentru a converti modele TensorFlow, Keras, scikit-learn, libsvm și Caffe în .mlmodel
  • Inspectarea modelelor CoreML în Xcode: straturi, intrări/ieșiri, precizie și niveluri de optimizare
  • Încărcarea modelelor CoreML în Swift: MLModel, MLFeatureProvider și inferență async
  • Laborator 3: Convertiți un model antrenat în Python în CoreML, inspectați-l în Xcode și încărcați-l într-un playground Swift

Construirea Inteligenței pe iOS cu CoreML și Vision

  • Framework-ul Vision: detectarea fețelor, detectarea obiectelor, recunoașterea textului și scanarea codurilor de bare
  • Integrarea CoreGraphics: preprocesarea imaginilor, mascarea ROI și randarea suprapusă
  • GameplayKit: aplicarea arborilor de comportament AI, găsirea drumurilor și logica jocului alături de ML în aplicație
  • Optimizarea inferenței în timp real: pipeline-uri multi-model, caching și gestionarea memoriei
  • Laborator 4: Implementează o funcție de analiză a imaginilor în timp real folosind Vision + model CoreML personalizat + suprapunere CoreGraphics

Recunoașterea Vorbirii, NLP și Integrarea Siri

  • Framework-ul Speech: conversie vorbire-text în timp real, vocabular personalizat și injecție de model lingvistic
  • Framework-ul NaturalLanguage: tokenizare, analiză de sentiment, NER și identificarea limbii
  • SiriKit & Shortcuts: adăugarea comenzilor vocale, intenții personalizate și suport Siri pe dispozitiv
  • Confidențialitate și securitate: sandboxing CoreML, criptarea datelor și compromisuri între inferența pe dispozitiv și în cloud
  • Laborator 5: Adaugă comenzi vocale, analiză de text și Siri Shortcuts în aplicația iOS

Proiect Capstone și Implementarea Aplicației

  • Flux de lucru de la un capăt la altul: antrenare Python → conversie CoreML → interfață Swift → implementare iOS
  • Profilarea performanței: Instruments, diagnostice CoreML și cuantizarea modelelor (FP16/INT8)
  • Ghiduri App Store pentru aplicații ML: limite de dimensiune, manifeste de confidențialitate și gestionarea datelor pe dispozitiv
  • Capstone: Implementează o aplicație iOS completă cu un model CoreML personalizat, procesare Vision, funcții de vorbire/NLP și integrare Siri
  • Recenzie, Întrebări & Pași Următori: Scalare la SwiftUI, Core ML multi-modal și MLOps pentru iOS

Pentru a solicita un plan de curs personalizat pentru acest training, vă rugăm să ne contactați.

Cerințe

  • Experiență dovedită în programarea în Swift (Xcode, SwiftUI/UIKit, async/await, closures)
  • Nu este necesară experiență anterioară în învățarea automată sau știința datelor
  • Cunoașterea elementelor de bază ale liniei de comandă și a sintaxei Python este utilă

Public țintă

  • Dezvoltatori iOS & Mobile
  • Ingineri de software care trec la AI pe dispozitiv
  • Responsabili tehnici care evaluează strategii de implementare ML pe iOS
 14 Ore

Numărul de participanți


Pret per participant

Mărturii (1)

Cursuri viitoare

Categorii înrudite