Schița de curs

Introducere în Red Teaming pentru IA

  • Comprehensia lanțului de amenințări al IA
  • Rolurile echipelor roșii în securitatea IA
  • Considerente etice și legale

Adversarial Machine Learning

  • Tipuri de atacuri: evadare, intoxicație, extragere, inferință
  • Generarea exemplu adversar (de exemplu, FGSM, PGD)
  • Atacuri direcționate vs nedorite și metrice de succes

Testare a Robustecii Modelelor

  • Evaluarea robustecii sub perturbări
  • Explorarea punctelor cie și modurilor de eșec ale modelelor
  • Teste presionante pentru modele de clasificare, viziune și NLP

Red Teaming Pipelines IA

  • Superfața de atac a pipeline-urilor de IA: date, modele, implementarea
  • Exploatarea API-uri și capete neasecurizate ale modelelor
  • Inginerie inversă a comportamentului și a iesirilor modelelor

Simulare și Instrumente

  • Utilizarea Adversarial Robustness Toolbox (ART)
  • Red Teaming cu instrumente precum TextAttack și IBM ART
  • Sandboxing, monitorizare și instrumente de observabilitate

Strategii și Apărare pentru Echipe Roșii IA Collaboration

  • Dezvoltarea exercițiilor și obiectivelor echipei roșii
  • Comunicarea descoperirilor cu echipa albastră
  • Integrarea red teaming în gestionarea riscurilor IA

Rezumat și Pasii Următori

Cerințe

  • Oprit înțelegerea arhitecturilor de învățare automată și învățare adâncă
  • Experiență cu Python și cadre ML (de exemplu, TensorFlow, PyTorch)
  • Cunoștințe despre conceptele de cybersecurity sau tehnicile de securitate ofensivă

Publicul-țintă

  • Cercetători în domeniul securității
  • Echipe de securitate ofensivă
  • Profesionali ai asigurării AI și red team
 14 ore

Numărul de participanți


Pret per participant

Upcoming Courses

Categorii înrudite