Curs de pregatire Securitatea Cibernetică în Sistemele de AI
Securizarea sistemelor de AI prezintă provocări unice care diferă de abordările tradiționale ale securității cibernetice. Sistemele de AI sunt vulnerabile la atacuri adversariale, otrăvirea datelor și furtul de modele, toate acestea putând avea un impact semnificativ asupra operațiunilor de afaceri și integrității datelor. Acest curs explorează practicile cheie de securitate cibernetică pentru sistemele de AI, acoperind învățarea automată adversară, securitatea datelor în procesele de învățare automată și cerințele de conformitate pentru o implementare robustă a AI.
Această formare condusă de un instructor, în direct (online sau la fața locului), este destinată profesioniștilor de nivel intermediar în domeniul AI și securității cibernetice care doresc să înțeleagă și să abordeze vulnerabilitățile de securitate specifice modelelor și sistemelor de AI, în special în industriile puternic reglementate, cum ar fi finanțele, guvernanța datelor și consultanța.
La finalul acestei formări, participanții vor putea:
- Înțelege tipurile de atacuri adversariale vizând sistemele de AI și metodele de apărare împotriva acestora.
- Implementa tehnici de întărire a modelelor pentru a securiza procesele de învățare automată.
- Asigura securitatea și integritatea datelor în modelele de învățare automată.
- Naviga cerințele de conformitate reglementară legate de securitatea AI.
Formatul cursului
- Prelegere interactivă și discuții.
- Multe exerciții și practică.
- Implementare practică într-un mediu de laborator live.
Opțiuni de personalizare a cursului
- Pentru a solicita o formare personalizată pentru acest curs, vă rugăm să ne contactați pentru a aranja.
Schița de curs
Introducere în provocările de securitate AI
- Înțelegerea riscurilor de securitate unice pentru sistemele de AI
- Compararea securității cibernetice tradiționale vs. securitatea AI
- Prezentare generală a suprafețelor de atac în modelele de AI
Învățarea automată adversară
- Tipuri de atacuri adversariale: evaziune, otrăvire și extracție
- Implementarea apărărilor și contramăsurilor adversariale
- Studii de caz despre atacuri adversariale în diferite industrii
Tehnici de întărire a modelelor
- Introducere în robustețea și întărirea modelelor
- Tehnici pentru reducerea vulnerabilității modelelor la atacuri
- Lucru practic cu distilare defensivă și alte metode de întărire
Securitatea datelor în învățarea automată
- Securizarea proceselor de date pentru antrenament și inferență
- Prevenirea scurgerilor de date și a atacurilor de inversare a modelelor
- Bune practici pentru gestionarea datelor sensibile în sistemele de AI
Conformitatea și cerințele reglementare în securitatea AI
- Înțelegerea reglementărilor legate de AI și securitatea datelor
- Conformitate cu GDPR, CCPA și alte legi de protecție a datelor
- Dezvoltarea de modele de AI sigure și conforme
Monitorizarea și menținerea securității sistemelor de AI
- Implementarea monitorizării continue pentru sistemele de AI
- Înregistrarea și auditarea pentru securitate în învățarea automată
- Răspunsul la incidente și încălcări de securitate AI
Tendințe viitoare în securitatea cibernetică AI
- Tehnici emergente în securizarea AI și învățarea automată
- Oportunități de inovație în securitatea cibernetică AI
- Pregătirea pentru provocările viitoare de securitate AI
Rezumat și pași următori
Cerințe
- Cunoștințe de bază despre învățarea automată și concepte de AI
- Familiaritate cu principiile și practicile de securitate cibernetică
Publicul țintă
- Ingineri de AI și învățare automată care doresc să îmbunătățească securitatea în sistemele de AI
- Profesioniști în securitate cibernetică care se concentrează pe protecția modelelor de AI
- Profesioniști în conformitate și managementul riscurilor în guvernanța și securitatea datelor
Cursurile publice necesita 5+ participanti
Curs de pregatire Securitatea Cibernetică în Sistemele de AI - Rezervare
Curs de pregatire Securitatea Cibernetică în Sistemele de AI - Solicitare
Securitatea Cibernetică în Sistemele de AI - Cerere de consultanta
Mărturii (1)
Cunoașterea profesională și modul în care ne-a prezentat-o
Miroslav Nachev - PUBLIC COURSE
Curs - Cybersecurity in AI Systems
Tradus de catre o masina
Cursuri viitoare
Cursuri înrudite
ISACA Advanced in AI Security Management (AAISM)
21 OreAAISM este un cadru avansat pentru evaluarea, guvernanța și gestionarea riscurilor de securitate în sistemele de inteligență artificială.
Această formare condusă de un instructor, live (online sau la fața locului), este destinată profesioniștilor de nivel avansat care doresc să implementeze controale de securitate eficiente și practici de guvernanță pentru mediile de inteligență artificială din întreprinderi.
La finalul acestui program, participanții vor fi pregătiți să:
- Evalueze riscurile de securitate AI folosind metodologii recunoscute în industrie.
- Implementeze modele de guvernanță pentru implementarea responsabilă a AI.
- Alinieze politicile de securitate AI cu obiectivele organizaționale și așteptările reglementare.
- Sporească reziliența și responsabilitatea în cadrul operațiunilor bazate pe AI.
Formatul cursului
- Prelegeri facilitate, susținute de analize experte.
- Ateliere practice și activități bazate pe evaluare.
- Exerciții aplicate folosind scenarii reale de guvernanță AI.
Opțiuni de personalizare a cursului
- Pentru o formare adaptată strategiei de AI a organizației dumneavoastră, vă rugăm să ne contactați pentru a personaliza cursul.
Guvernanța, Conformitatea și Securitatea IA pentru Liderii de Întreprindere
14 OreAceastă instruire condusă de un instructor, live în România (online sau la fața locului) este destinată liderilor de întreprindere de nivel intermediar care doresc să înțeleagă cum să guverneze și să securizeze sistemele de IA în mod responsabil și în conformitate cu cadrele globale emergente, cum ar fi Actul UE privind IA, GDPR, ISO/IEC 42001 și Ordinul Executiv al SUA privind IA.
La finalul acestei instruiri, participanții vor putea:
- Înțelege riscurile legale, etice și de reglementare ale utilizării IA în diferite departamente.
- Interpreta și aplica principalele cadre de guvernanță a IA (Actul UE privind IA, NIST AI RMF, ISO/IEC 42001).
- Să stabilească politici de securitate, audit și supraveghere pentru implementarea IA în întreprindere.
- Să dezvolte linii directoare pentru achiziționarea și utilizarea sistemelor de IA de la terți și interne.
Managementul Riscurilor și Securitatea AI în Sectorul Public
7 OreInteligența Artificială (AI) introduce noi dimensiuni ale riscului operațional, provocări de guvernanță și expunere la riscuri de securitate cibernetică pentru agențiile și departamentele guvernamentale.
Acest training condus de un instructor, live (online sau la fața locului), este destinat profesioniștilor IT și de gestionare a riscurilor din sectorul public cu experiență limitată în domeniul AI, care doresc să înțeleagă cum să evalueze, să monitorizeze și să securizeze sistemele AI într-un context guvernamental sau de reglementare.
La sfârșitul acestui training, participanții vor putea:
- Să interpreteze conceptele cheie de risc legate de sistemele AI, inclusiv părtinirea, imprevizibilitatea și deriva modelului.
- Să aplice cadre de guvernanță și audit specifice AI, cum ar fi NIST AI RMF și ISO/IEC 42001.
- Să recunoască amenințările de securitate cibernetică care vizează modelele AI și fluxurile de date.
- Să stabilească planuri de gestionare a riscurilor și aliniere a politicilor între departamente pentru implementarea AI.
Formatul Cursului
- Prelegere interactivă și discuție despre cazuri de utilizare în sectorul public.
- Exerciții de cadru de guvernanță AI și mapare a politicilor.
- Modelare a amenințărilor și evaluare a riscurilor bazate pe scenarii.
Opțiuni de Personalizare a Cursului
- Pentru a solicita un training personalizat pentru acest curs, vă rugăm să ne contactați pentru a aranja.
Introducere în Managementul Încrederii, Riscurilor și Securității în AI (AI TRiSM)
21 OreAceastă formare condusă de un instructor, live în România (online sau la fața locului), este destinată profesioniștilor IT de la nivel începător până la intermediar care doresc să înțeleagă și să implementeze AI TRiSM în organizațiile lor.
La sfârșitul acestei formări, participanții vor putea:
- Să înțeleagă conceptele cheie și importanța managementului încrederii, riscurilor și securității în AI.
- Să identifice și să atenueze riscurile asociate sistemelor de AI.
- Să implementeze cele mai bune practici de securitate pentru AI.
- Să înțeleagă conformitatea reglementară și considerațiile etice pentru AI.
- Să dezvolte strategii pentru o gestionare și guvernanță eficientă a AI.
Construirea de Aplicații LLM Securizate și Responsabile
14 OreAcest training condus de un instructor, live în România (online sau la fața locului), este destinat dezvoltatorilor, arhitecților și managerilor de produse AI de nivel intermediar până la avansat, care doresc să identifice și să atenueze riscurile asociate aplicațiilor alimentate de LLM, inclusiv injecția de prompturi, scurgerea de date și ieșirea nefiltrată, în timp ce integrează controale de securitate precum validarea intrărilor, supravegherea umană în buclă și gardurile de ieșire.
La finalul acestui training, participanții vor putea:
- Să înțeleagă vulnerabilitățile de bază ale sistemelor bazate pe LLM.
- Să aplice principii de proiectare securizată în arhitectura aplicațiilor LLM.
- Să utilizeze instrumente precum Guardrails AI și LangChain pentru validare, filtrare și siguranță.
- Să integreze tehnici precum sandboxing, red teaming și revizuire umană în buclă în fluxurile de producție.
EXO Security and Governance: Offline Model Management
14 OreThis instructor-led, live training in România (online or onsite) is designed for security engineers and compliance officers who wish to harden EXO deployments, control model access, and govern AI workloads running entirely on-premise.
Introducere în Securitatea AI și Managementul Riscurilor
14 OreAceastă sesiune de formare condusă de un instructor, desfășurată live în România (online sau la fața locului), este destinată profesioniștilor începători în domeniul securității IT, gestionării riscurilor și conformității, care doresc să înțeleagă conceptele de bază ale securității AI, vectorii de amenințare și cadrele globale precum NIST AI RMF și ISO/IEC 42001.
La finalul acestei sesiuni de formare, participanții vor putea:
- Să înțeleagă riscurile de securitate unice introduse de sistemele AI.
- Să identifice vectorii de amenințare, cum ar fi atacurile adverse, intoxicația datelor și inversarea modelelor.
- Să aplice modele de guvernanță de bază precum NIST AI Risk Management Framework.
- Să alinieze utilizarea AI cu standardele emergente, liniile directoare de conformitate și principiile etice.
Securitatea OWASP GenAI
14 OreBazat pe cele mai recente orientări ale Proiectului OWASP GenAI Security, participanții vor învăța să identifice, să evalueze și să mitigeze amenințările specifice AI prin exerciții practice și scenarii din lumea reală.
Învățarea Automată cu Protecția Confidențialității
14 OreAceastă formare condusă de un instructor, live în România (online sau la fața locului), este destinată profesioniștilor de nivel avansat care doresc să implementeze și să evalueze tehnici precum învățarea federată, calculul securizat multipartit, criptarea homomorfă și confidențialitatea diferențială în fluxurile de lucru din învățarea automată din lumea reală.
La finalul acestei formări, participanții vor putea:
- Să înțeleagă și să compare tehnici cheie de protecție a confidențialității în învățarea automată.
- Să implementeze sisteme de învățare federată folosind framework-uri open-source.
- Să aplice confidențialitatea diferențială pentru partajarea sigură a datelor și antrenarea modelelor.
- Să utilizeze tehnici de criptare și calcul securizat pentru a proteja intrările și ieșirile modelelor.
Red Teaming AI Systems: Securitate Ofensivă pentru Modele de ML
14 OreAceastă instruire condusă de un instructor, live în România (online sau la fața locului) este destinată profesioniștilor avansați în securitate și specialiștilor în ML care doresc să simuleze atacuri asupra sistemelor AI, să descopere vulnerabilități și să îmbunătățească robustețea modelelor AI implementate.
La finalul acestei instruiri, participanții vor putea:
- Simula amenințări din lumea reală asupra modelelor de învățare automată.
- Genera exemple adverse pentru a testa robustețea modelelor.
- Evalua suprafața de atac a API-urilor și fluxurilor AI.
- Proiecta strategii de red teaming pentru mediile de implementare AI.
Securizarea AI la Margine și a Inteligenței Încorporate
14 OreAceastă formare condusă de un instructor, live în România (online sau la fața locului) este destinată inginerilor și profesioniștilor în securitate de nivel intermediar care doresc să securizeze modelele de AI implementate la margine împotriva amenințărilor precum manipularea, scurgerea de date, intrări adverse și atacuri fizice.
La sfârșitul acestei formări, participanții vor putea:
- Identifica și evalua riscurile de securitate în implementările de AI la margine.
- Aplica tehnici de rezistență la manipulare și de inferență criptată.
- Consolida modelele implementate la margine și securiza fluxurile de date.
- Implementa strategii de mitigare a amenințărilor specifice sistemelor încorporate și constrânse.
Securizarea Modelelor de AI: Amenințări, Atacuri și Apărări
14 OreAcest training condus de un instructor, live în România (online sau la fața locului), este destinat profesioniștilor de nivel intermediar în domeniul învățării automate și al securității cibernetice care doresc să înțeleagă și să atenueze amenințările emergente împotriva modelelor de AI, folosind atât cadre conceptuale, cât și apărări practice precum antrenament robust și confidențialitate diferențială.
La finalul acestui training, participanții vor putea:
- Identifica și clasifica amenințări specifice AI, cum ar fi atacuri adverse, inversare și otrăvire.
- Folosi instrumente precum Adversarial Robustness Toolbox (ART) pentru a simula atacuri și a testa modele.
- Aplica apărări practice, inclusiv antrenament advers, injecție de zgomot și tehnici de protecție a confidențialității.
- Proiecta strategii de evaluare a modelelor conștiente de amenințări în medii de producție.
Securitate și Confidențialitate în Aplicațiile TinyML
21 OreTinyML este o abordare pentru implementarea modelelor de învățare automată pe dispozitive cu putere redusă și resurse limitate, care operează la marginea rețelei.
Acest training condus de un instructor, live (online sau la fața locului), este destinat profesioniștilor de nivel avansat care doresc să securizeze pipeline-urile TinyML și să implementeze tehnici de protecție a confidențialității în aplicațiile de AI la margine.
La finalul acestui curs, participanții vor putea:
- Identifica riscurile de securitate unice pentru inferența TinyML pe dispozitiv.
- Implementa mecanisme de protecție a confidențialității pentru implementările de AI la margine.
- Consolida modelele TinyML și sistemele încorporate împotriva amenințărilor adverse.
- Aplica cele mai bune practici pentru gestionarea securizată a datelor în medii cu resurse limitate.
Formatul Cursului
- Prelegeri captivante susținute de discuții conduse de experți.
- Exerciții practice care evidențiază scenarii de amenințări din lumea reală.
- Implementare practică folosind instrumente de securitate încorporate și TinyML.
Opțiuni de Personalizare a Cursului
- Organizațiile pot solicita o versiune personalizată a acestui training pentru a se alinia nevoilor lor specifice de securitate și conformitate.
AI Agentic Sigur și Securizat: Guvernanță, Identitate și Testare Adversă
21 OreAcest curs acoperă guvernanța, managementul identității și testarea adversă pentru sistemele AI agentice, concentrându-se pe modele de implementare sigure în medii enterprise și tehnici practice de red-teaming.
Această instruire condusă de un instructor, live (online sau la fața locului), este destinată practicienilor de nivel avansat care doresc să proiecteze, să securizeze și să evalueze sisteme AI bazate pe agenți în medii de producție.
La finalul acestei instruiri, participanții vor putea:
- Defini modele și politici de guvernanță pentru implementări sigure ale AI agentic.
- Proiecta fluxuri de identitate și autentificare pentru agenți ne-umani cu acces de tipul „least-privilege”.
- Implementa controale de acces, urme de audit și observabilitate adaptate agenților autonomi.
- Planifica și executa exerciții de red-teaming pentru a descoperi utilizări incorecte, căi de escaladare și riscuri de exfiltrare a datelor.
- Mitiga amenințările comune la adresa sistemelor agentice prin politici, controale de inginerie și monitorizare.
Formatul Cursului
- Prelegeri interactive și ateliere de modelare a amenințărilor.
- Laboratoare practice: gestionarea identităților, aplicarea politicilor și simularea adversarilor.
- Exerciții red-team/blue-team și evaluare finală.
Opțiuni de Personalizare a Cursului
- Pentru a solicita o instruire personalizată pentru acest curs, vă rugăm să ne contactați pentru a aranja.