Cursuri de pregatire AI Risk Management and Security in the Public Sector
Artificial Intelligence (AI) introducează noi dimensiuni ale riscurilor operaționale, provocări de guvernanță și expunere la cybersecuțitate pentru agențiile și departamentele guvernamentale.
Acest training condus de un instruire (online sau presenzial) se adresează profesionistilor IT și ai riscurilor din sectorul public cu experiență limitată în AI care doresc să înțeleagă cum să evalueze, monitorizeze și asigure sistemele AI într-un context guvernamental sau de reglementare.
La sfârșitul acestui training, participanții vor putea:
- Interpreta conceptele cheie ale riscurilor legate de sistemele AI, inclusiv biaza, neunpredictibilitatea și deriva modelului.
- Aplica cadrele de guvernanță și audit specifice AI precum NIST AI RMF și ISO/IEC 42001.
- Reconoiște amenințările de cybersecuțitate care se îndreaptă spre modelele AI și canalele de date.
- Etablui planuri de gestionare a riscurilor interdepartamentale și alinierea politicilor pentru implementarea AI.
Formatul cursului
- Lecții interactive și discuții despre cazuri de utilizare din sectorul public.
- Exerciții cu cadrele de guvernanță AI și mapearea politicilor.
- Modelare a amenințărilor bazată pe scenarii și evaluarea riscurilor.
Opțiuni de personalizare a cursului
- Pentru a solicita un training personalizat pentru acest curs, vă rugăm să ne contactați pentru a organiza.
Schița de curs
Compre henderea Riscurile Specifice AI în Setările Governmentale
- Cum diferă riscurile AI de cele tradiționale IT și date
- Categorii de risc AI: tehnice, operaționale, reputaționale și etice
- Responsabilitatea publică și percepția riscurilor în guvernament
Cadre AI Risk Management
- Cadru AI NIST (AI RMF)
- ISO/IEC 42001:2023 — Standard pentru Sistemele AI Management
- Alte directive specifice sectorului și internaționale (de exemplu, OECD, UNESCO)
Amenințări la Securitate ale Sistemelor AI
- Inputuri adversarice, intoxicația datelor și inversarea modelului
- Eksponarea datelor de antrenament sensibile
- Riscuri în lanțul de aprovizionare și modelele terților
Governare, Auditare și Controale
- Mecanisme umane în bucle și responsabilitate
- AI auditabilă: documentație, versiuni și interpretabilitate
- Controale interne, roluri de supraveghere și checkpoint-uri de conformitate
Evaluarea Riscurilor și Planificarea Mitigării
- Construirea registrelor de risc pentru cazurile de utilizare AI
- Colaborarea cu echipele achizițiunilor, legale și designului serviciilor
- Realizarea evaluărilor pre-dezvoltare și post-dezvoltare
Răspuns la Incidente și Resistența Sectorului Public
- Răspunsul la incidentele și infracțiunile legate de AI
- Comunicarea cu părțile interesate și publicul
- Incorporarea practicilor de risc AI în manualele de cibersiguranță
Synopsis și Următoarele Pași
Cerințe
- Experiență în operări IT, gestionare a riscurilor, cibersecuritate sau conformitate în instituțiile guvernamentale
- Cunoștințe cu practicile de securitate organizatorice și livrarea serviciilor digitale
- Nu este necesară experiența tehnică prealabilă cu sistemele AI
Publicul-țintă
- Echipe IT guvernamentare implicate în serviciile digitale și integrarea sistemelor
- Profesioniști de cibersecuritate și gestionare a riscurilor din instituțiile publice
- Persoanele din sectorul public responsabile pentru audit, conformitate și guvernanță
Cursurile publice necesita 5+ participanti
Cursuri de pregatire AI Risk Management and Security in the Public Sector - Booking
Cursuri de pregatire AI Risk Management and Security in the Public Sector - Enquiry
AI Risk Management and Security in the Public Sector - Cerere de consultanta
Cerere de consultanta
Upcoming Courses
Cursuri înrudite
AI Governance, Compliance, and Security for Enterprise Leaders
14 oreAcest training în direct de instruitor (online sau presencial) este destinat liderilor intermediari ai enterpriselor care doresc să înțeleagă cum să gestioneze și să se asigure siguranța sistemelor AI responsabil, în conformitate cu cadrele globale emergente precum Actul UE privind IA, GDPR, ISO/IEC 42001 și Ordinul Executiv al SUA privind IA.
La sfârșitul acestui training, participanții vor putea:
- Să înțeleagă riscurile legale, etice și regulate de utilizare a AI în diferite departamente.
- Să interpreteze și să aplique cadrele majore de guvernanță AI (Actul UE privind IA, RMF NIST AI, ISO/IEC 42001).
- Să stabilească politici de securitate, auditare și supraveghere pentru implementarea AI în cadrul enterprizei.
- Să dezvolte directive de achiziționare și utilizare pentru sistemele AI din partea a treia și interne.
AI Policy and Regulation for Governments
7 oreAcest training în directie live (online sau presenzial) la nivel de ___ care urmează să folosească ___ pentru a ___.
La sfârșitul acestui training, participanții vor putea:
- Să instaleze și configureze ___.
- ___.
- ___.
- ___.
AI-Enhanced Public Service Delivery
7 oreAcest training în direct de instruire (online sau presenzial) este destinat profesionistilor cu nivel de începător / intermediar / avansat ___ care doresc să folosească ___ pentru a ___.
La sfârșitul acestui training, participanții vor putea:
- Instala și configura ___.
- ___.
- ___.
- ___.
AI Tools for Administrative Efficiency (ChatGPT, Copilot, Gemini)
7 oreAcest curs în timp real, condus de un instrucțurator (online sau pe locație), este destinat profesionistilor la nivel începător / intermediar / avansat care doresc să folosească ___ pentru a ___.
La sfârșitul acestui training, participanții vor putea:
- Să instaleze și configureze ___.
- ___.
- ___.
- ___.
Building Secure and Responsible LLM Applications
14 oreAcest training în direct de instruire (online sau pe locație) este destinat dezvoltatorilor AI, arhitecților și managerilor de produs cu nivel intermediar până avansat care doresc să identifice și să mitigeze riscurile asociate cu aplicațiile alimentate de modele de limbaj mari (LLM), inclusiv injectarea prompt-ului, fuga de date și iesirea nefiltrată, în timp ce se integrează controale de securitate precum validarea intrării, supravegherea umană în buclă și limitele de iesire.
La sfârșitul acestui training, participanții vor putea:
- Să înțeleagă vulnerabilitățile principale ale sistemelor bazate pe LLM.
- Să aplice principii de design sigur la arhitectura aplicațiilor LLM.
- Să folosească instrumente precum Guardrails AI și LangChain pentru validare, filtrare și securitate.
- Să integreze tehnici precum sandboxing, red teaming și revizuirea umană în buclă în pipeline-uri de producție.
DeepSeek for Government and Policy-Making
14 oreAceastă formare condusă de un instructor, live în România (online sau la fața locului) se adresează profesioniștilor guvernamentali de nivel avansat și experților în politici care doresc să valorifice DeepSeek pentru guvernarea bazată pe date și inovarea politicilor.
Până la sfârșitul acestei formări, participanții vor fi capabili să:
- Să utilizeze DeepSeek AI pentru analiza politicilor și luarea deciziilor strategice.
- Să automatizeze rapoartele guvernamentale și să îmbunătățească transparența datelor.
- Să aplice perspective bazate pe IA pentru inovarea sectorului public.
- Să consolideze implicarea cetățenilor prin soluții bazate pe inteligența artificială.
Intermediate Gemini AI for Public Sector Professionals
16 oreThis instructor-led, live training in România (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Introduction to AI for Public Sector Leaders
7 oreAcest training în directie live (online sau presencial) în România este destinat participantilor de nivel începător / intermediar / avansat care doresc să folosească ___ pentru a ___.
La sfârșitul acestui training, participanții vor putea:
- Să instaleze și configureze ___.
- ___.
- ___.
- ___.
Introduction to AI Security and Risk Management
14 oreAcest training în direct de instruire (online sau presenzial) din România este destinat profesionistilor începători în domeniul securității IT, gestionării riscurilor și conformității care doresc să înțeleagă conceptele de bază ale securității AI, vectorii de amenințare și cadrele globale precum NIST AI RMF și ISO/IEC 42001.
La sfârșitul acestui training, participanții vor putea:
- Să înțeleagă riscurile unice de securitate introduse de sistemele AI.
- Să identifice vectorii de amenințare precum atacurile adversarale, intoxicația datelor și inversarea modelului.
- Să aplică modele de guvernanță de bază cum ar fi cadrul NIST AI Risk Management.
- Să aliniereze utilizarea AI cu standarde emergente, directive de conformitate și principii etice.
Privacy-Preserving Machine Learning
14 oreAcest curs în directie live (online sau presenzial) în România este destinat profesionistilor avansați care doresc să implementeze și să evalueze tehnici precum învățarea federată, calculul multi-participant sigur, criptografia omomorfică și confidențialitatea diferențială în pipe-uri de învățare automatizată din lumea reală.
La sfârșitul acestui training, participanții vor putea:
- Să înțeleagă și să compare tehnici cheie de protecție a confidențialității în ML.
- Să implementeze sisteme de învățare federată folosind cadre deschise sursa.
- Să aplice confidențialitatea diferențială pentru împărțirea sigură a datelor și antrenarea modelelor.
- Să utilizeze tehnici de criptare și calcul sigur pentru a proteja intrările și iesirile modelului.
Red Teaming AI Systems: Offensive Security for ML Models
14 oreAcest training în direct de instruire (online sau presencial) din România este destinat profesionistilor avansati în domeniul securității și specialiștilor în inteligența artificială care doresc să simulateze atacuri asupra sistemelor AI, să descopere vulnerabilități și să îmbunătățească robustitatea modelelor AI_deployate.
La sfârșitul acestui training, participanții vor putea:
- Simuła amenințări din lumea reală pentru modelele de învățare automatizată.
- Genera exemple adversarale pentru a testa robustitatea modelului.
- Evaluea suprafața de atac a API-urilor AI și a pipeline-urilor.
- Diziona strategii red teaming pentru medii de deployare AI.
Introducere în Red Teaming AI
- Comprendearea lanțului amenințărilor din domeniul AI
- Rolurile echipei red în securitatea AI
- Considerente etice și legale
Machine Learning Adversarial
- Tipuri de atacuri: evitare, intoxicație, extragere, inferență
- Generarea de exemple adversarale (de exemplu, FGSM, PGD)
- Atacuri direcționate vs. nedirecționate și metriile de succes
Testare a Robustității Modelelor
- Evaluarea robustității sub perturbări
- Explorarea punctelor cie ale modelelor și modurilor de eșec
- Teste de stres pentru modele clasificare, viziune și NLP
Red Teaming AI Pipelines
- Suprafața de atac a pipeline-urilor AI: date, model, deployare
- Exploatarea API-urilor modelelor neîncredere și punctelor finale
- Inginerie inversă comportamentului și iesirilor modelului
Simulare și Instrumente
- Folosirea Adversarial Robustness Toolbox (ART)
- Red teaming cu instrumente precum TextAttack și IBM ART
- Instrumente de sandbox, monitorizare și observabilitate
Strategii și Apărare Red Team AI Collaboration
- Dezvoltarea exercițiilor red teaming și obiective
- Comunicarea descoperirilor cu echipele blue
- Incorporarea red teaming în gestionarea riscurilor AI
Rezumat și Următoarele Pași
Red Teaming AI Systems este un domeniu specializat de securitate ofensivă care se concentrează pe identificarea slăbiciunilor în modelele de învățare automatizată și pipeline-urile de deployare prin testare adversarială și simulări de stres.
Acest training în direct de instruire (online sau presencial) este destinat profesionistilor avansati în domeniul securității și specialiștilor în ML care doresc să simulateze atacuri asupra sistemelor AI, să descopere vulnerabilități și să îmbunătățească robustitatea modelelor AI_deployate.
La sfârșitul acestui training, participanții vor putea:
- Simuła amenințări din lumea reală pentru modelele de învățare automatizată.
- Genera exemple adversarale pentru a testa robustitatea modelului.
- Evaluea suprafața de atac a API-urilor AI și a pipeline-urilor.
- Diziona strategii red teaming pentru medii de deployare AI.
Format al cursului
- Lecție interactivă și discuție.
- Multe exerciții și practică.
- Pune în aplicare implementarea într-un mediu de laborator live.
Opțiuni de personalizare a cursului
- Pentru a solicita un training personalizat pentru acest curs, vă rugăm să ne contactați pentru a organiza.
Cerințe prealabile
- Comprendeerea arhitecturilor de învățare automatizată și în profunzime
- Experiență cu Python și cadre ML (de exemplu, TensorFlow, PyTorch)
- Familiaritate cu conceptele de securitate cibernetică sau tehnici de securitate ofensive
Publicul-țintă
- Cercetători în domeniul securității
- Echipe de securitate ofensivă
- Profesionisti AI asigurare și red team
Acest training în direct de instruire din România (online sau presencial) este destinat profesionistilor avansati în domeniul securității și specialiștilor în ML care doresc să simulateze atacuri asupra sistemelor AI, să descopere vulnerabilități și să îmbunătățească robustitatea modelelor AI_deployate.
La sfârșitul acestui training, participanții vor putea:
- Simuła amenințări din lumea reală pentru modelele de învățare automatizată.
- Genera exemple adversarale pentru a testa robustitatea modelului.
- Evaluea suprafața de atac a API-urilor AI și a pipeline-urilor.
- Diziona strategii red teaming pentru medii de deployare AI.
Securing Edge AI and Embedded Intelligence
14 oreAcest training în direct de instruire (online sau presenzial) la România este destinat inginerilor intermediari și profesionistilor din domeniul securității care doresc să protejeze modelele AI depusă la margine împotriva amenințărilor precum manipularea, fuga de date, intrările adversarale și atacurile fizice.
La sfârșitul acestui training, participanții vor putea:
- Identifica și evalua riscurile de securitate în implementările AI la margine.
- Aplica tehnici de rezistență la manipulare și inferențe criptate.
- Solidificați modelele depuse la margine și protejați canalele de date.
- Implementați strategii specifice de mitigație a amenințărilor pentru sistemele înguste și constrânse.
Securing AI Models: Threats, Attacks, and Defenses
14 oreAcest curs în direct de instruire (online sau presenzial) este destinat profesionistilor intermediari din domeniul învățării automatizate și cibersecurității care doresc să înțeleagă și să mitigeze amenințările emergente împotriva modelelor AI, folosind atât cadre conceptuale, cât și apăruri practice precum antrenarea robustă și confidențialitatea diferențială.
La sfârșitul acestui curs, participanții vor putea:
- Sa identifice și clasifice amenințările specifice AI, cum ar fi atacurile adversariale, inversarea și intoxicația.
- Să folosească instrumente precum Adversarial Robustness Toolbox (ART) pentru a simula atacuri și testa modelele.
- Să aplice apăruri practice, inclusiv antrenare adversarială, injectarea de zgomot și tehnici care păstrează confidențialitatea.
- Să conceapă strategii de evaluare a modelului conștientă de amenințări în mediul de producție.