Cyberbezpieczeństwo w erze AI – nowe zagrożenia i strategie ochrony

ekran systemu zarządzania danymi, w tle sylwetka człowieka w czarnym garniturze

W świecie, gdzie AI staje się fundamentem operacji biznesowych, cyberprzestępcy wykorzystują tę samą technologię do tworzenia coraz bardziej wyrafinowanych ataków. Jak skutecznie chronić swoją organizację?

Podczas intensywnego, dwudniowego szkolenia z cyberbezpieczeństwa w erze AI poznasz realne zagrożenia i praktyczne metody ochrony. Nauczysz się identyfikować luki w zabezpieczeniach systemów AI, przeciwdziałać atakom typu prompt injection oraz chronić poufność danych wykorzystywanych przez modele uczenia maszynowego.

To nie jest teoretyczny wykład — to praktyczne warsztaty, podczas których:
– Przeprowadzisz symulowane ataki na systemy AI i nauczysz się je powstrzymywać
– Zbudujesz framework bezpieczeństwa dla wdrożeń AI w swojej organizacji
– Opracujesz strategie minimalizacji ryzyka związanego z halucynacjami AI i wyciekiem danych

Zdobądź kompetencje, które pozwolą Ci skutecznie chronić firmę przed zagrożeniami cyfrowymi nowej generacji.

Dla kogo:

Specjaliści ds. cyberbezpieczeństwa
Menedżerowie IT i kierownicy działów bezpieczeństwa (CISO)
Inżynierowie DevSecOps
Specjaliści ds. zgodności (compliance) w obszarze AI i ochrony danych
Deweloperzy implementujący lub integrujący rozwiązania oparte na AI

Program:

Dzień I:

Nowe wyzwania bezpieczeństwa w erze AI

Ewolucja cyberbezpieczeństwa w kontekście sztucznej inteligencji (1.5h)
  • Wpływ sztucznej inteligencji na krajobraz zagrożeń cyberbezpieczeństwa
  • Podwójna rola AI – jako cel ataków i narzędzie w arsenale atakujących
  • Najważniejsze różnice między tradycyjnymi a AI-specyficznymi zagrożeniami
  • Przegląd głośnych incydentów bezpieczeństwa związanych z systemami AI
  • Dyskusja grupowa: Identyfikacja zagrożeń AI istotnych dla reprezentowanych organizacji
Podatności modeli generatywnych i LLM (2h)
  • Podatności na poziomie interfejsu — prompt injection, jailbreaking i mechanizmy działania
  • Techniki manipulacji zachowaniem modeli językowych przez spreparowane dane wejściowe
  • Problem halucynacji jako źródło zagrożeń dla wiarygodności i bezpieczeństwa
  • Demonstracja: Rzeczywiste przykłady podatności w popularnych modelach
  • Ćwiczenie: Identyfikacja słabych punktów w typowych implementacjach modeli generatywnych
Bezpieczeństwo danych w ekosystemie AI (1.5h)
  • Zagrożenia prywatności związane z danymi treningowymi i inferencyjnymi
  • Techniki wydobywania danych treningowych z modeli (model inversion)
  • Ataki na poufność przy użyciu współczesnych modeli AI
  • Wyzwania zgodności z RODO i innymi regulacjami w kontekście AI
  • Studium przypadku: Analiza wycieku danych poprzez model generatywny
Ataki na infrastrukturę i architekturę AI (1.5h)
  • Podatności w systemach obsługujących modele AI – od API po przechowywanie modeli
  • Ataki na proces trenowania i fine-tuning – data poisoning i model poisoning
  • Adversarial examples jako metoda manipulacji zachowaniem modeli
  • Bezpieczeństwo łańcucha dostaw dla systemów AI
  • Warsztaty: Analiza architektury systemu AI pod kątem potencjalnych wektorów ataku
Regulacje i standardy bezpieczeństwa AI (1.5h)
  • AI Act i jego implikacje dla bezpieczeństwa systemów AI
  • Standardy NIST AI Risk Management Framework
  • ISO/IEC 42001 i inne normy związane z zarządzaniem systemami AI
  • Wymogi zgodności dla systemów AI wysokiego ryzyka
  • Panel dyskusyjny: Praktyczne przygotowanie do nadchodzących regulacji bezpieczeństwa AI

Dzień II:

Strategie obrony i zabezpieczania systemów AI

Zabezpieczanie modeli generatywnych i LLM (2h)
  • Technologie walidacji i sanityzacji promptów — ochrona przed prompt injection
  • Implementacja guardrails dla modeli językowych — ograniczanie niebezpiecznych zachowań
  • Strategie monitorowania i wykrywania anomalii w działaniu modeli generatywnych
  • Techniki RLHF (Reinforcement Learning from Human Feedback) w kontekście bezpieczeństwa
  • Metody wykrywania i ograniczania halucynacji w systemach generatywnych
  • Systemy automatycznego audytu bezpieczeństwa modeli AI
  • Ćwiczenie: Budowa systemu walidacji promptów i odpowiedzi dla modelu generatywnego
Architektury bezpieczeństwa dla systemów AI (2h)
  • Projektowanie bezpiecznej architektury dla systemów wykorzystujących AI
  • Izolacja i segmentacja systemów AI — ochrona przed eskalacją uprawnień
  • Zarządzanie dostępem do systemów AI — autoryzacja, uwierzytelnianie, audyt
  • Implementacja piaskownic (sandboxes) dla modeli generatywnych
  • Podejście zero-trust w bezpieczeństwie systemów AI
  • Mechanizmy human-in-the-loop jako element strategii bezpieczeństwa
  • Praktyki DevSecOps w kontekście systemów AI — ciągła walidacja bezpieczeństwa
  • Ćwiczenie: Opracowanie procedur bezpiecznego wdrożenia systemu generatywnego AI
Techniki ochrony danych w systemach AI (1.5h)
  • Zaawansowane metody anonimizacji i pseudonimizacji danych wykorzystywanych przez AI
  • Federated learning jako strategia minimalizacji ryzyka wycieku danych
  • Differential privacy w trenowaniu i wykorzystaniu modeli AI
  • Technologie bezpiecznego przetwarzania (confidential computing) dla systemów AI
  • Demonstracja: Implementacja technik ochrony danych w procesie trenowania modelu
Wykrywanie i reagowanie na incydenty AI (1.5h)
  • Systemy monitorowania zachowania modeli AI i wykrywania anomalii
  • Identyfikacja oznak ataku na systemy AI – wskaźniki kompromitacji
  • Protokoły reagowania na incydenty specyficzne dla systemów AI
  • Strategia forensics dla systemów wykorzystujących sztuczną inteligencję
  • Symulacja: Reakcja na incydent bezpieczeństwa związany z AI
Implementacja strategii cyberbezpieczeństwa AI w organizacji (1h)
  • Framework oceny ryzyka dla systemów AI – metodyka i wdrożenie
  • Programy zwiększania świadomości zagrożeń AI wśród pracowników
  • Metryki bezpieczeństwa dla systemów AI – co i jak mierzyć
  • Ćwiczenie: Opracowanie elementów strategii cyberbezpieczeństwa AI
  • Podsumowanie szkolenia, sesja pytań i odpowiedzi

Efekty kształcenia:

Zidentyfikujesz kluczowe wektory ataków na systemy wykorzystujące AI, w tym podatności specyficzne dla modeli generatywnych
Wdrożysz strategie ochrony przed prompt injection, jailbreakingiem i innymi metodami manipulacji modelami AI
Zaimplementujesz mechanizmy monitorowania i wykrywania anomalii w zachowaniu systemów AI
Opracujesz polityki bezpieczeństwa uwzględniające specyfikę rozwiązań opartych na sztucznej inteligencji
Przeprowadzisz ocenę ryzyka wdrożeń AI w kontekście bezpieczeństwa danych i prywatności

Wymagania:

  • Podstawowa znajomość zagadnień cyberbezpieczeństwa
  • Ogólne zrozumienie koncepcji sztucznej inteligencji i modeli generatywnych
  • Doświadczenie w pracy z systemami IT w środowisku biznesowym
  • Własny laptop z dostępem do internetu

Nazwa

Cyberbezpieczeństwo w erze AI – nowe zagrożenia i strategie ochrony

Format

Stacjonarne lub online

Kategoria

Czas trwania

2 dni (16 godz.)

Typ szkolenia

Otwarte

Kategoria

Marketing

Dostępne terminy

12.03.2025

10.05.2025

Trenerzy

Mikołaj Tajchman

Wycena

od 1 661,98 / osobę

Liczba uczestników

5 wolnych miejsc

Miejsce

Online

Zyskaj do 20%
rabatu na szkolenie

Zapytaj swojego opiekuna o rabat dla grup

Chcesz zorganizować zamknięte szkolenie dla Twojej firmy?

Wypełnij krótki formularz i odbierz darmową wycenę, lub umów bezpłatną konsultację aby dowiedzieć się więcej.

Formularz kontaktowy

Rozmowa to pierwszy krok do nowych możliwości.
Wypełnij krótki formularz i porozmawiajmy o konkretach.
Rozmowa to pierwszy krok do nowych możliwości.
Wypełnij krótki formularz i porozmawiajmy o konkretach.