
🚩 Nawet jeśli nie prowadzisz formalnie projektu AI w organizacji, to sztuczna inteligencja wchodzi w firmowe narzędzia implikując nowe kategorie ryzyka, za które po wejściu ustawy o KSC odpowiadają osobiście Zarządy. Używanie AI wymaga systemowego podejścia i zgodności z regulacjami. A żeby móc osiągnąć spodziewany ROI, dokładnego zmapowania procesów przed jej wdrożeniem.
ᯓ➤ Co przygotowaliśmy?
» AI Act, NIS 2, DORA, KSC – to nie przepisy dla IT, ale standard bezpieczeństwa projektów AI
🔶 Pokażemy, jak zidentyfikować najważniejsze zagrożenia takie jak: shadow AI, brak kontroli nad danymi, zbyt duże zaufanie do modeli. Nakreślimy organizacyjne i prawne scenariusze wraz z konkretnym katalogiem ryzyk i odpowiedzialności prawnej za AI w organizacji.
» Architektura AI zgodna z wymogami, bezpieczna i audytowalna
🔶 Omówimy kluczowe fazy projektu adopcji AI: od zdefiniowania procesów i zakresu danych, przez wybór modeli i dostawców, aż po zbudowanie mechanizmów kontroli dostępu, polityk bezpieczeństwa (SZBI), raportowania i monitoringu. Dowiesz się, jakie audyty bezpieczeństwa i konfiguracji systemów warto przeprowadzić przed wdrożeniem AI oraz jak kontrolować dostęp do krytycznych zasobów firmy.
» Odpowiedzialność Zarządów i maksymalizacja ROI
🔶 Nowelizacja podpisanej 19 lutego br. ustawy KSC nakłada osobistą finansową i karną odpowiedzialność Zarządów podmiotów kluczowych i ważnych za nadzór nad wdrożeniem środków bezpieczeństwa, w tym alokację budżetów na zasoby ludzkie, technologiczne i szkoleniowe w celu dostawania się do jej wymogów.
🔔 Jak pogodzić inteligentną automatyzację w celu zwiększenia konkurencyjności firmy z cyber ryzkami i meandrami legislacyjnymi? Zarejestruj się na wydarzenie już teraz, żeby pozostać zawsze na wygranej pozycji: https://lnkd.in/dz6iQWYx
