AI już teraz penetruje Twoją infrastrukturę

Bezpieczeństwo AI to zarządzanie ryzykiem wynikającym z adopcji narzędzi sztucznej inteligencji w organizacji. W firmach, które nie mają polityki AI, adopcja i tak następuje. Bez widoczności nie ma możliwości zarządzania tym, co się dzieje z danymi.

Średni czas wykrycia nieautoryzowanego dostępu to 197 dni. (IBM)

78%

pracowników wykorzystuje narzędzia AI w pracy niezależnie od zgody pracodawcy

Microsoft

5x

wyższe jest faktyczne wykorzystanie AI w firmach względem deklarowanego

Eurostat

1/2

osób używających AI w pracy robi to bez wiedzy pracodawcy

Microsoft

Co obejmuje obszar bezpieczeństwa AI?

Bezpieczeństwo AI (AI security) to domena zajmująca się ryzykiem wynikającym z implementacji i użycia narzędzi sztucznej inteligencji w organizacji obejmująca kilka warstw

ryzyko związane z danymi wchodzącymi do modeli AI,

(co pracownicy wklejają do ChatGPT, Gemini, Copilota)

ryzyko wynikające z użycia niezweryfikowanych narzędzi AI,

(kto zainstalował jakie rozszerzenie, kto korzysta z jakiej platformy)

ryzyko związane z automatyzacją opartą na agentach AI,

(co agent może zrobić w imieniu pracownika i z jakimi dostępami)

ryzyko ataku na systemy AI.

(prompt injection, model poisoning)

Bezpieczeństwo AI nie jest synonimem zakazu używania narzędzi AI. Zakaz nie eliminuje realnej adopcji. Pracownicy korzystają ze sztucznej inteligencji niezależnie od tego, czy firma ma politykę użycia, czy nie.

Różnica polega na tym, że przy braku polityki robią to bez wiedzy IT i bez żadnych ograniczeń co do tego, jakie dane do tych narzędzi trafiają.

AI Governance to widoczność, polityka i kontrole techniczne. Razem dają firmie możliwość zarządzania tym, co rzeczywiście się dzieje, a nie tylko tym, co jest oficjalnie dozwolone.

Kiedy kontrolowanie użycia AI staje się faktycznie niezbędne?

Różnica między małą firmą a firmą korporacją w kontekście bezpieczeństwa AI leży przede wszystkim w skali niewidoczności.

W małym zespole istnieje pewna szansa, że jedna osoba wie, kto czego używa i stara się sprawować nad tym kontrolę. W większej firmie dziesiątki osób w różnych działach podejmują niezależne decyzje o narzędziach, których używają w codziennej pracy.

Adopcja AI jest nieuchronna i w większości pozytywna

Narzędzia AI zwiększają produktywność, przyspieszają pracę z dokumentami, pomagają w analizie danych i w komunikacji. Pracownicy, którzy je stosują, są z reguły bardziej efektywni. Problem nie leży w samej adopcji. Leży w tym, że adopcja wyprzedza governance i że dane firmowe trafiają do zewnętrznych modeli zanim ktokolwiek zdążył ocenić ryzyko.

Zakazy nie działają

Firmy, które zakazują używania narzędzi AI, nie eliminują adopcji. Przenoszą ją w niewidoczne obszary. Pracownicy używają prywatnych kont, korzystają z narzędzi przez przeglądarkę zamiast przez aplikację firmową, instalują rozszerzenia poza zasięgiem MDM. Wynik jest gorszy niż bez zakazu: jest taka sama ekspozycja danych, ale mniej widoczności.

Dane firmowe trafiają do modeli AI bez żadnej kontroli

Pracownik wkleja fragment umowy do ChatGPT, żeby poprawić styl. Wkleja dane klientów do arkusza, który analizuje narzędzie AI. Używa asystenta AI zintegrowanego z pocztą, który ma dostęp do całej jego korespondencji. Każda z tych sytuacji jest normalną codziennością w firmach, które nie mają polityki AI. Żadna z nich nie jest rejestrowana.

Agenci AI tworzą nową kategorię ryzyka

Agenci AI to systemy, które działają autonomicznie w imieniu użytkownika: wysyłają e-maile, zarządzają kalendarzem, wykonują akcje w innych aplikacjach. Każda akcja agenta to potencjalny wektor, który łączy uprawnienia użytkownika z możliwościami autonomicznego systemu bez bezpośredniego nadzoru człowieka.

Narzędzia AI mnożą się szybciej niż narzędzia SaaS

Ekosystem narzędzi AI rośnie w tempie, które nie ma precedensu w historii adopcji technologii. Nowe modele, nowe platformy, nowe pluginy i nowe rozszerzenia pojawiają się co tydzień. Śledzenie tego, co jest używane w organizacji, wymaga aktywnego narzędzia lub procesu.

Ryzyka wynikające ze sztucznej inteligencji

Każde z poniższych to kategoria ryzyka, która pojawia się w środowiskach firm wykorzystujących narzędzia AI. Część z nich jest nowa, część to znane ryzyka w nowym kontekście

Brak polityki i procesów zarządzania AI

Brak AI governance to nie tylko brak dokumentu z zakazami i pozwoleniami. To brak odpowiedzi na pytania, które firma powinna umieć postawić: jakie narzędzia AI są używane w organizacji? Jakie dane trafiają do zewnętrznych modeli? Kto zatwierdza nowe narzędzia AI przed ich użyciem? Jak postępuje się z danymi wyjściowymi narzędzi AI przed ich użyciem w dokumentach lub komunikacji zewnętrznej?

AI Governance  w dojrzałej formie obejmuje klasyfikację danych (które dane mogą trafiać do zewnętrznych modeli AI, które nie), politykę użycia narzędzi AI (z listą zatwierdzonych narzędzi i procesem akceptacji nowych), kontrole techniczne (narzędzia do monitorowania przepływu danych przez AI) oraz edukację pracowników (co jest ryzykowne i dlaczego).

Większość firm zaczyna od uproszczonej wersji: lista zatwierdzonych narzędzi, krótka polityka, jedno zdanie o tym, jakich danych nie wklejać do zewnętrznych modeli. To wystarczający punkt startowy.

Niezweryfikowane narzędzia AI

Ekosystem narzędzi AI rośnie w tempie, które uniemożliwia dogłębne weryfikowanie każdego narzędzia przed użyciem. Pracownicy instalują rozszerzenia do przeglądarki, podłączają nowe asystenty do poczty, korzystają z platform, które nie mają podpisanych DPA z firmą, nie przeszły żadnej oceny bezpieczeństwa i których polityka prywatności nie jest zgodna z RODO.

Ocena narzędzia AI przed wdrożeniem nie musi być złożonym procesem. Kluczowe pytania to: czy dane są używane do trenowania modelu? Gdzie są przechowywane? Czy dostawca oferuje DPA? Czy narzędzie może być konfigurowane w trybie enterprise, który wyłącza użycie danych do trenowania?

Niekontrolowane rozszerzenia AI

Platformy AI oferują ekosystemy pluginów i rozszerzeń, które rozszerzają możliwości modelu bazowego. Plugin do przeglądarki może mieć dostęp do otwartych kart. Plugin do narzędzia produktywności może mieć dostęp do plików. Rozszerzenie do poczty może czytać całą korespondencję.

Pluginy AI działają na granicy modelu językowego i danych użytkownika. Ich bezpieczeństwo zależy od dostawcy pluginu, który często jest podmiotem trzecim niezwiązanym z dostawcą modelu bazowego. W większości organizacji pluginy AI nie są inwentaryzowane i nie są objęte żadną polityką.

Ataki typu prompt injection

Prompt injection to technika, w której złośliwa treść osadzona w danych przetwarzanych przez model AI modyfikuje zachowanie tego modelu. W praktyce: dokument wklejony do asystenta AI zawiera ukryte instrukcje, które zmieniają to, co asystent zrobi lub odpowie. Strona internetowa przetworzona przez agenta AI zawiera instrukcje, które kierują agenta do wykonania nieautoryzowanej akcji.

Prompt injection jest szczególnie istotny w kontekście agentów AI, które przetwarzają dane z zewnętrznych źródeł i podejmują na ich podstawie autonomiczne akcje. To nowa klasa ataku, dla której jeszcze nie ma standardowych kontroli bezpieczeństwa w większości organizacji.

Halucynacje i dezinformacja

Modele językowe generują przekonująco brzmiące, ale błędne informacje. Znane jako halucynacje, te błędy są szczególnie ryzykowne, gdy wyniki AI są używane bez weryfikacji w dokumentach prawnych, ofertach handlowych, raportach finansowych lub komunikacji zewnętrznej.

Ryzyko rośnie przy narzędziach AI, które mają dostęp do zasobów zewnętrznych i mogą generować wyniki mieszające zweryfikowane dane z treściami wygenerowanymi. Bez procesu weryfikacji wyników AI firma wystawia się na ryzyko podejmowania decyzji na podstawie błędnych danych lub wysyłania klientom informacji, które są nieprawdziwe.

Wyciek informacji zastrzeżonych

Najbardziej powszechne ryzyko w obszarze AI security. Pracownik wkleja do modelu językowego fragment zawierający informacje zastrzeżone: dane klientów, treść umów, dane finansowe, informacje o strategii, dane pracowników, kod źródłowy. Robi to nie ze złośliwości, ale dlatego że narzędzie pomaga mu pracować szybciej i nie myśli o konsekwencjach.

Ryzyko zależy od warunków użytkowania modelu i od tego, czy dane są używane do trenowania. Część dostawców AI wprost deklaruje, że dane z wersji bezpłatnych lub poza planami enterprise mogą być używane do poprawy modeli. W praktyce oznacza to, że dane firmowe wklejone do darmowego konta trafiają do infrastruktury zewnętrznej organizacji bez żadnej umowy o przetwarzaniu danych.

Samsung w 2023 roku przez trzy tygodnie odnotował kilkanaście przypadków, w których pracownicy wklejali do ChatGPT kod źródłowy i wewnętrzne dane.

Brak widoczności użycia narzędzi AI

Firma bez widoczności użycia AI nie może zarządzać tym ryzykiem. Nie wie, ile osób używa zewnętrznych modeli AI. Nie wie, przez jakie narzędzia. Nie wie, jakie dane do nich trafiają. Nie ma możliwości wykrycia, gdy pracownik postępuje niezgodnie z polityką, bo polityka nie ma żadnego przełożenia technicznego.

Widoczność użycia AI jest warunkiem koniecznym każdego pozostałego elementu governance. Bez niej polityka jest dokumentem, który nie ma żadnego rzeczywistego efektu.

Wyciek danych wrażliwych przez AI

Sensitive data leakage przez AI to sytuacja, gdy dane chronione prawem lub wewnętrzną polityką trafiają do zewnętrznego modelu lub systemu AI. Dotyczy to danych osobowych pracowników i klientów (RODO), danych objętych tajemnicą zawodową (prawną, lekarską, finansową), danych objętych umowami NDA lub klauzulami poufności, a także kodu źródłowego i dokumentacji technicznej.

Ryzyko wycieku jest wyższe przy narzędziach AI zintegrowanych bezpośrednio z aplikacjami. Asystenci zintegrowani z pocztą lub komunikatorem mają dostęp do całej komunikacji, nie tylko do tego, co pracownik świadomie wybrał do analizy.

Niekontrolowani agenci AI

Agenty AI to systemy zdolne do wykonywania sekwencji działań autonomicznie, w imieniu użytkownika lub organizacji. Agent może wysyłać e-maile, tworzyć dokumenty, wykonywać akcje w aplikacjach biznesowych, zarządzać zadaniami, a w bardziej zaawansowanych konfiguracjach podejmować decyzje i inicjować procesy bez bezpośredniego polecenia człowieka.

Ryzyka agentów AI są innego rodzaju niż ryzyka pasywnych narzędzi językowych. Agent działający z uprawnieniami użytkownika może zrobić rzeczy, których użytkownik nie chciał lub nie wiedział, że agent zrobi. W środowiskach z niedojrzałą polityką AI agenty są wdrażane przez entuzjastycznych pracowników zanim ktokolwiek zdążył ocenić konsekwencje nadawania im uprawnień do działania w imieniu firmy.

Training data poisoning

Dla firm budujących własne modele AI lub dostrajających istniejące modele na własnych danych, ryzyko dotyczy jakości i bezpieczeństwa danych treningowych. Zatrute dane treningowe mogą prowadzić do modeli, które zachowują się w sposób nieprzewidywalny lub są podatne na manipulację przez dobrze skonstruowane prompty.

To ryzyko jest mniej istotne dla firm korzystających wyłącznie z gotowych modeli jako usługi. Staje się istotne przy projektach budowania własnych asystentów, chatbotów lub systemów rekomendacji opartych na danych firmowych.

AI governance w praktyce

Dojrzałe podejście do bezpieczeństwa AI opiera się na kilku elementach, które razem dają kontrolę nad tym, co się dzieje

Widoczność jako punkt startowy

Zanim firma podejmie jakąkolwiek decyzję o polityce, powinna wiedzieć, co jest już używane. Które narzędzia AI są aktywne w organizacji? Przez kogo? Z jakimi danymi?

Klasyfikacja danych przed polityką narzędzi

Które dane mogą trafiać do zewnętrznych modeli AI, a które nie?

Dane ogólnodostępne, dane wewnętrzne, dane poufne, dane osobowe klientów i pracowników: każda kategoria wymaga innego podejścia. Polityka, która mówi tylko "nie używaj AI do danych poufnych", jest niewykonalna bez jasnej definicji, co jest poufne.

Lista zatwierdzonych narzędzi z procesem akceptacji nowych

Zatwierdzenie narzędzia AI powinno odpowiadać na kilka pytań:
zy dostawca oferuje DPA? Czy dane są używane do trenowania? Czy istnieje plan enterprise, który wyłącza to użycie? Czy narzędzie ma certyfikaty bezpieczeństwa adekwatne do danych, do których będzie miało dostęp?

Realna kontrola, nie tylko polityka bezpieczeństwa

Polityka bez wsparcia technicznego jest skuteczna przez chwilę po jej ogłoszeniu. Kontrole techniczne mogą obejmować: narzędzia do monitorowania ruchu DNS i wykrywania użycia niezatwierdzonych narzędzi AI, DLP (Data Loss Prevention) skonfigurowane na dane wrażliwe, zarządzanie rozszerzeniami przeglądarki przez MDM.

Edukacja pracowników skupiona na świadomości

Pracownicy, którzy rozumieją dlaczego wklejanie danych klientów do zewnętrznego modelu jest ryzykowne, są skuteczniejszym zabezpieczeniem niż polityka, której nikt nie czytał.

Edukacja, która wyjaśnia mechanizm: co dzieje się z danymi po wklejeniu, jak działa trenowanie modelu, co oznacza brak DPA, buduje nawyki trwalsze niż lista zakazów.

Kiedy trzeba zabezpieczyć użycie sztucznej inteligencji?

Firmy rzadko podejmują temat zarządzania tożsamością bez powodu. Zazwyczaj jest coś, co sprawia, że pytanie "kto ma dostęp do czego" staje się pilne.

Pewne sytuacje powtarzają się jednak regularnie

Odejście kluczowej osoby z IT

Gdy osoba, która "wiedziała wszystko o systemach", odchodzi, organizacja nagle zdaje sobie sprawę, że ta wiedza nie była nigdzie zapisana. Offboarding tej osoby staje się pierwszym testem tego, jak dobrze działa zarządzanie dostępami.

Audyt bezpieczeństwa lub due diligence

SOC 2, ISO 27001, audyt zewnętrzny, due diligence przed inwestycją lub przejęciem. Każdy z tych procesów wymaga wykazania, że dostępy są pod kontrolą i weryfikowane. To jeden z najczęstszych punktów niezgodności w audytach, stąd staje się to priorytetem.

Incydent lub niemal-incydent

Odkrycie, że konto byłego pracownika wciąż jest aktywne. Wyciek hasła i niemożność szybkiej oceny zakresu dostępu. Ktoś z zewnątrz prosi o hasło "bo musi coś sprawdzić".

Wzrost firmy pokazuje nieporadność ręcznego zarządzania

Przekroczenie pewnego progu liczby pracowników, wdrożenie nowego systemu ERP, przejście na pracę zdalną. Każda z tych zmian ujawnia, że ręczne zarządzanie dostępami nie skaluje się.

Wymagania klientów lub kontrahentów

Klienci, szczególnie korporacje i firmy podlegające regulacjom, coraz częściej wymagają wykazania kontroli nad dostępami jako warunku współpracy. Pytania o polityki bezpieczeństwa i access management stają się częścią procesu vendor assessment.

Wdrożenie regulacji

NIS2, DORA i wymagania sektorowe dla firm finansowych lub ochrony zdrowia. Każde z nich wymaga możliwości wykazania pełnej kontroli nad dostępami do systemów krytycznych i przetwarzanych danych.

Narzędzia, z którymi pracujemy w tym obszarze

Wybór narzędzia do zarządzania tożsamością zależy od skali, architektury i dojrzałości procesów w organizacji. Nie ma jednego właściwego. Są narzędzia adekwatne do konkretnego etapu.

Dlaczego tożsamość staje się problemem dopiero przy pewnej skali?

Mniejsze firmy zwykle radzą sobie z dostępami intuicyjnie. IT zna każdego i wie, kto czego używa, offboarding robi jedna osoba w ciągu godziny, a lista aplikacji mieści się w głowie.

W firmach 100+ to przestaje działać, gdyż skala zmienia mechanikę problemu. Zespoły pracują między sobą, rotacja jest większa, przestajesz kojarzyć nowych pracowników, a część z nich pracuje tylko zdalnie.

To jest moment, w którym firmy zaczynają rozmawiać o IAM nie jako o projekcie bezpieczeństwa, ale jako o podstawowej higienie operacyjnej.

Liczba systemów rośnie nieliniowo

Firma 50-osobowa używa szacunkowo kilkudziesięciu aplikacji. Firma 200-osobowa, szczególnie jeśli ma kilka działów z różnymi potrzebami, używa wielokrotnie więcej. Każda aplikacja to osobny model dostępu, osobna lista użytkowników, osobne uprawnienia do zarządzania

Rotacja rośnie

Im więcej ludzi, tym więcej zmian: awanse, zmiany działów, odejścia, kontrahenci na czas określony. Każda zmiana powinna pociągać za sobą aktualizację uprawnień. W praktyce to często nie następuje, bo nikt nie ma czasu, bo procedura nie jest jednoznaczna, albo system, w którym trzeba coś zmienić, nie jest podłączony do centralnego katalogu.

Odpowiedzialność jest rozmyta

W małej firmie offboarding robi konkretna osoba. W firmie 100+ HR zamyka konto w systemie kadrowym, IT zamyka konto w Active Directory, a za aplikacje SaaS, repozytoria na GitHubie i konto w narzędziu do analityki odpowiada każdy i nikt.

Historyczne decyzje kumulują się

Każde konto, które nie zostało zamknięte w odpowiednim momencie, każde uprawnienie nadane "tymczasowo" i każdy token wygenerowany do projektu, który się skończył, zostaje w systemie. Po trzech latach takich decyzji masz środowisko, którego nie da się zrozumieć bez narzędzia, które je zmapuje.

Jak możemy pomóc

Jeśli tematyka tej strony jest bliska temu, co widzisz w swoim środowisku, to są dwa miejsca, od których warto zacząć.

Audyt tożsamości i dostępów

14-dniowy audyt kończący się pełnym raportem. Mapujemy każde konto, każdy OAuth grant i każde uprawnienie w trybie read-only. Bez zmian w środowisku. Po audycie wiesz dokładnie, co masz i co wymaga uwagi.

Dobór i wdrożenie IAM

Doradztwo w doborze narzędzia, projekt architektury i pełne wdrożenie. Od JML przez SSO i MFA po access reviews i IGA dla firm z bardziej zaawansowanymi wymaganiami governance oraz compliance.

Jeśli chcesz lepiej poznać ten obszar

You don't need to overhaul everything. Start with what you can see. Build from there

zero-trust-framework
Zero Trust

Zero Trust: A Modern Framework for Digital-First Companies

Enhance security with zero trust security models & architecture. Strict access controls for all access.
local-admin-rights
Admin Access

Remove Local Admin Rights: Balancing Security and Productivity

Boost security and productivity by limiting admin privileges. Explore the idea of removing local rights while applying least privilege principles.