- Tags:
- security,
- security awareness,
- ai

Sztuczna inteligencja ułatwia ataki na firmy – i czyni je bardziej niebezpiecznymi
Phishing i socjotechnika od dawna należą do najczęstszych i najbardziej szkodliwych metod cyberprzestępców. Aby uczynić te techniki jeszcze bardziej niebezpiecznymi, coraz częściej wykorzystują oni generatywną sztuczną inteligencję. Szczególnie odnosi się to do oszustw finansowych, szpiegostwa przemysłowego i sabotażu. Co można zrobić?
Krótko i na temat
- Cyberprzestępcy wykorzystują sztuczną inteligencję, aby uczynić ataki phishingowe i socjotechniczne bardziej niebezpiecznymi.
- Szkolenia w zakresie cyberbezpieczeństwa są coraz ważniejsze w kontekście walki z ewoluującymi zagrożeniami.
- Specjalistyczne oprogramowanie do wykrywania anomalii sieciowych może być cennym wsparciem.
- Nie zapominajmy o podstawach: usuwajmy luki w zabezpieczeniach i wzmacniajmy ochronę sieci.
Niewiele brakowało. Pewna firma z USA poszukiwała programisty do zespołu AI. Zamieściła ogłoszenie, przeanalizowała aplikacje i CV, przeprowadziła rozmowy kwalifikacyjne (online),
sprawdziła szczegóły i referencje, a następnie zatrudniła kandydata i wysłała mu firmowy komputer.
Jednak gdy tylko nowy pracownik otrzymał sprzęt firmowy, zainstalował na nim złośliwe oprogramowanie. Dział bezpieczeństwa zauważył podejrzaną aktywność i skontaktował się z nim, oferując
wsparcie – wtedy mężczyzna zniknął. Śledztwo ujawniło, że nowo zatrudniona osoba była szpiegiem przemysłowym z Korei Północnej. Przeszedł standardowe procedury weryfikacyjne, używając
skradzionej tożsamości obywatela USA i zdjęcia wygenerowanego przez sztuczną inteligencję. Próba infiltracji została powstrzymana – choć niewiele brakowało.
Na uwagę zasługuje jeszcze jeden istotny aspekt tego incydentu: celem ataku była firma, która jest jednym z największych dostawców szkoleń zwiększających świadomość na temat zagrożeń
cyfrowych, mających uwrażliwić pracowników na metody cyberprzestępców. Ta historia powinna być ostrzeżeniem dla wszystkich: jeśli dział HR renomowanego specjalisty w tej dziedzinie może
paść ofiarą oszustwa wspieranego przez AI, każda firma może być zagrożona.
Sztuczna inteligencja zmienia zasady gry
Od początków istnienia technologii informacyjnej dwoma głównymi zagrożeniami dla bezpieczeństwa były phishing (fałszywe e-maile lub wiadomości) oraz socjotechnika (manipulowanie ofiarą
poprzez wykorzystywanie zachowań społecznych, takich jak uprzejmość, ciekawość czy strach przed sprzeciwieniem się rzekomemu przełożonemu lub współpracownikowi). Dobrym przykładem jest
słynny haker Kevin Mitnick, który pod koniec lat 70. XX wieku uzyskał kod źródłowy DEC (jednego z najważniejszych dostawców IT tamtych czasów) – nie za pomocą zaawansowanego hakowania, ale
przez socjotechnikę. Zadzwonił do administratora systemu, podszywając się pod jednego z głównych programistów firmy i przekonał go, że zapomniał hasła.
Dziś takie działania – niezależnie od tego, czy mają na celu oszustwa finansowe, szpiegostwo przemysłowe czy sabotaż – są znacznie łatwiejsze dzięki wykorzystaniu sztucznej inteligencji.
Generatywna AI, np. ChatGPT, potrafi błyskawicznie tworzyć teksty – napisanie wiadomości phishingowej zajmuje jej tyle samo czasu, co stworzenie szekspirowskiego sonetu. ChatGPT, opracowany
przez OpenAI, ma wbudowane zabezpieczenia zapobiegające niewłaściwemu wykorzystaniu, lecz sprawcy ataków regularnie je omijają poprzez sprytnie sformułowane instrukcje (prompty) lub
korzystając z usług dostępnych w dark webie, które umożliwiają omijanie tych zabezpieczeń. Co gorsze, sztuczna inteligencja nie tylko ułatwia cyberprzestępcom przeprowadzanie ataków, ale
także je przyspiesza – niektóre można nawet w pełni zautomatyzować. Oznacza to, że żadna firma nie jest odporna na ataki phishingowe lub ransomware wspierane przez sztuczną inteligencję.
Argument: „nasza firma jest zbyt mała, żeby zainteresować cyberprzestępców” już dawno przestał mieć rację bytu w obliczu niemal nieograniczonej skalowalności zasobów chmurowych i AI.
Podobna sytuacja dotyczy bariery językowej. Przez lata niemieckie firmy uważały się za względnie bezpieczne, ponieważ większość cyberprzestępczych metod wymagała znajomości języka
niemieckiego. Sztuczna inteligencja jednak i tutaj zmienia reguły gry. Każdy, kto korzystał z DeepL czy Google Translate, wie, że modele AI do tłumaczenia są dobre, stale się poprawiają i
prawdopodobnie niedługo będą zdolne do tłumaczenia w czasie rzeczywistym. Według raportu firmy Trend Micro, w dark webie dostępne są już różne narzędzia AI typu deepfake, umożliwiające fałszowanie wyglądu, głosu czy języka ludzi podczas
wideokonferencji – wszystko po to, by dokonywać oszustw.
W jaki sposób firmy mogą się chronić
Najważniejszy krok to przeprowadzanie regularnych szkoleń w zakresie zwiększania świadomości na temat zagrożeń dla bezpieczeństwa. Szczególnie ważne jest edukowanie pracowników – w tym działu HR – o tym, jak szybko rozwijające się narzędzia AI zwiększają ryzyko phishingu i socjotechniki. Szkolenie powinno obejmować wytyczne dotyczące tego, co robić, a czego unikać w przypadku podejrzenia ataku, oraz wskazywać, z kim się kontaktować w sytuacjach awaryjnych. Oto kilka pomocnych wskazówek:
- Po pierwsze, weryfikatorzy faktów niemieckiej telewizji publicznej Deutsche Welle stworzyli pomocne wskazówki dotyczące tego, jak rozpoznawać deepfake w formie wideo i audio,
- Po drugie, rozwiązania w zakresie bezpieczeństwa i monitorowania sieci mogą stale analizować firmowe sieci pod kątem anomalii i szybko alarmować działy bezpieczeństwa IT. Liczni dostawcy usług zarządzanych mogą również wspierać firmy, które nie dysponują zasobami do monitorowania sieci przez całą dobę.
- Po trzecie, kluczowym elementem w kontroli i ochronie sprzętu, oprogramowania i sieci firmowej jest nowoczesny system do ujednoliconego zarządzania punktami końcowymi (UEM). Rozwiązanie to pozwala na aktualizowanie komputerów, urządzeń mobilnych i innych punktów końcowych, wykrywanie luk w zabezpieczeniach oraz izolowanie zagrożonych urządzeń.
Użytkownicy baramundi mają przewagę dzięki kompleksowym, zintegrowanym i zautomatyzowanym rozwiązaniom do wdrażania oprogramowania, zarządzania poprawkami, skanowania luk w zabezpieczeniach i nie tylko. Jeśli cyberprzestępca uzyska dostęp do firmowego urządzenia, zespół IT może szybko odłączyć je od sieci, usunąć zagrożenie i przywrócić urządzenie do działania z czystym oprogramowaniem.
Przewaga użytkowników baramundi
Podsumowując, jeśli zadbamy o podstawowe elementy zarządzania IT, nasza firma będzie lepiej przygotowana do zapobiegania i rozwiązywania incydentów związanych z AI oraz innych zagrożeń bezpieczeństwa. Nasz darmowy biuletyn informacyjny na temat zarządzania lukami w zabezpieczeniach wskazuje, jak radzić sobie z ewoluującymi zagrożeniami w obszarze cyberbezpieczeństwa
Automatyczna eliminacja luk w zabezpieczeniach – sprawdź nasz darmowy biuletyn informacyjny
- Tags:
- security,
- security awareness,
- ai
Czytaj więcej
Pomysłowa zasada zarządzania oprogramowaniem w systemie Linux
- Tags:
- uem,
- bms,
- linux,
- managed software