Czy hakerzy używają sztucznej inteligencji do złośliwych zamiarów?

Autor: Roger Morrison
Data Utworzenia: 1 Wrzesień 2021
Data Aktualizacji: 21 Czerwiec 2024
Anonim
Czy hakerzy używają sztucznej inteligencji do złośliwych zamiarów? - Technologia
Czy hakerzy używają sztucznej inteligencji do złośliwych zamiarów? - Technologia

Zawartość


Źródło: Sdecoret / Dreamstime.com

Na wynos:

Sztuczna inteligencja może chronić dane jak nigdy wcześniej, ale może też kraść dane jak nigdy dotąd. Zarówno specjaliści od bezpieczeństwa, jak i hakerzy starają się jak najlepiej wykorzystać tę technologię.

Specjaliści od cyberbezpieczeństwa patrzą na sztuczną inteligencję (AI) zarówno z entuzjazmem, jak i obawą. Z jednej strony ma potencjał dodania zupełnie nowych warstw obrony dla krytycznych danych i infrastruktury, ale z drugiej strony może być również używany jako potężna broń do pokonywania tych zabezpieczeń bez pozostawiania śladu.

Jak każda technologia, sztuczna inteligencja ma zarówno mocne strony, jak i słabości, które można wykorzystać. Wyzwaniem dla dzisiejszych ekspertów ds. Bezpieczeństwa jest wyprzedzenie złych facetów, co powinno rozpocząć się od jasnego zrozumienia, w jaki sposób sztuczną inteligencję można wykorzystać jako broń ofensywną.


Hakowanie AI

Po pierwsze, mówi Nicole Kobie Wireda, powinniśmy uznać, że podobnie jak każde środowisko danych, sama AI może zostać zhakowana. W sercu każdego inteligentnego procesu znajduje się algorytm, który reaguje na otrzymywane dane. Naukowcy już pokazują, w jaki sposób sieci neuronowe można oszukać, że zdjęcie żółwia jest w rzeczywistości obrazem karabinu i jak prosta naklejka na znaku stop może spowodować, że autonomiczny samochód wjedzie prosto na skrzyżowanie. Tego rodzaju manipulacje są możliwe nie tylko po wdrożeniu sztucznej inteligencji, ale także podczas szkolenia, co potencjalnie daje hakerom możliwość zrobienia wszelkiego spustoszenia bez konieczności dotykania infrastruktury klienta.

Chociaż na pewno nie brakuje malkontentów, których jedynym celem jest ranienie ludzi i wywoływanie terroru, prawdziwą nagrodą w grze hakerskiej jest wykrywanie hasła i wszystkie związane z tym możliwości kradzieży / wymuszenia. W ubiegłym roku Stevens Institute of Technology stworzył program demonstrujący siłę, jaką AI wnosi do tego procesu. Badacze wprowadzili wiele znanych programów do łamania haseł za pomocą inteligentnych algorytmów, które zostały przeszkolone w odgadywaniu prawdopodobnych kombinacji liter i cyfr ze znakami specjalnymi, aw ciągu kilku minut udało im się zdobyć ponad 10 milionów haseł LinkedIn. W miarę odkrywania kolejnych haseł można ich oczywiście używać do szkolenia algorytmów uczenia się, dzięki czemu stają się one bardziej skuteczne z czasem, nawet jeśli zastosowane zostaną wspólne środki obrony, takie jak rutynowa zmiana hasła. (Aby uzyskać więcej informacji na temat haseł, zobacz Po prostu bezpieczne: łatwiejsze zmienianie wymagań dotyczących hasła dla użytkowników).


Czy to możliwe, że narzędzia te są już wykorzystywane przez przestępcze podziemie? Ponieważ usługi AI oparte na chmurze są łatwo dostępne, a ciemna sieć działa jak dom wymiany wszelkiego rodzaju oprogramowania kryptograficznego, byłoby zaskakujące, gdyby tak nie było. Darktrace, firma zajmująca się analizą zagrożeń, twierdzi, że widzi wczesne oznaki popularności popularnych szkodliwych programów, takich jak TrickBot, wykazujących stałą świadomość w swoich dążeniach do kradzieży danych i blokowania systemów. Wydaje się, że wiedzą, czego szukać i jak to znaleźć, badając docelową infrastrukturę, a następnie sami decydują, w jaki sposób uniknąć wykrycia. Oznacza to, że program nie musi już utrzymywać kontaktu z hakerem za pośrednictwem serwerów dowodzenia i kontroli lub w inny sposób, co jest zwykle jednym z najbardziej skutecznych sposobów śledzenia sprawcy.

Tymczasem tradycyjne oszustwa phishingowe zaczynają wyglądać na coraz bardziej autentyczne, w dużej mierze dlatego, że narzędzia sztucznej inteligencji mogą sprawiać, że początkowe informacje pochodzą z zaufanego źródła. Na przykład przetwarzanie języka naturalnego ma naśladować ludzką mowę. W połączeniu z łatwo dostępnymi danymi, takimi jak nazwiska i adresy kierownictwa, może stworzyć tak realistyczny komunikat, że może oszukać nawet bliskich współpracowników. Przeciętny konsument jest równie podatny, biorąc pod uwagę zdolność AI do wydobywania wszelkiego rodzaju danych w celu dostarczenia oszustowi spersonalizowanych informacji.

Fighting Back

Jak wspomniano powyżej, AI jest jednak ulicą dwukierunkową. Chociaż może to umożliwić hakerom bieganie w kółko wokół tradycyjnych systemów bezpieczeństwa, sprawia też, że obecne systemy bezpieczeństwa są znacznie bardziej skuteczne. Według Insurance Journal, Microsoft był w stanie udaremnić próbę włamania się do chmury Azure niedawno, gdy jej system bezpieczeństwa oparty na sztucznej inteligencji wykrył fałszywą ingerencję ze strony zdalnej. Próba byłaby niezauważona w ramach wcześniejszych protokołów opartych na regułach, ale zdolność AI do uczenia się i dostosowywania się do nowych zagrożeń powinna radykalnie poprawić zdolność przedsiębiorstwa do ochrony, nawet gdy dane i infrastruktura przechodzą obok tradycyjnej zapory sieciowej do chmury i Internetu rzeczy Wszyscy najlepsi dostawcy chmur hiperskalowych agresywnie wdrażają sztuczną inteligencję na swoich stopach bezpieczeństwa, ponieważ im szybciej zostanie ona wdrożona, tym więcej się dowie, zanim napotka hacki oparte na sztucznej inteligencji. (Aby dowiedzieć się więcej, zobacz, w jaki sposób ulepszenia AI wpływają na bezpieczeństwo, cyberbezpieczeństwo i hakowanie).

W ten sposób sztuczna inteligencja jest jedynie ostatnią eskalacją trwającej od dziesięcioleci wojny bezpieczeństwa typu wet-za-tat. W miarę pojawiania się nowych zagrożeń powstają nowe systemy obrony, aby sprostać im, przy czym te same technologie leżą u podstaw obu stron.

Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia

Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.

Jeśli już, AI prawdopodobnie przyspieszy ten proces, jednocześnie usuwając wiele praktycznych działań z ludzkich operatorów. Czy będzie to dobra czy zła rzecz dla dzisiejszych cyber wojowników? Prawdopodobnie połączenie obu, ponieważ zarówno białe, jak i czarne kapelusze rezygnują z bzdur związanych z kodowaniem swoich ataków i obrony i koncentrują się na bardziej strategicznych aspektach współczesnej cyberbroni.