Gazowa

Cybermanipulacje, fake newsy, przejmowanie urządzeń – sztuczna inteligencja na celowniku przestępców

Cybermanipulacje, fake newsy, przejmowanie urządzeń – sztuczna inteligencja na celowniku przestępców
Cybermanipulacje, fake newsy, przejmowanie urządzeń – sztuczna inteligencja na celowniku przestępców Kraków, 18 lipca 2019 r. – Nowe badanie, przeprowadzone w ramach europejskiego projektu SHERPA

Cybermanipulacje, fake newsy, przejmowanie urządzeń – sztuczna inteligencja na celowniku przestępców

Kraków, 18 lipca 2019 r. – Nowe badanie, przeprowadzone w ramach europejskiego projektu SHERPA , wskazuje, że cyberprzestępcy skupiają się głównie na manipulowaniu już istniejącymi systemami sztucznej inteligencji. Celem atakujących są rozwiązania AI wykorzystywane m.in. przez wyszukiwarki internetowe, media społecznościowe oraz strony zawierające rekomendacje. Sztuczna inteligencja może służyć do niszczenia reputacji firm, wywierania wpływu na światową politykę i opinie użytkowników, a nawet przejmowania kontroli nad domowymi urządzeniami.

Szeptany cyberatak
Cyberprzestępcy mogą aktywnie promować produkty i organizacje lub zmniejszać ich popularność, a nawet podpowiadać użytkownikom określone treści. Ataki typu Sybil wykorzystują wiele marionetkowych kont do manipulowania danymi wykorzystywanymi przez AI. Przestępcy sprawiają na przykład, że po nazwie wyszukiwanej firmy w przeglądarce automatycznie sugerowane jest słowo „oszustwo” lub manipulują rankingami i systemami rekomendacji. Algorytmy AI mogą również wpływać na gust, przekonania i zachowania użytkowników poprzez dopasowywanie wyświetlanych treści do ich tożsamości, preferencji, itp. Teoretycznie mogłoby to nawet prowadzić do tworzenia swoistej pętli, w której system dopasowuje podawane informacje, dopóki nie zaobserwuje wyrażania pożądanych przez atakującego opinii i prezentowania konkretnych zachowań.

Ukryte polecenia
Naukowcy z Horst Görtz Institute for IT Security w Bochum (Niemcy) przeprowadzili w 2018 r. skuteczne psychoakustyczne ataki na systemy rozpoznawania mowy, podczas których ukrywali komendy głosowe w śpiewie ptaków. Jak pokazał ten eksperyment, promowane treści wideo z ukrytymi w ten sposób poleceniami mogłyby instruować inteligentne urządzenia domowe na całym świecie, jak asystenty Siri czy Alexa, nakłaniając je do zmiany ustawień (np. odblokowania drzwi wejściowych). Można też „poprosić” je o wyszukiwanie w Internecie obciążających treści, jak narkotyki lub pornografia dziecięca, aby później szantażować użytkownika.

Fałszywe newsy, nagrania, filmy…
Szczególnie groźne może być wykorzystywanie bazujących na sztucznej inteligencji metod cybermanipulacji. Systemy AI są już na tyle zaawansowane, że można dzięki nim tworzyć bardzo realistyczne nagrania audio i wideo. Algorytmy potrafią udawać głos danej osoby czy generować sfałszowane filmy. To potężne narzędzia, które mogą służyć m.in. do wpływania na opinię publiczną za pomocą tzw. fake newsów. Odróżnienie ich od prawdziwych informacji będzie coraz trudniejsze, a może nawet niemożliwe – również ze względu na prawdopodobne rozwijanie technik zapobiegających szybkiemu wykrywaniu fałszywych treści.

A to już wiesz?  Bezpieczny kominek - zasady, których nie możesz zignorować

– Dominuje wizja, że sztuczna inteligencja obróci się przeciwko nam. Tymczasem jest odwrotnie i to człowiek staje się zagrożeniem dla systemów AI. Ataki typu Sybil są niezwykle trudne do wykrycia, a powstały już nawet osobne firmy, które zajmują się tego typu działaniami. Niestety, obecnie możliwości tworzenia fałszywej treści są znacznie bardziej zaawansowane niż jej wykrywania – ostrzega Andy Patel, badacz z Centrum Doskonalenia Sztucznej Inteligencji F-Secure.

Ataki na modele inteligentnego uczenia maszynowego są trudne do odparcia, ponieważ istnieje wiele sposobów manipulowania danymi, z których korzystają. Zabezpieczenie systemów AI może przy tym powodować problemy natury etycznej, np. naruszanie prywatności użytkowników przez nasilony monitoring działań w sieci. Jednak na początku ataku zawsze stoi człowiek, dlatego eksperci mogą uczyć się myśleć jak przestępca i podejmować odpowiednie kroki w celu ochrony przed zagrożeniami.

Więcej informacji:
Pełna wersja badania jest dostępna tutaj.
Więcej informacji o sztucznej inteligencji i cyberbezpieczeństwie można znaleźć na blogu F-Secure lub w serwisie News from the Labs.

Informacja o F-Secure
Od trzech dekad F-Secure wprowadza innowacje w dziedzinie cyberbezpieczeństwa, chroniąc dziesiątki tysięcy firm i miliony użytkowników. Wykorzystując ogromne doświadczenie, F-Secure chroni przedsiębiorstwa i konsumentów przed wszelkimi zagrożeniami – od zaawansowanych cyberataków i naruszeń bezpieczeństwa danych po powszechne ataki ransomware. F-Secure łączy potęgę systemów uczących się i wiedzę ekspertów pracujących w znanych na świecie laboratoriach bezpieczeństwa, tworząc spójne podejście określane jako Live Security. Eksperci ds. zabezpieczeń z F-Secure uczestniczyli w większej liczbie dochodzeń związanych z cyberprzestępczością niż pracownicy jakiejkolwiek innej firmy na rynku, a jej rozwiązania są sprzedawane na całym świecie przez ponad 200 operatorów i tysiące resellerów.

Firma F-Secure powstała w 1988 roku i jest notowana na Helsińskiej Giełdzie Papierów Wartościowych w ramach indeksu NASDAQ OMX Helsinki Ltd.
f-secure.com | twitter.com/fsecure | facebook.com/f-secure

A to już wiesz?  Ścieżki w pagórkowatym terenie. Jak poprawnie je wykonać?

Artykuly o tym samym temacie, podobne tematy