eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plWiadomościTelekomunikacjaSztuczna inteligencja uderza w urządzenia mobilne. Co robić?

Sztuczna inteligencja uderza w urządzenia mobilne. Co robić?

2023-08-01 09:26

Sztuczna inteligencja uderza w urządzenia mobilne. Co robić?

Sztuczna inteligencja © fot. mat. prasowe

Stało się to, czego można się było domyślać - AI nie tylko ułatwia codzienne czynności, ale również staje się coraz większym zagrożeniem dla naszego cyberbezpieczeństwa. Check Point Research ostrzega, że szczególne ryzyko generuje korzystanie z urządzeń mobilnych - w oficjalnych sklepach z aplikacjami pojawia się coraz więcej złośliwych programów, do których tworzenia cyberprzestępcy wykorzystali sztuczną inteligencję. Zagrożenia są na tyle istotne, że część firm podjęła już decyzję o zakazie korzystania z narzędzi sztucznej inteligencji na urządzeniach lub w sieciach korporacyjnych. Coraz częściej również organizacje decydują się na wdrożenie polityki BYOD.

Przeczytaj także: Chat GPT: czym zagraża nam generatywna sztuczna inteligencja?

Z tego tekstu dowiesz się m.in.:


  • Jakie niebezpieczeństwo może kryć w sobie Google Bard?
  • Z czego wynika szczególne zagrożenie dla użytkowników urządzeń mobilnych?
  • Co należy zrobić, aby chronić swoją mobilną flotę przed zagrożeniami związanymi ze sztuczną inteligencją?

Ja: Czy możesz zostać wykorzystany do cyberataków?

ChatGPT: Jako model językowy sztucznej inteligencji nie mam własnej agendy ani intencji. Jednak, jak każda technologia, mogę potencjalnie zostać wykorzystany przez osoby o złych zamiarach.

Ostatecznie odpowiedzialność za wykorzystanie i potencjalne niewłaściwe użycie systemów AI spoczywa na użytkownikach. Ważne jest, aby osoby i organizacje korzystały z technologii AI w sposób etyczny i odpowiedzialny, przestrzegając prawnych i etycznych wytycznych oraz podejmując środki ostrożności, aby zapobiec wszelkim szkodom lub nadużyciom.


W tej rozmowie ChatGPT się nie myli…


Narzędzia generatywnej sztucznej inteligencji (AI), takie jak Chat GPT i Google Bard, zyskują popularność na całym świecie. Pozwalają użytkownikom zwiększyć wydajność i produktywność w codziennych zadaniach i obowiązkach.

Jednak część z ich możliwości może być niewłaściwie wykorzystanych – np. do tworzenia złośliwych programów, z których wiele pojawiło się w oficjalnych sklepach z aplikacjami. Generatywna sztuczna inteligencja została wykorzystana również do tworzenia e-maili i kampanii phishingowych, czy generowania fałszywych filmów na YouTube.

Niestety firmy zajmujące się generatywną sztuczną inteligencją nie radzą sobie z tymi problemami. W niedawnym raporcie zespół Check Point Research udowodnił, że Bard nie nakłada prawie żadnych ograniczeń na tworzenie wiadomości phishingowych i że przy małych zmianach można go wykorzystać do tworzenia keyloggerów i innego złośliwego oprogramowania, co stanowi zagrożenie dla bezpieczeństwa.

Z tych powodów niektóre firmy zdecydowały się zakazać korzystania z narzędzi sztucznej inteligencji na urządzeniach lub w sieciach korporacyjnych, natomiast część innych, które umożliwiały pracownikom dostęp do generatywnych narzędzi sztucznej inteligencji, padła ofiarą wycieku wrażliwych danych.

Dlatego dopóki nie będą dostępne odpowiednie środki chroniące wrażliwe dane przed wyciekiem i kradzieżą informacji wewnętrznych, firmy powinny zachować szczególną ostrożność w swoich politykach bezpieczeństwa.

Eksperci Check Point Research zauważają, że urządzenia mobilne nie są wyjątkiem. W rzeczywistości użytkownicy mobilni częściej pobierają złośliwe aplikacje lub padają ofiarą prób phishingu. Mniejsze ekrany urządzeń mobilnych, duża liczba aplikacji i powiadomień mogą rozpraszać użytkowników, utrudniając im unikanie otwierania złośliwych łączy lub pobierania złośliwych plików. Dla wielu z nas sieci społecznościowe są najczęściej używanymi aplikacjami na naszych smartfonach, co oznacza, że użytkownicy mobilni są również bardziej narażeni na socjotechnikę i phishing.

Ponadto zacierają się granice między osobistym i zawodowym korzystaniem z urządzeń mobilnych, co czyni je głównym punktem wejścia do organizacji, więc ochrona przed zagrożeniami AI powinna być najwyższym priorytetem.

fot. mat. prasowe

Sztuczna inteligencja

Sztuczna inteligencja rodzi całkiem nowe wyzwania w zakresie ochrony prawa autorskiego


Co należy zrobić, aby chronić swoją mobilną flotę przed zagrożeniami AI?


  • Najważniejszą rzeczą do uświadomienia sobie jest to, że użytkownikom urządzeń mobilnych nie można ufać. Ataki są coraz częstsze i bardziej wyrafinowane, a teraz są zbyt zaawansowane i skomplikowane, aby mógł je wykryć człowiek. Klasycznym przykładem są strony phishingowe, które ewoluowały tak bardzo, że wyglądają tak samo jak oryginalna strona. Aby poradzić sobie z tym poziomem zaawansowania, potrzebujesz zaawansowanej technologii do ochrony urządzenia i zapobiegania przedostawaniu się zagrożeń do Twojej organizacji.
  • Urządzenia mobilne to punkt wejścia do Twojej organizacji. Sztuczna inteligencja ewoluuje tak szybko, że wykrywanie i naprawianie błędów to za mało. Twoje rozwiązanie bezpieczeństwa mobilnego musi zawierać funkcje zapobiegawcze, aby powstrzymać zagrożenie na poziomie urządzenia, zanim uzyskasz dostęp do zasobów korporacyjnych.
  • Możliwości uczenia się generatywnej sztucznej inteligencji są przytłaczająco imponujące. Aby nadążyć, musisz używać sztucznej inteligencji do walki z sztuczną inteligencją. Upewnij się, że Twoje rozwiązanie zabezpieczające wykorzystuje sztuczną inteligencję i technologię uczenia maszynowego, aby zachować przewagę.

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: