DeepSeek i Qwen: nowe modele AI już w rękach cyberprzestępców
2025-02-06 12:15
![DeepSeek i Qwen: nowe modele AI już w rękach cyberprzestępców [© pexels] DeepSeek i Qwen: nowe modele AI już w rękach cyberprzestępców](https://s3.egospodarka.pl/grafika2/cyberataki/DeepSeek-i-Qwen-nowe-modele-AI-juz-w-rekach-cyberprzestepcow-264752-200x133crop.jpg)
Nowe modele AI już w rękach cyberprzestępców © pexels
DeepSeek i Qwen to nowe modele AI, które w zasadzie dopiero debiutują, a już znalazły się w rękach cyberprzestępców. Check Point Research ostrzega, że są one masowo wręcz wykorzystywane przez oszustów używających ich do kreowania złośliwych treści. To już kolejny dowód na to, że dynamicznie rozwijająca się sztuczna inteligencja to broń obosieczna.
Przeczytaj także: DeepSeek zmienia zasady gry
Z tego tekstu dowiesz się m.in.:
- Jakie zagrożenia niosą za sobą Qwen i DeepSeek?
- Czym jest jailbreaking?
- Jakie kroki powinny przedsięwziąć firmy technologiczne?
Od momentu wprowadzenia ChatGPT, deweloperzy tego modelu nieustannie pracowali nad systemami zabezpieczeń, aby uniemożliwić jego nadużywanie. Teraz jednak na scenę wkroczyły Qwen i DeepSeek – modele, które nie posiadają równie rygorystycznych zabezpieczeń. To otworzyło przed cyberprzestępcami zupełnie nowe możliwości.
Na podziemnych forach internetowych aż huczy od instrukcji, jak wykorzystać nowe AI do tworzenia szkodliwych treści, obchodzenia systemów ochronnych i łamania zabezpieczeń. Hakerzy opracowali już zaawansowane poradniki dotyczące jailbreakingu, czyli metod odblokowywania ograniczeń nałożonych na modele sztucznej inteligencji, aby generowały niecenzurowane treści.
4 sposoby wykorzystywania nowych modeli AI przez cyberprestępców
1. Tworzenie programów do kradzieży danych (infostealers)
Hakerzy wykorzystują Qwen do projektowania zaawansowanych programów kradnących poufne informacje. Dzięki temu mogą pozyskiwać dane kart płatniczych, loginy i hasła użytkowników, a następnie sprzedawać je na czarnym rynku.
2. Jailbreaking – hakowanie sztucznej inteligencji
Metody takie jak „Do Anything Now” czy „Plane Crash Survivors” pozwalają cyberprzestępcom manipulować modelami AI i nakłaniać je do generowania treści, które normalnie byłyby blokowane. Efekt? Modele AI pomagają w pisaniu złośliwego oprogramowania i planowaniu ataków na systemy komputerowe.
3. Obchodzenie zabezpieczeń bankowych
Nowe metody ataku pozwalają na obchodzenie systemów antyfraudowych w bankach. Check Point Research odkrył, że hakerzy wymieniają się technikami umożliwiającymi przechwytywanie transakcji i omijanie mechanizmów bezpieczeństwa w instytucjach finansowych.
4. Masowa dystrybucja spamu
Przestępcy łączą możliwości ChatGPT, Qwen i DeepSeek, aby optymalizować skrypty spamerskie. Dzięki temu ich działania stają się coraz bardziej efektywne i trudniejsze do wykrycia przez filtry antyspamowe.
Zagrożenie na globalną skalę – czy jesteśmy na to gotowi?
Eksperci alarmują: świat wkracza w nową erę cyberprzestępczości, w której AI staje się narzędziem do popełniania przestępstw na niespotykaną dotąd skalę. Firmy technologiczne muszą pilnie wdrożyć skuteczne mechanizmy obronne, aby powstrzymać tę falę zagrożeń. Eksperci Check Point Research deklarują, że będą nadal monitorować sytuację, a zarazem przestrzegają, że jeśli nie zostaną wprowadzone surowe regulacje i nie zwiększy się zabezpieczeń, sztuczna inteligencja stanie się bronią masowego cyberataku. Tylko czy świat jest na to gotowy?
Przeczytaj także:
AI w rękach cyberprzestępców - jak mogą chronić się firmy?
![AI w rękach cyberprzestępców - jak mogą chronić się firmy? AI w rękach cyberprzestępców - jak mogą chronić się firmy?](https://s3.egospodarka.pl/grafika2/cyberataki/AI-w-rekach-cyberprzestepcow-jak-moga-chronic-sie-firmy-262996-150x100crop.jpg)
oprac. : Aleksandra Baranowska-Skimina / eGospodarka.pl
Więcej na ten temat:
cyberataki, ataki hakerskie, cyberzagrożenia, cyberprzestępcy, sztuczna inteligencja, AI, DeepSeek, Qwen, GenAI, generatywna sztuczna inteligencja, cyberbezpieczeństwo
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)