Unit 42 släpper ny hotanalys: AI-kodassistenter kan missbrukas av cyberbrottslingar
Hem SÄKERHETUnit 42 släpper ny hotanalys: AI-kodassistenter kan missbrukas av cyberbrottslingar

Unit 42 släpper ny hotanalys: AI-kodassistenter kan missbrukas av cyberbrottslingar

Publicerat av: Redaktionen

En ny hotanalys från Unit 42, forskningsenheten vid Palo Alto Networks, visar att kodassistenter som är baserade på stora språkmodeller (LLM) kan utnyttjas för att skapa bakdörrar, läcka känslig information och generera skadligt innehåll.

Analysen The Risks of Code Assistant LLMs: Harmful Content, Misuse and Deception dokumenterar hur funktioner som chatt, auto-complete och bifogad kontext kan missbrukas.

Indirekt prompt-injektion utgör en särskild risk eftersom hotaktörer kan kontaminera externa datakällor och på så sätt manipulera en AI-assistent att infoga skadlig kod.

Unit 42 släpper ny hotanalys: AI-kodassistenter kan missbrukas av cyberbrottslingarNågra av analysens viktigaste resultat:

· Indirekt prompt-injektion: När en AI-assistent matas med data från externa källor kan skadliga instruktioner vara dolda i materialet. Assistenten kan på så sätt manipuleras att infoga dold bakdörrskod eller läcka känslig information.

· Missbruk av auto-complete: Om en användare utformar sina indata på ett visst sätt kan AI-assistenten luras att fullborda skadligt innehåll, även om den normalt skulle ha avvisat begäran.

· Direkt åtkomst till modellen: Om AI-modellen nås utan de normala säkerhetslagren kan hotaktörer manipulera den. De kan också utnyttja stulna session-tokens – en sorts tillfällig digital åtkomstnyckel som används för att bevisa att en användare är inloggad – i attacker som kallas LLMJacking.

Analysen pekar alltså inte bara på tekniska sårbarheter, utan också på en bristande säkerhetskultur kring användningen av AI. När utvecklare blint kopierar kodförslag eller lägger till kontext från externa källor öppnar de dörren för att skadliga instruktioner kan smyga sig in. Samtidigt visar analysen att användare själva kan manipulera assistenterna för att producera skadliga resultat. Detta understryker behovet av att organisationer inför tydliga ramverk och utbildning om hur AI används säkert i utvecklingsprocesser.

Unit 42 rekommenderar att utvecklare alltid granskar föreslagen kod noggrant innan de kör den, är särskilt uppmärksamma på bifogad kontext och använder manuella kontrollfunktioner där det är möjligt. Som analysen sammanfattar: ”You are the ultimate safeguard.”

Palo Alto Networks betonar att kunderna är bättre skyddade mot de hot som beskrivs genom lösningar som Cortex XDR och XSIAM, Cortex Cloud Identity Security, Prisma AIRS och Unit 42:s AI Security Assessment.

Analysen kan läsas här: The Risks of Code Assistant LLMs: Harmful Content, Misuse and Deception.

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

Privacy & Cookies Policy