De som också gillar ChatGPT är bedragarna
Hem SÄKERHET ChatGPT har blivit bedragarnas nya favorit

ChatGPT har blivit bedragarnas nya favorit

Publicerat av: Redaktionen

Bluffdomäner, falska webbläsartillägg och sajter som imiterar ChatGPT är några av de många lockbeten som nätets mörka figurer har sjösatt för att kunna rida på den väldiga AI-vågen.

Fredrik Johansson på cybersäkerhetsföretaget Palo Alto Networks uppmanar till försiktighet och förklarar hur ChatGPT har blivit bedragarnas nya favorit.

GhatGPT har på mycket kort tid vuxit fram som det mest kända varumärket inom artificiell intelligens. Redan tidigt kunde våra specialister på cyberhot se en parallell trend: En kraftig ökning av nyregistrerade domännamn som var ytterst lika ChatGPT:s och företaget OpenAI:s officiella webbadresser, exempelvis openai.us, openai.xyz och chatgpt.jobs.

På majoriteten av dessa vilseledande sajter har vi ännu inte upptäckt något farligt innehåll, men det handlar om domäner som varken kontrolleras av OpenAI eller någon seriös aktör inom domänhantering. De kan när som helst komma att utnyttjas för bedrägliga syften.

Enorm ökning av fuskdomäner
De som också gillar ChatGPT är bedragarna

Fredrik Johansson

Statistiken talar för sig själv. Sedan lanseringen av den första allmänt tillgängliga versionen av ChatGPT i december 2022 har vi sett en betydande ökning av antalet domänregistreringar med anknytning till ChatGPT. En ny topp inträffade i februari när Microsoft lanserade den nya versionen av sin sökmotor Bing (som använder ChatGPT).

Mellan november 2022 och april 2023 har vi noterat en ökning med 910 procent av antalet månatliga domänregistreringar där ChatGPT på ett eller annat sätt ingår i namnet.

Under samma period kunde vi observera en ökning med hela 17 818 procent av ”cybersquatting” – domännamn som är tydligt inspirerade av ChatGPT. Och slutligen noterade vi på en dag som mest 118 nya domäner relaterade till ChatGPT, med uppenbart farligt innehåll.

Fejksajter sprider skadlig kod

I samband med vår granskning av falska eller vilseledande ChatGPT-webbadresser har vi observerat flera försök till nätfiske. Dessa bygger på att efterlikna OpenAI:s officiella sajt och sedan locka användaren att ladda ner skadlig programvara eller dela känslig information. Ett exempel är en sida med en tydlig knapp med texten “DOWNLOAD FOR WINDOWS”. Om användaren följer uppmaningen, laddas en bit av trojansk skadlig kod ner och installeras automatiskt på datorn.

På samma sätt försöker cyberbedragarna lura sina offer att betala för att använda tjänsten, genom att dirigeras till en sida som frågar efter namn, e-post och kreditkortsuppgifter.

Dessutom finns bluffsajter som drar fördel av det växande intresset för AI kopplat till spekulation i kryptovaluta. I ett typiskt exempel används Elon Musks namn och bild som blickfång för en påstådd utlottning av kryptovaluta värd 100 miljarder dollar.

 Copycat chatbots kräver betalning

En annan kreativ variant på att parasitera på ChatGPT är att efterlikna själva tjänsten och skapa en så kallad copycat-chatbott. Vissa av dessa bygger på egna språkmodeller, medan andra hävdar att de använder ChatGPT genom det öppna mjukvarugränssnitt (API) som OpenAI lanserade i mars.

Men oavsett vilken variant du råkar på så medför det säkerhetsrisker.

Vissa copycat-sajter utnyttjar det faktum att ChatGPT i sin rena form inte finns tillgängligt överallt i världen. Ett antal aktörer utnyttjar detta för att lägga ett betalningslager ovanpå själva tjänsten, något som vi bland annat har hittat i en kinesisk version.

Även om det handlar om en betaltjänst är den här typen av copycat-chatbottar aldrig att lita på. En del av dem är baserade på versionen GPT-3, som lanserades redan i juni 2020 och som i grunden är mycket mindre effektiv än GPT-3.5 och den senaste GPT-4.

En annan risk med copycat-sajterna är att de kan samla in och lagra data från användarna, vilket kan innehålla både känsliga personuppgifter och konfidentiellt material. Svaren från en sådan copycat chatbot kan också manipuleras, genom medvetet felaktiga svar och vilseledande information.

 Förfalskade tillägg för Chrome

Ett exempel på en manipulerad copycat-chatbot är ett falskt ChatGPT-tillägg för Googles webbläsare Chrome. Det förfalskade tillägget innehåller dold programkod som ansluter till användarens Facebook i syfte att stjäla kontoinformationen.

Med ChatGPT:s växande popularitet i stora delar av världen har tjänsten indirekt blivit ett verktyg för bedragare. Vi har sett en betydande ökning av antalet nyregistrerade domännamn och domänsquatting, som via felstavning skapar en koppling till ChatGPT för att utnyttjas i skadliga syften.

För att vara på den säkra sidan bör du som användare av ChatGPT iaktta extra försiktighet när det gäller misstänkta e-postmeddelanden och länkar som på något sätt påminner om ChatGPT. Att använda copycat-chatbottar innebär också ytterligare säkerhetsrisker. Det säkra alternativet är att alltid använda ChatGPT via OpenAI:s officiella webbplats.

 

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

Privacy & Cookies Policy