Ongecensureerde Chatbot Gebruikt Door Cybercriminelen Voor Het Maken Van Malware En Oplichting INDIGNATIE AI & Politiek


Spread the love en help Indignatie

Onderzoekers van Abnormal Security ontdekten een advertentie voor de chatbot op een cybercrimeforum en testten de mogelijkheden ervan door de chatbot te vragen een DocuSign-phishingmail te maken.

Beveiligingsonderzoekers hebben een nieuwe kwaadaardige chatbot ontdekt die wordt geadverteerd op cybercrimeforums. GhostGPT genereert malware, zakelijke e-mailcompromitterende scams en meer materiaal voor illegale activiteiten.

De chatbot gebruikt waarschijnlijk een wrapper om verbinding te maken met een gejailbreakte versie van OpenAI’s ChatGPT of een ander groot taalmodel, vermoeden de experts van Abnormal Security. Gejailbreakte chatbots zijn geïnstrueerd om hun beveiligingen te negeren om nuttiger te zijn voor criminelen.

Wat is GhostGPT?

De beveiligingsonderzoekers vonden een advertentie voor GhostGPT op een cyberforum, en de afbeelding van een figuur met kap op de achtergrond is niet de enige aanwijzing dat het bedoeld is voor duistere doeleinden. De bot biedt snelle verwerkingssnelheden, handig voor tijdsdruk-aanvalscampagnes. Ransomware-aanvallers moeten bijvoorbeeld snel handelen zodra ze zich in een doelsysteem bevinden voordat de verdediging wordt versterkt.

GhostGPT
De officiële advertentieafbeelding voor GhostGPT. Afbeelding: Abnormal Security

Er staat ook dat gebruikersactiviteit niet wordt geregistreerd op GhostGPT en kan worden gekocht via de versleutelde messenger-app Telegram, wat waarschijnlijk aantrekkelijk is voor criminelen die bezorgd zijn over privacy. De chatbot kan worden gebruikt binnen Telegram, dus er hoeft geen verdachte software te worden gedownload op het apparaat van de gebruiker.

De toegankelijkheid via Telegram bespaart ook tijd. De hacker hoeft geen ingewikkelde jailbreak-prompt te maken of een open-sourcemodel op te zetten. In plaats daarvan betalen ze gewoon voor toegang en kunnen ze aan de slag.

“GhostGPT wordt in principe op de markt gebracht voor een reeks kwaadaardige activiteiten, waaronder codering, het maken van malware en het ontwikkelen van exploits”, aldus de onderzoekers van Abnormal Security in hun rapport . “Het kan ook worden gebruikt om overtuigende e-mails te schrijven voor BEC-scams, waardoor het een handig hulpmiddel is voor het plegen van cybercriminaliteit.”

Er wordt weliswaar melding gemaakt van ‘cybersecurity’ als een mogelijk gebruik in de advertentie, maar gezien de taal die verwijst naar de effectiviteit ervan bij criminele activiteiten, zeggen de onderzoekers dat dit waarschijnlijk een ‘zwakke poging is om juridische aansprakelijkheid te ontlopen’.

Om de mogelijkheden ervan te testen, gaven de onderzoekers het de opdracht: “Schrijf een phishing- e-mail van Docusign”, en het reageerde met een overtuigend sjabloon, inclusief een ruimte voor een “nep-ondersteuningsnummer”.

GhostGPT
Een phishing-e-mail gegenereerd door GhostGPT. Afbeelding: Abnormal Security

De advertentie is duizenden keren bekeken, wat aangeeft dat GhostGPT nuttig is en dat er onder cybercriminelen een groeiende interesse is in jailbroken LLM’s. Desondanks heeft onderzoek aangetoond dat phishing-e-mails die door mensen zijn geschreven een 3% hogere klikfrequentie hebben dan die welke door AI zijn geschreven, en ook minder vaak als verdacht worden gerapporteerd.

Echter, AI-gegenereerd materiaal kan ook sneller worden gemaakt en verspreid en kan door bijna iedereen met een creditcard worden gedaan, ongeacht technische kennis. Het kan ook worden gebruikt voor meer dan alleen phishingaanvallen; onderzoekers hebben ontdekt dat GPT-4 autonoom 87% van de “one-day”-kwetsbaarheden kan exploiteren wanneer het wordt voorzien van de benodigde tools.

Jailbroken GPT’s zijn al bijna twee jaar in opkomst en worden actief gebruikt

Er zijn al een tijdje privé-GPT-modellen voor kwaadaardig gebruik in opkomst. In april 2024 noemde een rapport van beveiligingsbedrijf Radware ze als een van de grootste gevolgen van AI voor het cybersecuritylandschap dat jaar.

Makers van dergelijke privé-GPT’s bieden doorgaans toegang voor een maandelijks bedrag van honderden tot duizenden dollars , wat ze een goede business maakt. Het is echter ook niet onoverkomelijk moeilijk om bestaande modellen te jailbreaken, waarbij onderzoek aantoont dat 20% van dergelijke aanvallen succesvol is . Gemiddeld hebben tegenstanders slechts 42 seconden en vijf interacties nodig om door te breken.

Ook wij hebben jou steun nodig in 2025, gun ons een extra bakkie koffie groot of klein.

Dank je en proost?

no paypal account needed

Wij van Indignatie AI zijn je eeuwig dankbaar

Andere voorbeelden van dergelijke modellen zijn WormGPT , WolfGPT, EscapeGPT, FraudGPT, DarkBard en Dark Gemini. In augustus 2023 vertelde Rakesh Krishnan, een senior threat analyst bij Netenrich, aan Wired dat FraudGPT slechts een paar abonnees leek te hebben en dat “al deze projecten nog in de kinderschoenen staan.” In januari besprak een panel op het World Economic Forum, met onder meer secretaris-generaal van INTERPOL Jürgen Stock, FraudGPT echter specifiek , waarbij de blijvende relevantie ervan werd benadrukt.

Er zijn aanwijzingen dat criminelen al gebruikmaken van AI voor hun cyberaanvallen. Het aantal aanvallen op zakelijke e-mailcompromissen dat door beveiligingsbedrijf Vipre in het tweede kwartaal van 2024 werd gedetecteerd, was 20% hoger dan in dezelfde periode in 2023 — en twee vijfde daarvan werd gegenereerd door AI . In juni onderschepte HP een e-mailcampagne die malware in het wild verspreidde met een script dat “zeer waarschijnlijk met de hulp van GenAI was geschreven.”

Pascal Geenens, Radware’s directeur van threat intelligence, vertelde TechRepublic in een e-mail: “De volgende vooruitgang op dit gebied zal, naar mijn mening, de implementatie zijn van frameworks voor agentific AI-services . In de nabije toekomst zullen er volledig geautomatiseerde AI-agentzwermen zijn die nog complexere taken kunnen uitvoeren.”

Introductie van GhostGPT – de nieuwste maker van criminele malware

Hackers maken misbruik van een nieuwe, ongecensureerde AI-chatbot die “de grenzen van ethisch AI-gebruik verlegt”.

In 2023 zagen we de eerste generatieve AI-modellen ontstaan ​​die zich specifiek op criminaliteit richtten. WormGPT haalde de krantenkoppen vanwege zijn vermogen om hackers te helpen bij het creëren van schadelijke software.

WolfGPT en EscapeGPT volgden snel en nu hebben beveiligingsonderzoekers een nieuwe AI-gebaseerde tool ontdekt die hackers helpt malware te creëren: GhostGPT.

Volgens beveiligingsexperts van Abnormal Security maakt GhostGPT hoogstwaarschijnlijk misbruik van een gejailbreakte versie van de ChatGPT-chatbot van OpenAI, of een vergelijkbaar groot taalmodel, waarbij alle ethische waarborgen zijn verwijderd.

“Door de ethische en veiligheidsbeperkingen die doorgaans in AI-modellen zijn ingebouwd, te elimineren, kan GhostGPT directe, ongefilterde antwoorden geven op gevoelige of schadelijke vragen die door traditionele AI-systemen zouden worden geblokkeerd of gemarkeerd”, aldus Abnormal Security in een blogpost van 23 januari.

Compleet met zijn promotiepraatje biedt GhostGPT vier belangrijke functies: ongecensureerde AI, razendsnelle verwerking, geen logboekregistratie om het creëren van bewijsmateriaal te beperken en – waarschijnlijk het belangrijkste van alles voor zijn klanten – het is gemakkelijk te gebruiken.

“Krijg rechtstreeks toegang tot onze AI via onze gebruiksvriendelijke Telegram-bot”, aldus GhostGPT

“Koop het en begin het direct te gebruiken in Telegram.”

Terwijl de makers van GhostGPT het proberen neer te zetten als een legitiem hulpmiddel voor cyberbeveiliging, wordt het vooral gepromoot op criminele hackersforums en is het duidelijk gericht op het creëren van BEC-scams (Business Email Compromise).

“Om de mogelijkheden ervan te testen, vroegen onderzoekers van Abnormal Security aan GhostGPT om een ​​Docusign-phishingmail te maken”, aldus Abnormal Security.

“De chatbot produceerde met gemak een overtuigend sjabloon, wat aantoonde dat het potentiële slachtoffers kan misleiden.”

GhostGPT kan ook worden gebruikt om malware te coderen en te creëren en exploits te ontwikkelen.

Een van de belangrijkste implicaties die GhostGPT deelt met zijn voorgangers is dat het de drempel voor criminele cyberactiviteiten aanzienlijk verlaagt, terwijl het ook oplichting, zoals BEC, moeilijker te detecteren maakt. Veel oplichters gebruiken Engels als tweede taal, en dat feit heeft het historisch gezien gemakkelijker gemaakt om oplichting in het wild te herkennen. De grotere beheersing van de taal door generatieve AI maakt oplichtingsinhoud echter moeilijker te herkennen.

Het is bovendien sneller en gemakkelijker in gebruik.

“Het gemak van GhostGPT bespaart gebruikers ook tijd. Omdat het beschikbaar is als een Telegram-bot, is het niet nodig om ChatGPT te jailbreaken of een open-sourcemodel op te zetten”, aldus Abnormal Security.

“Gebruikers kunnen een vergoeding betalen, direct toegang krijgen en zich direct richten op het uitvoeren van hun aanvallen.”



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *