Malware vom Chatbot?
ChatGPT, Gemini & Co. – viel Licht, aber auch Schatten
Haben Sie schon ChatGPT oder Gemini ausprobiert? Chatbots haben es in sich: Sie beantworten Fragen aus unterschiedlichsten Bereichen auf teils hohem sprachlichen Niveau und erstellen, wenn Sie ein paar Vorgaben machen, Lesegeschichten, Schlagertexte, Rezepte und vieles mehr. Klingt erst einmal vielversprechend. Aber Chatbots haben auch Schattenseiten: In Cyber-Foren versuchen Kriminelle, mit dem Chatbot ChatGPT Malware – sprich: Schadcode und Phishing-Nachrichten – zu kreieren.
Das verbirgt sich hinter ChatGPT: „Chatbot Generative Pre-trained Transformer“ oder kurz: ChatGPT nutzt künstliche Intelligenz (KI – auf Englisch AI = artifical intelligence). Dahinter „steht ein Sprachmodell, das heißt, die KI wurde mit unglaublichen Textmengen gefüttert, die die Algorithmen verarbeitet haben“, erklärt Merle Uhl, Referentin Künstliche Intelligenz beim Digitalverband Bitkom. Wenn der Bot jetzt selbst Texte erstellt, dann greift er auf dieses gesammelte Wortmaterial zurück „und kann damit faszinierende Ergebnisse liefern“, so Uhl. ChatGPT kann sogar Code in verschiedenen Programmiersprachen aufschreiben. Und: Er spricht auch Deutsch.
Warum ein Chatbot mit Vorsicht zu genießen ist
Die KI trägt zwar Informationen in wirklich gelungenen Texten zusammen. Aber: Sie hat kein Wissen über die dahinterliegenden Fakten. „So kann es sein, dass sie felsenfest behauptet und argumentiert, ein Strauß könne fliegen oder sich dazu bringen lässt, dass 2 plus 2 doch 5 ist“, sagt Uhl. Das heißt, wer einen Chatbot verwendet, muss eigentlich fundiertes Wissen über die Fakten haben, um das Ergebnis zu prüfen.
Mit dem Chatbot erstellte Malware – eine echte Bedrohung für die Cybersecurity?
Auch Cyberkriminelle können Chatbots nutzen, um Malware zu erstellen. Das Unternehmen hinter dem Bot versucht, bestimmte Themen und Fragestellungen zu verhindern. So verlangt es die Bestätigung von Nutzungsbedingungen, in denen der Einsatz der Software für illegale oder schädigende Zwecke klar verboten ist.
Übrigens: ChatGPT geht auch selbst auf die Frage ein, wie Cyberkriminelle den Bot missbrauchen können – so sieht die Antwort aus: Es sei nicht ungewöhnlich, dass Cyberkriminelle KI und Machine Learning für ihre bösartigen Aktivitäten ausnutzten. Zum einen würden sie ChatGPT einsetzen, um sich den Sprachstil eines Unternehmens anzueignen und daraufhin überzeugende Phishing-Nachrichten oder Social-Media-Posts zu kreieren. Zum anderen könnten die Cyberkriminellen mit dem Algorithmus Audio- und Videodateien erstellen, die für Desinformationskampagnen genutzt werden könnten, um die öffentliche Meinung zu manipulieren. Untersuchungen haben ergeben, dass bereits verschiedene Hackergruppen ihre Malware mithilfe des Chatbots "debugged" oder übersetzt haben. Die betroffenen Konten wurden daraufhin gesperrt.
Auch wenn Open AI sich um Cybersecurity bemüht: Einen hundertprozentigen Schutz, dass der Chatbot keine Malware erstellt, gibt es nicht. Aber, wichtig zu wissen: ChatGPT bedroht die Cybersecurity „nicht auf irgendeine neue Art und Weise“, betont Uhl. Sie mache es Hackern allenfalls leichter, bereits vorhandene Angriffswege zu nutzen.
Wieso Chatbots nicht nur mit Blick auf Cyberkriminelle ein Problem sein könnte
ChatGPT könnte nicht nur mit Blick auf Cyberkriminelle ein Problem sein. Laut Kritikern besteht die Gefahr, dass der Bot auch Schummeleien bei Klassenarbeiten in Schulen oder bei Prüfungen an der Uni ermögliche. Einige Schulen nutzen bereits KI-Detektoren, die überprüfen, ob Inhalte von Chatbots geschrieben wurden.