Verlieren wir die Kontrolle über die BOTs?

Verlieren wir die Kontrolle über die BOTs?

Der folgende Beitrag (hier nur ein Auszug) wurde von Digitalbusiness erstellt. Für den gesamten Beitrag nutzen sie den Link unter dem Beitrag.
Im Bericht wird eindrücklich beschrieben, auf welche Risiken wir uns mit der Nutzung und Implementierung von KI einlassen. Eine Risikoabwägung insbesondere für Schulen und Unternehmen wird dringend notwendig…

Digitalbusiness Danny Frischknecht

„Der Wettlauf um die Nutzung von ChatGPT für Cyberkriminalität hat laut einer Studie von NordVPN zu einem Anstieg von Bot-Hacking-Posts um 625 Prozent in Dark-Web-Foren geführt. Darin diskutieren Hacker darüber, wie sie den Chatbot manipulieren können.“

Dass die neuen Möglichkeiten Kriminelle auf den Plan rufen werden, war von Beginn weg klar. Dass das im Fall von sehr realistischen Produkten zusätzlich attraktiv ist, ergibt sich von selbst. Die Überprüfung von Ergebnissen (Texte und Bilder, zunehmend auch Audiodateien) ist durch Anwender nur sehr schwer möglich. Sieht man, wie schlecht bereits einfache Fakenews durch NutzerInnen entlarvt werden (können),

„Wie eine neue Studie des Cybersicherheits-Anbieters NordVPN zeigt, ist die Anzahl der neuen Beiträge zu Bot Hacking in Dark-Web-Foren von 120 im Januar auf 870 im Februar 2023. Dies ist ein Anstieg von 625 Prozent. Die Zahl der Forenbeiträge zu ChatGPT stieg innerhalb eines Monats um 145 Prozent von 37 auf 91. Hierbei ist zu beobachten, dass die Diskussionen um den Missbrauch des Bots zum heißesten Thema im Dark Web wurden.“

Diese Tatsachen zeigen auf, welche Bedrohungen BOTs bedeuten können. Dem stehen die durchaus sinnvollen Möglichkeiten und Nutzung gegenüber. Wichtig wäre hier, die Entwickler solcher Algorhithmen in Pflicht und Verantwortung zu nehmen. Das wird aufgrund der offenen Architekten nicht nur sehr schwierig werden, sondern wohl Wunschtraum bleiben.

„Anfang Januar konzentrierten sich viele Threads zu Bot Hacking auf die Frage, wie böswillige Akteure ChatGPT dazu bringen könnten, einfache Malware zu produzieren, eine Schwachstelle, die inzwischen behoben wurde. Einen Monat später ging der Trend in der Hacker-Community hin zu aggressiveren Maßnahmen. In den Beiträgen skizzieren Cyberkriminelle Pläne, die Kontrolle über den Chatbot zu übernehmen. Und diesen zu nutzen, um Chaos zu stiften. Die Titel des Dark-Web-Forums (das vor normalen Suchmaschinen verborgen ist) beinhaltete unter anderem „How to break ChatGPT“, „ChatGPT jailbreak 2.0, ChatGPT – progression of malware“ und „ChatGPT as a phishing tool“.“

Diese Thematik zeigt auf – und macht Angst – dass „Murphy’s Law“ einmal mehr greifen wird – was geschehen kann, wird auch geschehen. Was missbraucht werden kann, wird auch missbraucht.

Hier geht es zum gesamten Artikel…