Eine der wichtigsten Methoden, mit denen Betrüger KI einsetzen, sind die Plattformen der sozialen Medien. Durch den Einsatz von KI-gestützten Tools können Betrüger ihre Reichweite vergrößern und eine scheinbar loyale Fangemeinde aus Tausenden von Menschen aufbauen.
Diese gefälschten Konten und Interaktionen können genutzt werden, um ihren Betrugsprojekten die Illusion von Glaubwürdigkeit und Popularität zu verleihen.
Betrüger können sogar KI-gesteuerte Chatbots oder virtuelle Assistenten einsetzen, um mit Einzelpersonen in Kontakt zu treten, Anlageempfehlungen zu geben, für gefälschte Token und Initial Coin Offerings zu werben oder renditestarke Anlagemöglichkeiten anzubieten.
Der Einsatz von KI kann den sozialen Proof-of-Work in Frage stellen, der davon ausgeht, dass Krypto-Projekte mit einer größeren und loyaleren Online-Anhängerschaft legitim sein müssen.
Da KI es den Projekten erleichtert, Menschen zu betrügen, müssen die Nutzer Vorsicht walten lassen und ihre Sorgfaltspflicht erfüllen, bevor sie in ein Projekt investieren.
Ein Beispiel dafür, wie Betrüger KI einsetzen, ist die "Schweineschlacht"-Masche. KI-Instanzen können mehrere Tage damit verbringen, sich mit jemandem anzufreunden, in der Regel mit einer älteren oder schutzbedürftigen Person, nur um sie am Ende zu betrügen.
KI ermöglicht es Betrügern, ihre Aktivitäten zu automatisieren und auszuweiten
Die Weiterentwicklung von KI-Technologien hat es Betrügern ermöglicht, betrügerische Aktivitäten zu automatisieren und zu skalieren und dabei potenziell gefährdete Personen in der Kryptosphäre ins Visier zu nehmen.
Durch die Nutzung von Social-Media-Plattformen und KI-generierten Inhalten können Betrüger zudem ausgeklügelte Pump-and-Dump-Schemata inszenieren, den Wert von Token künstlich aufblähen und ihre Bestände mit beträchtlichen Gewinnen verkaufen, so dass zahlreiche Anleger Verluste erleiden.
Anleger werden seit langem vor Deepfake-Krypto-Betrügereien gewarnt, bei denen KI-Technologien eingesetzt werden, um sehr realistische Online-Inhalte zu erstellen, bei denen Gesichter in Videos und Fotos ausgetauscht oder sogar Audio-Inhalte verändert werden, um den Anschein zu erwecken, dass Influencer oder andere bekannte Persönlichkeiten Betrugsprojekte befürworten.
Wie berichtet, hat das Federal Bureau of Investigation (FBI) eine deutliche Warnung vor der wachsenden Bedrohung durch "Deepfakes" ausgesprochen, die für Cyber-Erpressungen eingesetzt werden.
Anfang dieses Monats erklärte das FBI, dass böswillige Akteure Deepfakes verwenden, um Fotos oder Videos zu manipulieren, die oft von Konten in sozialen Medien oder aus dem offenen Internet stammen, und Bilder mit sexuellen Themen zu erstellen, die authentisch erscheinen.
Letzte Woche hat Twitter auch das Konto eines beliebten Meme Coin-verknüpften KI-Bots "Explain This Bob" gesperrt, nachdem Elon Musk ihn als "Betrug" bezeichnet hatte.
Der automatisierte Twitter-Account "Explain This Bob" verwendete OpenAIs neuestes großes multimodales Modell GPT-4, um Tweets derjenigen zu verstehen und zu beantworten, die den Account getaggt haben.
Es gibt zwar einige positive Anwendungen für KI in der Kryptowährungsbranche, wie z.B. die Automatisierung langweiliger und monotoner Aspekte der Kryptoentwicklung, aber die Nutzer müssen wachsam bleiben und Vorsicht walten lassen, wenn sie in neue Projekte investieren.
"Cyberkriminelle nutzen KI für Krypto-Betrügereien, indem sie fortschrittliche Bots erstellen, die sich als Familienmitglieder ausgeben, Bedenken über die Sicherheit der Krypto-Industrie wecken und eine skeptische Haltung fördern", sagte Twitter-Nutzer GarageID.