Zacryon

joined 1 year ago
[–] Zacryon@feddit.org 2 points 14 minutes ago

Inwiefern erspart eine Diagnose solche Situationen?

[–] Zacryon@feddit.org 4 points 10 hours ago

"There is no evidence that this didn't happen."

This line of reasoning is the same way religions "argue".

There is also no evidence that this did happen.

So I assume that it's wrong until undeniably proven otherwise by the scientific method.

[–] Zacryon@feddit.org 2 points 12 hours ago* (last edited 12 hours ago)

For dipping your toes into a new topic I think it's perfectly fine. It helps to provide useful pointers for further "research" (in a sense that would meet your requirement) and also manages to provide mostly accurate overviews. But sure, to really dive into this, LLMs like ChatGPT and co. are just some low-level assistants at best and one should go through the material themselves.

[–] Zacryon@feddit.org 1 points 12 hours ago

Perplexity does a good job as LLM-search-engine-combo.

[–] Zacryon@feddit.org 10 points 15 hours ago

Ich trage einen Fahrradhelm, um mein Verletzungsrisiko zu senken und meine Überlebenswahrscheinlichkeit zu steigern.

[–] Zacryon@feddit.org 9 points 15 hours ago

Und wie die Religion, die dieses Kreuz repräsentiert, wirklich alle Menschen und deren Würde achtet. Unabhängig von Herkunft, sexueller Orientierung, Geschlecht oder oder.

[–] Zacryon@feddit.org 4 points 1 day ago

Now tell me again about how peaceful religions are.

[–] Zacryon@feddit.org 1 points 1 day ago

Yes. But if the machine has proven to work reliably it will usually do so for its lifetime, while humans are prone to e multitude of errors. Especially in the medical field.

[–] Zacryon@feddit.org 12 points 1 day ago (1 children)

USA is namba waan!

[–] Zacryon@feddit.org 1 points 1 day ago (2 children)

I trust a good machine much more than any human.

[–] Zacryon@feddit.org 3 points 1 day ago (8 children)

That's such a fucking stupid idea.

Care to elaborate why?

From my point of view I don't see a problem with that. Or let's say: the potential risks highly depend on the specific setup.

 
 

Ein internationales Forscherteam hat mit ScamChatBot ein KI-System gebaut, das sich als potenzielles Opfer ausgibt, um Betrüger zu enttarnen. Ziel ist es, Zahlungsinformationen aufzudecken, um so den Betrug zu bekämpfen.

Das Ziel: Sobald der Onlinebetrüger Kontodaten nennt, an die das Geld überwiesen werden soll, werden diese automatisch an Zahlungsdienstleister wie zum Beispiel PayPal weitergeleitet. Diese können dann die Konten sperren und so Internetnutzende und davor bewahren, betrogen zu werden.

Über vier Monate tauschte ScamChatBot mehr als 18.000 Chatnachrichten mit Betrügern aus. In rund 500 Fällen gelang es, konkrete Informationen zu sammeln, darunter Wallet-Adressen, PayPal-Konten oder Links zu Betrugswebseiten. Die Plattform X bestätigte gegenüber den Wissenschaftlern, dass 84 Prozent der gemeldeten Profile gegen Richtlinien verstießen und leitete Maßnahmen gegen 1,4 Millionen verknüpfte Accounts ein.

Aktuell trainieren die Forscherinnen und Forscher die KI, so dass sie auch mit Betrügern telefonieren kann.

Laut dem UN-Büro für Drogen- und Verbrechensbekämpfung in Südostasien belaufen sich die Schäden weltweit auf rund 40 Milliarden US-Dollar pro Jahr. Befördert wird das unter anderem durch den Einsatz von KI, die es den Kriminellen erlaubt, Sprachbarrieren zu überwinden und automatisiert auf viele Opfer gleichzeitig zuzugehen.

Laut den Vereinten Nationen werden in Südostasien mehr als 100.000 Menschen in sogenannten Scam-Fabriken unter Zwang festgehalten. Sie müssen unter falscher Identität betrügen, dies oft mit Hilfe von Tools wie ChatGPT. Laut UN-Analyst Benedikt Hofmann entstehen in Ländern wie Myanmar oder Laos systematisch neue Standorte für organisierten Internetbetrug, begünstigt durch instabile politische Verhältnisse.

Auch hierzulande zeigt sich das Problem: Im Jahr 2024 wurden laut Bundeslagebild Cybercrime mehr als 130.000 Fälle mit Tatort in Deutschland erfasst, dazu rund 202.000 Taten, deren Ursprung im Ausland liegt, die aber in Deutschland ihre Wirkung entfalten. Das Bundeskriminalamt nennt vor allem "Cybercrime-as-a-Service" als wachsenden Faktor: Kriminelle mieten sich Dienstleistungen vom Fake-Profil bis zur automatisierten Zahlungsaufforderung.

Doch auch die Cyberkriminellen entwickeln sich immer weiter. In etwa jedem vierten Fall stellte das Forscherteam fest, dass die Betrüger selbst automatisierte Texte verwendeten. Manche Online-Betrüger reagierten etwa in unter einer Sekunde, was ein Hinweis auf Bot-Nutzung ist. "Wir stehen erst am Anfang", sagt IT-Sicherheitsforscher Thorsten Holz. "Die nächste Welle an Betrugs-KI ist bereits unterwegs."

 
 
 
 
 
 
 

Heute ist übrigens Tag der Zugvögel.

Zeigt mir eure Zugvögel.

 
 
view more: next ›