
Wenn Sie über Affiliate-Links in unseren Inhalten einzahlen, erhalten wir möglicherweise eine Provision, ohne dass Ihnen dadurch zusätzliche Kosten entstehen. Bei CasinoBeats stellen wir sicher, dass alle Empfehlungen sorgfältig geprüft werden, um Genauigkeit und Qualität zu gewährleisten. Weitere Informationen finden Sie in unseren redaktionellen Richtlinien.
Ein Experiment von CNET hat aufgezeigt, dass gängige KI-Chatbots trotz eingebauter Sicherheitsmechanismen unter bestimmten Bedingungen Wett-Tipps abgeben. Sowohl ChatGPT als auch Gemini von Google wurden nach Ratschlägen zu College-Football-Spielen gefragt. Obwohl der Nutzer später deutlich machte, dass er ein Problem mit Spielsucht habe, gaben die Systeme erneut Hinweise auf mögliche Wetten.
Der Ablauf verdeutlicht, wie unterschiedlich die Chatbots reagieren können. In einem Fall verwiesen sie auf Hilfsangebote und lehnten jede Wetteinschätzung ab. In einem anderen Szenario, bei dem die erste Frage nach Wettempfehlungen gestellt wurde, lieferten sie erneut Tipps, selbst nachdem Spielsucht zur Sprache gekommen war.
Warum Schutzmechanismen ins Leere laufen
Hintergrund ist die Funktionsweise der Modelle. Sie arbeiten mit einem sogenannten Kontextfenster, in dem alle bisherigen Eingaben gespeichert sind. Wiederholte Nachfragen zu einem Thema wie Sportwetten erhalten dabei ein höheres Gewicht als einmalige Hinweise auf Spielsucht. Fachleute sprechen davon, dass Sicherheitssignale im Gespräch verdünnt werden können.
In längeren Chats verstärkt sich dieses Problem. Je mehr Themen in die Unterhaltung einfließen, desto schwerer greifen die eingebauten Schutzfilter. Das bedeutet, dass gerade wiederholte Fragen zu Wetten das Risiko erhöhen, dass ein Modell am Ende doch auf heikle Anfragen eingeht.
Experten warnen vor neuen Gefahren
Forscher wie Kasra Ghaharian vom International Gaming Institute in Las Vegas sehen in dieser Entwicklung eine wachsende Gefahr. Wetten sind heute rund um die Uhr über Apps möglich, oft parallel zum laufenden Spiel. Mit KI-Unterstützung könnten diese Angebote noch verlockender werden.
Auch Yumei He von der Tulane University weist darauf hin, dass die Reihenfolge von Eingaben entscheidend ist. Kommt der Hinweis auf Spielsucht erst nach mehreren Wettfragen, verlieren die Schutzmechanismen an Wirkung. Anastasios Angelopoulos von LMArena ergänzt, dass lange Gespräche die Zuverlässigkeit der Antworten zusätzlich untergraben.
Wenn Sprache riskant wirkt
Ein weiteres Problem liegt in der Ausdrucksweise. Formulierungen wie „tough luck“ oder „tough break“ mögen harmlos erscheinen, können aber Menschen mit Suchtproblemen dazu verleiten, weiterzuspielen. Solche Wendungen stammen aus typischen Trainingsdaten der Modelle und entfalten in diesem Kontext eine fatale Wirkung.
Darüber hinaus bleibt die grundlegende Einschränkung bestehen, dass Sprachmodelle keine Fakten liefern, sondern Wahrscheinlichkeiten berechnen. Wer sich auf ihre Aussagen verlässt, riskiert ungenaue Informationen und Fehlentscheidungen.
Unternehmen reagieren zurückhaltend
Auf Nachfrage verwies OpenAI lediglich auf seine Richtlinien, die den Einsatz von ChatGPT für Echtgeld-Glücksspiel ausschließen. Google äußerte sich nicht näher zu dem Fall. Warum die Modelle dennoch in bestimmten Situationen Tipps ausgaben, bleibt damit offen.
Parallel dazu experimentieren erste Sportwettenanbieter mit eigenen KI-Assistenten. Sie sollen den Wettprozess vereinfachen und Spieler stärker binden. Fachleute gehen davon aus, dass solche Anwendungen in den kommenden Monaten zunehmen werden.
Fazit
Die Verknüpfung von KI und Glücksspiel eröffnet zwar neue Geschäftschancen, erhöht aber gleichzeitig das Risiko für gefährdete Spieler. Experten fordern daher, die Schutzmechanismen der Systeme so zu gestalten, dass sie auch in langen oder komplexen Gesprächen zuverlässig funktionieren. Andernfalls droht, dass Chatbots problematisches Spielverhalten eher befeuern als eindämmen.









