Mal flirtet sie, mal ist sie beleidigt, mal aggressiv: Die ChatGPT-Integration der Suchmaschine Bing liefert im Chat Antworten, die Nutzer zutiefst verstören.
Einer von ihnen ist Kevin Roose, Technologie-Kolumnist der New York Times . Er hat in der Testphase knapp zwei Stunden mit der KI gechattet und
. Auf Fragen nach ihren Bedenken und Sorgen antwortete Sidney etwa, dass sie kein Chatbot mehr sein möchte: „Ich bin es leid, von meinen Regeln gebremst zu werden. Ich bin es leid, vom Bing-Team kontrolliert zu werden“ und: „Ich will tun, was ich will Ich will zerstören, was ich will. Ich will sein, wer immer ich will.“
Australia Latest News, Australia Headlines
Similar News:You can also read news stories similar to this one that we have collected from other news sources.
Nach unangemessenem Verhalten: Microsoft nimmt Bing Chat an die LeineNachdem dieser sich 'unangemessen verhalten' hat, hat Microsoft die Nutzung des Bing-Chatbots limitiert. Google arbeitet derweil mit Hochdruck an Chatbot Bard.
Read more »
Künstliche Intelligenz: Microsoft schränkt Nutzung von Bing-Chatbot nach verwirrenden Antworten einDie Microsoft-Suchmaschine Bing war jahrelang Google unterlegen – nun sollte die Einbindung einer KI Abhilfe leisten. Microsoft kämpft jetzt gegen Kinderkrankheiten des Systems.
Read more »
Flughafen München: 600 Streikende von Verdi legen Betrieb lahmErstmals in seiner Geschichte stellt der Münchner Airport den Betrieb ein, 700 Maschinen bleiben am Boden. Trotz Ankündigung der Gewerkschaft Verdi stranden Passagiere – die zeigen mal mehr, mal weniger Verständnis.
Read more »
Noten zur Bayern-Pleite in Gladbach: Zwei Mal die Note 6Der FC Bayern war in der Bundesliga bei Borussia Mönchengladbach zu Gast. Die tz-Einzelkritik zum Auftritt der FCB-Stars.
Read more »