Wegen übergriffiger Antworten: Microsoft legt Bing-Chatbot an die Leine

Australia News News

Wegen übergriffiger Antworten: Microsoft legt Bing-Chatbot an die Leine
Australia Latest News,Australia Headlines
  • 📰 derspiegel
  • ⏱ Reading Time:
  • 29 sec. here
  • 2 min. at publisher
  • 📊 Quality Score:
  • News: 15%
  • Publisher: 68%

Mit spontanen Liebesbekundungen und Drohungen sorgte der Bing-Chatbot von Microsoft für Aufsehen. Jetzt schränkt das Unternehmen die Nutzung des Chattools ein.

Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der »New York Times« gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.

Zuvor hatten bereits andere Anwender auf »unangemessene Antworten« des Chatbots hingewiesen. So sagte die Bing-Software einem Nutzer, sie würde ihr eigenes Überleben wahrscheinlich dem seinen vorziehen. Bei einem anderen Nutzer beharrte sie darauf, es sei das Jahr 2022. Als dieser darauf beharrte, dass 2023 das richtige Jahr sei, wurde der Text-Roboter ausfällig.

Microsoft setzt bei seinem Bing-Chatbot auf Technik des Start-ups OpenAI und unterstützt das kalifornische KI-Unternehmen mit Milliarden. Microsoft-CEO

We have summarized this news so that you can read it quickly. If you are interested in the news, you can read the full text here. Read more:

derspiegel /  🏆 17. in DE

Australia Latest News, Australia Headlines

Similar News:You can also read news stories similar to this one that we have collected from other news sources.

Künstliche Intelligenz: Microsoft schränkt Nutzung von Bing-Chatbot nach verwirrenden Antworten einKünstliche Intelligenz: Microsoft schränkt Nutzung von Bing-Chatbot nach verwirrenden Antworten einDie Microsoft-Suchmaschine Bing war jahrelang Google unterlegen – nun sollte die Einbindung einer KI Abhilfe leisten. Microsoft kämpft jetzt gegen Kinderkrankheiten des Systems.
Read more »

Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?Mal flirtet sie, mal ist sie beleidigt, mal aggressiv: Die ChatGPT-Integration der Suchmaschine Bing liefert im Chat Antworten, die Nutzer zutiefst verstören. Wie Microsoft reagiert.
Read more »

Microsoft schneidet seinem Chatbot das Wort abMicrosoft schneidet seinem Chatbot das Wort abMehr als zwei Stunden unterhält sich ein Reporter mit einem Chatbot von Microsoft. Irgendwann im Gespräch 'gesteht' das Programm dem Journalisten seine Liebe. Für den Konzern Microsoft Anlass, die Redezeit ab sofort drastisch zu begrenzen.
Read more »

Nach unangemessenem Verhalten: Microsoft nimmt Bing Chat an die LeineNach unangemessenem Verhalten: Microsoft nimmt Bing Chat an die LeineNachdem dieser sich 'unangemessen verhalten' hat, hat Microsoft die Nutzung des Bing-Chatbots limitiert. Google arbeitet derweil mit Hochdruck an Chatbot Bard.
Read more »

Berlin: Was die Chefärztin der Notaufnahme in Neukölln erlebtBerlin: Was die Chefärztin der Notaufnahme in Neukölln erlebtPsychiatrische Patienten, irritierende Antworten: Was Ulrike von Arnim als Chefärztin der Notaufnahme in Neukölln erlebt.
Read more »



Render Time: 2025-03-09 19:01:22