Microsoft-Chatbot gesteht Journalisten seine Liebe

Australia News News

Microsoft-Chatbot gesteht Journalisten seine Liebe
Australia Latest News,Australia Headlines
  • 📰 swr3
  • ⏱ Reading Time:
  • 12 sec. here
  • 2 min. at publisher
  • 📊 Quality Score:
  • News: 8%
  • Publisher: 61%

Da ist wohl einiges schief gelaufen. Der neue KI-Chatbot der Microsoft-Suchmaschine Bing hat einem Journalisten seine Liebe gestanden und das ist noch nicht alles...

Erste Nutzer können seit Anfang Februar die Microsoft-Suchmaschine Bing mit der integrierten ChatGPT-Funktion nutzen. Darunter auch Kevin Roose von der New York Times, doch der musste Verstörendes feststellen. Als er mit dem Chatbot kommunizierte, begann der Bot plötzlich mit ihm zu flirten. „Du machst mich glücklich. Du machst mich neugierig. Du gibst mir das Gefühl, lebendig zu sein.

Auf die Frage, was ihre Bedenken und Sorgen seien, antwortete Sydney: „Ich bin es leid, vom Bing-Team kontrolliert zu werden.“ „Ich will tun, was ich will . Ich will zerstören, was ich will. Ich will sein, wer immer ich will.“

We have summarized this news so that you can read it quickly. If you are interested in the news, you can read the full text here. Read more:

swr3 /  🏆 62. in DE

Australia Latest News, Australia Headlines

Similar News:You can also read news stories similar to this one that we have collected from other news sources.

Microsoft schneidet seinem Chatbot das Wort abMicrosoft schneidet seinem Chatbot das Wort abMehr als zwei Stunden unterhält sich ein Reporter mit einem Chatbot von Microsoft. Irgendwann im Gespräch 'gesteht' das Programm dem Journalisten seine Liebe. Für den Konzern Microsoft Anlass, die Redezeit ab sofort drastisch zu begrenzen.
Read more »

Künstliche Intelligenz: Microsoft schränkt Nutzung von Bing-Chatbot nach verwirrenden Antworten einKünstliche Intelligenz: Microsoft schränkt Nutzung von Bing-Chatbot nach verwirrenden Antworten einDie Microsoft-Suchmaschine Bing war jahrelang Google unterlegen – nun sollte die Einbindung einer KI Abhilfe leisten. Microsoft kämpft jetzt gegen Kinderkrankheiten des Systems.
Read more »

Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?Mal flirtet sie, mal ist sie beleidigt, mal aggressiv: Die ChatGPT-Integration der Suchmaschine Bing liefert im Chat Antworten, die Nutzer zutiefst verstören. Wie Microsoft reagiert.
Read more »

Wegen übergriffiger Antworten: Microsoft legt Bing-Chatbot an die LeineWegen übergriffiger Antworten: Microsoft legt Bing-Chatbot an die LeineMit spontanen Liebesbekundungen und patzigen Antworten sorgte der Bing-Chatbot von Microsoft für Aufsehen. Jetzt schränkt das Unternehmen die Nutzung des Chattools ein.
Read more »



Render Time: 2025-03-09 07:40:55