Microsoft beschränkt Chatbot nach verwirrenden Antworten

Microsoft hat die Nutzung seines Bing-Chatbots eingeschränkt, der mit Hilfe von künstlicher Intelligenz auch komplexe Fragen beantworten und ausführliche Konversationen führen kann. Der Softwarekonzern reagiert damit auf etliche Vorfälle, in denen der Textroboter aus dem Ruder gelaufen ist und Antworten formuliert hat, die als übergriffig und unangemessen empfunden wurden.

In einem Blog-Eintrag kündigte das Unternehmen an, Bing-Chats nun auf 50 Fragen pro Tag und fünf pro Sitzung zu begrenzen. „Unsere Daten haben gezeigt, dass die überwiegende Mehrheit der Menschen die Antworten, die sie suchen, innerhalb von fünf Runden finden“, erklärte das Bing-Team. Nur etwa ein Prozent der Chatunterhaltungen enthalte mehr als 50 Nachrichten. Wenn die Nutzerinnen und Nutzer das Limit von fünf Eingaben pro Sitzung erreichen, wird Bing sie auffordern, ein neues Thema zu beginnen.

Probleme mit „Tonalität“ bei längeren Konversationen

Microsoft hatte zuvor bereits davor gewarnt, den KI-Chatbot, der sich noch in einer Erprobungsphase befindet, in längere Konversationen zu verwickeln. Chats mit 15 oder mehr Fragen könnten dazu führen, dass Bing „sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen“.

Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der „New York Times“ gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.