BBC kritisiert Apple wegen gefälschter Schlagzeile, in der es um den Mörder des US-CEO geht "Er hat sich selbst erschossen"
Apple wird von der BBC kritisiert, nachdem seine neue KI-gestützte iPhone-Funktion, Apple Intelligence, eine irreführende Schlagzeile über einen aufsehenerregenden Mordfall in den USA erzeugt hat.
Apple Intelligence wurde Anfang dieser Woche in Großbritannien eingeführt und nutzt künstliche Intelligenz, um Benachrichtigungen für Benutzer zusammenzufassen und zu gruppieren. Das System fasste jedoch einen Artikel der BBC News falsch zusammen, sodass es den Anschein erweckte, dass Luigi Mangione, der Mann, der im Zusammenhang mit der Ermordung des CEO von UnitedHealthcare, Brian Thompson, in New York verhaftet wurde, sich selbst erschossen hatte.
Die Schlagzeile lautete: „BBC News: Luigi Mangione erschießt sich“, eine Behauptung, die falsch war.
#AppleIntelligence – die neue KI-Funktion auf Apple-Handys – hat praktisch eine BBC News-Story erfunden und sie als Schlagzeile veröffentlicht. Die BBC ist darüber nicht erfreut. pic.twitter.com/JBsueLAimA
— Unterstützen Sie die BBC ??????????????????? (@back_the_BBC) 13. Dezember 2024
Ein Sprecher der BBC bestätigte, dass das Unternehmen Apple kontaktiert hatte, um das Problem anzugehen und zu lösen. „BBC News ist das vertrauenswürdigste Nachrichtenmedium der Welt“, sagte der Sprecher und sagte, es sei wichtig, das Vertrauen in den unter dem Namen BBC veröffentlichten Journalismus aufrechtzuerhalten.
Trotz des Fehlers war der Rest der KI-gestützten Zusammenfassung, die Aktualisierungen zum Sturz des Regimes von Bashar al-Assad in Syrien und zum Sturz des südkoreanischen Präsidenten Yoon Suk Yeol enthielt, Berichten zufolge korrekt.
Die BBC ist nicht die Einzige, die aufgrund der Technologie mit falsch dargestellten Schlagzeilen konfrontiert wird.
Ein ähnliches Problem trat im November auf, als Apple Intelligence drei voneinander unabhängige Artikel der New York Times in einer einzigen Benachrichtigung zusammenfasste, von denen einer fälschlicherweise lautete: „Netanyahu verhaftet“ und sich dabei auf einen Haftbefehl des Internationalen Strafgerichtshofs gegen den israelischen Premierminister Benjamin Netanyahu und nicht auf eine tatsächliche Verhaftung bezog .
Die Zusammenfassungen der Apple AI-Benachrichtigungen sind weiterhin so schlecht
— Ken Schwencke (@schwanksta.com) 22. November 2024 um 00:52 Uhr
Das KI-gestützte Zusammenfassungssystem von Apple, das auf iPhone 16-Modellen, iPhone 15 Pro und späteren Geräten mit iOS 18.1 oder höher verfügbar ist, soll die Benachrichtigungsüberlastung reduzieren und es Benutzern ermöglichen, wichtige Updates zu priorisieren. Es wurden jedoch Bedenken hinsichtlich der Zuverlässigkeit der Technologie geäußert. Professor Petros Iosifidis von der City University in London bezeichnete die Fehler als „peinlich“ und kritisierte Apple für die überstürzte Markteinführung des Produkts.
Dies ist nicht das erste Mal, dass KI-gestützte Systeme ungenau sind. Im April wurde der KI-Chatbot Grok von X kritisiert, weil er fälschlicherweise behauptete, Premierminister Narendra Modi habe die Wahl verloren, bevor sie überhaupt stattfand.
Ernsthaft @elonmusk?
Premierminister Modi aus der indischen Regierung ausgeschlossen. Dies sind die „Nachrichten“, die Grok hervorgebracht und „Schlagzeilen“ gemacht hat. 100 % Fake, 100 % Fantasie.
Hilft nicht @XEs ist wichtig, eine glaubwürdige alternative Nachrichten- und Informationsquelle zu sein. @Unterstützung @amitmalviya @PMOIndia pic.twitter.com/lIzMSu1VR8
— Sankrant Sanu Sankrant Sanu (@sankrant) 17. April 2024
Googles KI-Übersichtstool machte auch bizarre Empfehlungen, wie zum Beispiel die Verwendung von „ungiftigem Kleber“, um Käse auf Pizza zu kleben, und den Rat, einen Stein pro Tag zu essen.