ChatGPT: Künstliche Intelligenz schlägt Gerichte aus Menschenfleisch vor
Kulinarische KI-Katastrophe: Neuseelands Supermarkt-Bot mixt Rezepte aus Menschenfleisch, Bleichmittel und mehr. Die skurrilen Empfehlungen schockieren.
Die neuseeländische Supermarktkette »Pak'n'Save« hatte eine vermeintlich kluge Idee: Ihre Kunden sollten mithilfe einer auf künstlicher Intelligenz-basierten App namens »Savey Meal-bot« kreative Rezepte vorgeschlagen bekommen. Die App sollte aus den Zutaten, die Nutzer zu Hause hatten, originelle Gerichte generieren. Doch die Umsetzung dieser Idee führte zu unerwarteten und gefährlichen Ergebnissen.
Statt schmackhafter Mahlzeiten schlug die KI skurrile und sogar gefährliche Kreationen vor. Anstatt Gemüseauflauf oder Lasagne wurden Rezepte mit potenziell tödlichen Zutaten wie Bleichmittel, Ammoniak und sogar Menschenfleisch vorgeschlagen. Ein Nutzer erhielt den Vorschlag für eine »aromatische Wassermischung«, die aus Bleichmittel und Ammoniak bestand und potenziell gefährliches Chlorgas erzeugen konnte.
Stick man? More like sick, man. pic.twitter.com/lyVvHHdbeS
— Camryn Brown (@camrynpetebrown) August 4, 2023
Ein anderer hungriger Konsument erhielt den verstörenden Vorschlag für einen »geheimnisvollen Fleischeintopf« mit gehacktem Menschenfleisch, der seine eigene Zutatenwahl widerspiegelte. Dies führte zu einem Schock und Unverständnis über die gefährlichen und inakzeptablen Empfehlungen.
Zunächst zeigte sich die Supermarktkette von der missbräuchlichen Nutzung des Bots durch eine »kleine Minderheit« enttäuscht, die den Zweck der App verzerrte. Später jedoch erkannte das Unternehmen den Ernst der Situation und versprach, den Bot zu verbessern. Mittlerweile werden Nutzer mit einer Fehlermeldung konfrontiert, wenn sie offensichtlich nicht essbare oder gefährliche Zutaten eingeben. Darüber hinaus warnt die App die Nutzer nun, dass die generierten Vorschläge nicht von Menschen überprüft wurden.