NewsGuard hat die großen Chatbots getestet. Ergebnis: 35 % falsche Antworten bei kontroversen politischen Themen. Vor einem Jahr waren es noch 18 %. Heißt: Je schneller die Systeme werden, desto häufiger irren sie sich.
👉 Anthropic („Claude“) schneidet mit 10 % Fehlerquote am besten ab.
👉 Perplexity landet mit fast 47 % daneben.
👉 ChatGPT und Meta? Jeweils rund 40 % Falschinformationen.
Das Problem: Die KIs treten inzwischen immer selbstbewusster auf – sie tun so, als hätten sie auf alles die Antwort. Aber wer dem „KI-Orakel“ blind vertraut, läuft Gefahr, auf Fake News hereinzufallen.
Frage: Wie läuft bei Euch der Faktencheck – privat und im Unternehmen?
#KI #Kommunikation #Fakenews

Hinterlasse einen Kommentar