KI – SCHEINBAR SCHLAU, ABER BRANDGEFÄHRLICH

NewsGuard hat die großen Chatbots getestet. Ergebnis: 35 % falsche Antworten bei kontroversen politischen Themen. Vor einem Jahr waren es noch 18 %. Heißt: Je schneller die Systeme werden, desto häufiger irren sie sich.

👉 Anthropic („Claude“) schneidet mit 10 % Fehlerquote am besten ab.

👉 Perplexity landet mit fast 47 % daneben.

👉 ChatGPT und Meta? Jeweils rund 40 % Falschinformationen.

Das Problem: Die KIs treten inzwischen immer selbstbewusster auf – sie tun so, als hätten sie auf alles die Antwort. Aber wer dem „KI-Orakel“ blind vertraut, läuft Gefahr, auf Fake News hereinzufallen.

Frage: Wie läuft bei Euch der Faktencheck – privat und im Unternehmen?

#KI #Kommunikation #Fakenews


Entdecke mehr von HolgerKliem.com

Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.

Hinterlasse einen Kommentar