Wie Googeln wir in Zukunft?
Suchmaschinen helfen uns, im Netz Informationen zu finden. Digitale Assistenten beantworten unsere Fragen in wenigen Sätzen. Wir müssen uns weniger merken, weil das Wissen jederzeit zur Verfügung steht. Aber die Systeme haben ihre Tücken und sind nicht immer fehlerfrei. Checken Sie die Antworten oder gehen Sie davon aus, dass sie schon stimmen werden? Schauen Sie auch in die Links, die erst auf der zweiten, dritten Seite kommen? Was bedeuten generative KI und digitale Assistenten für unseren Umgang mit Nachrichten, Newsseiten und die Suche nach Wissen? Das untersucht die Telekom gerade in einer großen Umfrage mit dem Institut Allensbach. In der Fotoshow zeigen wir (schon jetzt) ein paar Beispiele, warum das Thema so relevant ist.
Endlose Link-Listen selbst auf die einfache Suche nach Blumenerde
Eigentlich brauchen wir nur eine Antwort und nicht zahlreiche. Aber Suchmaschinen liefern seitenweise Links. Mal ehrlich: Schauen Sie in die Links auf der zweiten oder gar dritten Seite? Sie sind nicht alleine: Studien zeigen, dass aus 100 Suchanfragen bei Google nur 40,3 Klicks resultieren. Fast 60 Prozent sind also mit der Antwort ganz oben zufrieden und checken nicht die Quelle.
2024 Zero-Click Search Study
Quellenangaben wollen angeklickt sein
Tools wie Perplexity werben damit, dass wir nicht mehr suchen müssen, sondern finden. Statt langer Linklisten liefern sie uns Antworten. Gut geschrieben, plausibel klingend und prägnant. Mit Quellenangaben. Hand aufs Herz: Wie oft klicken Sie auf die Quellen und prüfen so, ob die Antwort auch wirklich stimmt?
Wer bestimmt, was ist?
Nach dem Attentat auf Donald Trump am 13. Juli wusste Meta AI zunächst nichts dazu zu erzählen. Meta erklärte in einem Blog, man habe den Chatbot zunächst absichtlich nicht über das Attentat sprechen lassen. Denn rund um schlagzeilenträchtige Ereignisse gebe es oft widersprüchliche Angaben und unbegründete Spekulationen bis hin zu Verschwörungstheorien. Einerseits verständlich. Aber wer bestimmt, wozu Bots Antworten geben und wozu nicht?
Medien und digitale Assistenten
Die ZEIT experimentiert mit einer KI-basierten Anwendung, um Leserfragen zu aktuellen Ereignissen aus ihrem Archiv zu beantworten.
Die Frankfurter Allgemeine Zeitung (FAZ) bietet ihren Abonnentinnen und Abonnenten in ihrer Nachrichten-App eine KI-generierte Zusammenfassung ausgewählter Nachrichtenartikel.
Axel Springer kooperiert mit OpenAI. ChatGPT darf auf ausgewählte Inhalte von Bild, Welt, Politico und Business Insider zugreifen, um ChatGPT so zu trainieren, dass es Informationen über aktuelle Ereignisse liefert. Dafür verlinkt ChatGPT in seinen Antworten auf die Springer-Artikel.
Der Spiegel hat eine dreijährige Kooperation mit dem KI-Antwortenbot Perplexity geschlossen, damit Spiegel-Artikel auf dieser Plattform sichtbarer werden. Im Gegenzug erhält der Spiegel einen Anteil an den mit seinen Inhalten erwirtschafteten Werbeeinnahmen.
Meinungen zu KI im Journalismus
Akzeptiert wird der Einsatz von KI, wenn sie Medienschaffenden dient, effektiver arbeiten zu können (Übersetzungen, Transkription von Sprache zu Schrift und ähnliches).
Laut einer Befragung befürworten hingegen nur 14 Prozent der Befragten in Deutschland Nachrichten, die hauptsächlich von KI produziert wurden.
Allerdings macht das Einsatzfeld einen Unterschied: die Zusammenfassung einer Sportveranstaltung wird eher akzeptiert als ein Artikel zu politischen Themen.
Besonders kritisch gesehen werden mit KI generierte und realistisch aussehende Fotos und Videos. Denn Menschen möchten „sich auf Bilder und Videos als ‚mentale Abkürzungen‘ verlassen, damit sie erkennen können, worauf sie online vertrauen können.“ Frei nach dem Motto "Seeing is believing“ oder auf Deutsch „Sehen ist Glauben".
Unabhängig von der Anwendung sind die Userinnen und User der Ansicht, dass eine vollständige Automatisierung tabu sein sollte und ein Mensch immer involviert sein muss.