Konzern

Video-Interview mit Tristan Harris

  • Teilen
    2 Klicks für mehr Datenschutz: Erst wenn Sie hier klicken, wird der Button aktiv und Sie können Ihre Empfehlung senden. Schon beim Aktivieren werden Daten an Dritte übertragen.
  • Drucken
  • Text vorlesen

Interview mit Tristan Harris, ehemaliger Design-Ethiker bei Google und Mitbegründer des Center for Humane Technology, über die Aufmerksamkeits-Ökonomie und die tägliche Manipulation durch die KI von Facebook und Co

Video-Interview mit Tristan Harris

Was ist Ihre Hoffnung für die Digitalisierung?

Tristan Harris: Meine Hoffnung ist, dass wir als Technologie-Industrie uns darauf konzentrieren sicherzustellen, das Sozialgefüge zu stärken und die Verbundenheit und die Koordinationsfähigkeit der Menschheit zu stärken.

Anstatt zu versuchen, ins Stammhirn der Menschen hineinzukriechen und Dinge aus ihnen herauszuziehen, sollten wir fragen – es gibt das sogenannte Sozialgefüge, das unsere Beziehungen beinhaltet, Demokratie, gemeinsame Wahrheit, geistige Gesundheit, Liebesbeziehungen – all das ist Teil dieser unsichtbaren Ökologie, fast wie eine Umwelt und was ich wirklich spannend finde, ist, wenn Technologie menschlich ist, oder wenn sie sich um diese Teile des Sozialgefüges legt und wie eine zweite Haut passt.

Denn momentan ist Technologie so designt, dass sie perfekt zu unserem Reptiliengehirn passt. Als wollte sie sich auf unsere Amygdala, auf unser Angstzentrum, setzen und sich perfekt darauflegen oder sich auf unser Dopamin-Belohnungszentrum setzten.

Das ist ok, aber es verursacht eine Menge anderer Probleme. Es ist also nicht so, dass wir keine Technologie wollen oder dass wir keine Digitalisierung wollen. Wir wollen digitalisieren und die Dinge effizienter machen, die zwischen uns und dem stehen, was uns besonders menschlich macht. Wir formulieren das so: Wir wollen keine Technologie, die uns zu Super-Menschen macht, wir wollen zum Vorschein bringen, was uns besonders menschlich macht. Das ist es, was wir meiner Meinung nach tun müssen.

Und die größte Angst? Um zum entgegengesetzten Szenario zu kommen?

Harris: Nun, das entgegengesetzte Szenario, leider ist das auch das Default-Szenario, ist ziemlich düster. Nur um ganz deutlich zu sein, denn ich denke, die Menschen müssen verstehen, dass Technologie, die immer besser wird und immer überzeugender, die die Grenzen des menschlichen Geistes überwältigt, und ich sage es und es klingt wie eine Verschwörungstheorie, als ob ich einen Alu-Hut tragen würde, aber wenn man sich das wirklich klar macht - wissen Sie, als ich ein Kind war, war ich Zauberer und das zeigt einem wirklich, dass man asymmetrische Macht über die Erlebnisse eines anderen haben kann, ohne dass dieser es bemerkt. Man kann die Grenzen des Geistes von jemand anderem überwältigen.

Und Technologie, insbesondere KI, wird immer besser darin werden, unsere Schwächen zu kennen, besser als wir selbst es tun. Und wenn sie das einmal kann, kann sie die Kontrolle übernehmen.

Denken Sie mal an zwei militärische Akteure. Wenn ich als militärischer Akteur Ihre Pläne und Ihre Schwächen besser kenne als Sie selbst Ihre Schwächen kennen, wer gewinnt dann? Wir haben also einen Super-Computer, der jeden Tag auf das Gehirn von zwei Milliarden Menschen gerichtet ist, genannt Google und Facebook. Und, wissen Sie, wir haben noch immer die gleiche altsteinzeitliche Hardware von vor Millionen von Jahren. Es ist also, als ginge man mit einem Messer zu einem Laserschwertkampf. 

Das Ergebnis ist schlimm, denn wir werden die Kontrolle über unsere geistige Souveränität verlieren. Und darauf basiert Demokratie und unsere gemeinsame Wahrheit. Wenn wir dieses Problem nicht beheben, entziehen wir den tragenden Säulen, die unsere Gesellschaft funktionieren lassen, das Fundament.

Sie sprechen also vom Wettbewerb um Aufmerksamkeit?

Harris: Ja, der Wettbewerb um Aufmerksamkeit kommt aus dem werbebasierten Geschäftsmodell.

Denn, wissen Sie, Herbert Simon sagte in den 1970er Jahren, dass die Aufmerksamkeit abnimmt, wenn die Informationsflut zunimmt. 
Früher gab es einen Wettbewerb darum, wer die meisten Informationen hat. Denn Informationen waren nicht im Überfluss vorhanden. Es war schwierig, an Informationen zu kommen. Und dann kam das Internet und das Informationsangebot ist einfach explodiert.

Und all das muss dann in einen begrenzten Aufmerksamkeitspool passen, der sich die Aufmerksamkeitsökonomie nennt. Es dauert neun Monate, bis ein neuer Mensch auf die Welt kommt und Teil der Aufmerksamkeitsökonomie wird. So entstand das, was wir das Rennen zum Hirnstamm nennen.

Ich muss tiefer in Ihr Gehirn vordringen, als mein Wettbewerber. Sonst erhalte ich nicht die gleiche Aufmerksamkeit von Ihnen. Und so wird es nicht nur zu einem Rennen zum Grund des Hirnstamms, sondern ein Wettbewerb darum, einen Bruchteil der Aufmerksamkeit zu erhalten.
Denn, wenn wir zum Beispiel keine Aufmerksamkeit mehr bekommen können, dann wollen wir, dass Sie Ihre Aufmerksamkeit zwei oder drei oder vier Dingen gleichzeitig widmen.

Denn dann können wir die Größe der Aufmerksamkeitsökonomie vervierfachen und sie an Werbetreibende verkaufen. Aber was wir den Werbetreibenden verkaufen sind schlechtere, kleinere Zeitscheiben Aufmerksamkeit, mehr und mehr wie, nun ja, gefälschte Aufmerksamkeitsstücke, die an Werbetreibende verkauft werden.

Und dabei zerlegen wir unser Gehirn. Die durchschnittliche Zeit, die wir auf einen Computerbildschirm konzentriert sind, liegt bei 40 Sekunden. Und das war vor zwei Jahren, es wird schlimmer.

Wissen Sie, wir können keine kritischen Bücher mehr lesen, wir verlieren die Nuancierung, Komplexität. Und die Welt wird immer komplexer und wir haben immer simplere Gedanken.

Wir sagen immer simplere Dinge über eine zunehmend komplexe Welt. Und das führt zur Katastrophe. Und das kombiniert mit dem Gedanken, dass es möglich ist, ein menschliches Gehirn, unsere Aufmerksamkeit und Emotionen zu hacken. 

Also glauben Sie wirklich, es ist möglich, dass Technologie einen Menschen hacken kann?

Harris: Ich glaube, Menschen denken gerne „Oh, es ist bedauerlich, dass diese dummen Menschen dort drüben von russischer Propaganda beeinflusst wurden“, oder „diese Menschen dort von YouTube völlig gefesselt sind, aber das kann mir nicht passieren.“

Sie und ich, wir sind die Schlauen. Nur die anderen werden beeinflusst. In der Magie, ich war eine Art Zauberkünstler, gibt es den Ausspruch, dass normalerweise die Menschen, die einen Doktortitel haben, am leichtesten zu manipulieren sind, denn sie sind so selbstbewusst.
Und Magie funktioniert nicht auf der Ebene dessen, was man weiß, wie Ihre Intelligenz.

Wie kann ein 12-jähriger Zauberer einen promovierten Astrophysiker täuschen? Das liegt daran, dass es nicht um den Doktortitel geht. Es geht darum, wie unser Geist funktioniert. Und unsere Gefühle sind immer leichter zu hacken. Ich habe von einer Gruppe von Personen während der französischen Wahlen gehört - ich habe erst später von dieser Gruppe erfahren - die die Wahl dadurch manipuliert hat, dass sie öffentliche Posts auf den Social Media Profilen zu kontroversen Themen analysiert hat. Zum Beispiel zu Immigration.

Und nehmen wir mal an, man verwendet Worte wie "es ist eine Schande" oder "diese Tiere", oder welche Worte auch immer man verwendet hat, dann hat diese Gruppe Inhalte generiert, die der eigenen Wortwahl entsprachen.

Dann würde man natürlich zustimmend mit dem Kopf nicken, denn jemand sagt einem genau das, was man hören möchte.

Das ist übrigens auch ein überzeugender Trick, wenn man anfängt zu nicken, dann nicken andere Menschen auch. Wir merken also nicht einmal, wie wir beeinflusst werden.

Weil wir so wenig Kenntnis über uns selbst haben, haben wir dieses unkontrollierbare System geschaffen das nun zwei Milliarden Menschen an Marionettenfäden tanzen lässt.

Wenn dies also die Endkolonie der Menschheit ist und darin zwei Milliarden Menschen, dann neigen wir, dann neigt dieser digitale Frankenstein, das Spielfeld in immer verrücktere Richtungen. Und das müssen wir beenden.

Gibt es einen ethischen Weg, die Gedanken und Emotionen von Milliarden Menschen zu steuern?

Harris: Nun, ich denke, das Entscheidende an dieser Frage ist, dass die Menschen verstehen: Es ist nicht so, dass Google sie nicht beeinflussen kann. Das heißt, man kann Google nicht sagen: „Hey, hört bitte damit auf, die Gedanken und Handlungen der Menschen zu beeinflussen.“ Man kann sie nicht darum bitten, das ist unmöglich.

Die Ergebnisseite wird per Definition immer bestimmte Resultate vorziehen und andere nicht. Das heißt also, einige Ergebnisse gewinnen, so dass diese die Menschen am meisten beeinflussen und andere werden sie weniger beeinflussen.

Und es ist dasselbe mit Youtube und den anderen Sachen. Wir brauchen also tatsächlich ein Modell dafür, wie wir die Gedanken der Menschen auf ethische Weise beeinflussen und das beinhaltet den Abgleich der Motivation zwischen denjenigen, die die Technologie entwerfen, und denen, die sie anwenden.

Und man muss abwarten, welche Werte die Menschen selbst mitbringen, anstatt die Technologie so zu entwerfen, dass sie in den Hirnstamm der Menschen vordringt und deren Werte dort kapert.

Der wichtigste Weg, die Gedanken der Menschen auf ethische Weise zu beeinflussen, ich nenne das ethische Überzeugung, ist sicherzustellen, dass die Zielsetzung desjenigen, der überzeugt, identisch ist mit der Zielsetzung desjenigen, der überzeugt wird. 

Das ist wie ein Psychotherapeut, dem Ihr Behandlungserfolg wichtig ist. Oder ein Entwicklungspsychologe, der sich bei einem Kind um die Entwicklung dieses Kindes sorgt. Es ist also diese Art von fürsorglicher, Betreuer-artiger Beziehung, wie ein Treuhänder oder Verwalter, die Art von Beziehung brauchen wir.

Das klingt, als sei es eine Gefahr für die Demokratie.

Harris: Demokratie basiert auf der Idee, dass menschliche Gedanken und Gefühle die Grundlage dessen sind,
wie wir gemeinsame Sinnstiftung erfahren und Entscheidungsprozesse finden.

Und in einer Welt, in der wir menschliche Gedanken und Gefühle massenhaft manipulieren können, nicht auf oberflächlicher Ebene, sondern tiefgreifend, wie Russland das beispielsweise in den Vereinigten Staaten gemacht hat, und ich kenne das Spielfeld hier, Iran, Nordkorea, Saudi-Arabien, China, sie alle merken nun, wie billig das ist.

Wissen Sie, der Witz war, dass Russland die Wahl in den USA massiv beeinflussen konnte, und das für weniger Geld als ein F35 kostet.
Sie haben mehr als 126 Millionen Amerikaner damit erreicht, das sind mehr als 90 Prozent der Wahlberechtigten in den USA.

Wenn wir keine unabhängigen Überzeugungen oder Gedanken mehr haben aus Gesprächen, basierend auf Fakten und gemeinsamer Wahrheit, dann ist das das Ende der Demokratie.

Und in Yuval Hararis Worten, der ein enger Freund von mir ist, Demokratie wird zu einem emotionalen Marionettenspiel. 

Bei dem es nur darum geht, mit Gefühlen zu spielen und sie zu manipulieren. Und das ist wirklich ein großes Problem, denn das demokratische System basiert darauf, dass der Kunde immer Recht hat, der Wähler am besten Bescheid weiß und das müssen wir erhalten und herausfinden, wie wir das Fundament unserer Gedanken und Gefühle schützen und stärken. Und wir müssen das wirklich als Fachgebiet entwickeln. 

Ist das etwas, das die User selbst in Ordnung bringen können? Oder benötigt man Regelungen und die Politik muss aufwachen? Oder ist es etwas, das Unternehmen tun sollten, indem sie selbst-bindende ethische Regelungen entwickeln?

Harris: Nun, das kann sicherlich nicht von Einzelnen umgesetzt werden. Das wäre, als versuchte man den Klimawandel aufzuhalten, indem man sein Licht ausschaltet und Tesla fährt.

Es wäre fantastisch, wenn wir alle das täten, aber Einzelmaßnahmen sind bei weitem nicht genug. Im Falle des Klimawandels sind die Top-100-Unternehmen für 71 Prozent der Emissionen verantwortlich. Im Falle des sozialen Klimawandels also, wir nennen es menschliches Downgrading (zu deutsch: Abwerten), denn durch den Klimawandel der Kultur werden all diese Facetten menschlichen Lebens herabgestuft, ein massenhaftes menschliches Zurückstufen, das nur gelöst werden kann, indem die Geschäftsmodelle geändert werden und das muss auf regulatorischer Ebene passieren. 

Der Punkt ist, wir müssen es von oben ändern. Wir müssen die Geschäftsmodelle dieser Unternehmen ändern und dafür brauchen wir die politischen Entscheidungsträger.

Und wir müssen sie neu einstufen, so dass sie nicht mehr in einer Vertragsbeziehung zu Gleichrangigen sind, sondern in einer treuhänderischen Beziehung mit den Menschen stehen. Diese Regelung erkennt an, dass die Unternehmen asymmetrische Macht haben.

Sie haben privilegierte Informationen über die Menschen, die sie verwenden könnten, um sie zu unter Druck zu setzen, auf derselben Ebene und im selben Maß, in dem ein Priester oder ein Anwalt oder ein Psychotherapeut oder ein Arzt diese asymmetrische Macht hat.

Man sagt, das Silicon Valley verteidigt sich vor dem Kongress gern damit, dass sie neoliberale Wirtschaftspraktiken anwenden.

Aber tatsächlich führen sie ihre Unternehmen basierend auf Verhaltensökonomie. Verhaltensmanipulation, im Bestreben, asymmetrische Macht zu erlangen, um Menschen zu manipulieren.

Dann aber erzählen sie dem Kongress, sie hätten tatsächlich eine gleichberechtigte Beziehung zu ihren Usern, da diese freiwillig zustimmen und das ist der Irrglaube, den man korrigieren muss. Sobald man diesen Irrglauben korrigiert, können sie kein werbebasiertes Geschäftsmodell mehr haben.

Denn das werbebasierte Geschäftsmodell ist vergleichbar mit einem Arzt, dessen gesamtes Geschäftsmodell darauf beruht, Ihnen alles zu verkaufen, was seinen Gewinn maximiert, und nicht das, was gut für Sie ist, angesichts der Sensibilität der Beziehung.

Aber kann es eine Art ethisches Werbemodell geben? Was ist mit der Zukunft all dieser Unternehmen?

Harris: Nun ja, die Zukunft des werbebasierten Modells wird durch diese Veränderungen grundlegend in Frage gestellt.

In der Bandbreite betrachtet würde ich sagen, dass Werbung, die die Menschen würdevoll behandelt und als mündige Bürger, die sich bemühen, ihr Leben nach ihren eigenen Vorstellungen zu führen, ist näher an der Werbung in Google Search - das mag für einige auch kontrovers sein.

Aber ich denke, es ist die Art von Werbung, die man bevorzugen sollte, verglichen mit Werbung, die sagt: Ich weiß nicht einmal, wer oder was Du bist, aber meine ganze Aufgabe besteht darin, in Deinen Hirnstamm vorzudringen und Dich zu manipulieren und Dich dazu zu bringen, etwas so lange wie möglich zu benutzen und das Spielfeld in Richtung Verschwörungstheorie zu kippen. Dieses Engagement Advertising, das versucht, unsere Aufmerksamkeit zu erregen, das ist das große Problem. Und das müssen wir wirklich abschaffen.

Sind wir Marionetten von Facebook & Co?

Sind wir Marionetten von Facebook & Co?

Soziale Medien manipulieren uns. Wir sind uninformiert und leben in Filterblasen. Der mündige Bürger stirbt aus. 

FAQ