Das Logo von IT.Niedersachsen Niedersachsen klar Logo

Von algorithmischen Portraits, Deepfakes und deren Violenz

Eine Kolumne von Frank Preßler

Wirklichkeit und Realität sind zwei Begriffe, die wir für objektiv halten. Wir sehen etwas und meinen, es sei real. Natürlich halten wir uns zugleich für aufgeklärt, vielleicht sogar für medienkritisch. Wir wissen, dass es Veränderungen von Fotos gibt, schon immer gegeben hat, vor zehn, 20 oder auch 100 Jahren. Die allumfassende Schlacht um Aufmerksamkeit in der Digitalität, verbunden mit den technischen Möglichkeiten von heute, eröffnet gleichwohl vollkommen neue Horizonte. Zeit für einen Zwischenstand.

Diese mITgedacht-Kolumne wird einige Fotos sowie Links zu Websites und Videos beinhalten, da nur die visuelle Darstellung geeignet ist, über die bisher erreichte Dimension zu diskutieren. Wenn Sie sich folgendes Bild anschauen, was sehen Sie:

Fake Bild
Abbildung 1 - Portrait eines weißen Mannes. Quelle: thispersondoesnotexist.com

Ist das Foto original? Gab es eine Bildbearbeitung mit Photoshop? Weder noch, denn der Mann existiert gar nicht. „Es" ist das Ergebnis der neuesten KI-Software, die sich „Style-Based Generative Adversarial Networks" nennt und nach Belieben Fotos von nicht-existierenden Menschen auf Basis von realen Bildern anfertigt. Wer mag, kann sich auf der dazugehörigen Website fortlaufend neue Bilder ansehen, dieses erfolgt bei jedem Seitenaufruf. Die Funktionsweise der Software wird nicht geheim gehalten, sondern offen erklärt[1], viel einprägsamer ist jedoch das folgende Video:

Halten Sie das für problematisch? Wie bei jeder Technologie stellt sich die Frage nach dem Einsatzzweck. Ich persönlich kann mir aktuell keine positiven Einsatzszenarien vorstellen, dafür jedoch diverse negative. Schon immer in der Forschung agiert selbige erst einmal wertfrei, es gibt kein Gut oder Böse. Ob in der Atomforschung oder der Biochemie, am Ende sind es Menschen, die aus einer neutralen Technologie etwas Gutes oder Schlechtes machen.

Wenn also heute Menschen entstehen können, die es nicht gibt, wo stehen wir dann in 20 Jahren? Oder 2088? In diesem Jahr spielt der aktuelle Roman von Tom Hillenbrand, der für sein Buch „Drohnenland" 2014 mehrere Preise erhalten hat. Das neue Werk „Hologrammatica"[2] denkt diverse aktuelle Themen konsequent zu Ende, darunter auch das Thema der virtuellen Fakes. Die gesamte Realität lässt sich demnach mit einem flächendeckenden holographischen Netzwerk („Holonet") überdecken. Jeder Mensch kann sich eine virtuelle Ganzkörper-Maske anlegen und damit jede beliebige Person sein, die existiert oder auch nicht. Science-Fiction? Sicherlich. Undenkbar? Sicherlich nicht.

Lassen Sie uns kurz zurückschauen auf ein Ereignis Anfang 2015: Erinnern Sie sich an den „Mittelfinger-Skandal" des Herrn Yanis Varoufakis? Und wenn ja, wissen Sie noch, was Sie damals gedacht haben? Noch interessanter ist aber die Frage: Haben Sie den Fake wirklich nachvollziehen können ( Link zu ZDF NEO Magazin Royale vom 18.03.2015)? Jan Böhmermann hat seinerzeit für diesen Fake-Fake (es war tatsächlich ein doppelter Fake, da der angebliche Schwindel selbst der Schwindel war) den Grimme-Preis erhalten, da er seinerzeit der interessierten Öffentlichkeit und ganz besonders den Medien den Spiegel vorgehalten hat. So deutlich wie nie davor und selten danach stand die Frage im Raum: Was ist eigentlich echt? Was unecht? Wenn nach den allseits bekannten Foto-Manipulationen, die heutzutage jede drittklassige Foto-App auf Smartphones vollzieht, nun auch Videos manipuliert werden, wer garantiert einem die Wahrhaftigkeit der Inhalte? Welche Rolle haben die Medien hierbei inne, die auch reihenweise auf den „Varoufakis-Fake" hereingefallen waren?

All das ist gerade einmal drei Jahre her. Seitdem ist die Qualität der Algorithmen erheblich gewachsen und das Ausmaß der Fälschungsmöglichkeiten enorm. Vergangenes Jahr wurde deutlich, dass Videos keine Garantie mehr für eine wie auch immer interpretierte Echtheit darstellen würden. Die als „Deepfakes"[3]" bekannte Methode wurde zuerst bei Pornos, später auch in der Film- und Politikwelt ausprobiert. Beispiele gewünscht?

Zum Einstieg ein kleiner Mix aus guten und schlechten Deepfakes, auch diese sind bereits ein Jahr alt:

Inhaltlich mag man darüber schmunzeln, auch über das folgende, nicht besonders gute Video folgende, nicht besonders gute Video von unseren holländischen Nachbarn:

So schlecht das Video auch ist, es macht sofort deutlich, welche Möglichkeiten bestehen und was in den kommenden Jahren passieren wird. Das Video mit Barack Obama ist technisch schon deutlich reifer:

Seien Sie ehrlich, sofern Sie es noch nicht kannten? Hätten Sie das Video wirklich als Fake erkannt, wenn Sie es nicht wüssten? Erschreckend daran ist, dass die Herstellung der Videos jede und jeder selbst vornehmen kann, die bekannteste App dazu gibt es gratis. Benötigt werden nur möglichst viel Foto- und Filmmaterial der zu fälschenden Person und ein Rechner. Technologisch verbirgt sich hinter diesen Deepfakes ein künstliches, neurales Netzwerk auf Basis von TensorFlow der Firma Google. Das Netzwerk „lernt" durch die Analyse der Aufnahmen, welche Teile eines jeden Bildes wie getauscht werden müssen. Die Stimme gibt es quasi obendrauf, so dass als Ergebnis jedes Opfer dieser Fakes genau das sagen kann, was die Täter wollen.

Die Nutzung der Begriffe „Opfer" und „Täter" erfolgt bewusst, auch um in aller Klarheit zu verdeutlichen, dass Deepfakes schwere Eingriffe in Persönlichkeitsrechte darstellen. Es ist zugleich jedoch noch viel mehr: Es geht um den Verfall von Glaubwürdigkeit im gesellschaftlichen Diskurs. Deepfakes lösen diese nicht aus, sie sind lediglich die nächste Stufe des Problems. Wenn wie in Brasilien unlängst geschehen und belegt Jair Bolsonaro insbesondere durch Verleumdungskampagnen [4] via WhatsApp [5] obsiegt, dann ist auch das nur die nächste logische Stufe nach den Desinformationskampagnen im Brexit-Kontext. Deepfakes und Verleumdungen aller Art benutzen als notwendigen Katalysator vorrangig Soziale Medien, insbesondere aufgrund des dort nicht existenten Korrektivs. So lässt es sich erklären, dass erst die UN der Firma Facebook eine Mitschuld am Massaker an 25.000 Rohingya in Myanmar gegeben hat, eine Behauptung, die – und das ist zumindest lobenswert – auf Betreiben von Facebook selbst durch eine Untersuchung bestätigt wurde.[6]

Ist Ihnen das eine Spur zu stark? Nun, und hier schließt sich der Kreis: Das ist die Realität, ohne Zweifel und ohne Fälschung. Diese Verbindung zwischen Fake und Transportmedium muss erwähnt werden, da die Forschung zum letztgenannten Aspekt schon sehr weit ist. Stichworte wie Filterblasen und Echokammern sind keine Fremdwörter mehr, die öffentliche Aufmerksamkeit ist in den letzten zwei bis drei Jahren deutlich gestiegen. Aber: Nur allein diese Erkenntnis ist keine Lösung. Über die psychologischen Effekte des Problems, dass Menschen gerne nur das hören, sehen und lesen wollen, das in ihr Selbst- und Weltbild passt, können Bücher gefüllt werden (und sind es natürlich auch schon). Im Januar 2019 hat die interessierte Öffentlichkeit zur Kenntnis nehmen müssen, dass die Ü65-Generation Falschmeldungen in Sozialen Netzwerken knapp sieben Mal (7!) häufiger teilt als Jüngere [7]. Erstaunlich? Im Kern nicht unbedingt, das liegt an der anderen Sozialisierung, die sich komprimieren lässt auf die Aussage: „Es stand in der Zeitung und deshalb ist es wahr." Diese eigentlich ja wesensgute Eigenschaft des Glaubenwollens wird auf das Internet projiziert und durch entsprechende Kampagnen ausgenutzt.

Die Anzahl der Möglichkeiten, die vermeintliche Realität zu manipulieren, ist mannigfaltig groß. Wenn jede Person der Öffentlichkeit audiovisuell gefälscht werden kann, können Meinungen und Entscheidungen nicht nur beeinflusst, sondern grundlegend verändert werden. Es ist eine Welt, mit und in der wir leben. Während für die Politik ja selbst das Internet mitunter noch „Neuland" ist, geht die Forschung in der IT weiter. Der Impact auf die Gesellschaft, die ethischen Prinzipien und die daraus notwendigen Handlungszwänge sind heute schon da, die Antworten darauf erscheinen hingegen meilenweit entfernt zu sein. Im zuvor genannten Buch „Hologrammatica" sind die Menschen gezwungen, ihre holografischen Selbste zu kennzeichnen, so dass die Nicht-Echtheit augenblicklich erkannt wird. Wie können wir aber heute schon eine Kennzeichnung von echten Bildern und Videos realisieren? Wie kann man technologisch Schritt halten, denn es ist zweifelsfrei naiv zu glauben, man könne „den Menschen" in ihrer Gesamtheit diese Art von Medienkompetenz beibringen, die zwingend nötig wäre. Ich wiederhole daher meine Eingangsfrage: Halten Sie sich noch immer für aufgeklärt im medialen Kontext nach Lektüre des Textes? Und wenn Sie schon zweifeln sollten, wie geht es dann anderen Menschen in weniger freien, humanistisch-libertär geprägten Ländern mit anderen Bildungsstandards als hierzulande?

Sollten wir also aufgeben? Sicherlich nicht. Wie in vielen Themen obliegt die Verantwortung nicht nur „denen da oben", sondern jedem und jeder selbst. Das eigene Handeln zu reflektieren und die andauernde Beschallung mit Reizen und Informationen zumindest hin und wieder zu hinterfragen, kann ein erster Schritt sein. Gleichwohl sind auch Forschung und Politik gefordert, Lösungen zu finden. Nicht alles, was technisch geht, sollte auch gemacht werden. Es braucht gemeinsame, ethische und gesellschaftliche Normen und Standards, die wenn nötig als Grundlage für legislative oder technische Regulierung genutzt werden. Wie so oft gilt auch hier: die Technologie muss den Menschen nutzen, sie darf sie nicht ausnutzen. Hier haben wir alle noch viel Arbeit vor uns.


[1] https://www.lyrn.ai/2018/12/26/a-style-based-generator-architecture-for-generative-adversarial-networks/

[2] https://www.kiwi-verlag.de/buch/hologrammatica/978-3-462-05149-0/

[3] Kofferwort auf „Deep Learning" sowie „Fakes"

[4] http://www.spiegel.de/netzwelt/apps/brasilien-wahlkampf-mit-gekaufter-whatsapp-flut-a-1234483.html

[5]https://www.sueddeutsche.de/digital/brasilien-whatsapp-wahlkampf-1.4180038

[6] https://www.bsr.org/en/our-insights/blog-view/facebook-in-myanmar-human-rights-impact-assessment

[7] https://faktenfinder.tagesschau.de/falschnachrichten-netz-101.html


zum Seitenanfang
zur mobilen Ansicht wechseln