Inhaltsverzeichnis:

Deep Fakes: Neuroset wurde beigebracht, Ton- und Video-Fakes zu erzeugen
Deep Fakes: Neuroset wurde beigebracht, Ton- und Video-Fakes zu erzeugen

Video: Deep Fakes: Neuroset wurde beigebracht, Ton- und Video-Fakes zu erzeugen

Video: Deep Fakes: Neuroset wurde beigebracht, Ton- und Video-Fakes zu erzeugen
Video: Mordindustrie Holocaust 2024, Kann
Anonim

Um für jeden von uns ein „individuelles“Nachrichtenbild zu erstellen und die darin ausgewählten Medienberichte zu fälschen, reichen heute die Bemühungen eines Programmierers. Spezialisten für künstliche Intelligenz und Cybersicherheit teilten dies der Izvestia mit.

In jüngerer Zeit schätzten sie, dass dies die Arbeit mehrerer Teams erforderte. Möglich wurde eine solche Beschleunigung durch die Entwicklung von Technologien für Angriffe auf neuronale Netze und die Erzeugung von Audio- und Video-Fakes mit Programmen zur Erstellung von „Deep Fakes“. Die Zeitung Izvestia war kürzlich einem ähnlichen Angriff ausgesetzt, als drei libysche Nachrichtenportale gleichzeitig eine Nachricht veröffentlichten, die angeblich in einer der Ausgaben auftauchte. Experten zufolge können wir innerhalb von 3-5 Jahren mit einer Invasion von Robotermanipulatoren rechnen, die automatisch in der Lage sein werden, viele Fälschungen zu erstellen.

Schöne neue Welt

Es gibt immer mehr Projekte, die das Informationsbild an die Wahrnehmung bestimmter Nutzer anpassen. Ein Beispiel für ihre Arbeit war die jüngste Aktion dreier libyscher Portale, die eine angeblich am 20. November in der Izvestia-Ausgabe veröffentlichte Nachricht veröffentlichten. Die Macher der Fälschung veränderten die Titelseite der Zeitung und veröffentlichten darauf eine Nachricht über die Verhandlungen zwischen Feldmarschall Khalifa Haftar und dem Premierminister der Regierung des Nationalen Abkommens (PNS) Fayez Sarraj. Die Fälschung in der Schrift Izvestia wurde von einem Foto der beiden Anführer begleitet, das im Mai 2017 aufgenommen wurde. Das Etikett mit dem Logo der Publikation wurde aus der aktuell erschienenen Ausgabe vom 20. November und alle anderen Texte auf der Seite aus der Ausgabe vom 23. Oktober herausgeschnitten.

Aus Sicht von Spezialisten können solche Fälschungen in absehbarer Zeit automatisiert erfolgen.

The Truman Show - 2019: Wie neuronale Netze gelehrt wurden, das Nachrichtenbild zu fälschen
The Truman Show - 2019: Wie neuronale Netze gelehrt wurden, das Nachrichtenbild zu fälschen

„Die Technologien der künstlichen Intelligenz sind jetzt völlig offen, und die Geräte zum Empfangen und Verarbeiten von Daten werden miniaturisiert und billiger“, sagte Yuri Vilsiter, Doktor der Physikalischen und Mathematischen Wissenschaften, Professor der Russischen Akademie der Wissenschaften, Leiter der FSUE-Abteilung „GosNIIAS“, sagte Iswestija. - Daher ist es sehr wahrscheinlich, dass uns in naher Zukunft nicht einmal der Staat und große Konzerne, sondern nur Privatpersonen belauschen und ausspionieren sowie die Realität manipulieren können. In den kommenden Jahren wird es möglich sein, ihn durch die Analyse der Nutzerpräferenzen durch Newsfeeds und sehr clevere Fakes zu beeinflussen.

Laut Yuri Vilsiter gibt es bereits Technologien, die für einen solchen Eingriff in die mentale Umgebung eingesetzt werden können. Theoretisch sei mit der Invasion von Roboter-Bots in einigen Jahren zu rechnen, sagte er. Ein einschränkender Punkt kann hier die Notwendigkeit sein, große Datenbanken mit Beispielen für die Reaktionen realer Menschen auf künstliche Reize zu sammeln, wobei die Langzeitfolgen verfolgt werden. Ein solches Tracking wird wahrscheinlich noch mehrere Jahre der Forschung erfordern, bevor gezielte Angriffe erzielt werden.

Sichtangriff

Alexey Parfentiev, Leiter der Analytics-Abteilung bei SearchInform, stimmt auch Yuri Vilsiter zu. Ihm zufolge sagen Experten bereits Angriffe auf neuronale Netze voraus, obwohl es solche Beispiele inzwischen praktisch nicht mehr gibt.

- Forscher von Gartner gehen davon aus, dass bis 2022 30 % aller Cyberangriffe darauf abzielen, die Daten, auf denen das neuronale Netzwerk trainiert wird, zu korrumpieren und fertige Modelle für maschinelles Lernen zu stehlen. Dann können beispielsweise unbemannte Fahrzeuge plötzlich anfangen, Fußgänger mit anderen Objekten zu verwechseln. Und wir werden nicht über finanzielle oder Reputationsrisiken sprechen, sondern über das Leben und die Gesundheit der einfachen Leute, glaubt der Experte.

Im Rahmen der Forschung werden derzeit Angriffe auf Computer-Vision-Systeme durchgeführt. Der Zweck solcher Angriffe besteht darin, das neuronale Netz dazu zu bringen, etwas im Bild zu erkennen, das nicht vorhanden ist. Oder umgekehrt, um nicht zu sehen, was geplant war.

The Truman Show - 2019: Wie neuronale Netze gelehrt wurden, das Nachrichtenbild zu fälschen
The Truman Show - 2019: Wie neuronale Netze gelehrt wurden, das Nachrichtenbild zu fälschen

„Eines der sich aktiv entwickelnden Themen im Bereich des Trainings neuronaler Netze sind die sogenannten gegnerischen Angriffe („adversarial attack.“– Izvestia)“, erklärte Vladislav Tushkanov, Webanalyst bei Kaspersky Lab. - In den meisten Fällen zielen sie auf Computer-Vision-Systeme ab. Um einen solchen Angriff durchzuführen, benötigen Sie in den meisten Fällen vollen Zugriff auf das neuronale Netz (die sogenannten White-Box-Angriffe) oder die Ergebnisse seiner Arbeit (Black-Box-Angriffe). Es gibt keine Methoden, die ein Computer-Vision-System in 100 % der Fälle täuschen können. Darüber hinaus wurden bereits Tools erstellt, mit denen Sie neuronale Netze auf Widerstandsfähigkeit gegen gegnerische Angriffe testen und deren Widerstandsfähigkeit erhöhen können.

Im Zuge eines solchen Angriffs versucht der Angreifer, das erkannte Bild irgendwie so zu verändern, dass das neuronale Netz nicht funktioniert. Oft wird das Foto mit Rauschen überlagert, ähnlich wie beim Fotografieren in einem schlecht beleuchteten Raum. Eine Person nimmt solche Störungen normalerweise nicht gut wahr, aber das neuronale Netz beginnt zu versagen. Um einen solchen Angriff durchführen zu können, benötigt der Angreifer jedoch Zugriff auf den Algorithmus.

Laut Stanislav Ashmanov, Generaldirektor von Neuroset Ashmanov, gibt es derzeit keine Methoden, dieses Problem zu lösen. Darüber hinaus steht diese Technologie jedem zur Verfügung: Ein durchschnittlicher Programmierer kann sie verwenden, indem er die erforderliche Open-Source-Software vom Github-Dienst herunterlädt.

The Truman Show - 2019: Wie neuronale Netze gelehrt wurden, das Nachrichtenbild zu fälschen
The Truman Show - 2019: Wie neuronale Netze gelehrt wurden, das Nachrichtenbild zu fälschen

- Ein Angriff auf ein neuronales Netzwerk ist eine Technik und Algorithmen, um ein neuronales Netzwerk zu täuschen, wodurch es falsche Ergebnisse liefert und es tatsächlich wie ein Türschloss aufbricht, glaubt Ashmanov. - Zum Beispiel ist es jetzt ganz einfach, das Gesichtserkennungssystem glauben zu lassen, dass nicht Sie, sondern Arnold Schwarzenegger davorsteht - dies geschieht, indem den Daten, die zum neuronalen Netz kommen, für das menschliche Auge nicht wahrnehmbare Zusätze beigemischt werden. Dieselben Angriffe sind für Spracherkennungs- und Analysesysteme möglich.

Der Experte ist sich sicher, dass es nur noch schlimmer werden wird – diese Technologien sind massenhaft geworden, Betrüger nutzen sie bereits, und es gibt keinen Schutz davor. Da kein Schutz vor der automatisierten Erstellung von Video- und Audio-Fälschungen besteht.

Tiefe Fälschungen

Deepfake-Technologien auf Basis von Deep Learning (Technologien des Deep Learning neuronaler Netze. - Izvestia) stellen bereits eine echte Bedrohung dar. Video- oder Audio-Fakes entstehen, indem die Gesichter berühmter Personen bearbeitet oder überlagert werden, die angeblich den notwendigen Text aussprechen und die notwendige Rolle in der Handlung spielen.

„Deepfake ermöglicht es Ihnen, Lippenbewegungen und menschliche Sprache durch Video zu ersetzen, was ein realistisches Gefühl des Geschehens erzeugt“, sagt Andrey Busargin, Leiter der Abteilung für innovativen Markenschutz und geistiges Eigentum bei Group-IB. - Gefälschte Prominente „bieten“Nutzern in sozialen Netzwerken an, an der Verlosung wertvoller Preise (Smartphones, Autos, Geldsummen) usw. teilzunehmen. Links von solchen Videopublikationen führen oft zu betrügerischen und Phishing-Sites, auf denen Benutzer aufgefordert werden, persönliche Informationen, einschließlich Bankkartendaten, einzugeben. Solche Schemata stellen eine Bedrohung sowohl für normale Benutzer als auch für Personen des öffentlichen Lebens dar, die in Werbespots erwähnt werden. Bei dieser Art von Betrug werden Bilder von Prominenten mit Betrug oder beworbenen Waren in Verbindung gebracht, und hier stoßen wir auf persönliche Markenschäden, sagt er.

The Truman Show - 2019: Wie neuronale Netze gelehrt wurden, das Nachrichtenbild zu fälschen
The Truman Show - 2019: Wie neuronale Netze gelehrt wurden, das Nachrichtenbild zu fälschen

Eine weitere Bedrohung ist mit dem Einsatz von „Fake Votes“für Telefonbetrug verbunden. In Deutschland etwa haben Cyberkriminelle per Voice-Deepfake den Chef einer Tochtergesellschaft aus Großbritannien in einem Telefongespräch dringend 220.000 Euro überwiesen, indem er sich als Firmenchef ausgibt.auf das Konto eines ungarischen Lieferanten. Der Chef der britischen Firma vermutete einen Trick, als sein "Chef" eine zweite Zahlungsanweisung verlangte, der Anruf aber von einer österreichischen Nummer kam. Zu diesem Zeitpunkt war bereits die erste Tranche auf ein Konto in Ungarn überwiesen, von wo das Geld nach Mexiko überwiesen wurde.

Es stellt sich heraus, dass es mit aktuellen Technologien möglich ist, ein individuelles Nachrichtenbild voller Fake News zu erstellen. Außerdem wird es bald möglich sein, Fakes von echtem Video und Audio nur noch per Hardware zu unterscheiden. Maßnahmen, die den Aufbau neuronaler Netze verbieten, dürften Experten zufolge kaum wirksam sein. Daher werden wir bald in einer Welt leben, in der es notwendig sein wird, ständig alles zu überprüfen.

„Darauf müssen wir uns vorbereiten und das muss akzeptiert werden“, betonte Yuri Vilsiter. - Die Menschheit wechselt nicht zum ersten Mal von einer Realität in eine andere. Unsere Welt, Lebensweise und Werte unterscheiden sich radikal von der Welt, in der unsere Vorfahren vor 60.000 Jahren, vor 5.000 Jahren, vor 2.000 Jahren und sogar vor 200-100 Jahren gelebt haben. In naher Zukunft wird eine Person der Privatsphäre weitgehend entzogen und daher gezwungen, nichts zu verbergen und ehrlich zu handeln. Dabei kann man nichts an der umgebenden Realität und an der eigenen Persönlichkeit glauben, alles muss hinterfragt und ständig überprüft werden. Aber wird diese zukünftige Realität schlimm sein? Nein. Es wird einfach ganz anders.

Empfohlen: