AI „tief gefälschte“ Software, die verwendet werden kann, um gefälschte Nachrichtenvideos machen bekommt UK Regierung Finanzierung

AI „tief gefälschte“ Software, die verwendet werden kann, um gefälschte Videos zu machen, die „Demokratie bedrohen“ wird durch eine Forschungseinrichtung der UK Regierung gefördert.

Die AI-Technologie – die als eine „Waffe“ bezeichnet wurde – kann Mimik zu imitieren und machen es wie jemand etwas sagt sie schauen nicht.

Menschen sind besorgt, es könnte verwendet werden, um gefälschte Nachrichten-Clips zu erstellen, die fälschlicherweise Worte in den Mund der Politiker oder andere mächtigeren Figuren gelegt.

Die britische Firma, die die Entwicklung dieser Technologie £70.000 ($90.000) von einer Regierung finanzierte Organisation in diesem Jahr erhielt, hat ein neuer Bericht ergeben.

Damian Collins, der Stühle einen UK wählen Sie Ausschuß für gefälschte Nachrichten sagten, Tiefe Fälschungen „eine der größten Gefahren, vor denen Demokratie steht“.

Trotzdem erhielt die britische Firma Synthesia £69.384 ($88.900) staatliche Förderung im Januar dieses Jahres nach einem ausführlichen Bericht von der „Telegraph“.

Die Firma sagt, dass das Ziel, ein „dreidimensionale morphable Modell des Gesichts, die konzentriert sich auf die Vertretung der detaillierte Dynamik des Mundes in Rede, noch nie dagewesenen Realismus in video Synthese der menschlichen Sprache zu erreichen“ zu bauen.

Chief Executive von Synthesia Victor Riparbelli, sagte die Firma war „Super“ die Bedrohung bewusst aber behauptet, dass sie die Technologie für Medien überspielen entwickelt wurden.

Er sagte, dass die Firma versuchte, „eine sehr komplexe und technische Problem zu lösen“.

Jedoch ist einer der größten Investoren in der Firma Mark Cuban, die ein US-Technologie-Anleger mit Präsidentschaftsehrgeiz ist. Er hat bereits $1 m (£780.000) gespendet.

Ein Sprecher von Innovate UK, der die staatlich geförderte Auszeichnung angenommen, sagte MailOnline, dass die Firma eine kurzfristige Machbarkeitsstudie unterstützt in wie AI in Spezialist Filmen könnte, zur Verbesserung der Qualität genutzt werden der Synchronisation in verschiedenen Sprachen.

„Als Teil ihrer Anwendung das Unternehmen das potenzielle Risiko für das Vertrauen der Öffentlichkeit durch die breitere Anwendung der Technologie zu identifizieren und zur Verfügung gestellt die Gewissheit, dass sie mit Partnern mit diesem Risiko in Zukunft zusammenarbeiten“, sagte der Sprecher.

Erst im vergangenen Monat eine gruselige AI zeigte ganz wie fortgeschritten „tief gefälschte“ Videos sind.

Die Software dreht genau ein Segment von einem Video – wie der Mund einer Figur – auf den Stil eines anderen Lebens-wie gefälschte Clips zu erstellen.

Eine Video vom Team produziert übertragen die Mundbewegungen der britische Komiker John Oliver auf das Gesicht des US-Talkshow-Moderator Stephen Colbert.

Wissenschaftler der Carnegie Mellon University in Pittsburgh entwickelt eine neue Art von AI genannt ein Recycle-GAN für ihre Studie.

Es baut auf eine Art von AI-Algorithmus eine GAN, steht für generative kontradiktorischen Netzwerk genannt.

GANs Grube eine AI gegen den anderen, mit die ersten Erzeugung von neuen Videos und die zweite Analyse und Bewertung ihrer Qualität vor dem Senden zurück zu der ursprünglichen Bot.

Über Tausende von Berechnungen werden die beiden schließlich geschickt auf ihre Aufgabenstellung.

Die Studie hinzugefügt einen weiteren Schritt machen eine GAN, die unglaublich realistische fake Videos erstellt.

Die neue Methode wechselt zwischen den beiden – wie englische Sprachausgabe ins spanische zu übersetzen und dann wieder die spanischen ins Englische, überprüfen, ob es noch Sinn macht.

Forscher räumte auch ein, dass Gesicht-swapping AIs potenziell katastrophale Folgen zu halten, wenn in den falschen Händen verwendet.

„Es war ein Augenöffner für alle von uns im Feld, dass solche Fälschungen geschaffen würden und solche Auswirkungen haben“, sagte Studie Co-Autor Aayush Bansal.

„Suche nach Möglichkeiten, sie zu erkennen werden wichtige voran sein.“

 

Teilen Ist Liebe! ❤❤❤ 22 shares ❤❤❤

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

shares