Search

Microsoft entwickelt Technologie zur Deepfake-Erkennung - Inside IT

koko-tech.blogspot.com

Desinformations-Kampagnen, durch die Wahlen und andere demokratische Prozesse beeinflusst werden sollen, sind heute weit verbreitet. Ein Bestandteil dieser Manipulationsversuche sind verfälschte Fotos, Videos oder Tonaufnahmen. Mithilfe von Machine-Learning-Tools können Manipulatoren heutzutage immer raffiniertere sogenannte Deepfakes erstellen. Personen können so beispielsweise Worte in den Mund gelegt werden, die sie nie gesagt haben, oder in Situationen dargestellt werden, in denen sie nie waren.

Für menschliche Augen und Ohren werden diese Fälschungen immer schwieriger erkennbar. Für die Betroffenen heisst dies, dass es auch immer schwieriger wird, den Inhalt solcher Fälschungen zu bestreiten. Aber technische Mittel, insbesondere KI- beziehungsweise Machine-Learning-gestützte Systeme, so hoffen viele, könnten den sicheren Nachweis einer Fälschung möglich machen.

Microsoft hat nun in einem Blogpost bekannt gegeben, dass man zwei Technologien zur Bekämpfung von Deepfakes entwickelt habe. 

Für das menschliche Auge nicht erkennbar – aber für KI

Eine davon ist der Video Authenticator. Dieses Tool könne ein Foto oder Video analysieren, so Microsoft, und dann die Wahrscheinlichkeit ermitteln, ob es manipuliert wurde oder nicht. Das Tool suche dafür nach Rändern von eingebetteten Deepfake-Bildern sowie nach subtilen Verwisch- oder anderen Effekten, die für das menschliche Auge nicht erkennbar sind. 

In Zusammenarbeit mit der Non-Profit-Organisation AI Foundation, beziehungsweise via das "Reality Defender 2020"-Programm dieser Stiftung, will der Softwareriese dieses Tool interessierten Kreisen zur Verfügung stellen, beispielsweise News-Medien oder politischen Organisationen. 

Eine weitere Technologie soll es für Manipulatoren schwieriger machen, von verlässlichen Quellen produziertes Material zu verfälschen. Diese Technologie besteht aus zwei Komponenten. Die erste basiert auf Microsoft Azure und erlaubt es laut Microsoft den ursprünglichen Produzenten, ihre Inhalte mit Hashes und Zertifikaten zu versehen. Diese werden den Files als Metadaten hinzugefügt. Die zweite Komponente, ein Reader, kann dann über das Internet gelieferte Files analysieren und abchecken, ob die Zertifikate und Hashes noch zum Inhalt passen. Diese zweite Komponente könnte unter anderem als Browser-Extension implementiert werden, die Alarm schlägt, wenn sie verfälschtes Material erkennt.

Medien-Konsortium soll Tools testen

Diese Hashing-Technologie soll nun vom "Project Origin" getestet und wenn möglich zu einem Standard für die Produzenten von Inhalten weiterentwickelt werden. Das Project Origin ist ein Konsortium der Medienunternehmen 'BBC', 'New York Times' und 'CBC/Radio Canada'. Auch die von der News Agentur 'Associated Press' und von der 'Washington Post' getragene Trusted News Initiative soll einbezogen werden.

Wie Microsoft in seinem Blogeintrag allerdings auch betont, können diese Tools oder ähnliche Tools anderer Entwickler Fälschungen wohl nie mit absoluter Sicherheit erkennen oder verhindern. Genau wie die Technologie zur Bekämpfung von Deepfakes werde sich auch die Technologie zur Erstellung von Deepfakes immer weiter entwickeln.




September 02, 2020 at 05:32AM
https://ift.tt/2YZjlXB

Microsoft entwickelt Technologie zur Deepfake-Erkennung - Inside IT

https://ift.tt/2D0TMNt
Technologie

Bagikan Berita Ini

0 Response to "Microsoft entwickelt Technologie zur Deepfake-Erkennung - Inside IT"

Post a Comment

Powered by Blogger.