För att motverka spridningen av djupa förfalskningar har Microsoft släppt ett nytt verktyg för videoautentisering som kan användas för att analysera en stillbild eller video för att fastställa en procentuell sannolikhet för att mediet har manipulerats på konstgjord väg.
I fallet med en video uppger Microsoft att denna procentsats kan tillhandahållas i realtid för varje bildruta under uppspelning av videon. Upptäcker blandningslinjen för djupa, subtila gråskalor eller blekande element som kanske inte är synliga för det mänskliga ögat.
Djupa förfalskningar eller syntetiska medier kan vara foton, videor eller ljudfiler som manipuleras av artificiell intelligens (AI). Att upptäcka djupa förfalskningar är viktigt i kommande amerikanska val, enligt Microsoft.
Tekniken skapades med hjälp av ett offentligt dataset från Face Forensic ++. Microsoft sade att den testades med datasetet DeepFake Detection Challenge, som tros vara den ledande modellen. för att träna och testa inkommande tekniker för upptäckt av förfalskningar.
”Vi räknar med att metoder för generering av syntetiska medier kommer att fortsätta att växa i komplexitet. Eftersom alla AI-detekteringsmetoder har felprocent måste vi förstå och vara beredda att reagera på djupt liggande förfalskningar som passerar genom detekteringsmetoderna”, skriver företaget i ett blogginlägg.
”I det långa loppet måste vi därför leta efter starkare sätt att bibehålla och certifiera nyhetsartiklars och andra mediers äkthet.”
Med några få tillgängliga verktyg har Microsoft också introducerat en ny teknik som kan upptäcka manipulerat innehåll och se till att den media du tittar på är äkta.
Tekniken består av två komponenter. Den första är ett verktyg som är inbyggt i Microsoft Azure och som gör det möjligt för en innehållsproducent att lägga till digitala hash och certifikat till innehåll.
YouTube video: Microsoft tillkännager en videoautentiserare för att identifiera djupgående förfalskningar.
”Hashes och certifikat lever med innehållet som metadata, oavsett var det finns online”, säger Microsoft.
Den andra är en läsare som kan inkluderas i ett webbläsartillägg som verifierar certifikat och jämför hash mot matchningar för att avgöra äkthet.
Microsoft har också samarbetat med AI Foundation i sin kamp mot djupa bluffar. Som en del av partnerskapet kommer båda parter att tillhandahålla videoautentiserare till organisationer som är involverade i den demokratiska processen, inklusive nyhetsorganisationer och politiska kampanjer, genom stiftelsens Reality Defender 2020-initiativ.
Videoautentiseraren kommer till en början endast att vara tillgänglig genom initiativet.
Ett annat partnerskap med ett konsortium av medieföretag känt som Project Origin testar Microsofts autenticitetsteknik. Ett initiativ av flera förlag och företag inom sociala medier, Trusted News Initiative, har också gått med på att samarbeta med Microsoft för att testa sin teknik.
Universitetet i Washington, In-House Counterfeit Detection Sensitivity och USA Today har också samarbetat med Microsoft för att förbättra mediekunskapen.
”Genom att förbättra mediekunskapen kan människor undanröja felaktig information som bygger på verkliga händelser och hantera riskerna med billiga och djupa förfalskningar”, säger Microsoft. ”Mediekännedom kan göra det möjligt för oss alla att tänka kritiskt om mediesammanhanget och bli mer engagerade medborgare samtidigt som vi njuter av satir och parodi.”
Som en del av detta partnerskap kommer det att finnas en kampanj för offentliga tillkännagivanden som kommer att uppmana människor att ”stanna upp för eftertanke” och verifiera att informationen kommer från en välrenommerad nyhetsorganisation innan de delar eller marknadsför den. på sociala medier före valet.
Partierna har också lanserat ett frågeformulär för amerikanska väljare för att få mer information om syntetiska medier.