Microsoft annoncerer en videoautentiseringsfunktion til at identificere deepfakes

For at imødegå udbredelsen af dybe forfalskninger har Microsoft frigivet et nyt videoautentificeringsværktøj, der kan bruges til at analysere et stillbillede eller en video for at bestemme en procentvis sandsynlighed for, at et medie er blevet kunstigt manipuleret.

For videoens vedkommende oplyste Microsoft, at denne procentdel kan leveres i realtid for hvert enkelt billede, mens videoen afspilles. Registrerer blandingslinjen af dybe, subtile gråtoner eller faldende elementer, som måske ikke er synlige for det menneskelige øje.

Dybefakes eller syntetiske medier kan være fotos, videoer eller lydfiler, der er manipuleret af kunstig intelligens (AI). Detektering af dybe forfalskninger afgørende i kommende amerikanske valg, ifølge Microsoft.

Teknologien blev skabt ved hjælp af et offentligt datasæt fra Face Forensic ++. Microsoft sagde, at den blev testet med datasættet DeepFake Detection Challenge, som menes at være den førende model. til at træne og teste indkommende teknologier til detektion af forfalskninger.

“Vi forventer, at metoder til generering af syntetiske medier fortsat vil vokse i kompleksitet. Da alle AI-detektionsmetoder har fejlprocenter, må vi forstå og være forberedt på at reagere på dybtliggende forfalskninger, der passerer gennem detektionsmetoderne,” siger virksomheden i et blogindlæg.

“På lang sigt må vi derfor lede efter stærkere metoder til at opretholde og certificere nyhedsartiklers og andre mediers ægthed.”

Med nogle få værktøjer til rådighed har Microsoft også introduceret en ny teknologi, der kan opdage manipuleret indhold og sikre, at det medie, du ser, er ægte.

Teknologien består af to komponenter. Den første er et værktøj indbygget i Microsoft Azure, der gør det muligt for en indholdsproducent at tilføje digitale hashes og certifikater til indhold.

“Hashes og certifikater lever sammen med indhold som metadata, uanset hvor det er online,” siger Microsoft.

Den anden er en læser, der kan indgå i en browserudvidelse, som verificerer certifikater og sammenligner hashes med matches for at bestemme ægtheden.

Microsoft har også indgået et samarbejde med AI Foundation i sin dybe skummelkamp. Som en del af partnerskabet vil begge parter levere videoautenticatorer til organisationer, der er involveret i den demokratiske proces, herunder nyhedsorganisationer og politiske kampagner, gennem fondens Reality Defender 2020-initiativ.

Videoautenticatoren vil i første omgang kun være tilgængelig gennem initiativet.

Et andet partnerskab med et konsortium af medievirksomheder, kendt som Project Origin, tester Microsofts autenticitetsteknologi. Et initiativ fra flere udgivere og sociale medievirksomheder, Trusted News Initiative, har også indvilliget i at samarbejde med Microsoft om at teste deres teknologi.

Universitetet i Washington, In-House Counterfeit Detection Sensitivity og USA Today er også gået sammen med Microsoft om at forbedre mediekendskabet.

“Ved at forbedre mediekendskabet kan folk eliminere misinformation baseret på virkelige begivenheder og håndtere risikoen ved billige og dybe forfalskninger,” siger Microsoft. “Mediekendskab kan give os alle mulighed for at tænke kritisk over mediesammenhængen og blive mere engagerede borgere, mens vi nyder satire og parodi.”

YouTube-video: Microsoft annoncerer en videoautentiseringsfunktion til at identificere deepfakes


Som en del af dette partnerskab vil der blive gennemført en public service-kampagne, der vil opfordre folk til at “tænke sig om” og kontrollere, at oplysningerne kommer fra en velrenommeret nyhedsorganisation, før de deler eller promoverer dem. på sociale medier før valget.

Partierne lancerede også et spørgeskema til de amerikanske vælgere for at lære mere om syntetiske medier.

Rate article
Win-info | it-nyheder, anmeldelser af software og computerhjælp