Stäng annons

Deepfake – tekniken som gör det möjligt att ersätta människors ansikten på foton och videor med någon annans ansikten, har under de senaste åren utvecklats till en form där skillnaden mellan riktig film och falsk data blir mer och mer komplicerad. På webbplatser med pornografiskt innehåll, till exempel, används deepfake för att skapa spännande videor med likheter med kända skådespelare. Naturligtvis sker allt detta utan samtycke från de attackerade personligheterna, och tack vare den ökande sofistikeringen av teknik som använder maskininlärning sprids farhågor om andra möjliga former av dess missbruk. Hotet om att en djupförfalskning helt skulle kunna misskreditera digitala dokument som bevis i rättsfall är verkligt och hänger över rättssektorn som Damokles svärd. De goda nyheterna kommer nu från Truepic, där de har kommit på ett enkelt sätt att verifiera äktheten av listor.

Dess skapare kallade den nya tekniken Foresight, och istället för ytterligare videoanalys och avgöra om det är en deepfake, använder den länkningen av enskilda inspelningar till hårdvaran som de skapades på för att säkerställa äkthet. Foresight taggar alla poster när de skapas med en speciell uppsättning krypterad metadata. Data lagras i vanliga format, i förhandsvisningen för sidan Android Polisen företaget visade att en bild säkrad på detta sätt kan sparas i JPEG-format. Så det finns ingen rädsla för inkompatibla dataformat.

Men tekniken lider av en rad små flugor. Den största är förmodligen det faktum att filerna ännu inte registrerar de ändringar som har gjorts i dem. Lösningen är att involvera fler företag som skulle stödja denna säkerhetsmetod. Teknikens framgång kommer således främst att bestämmas av involveringen av de största tillverkarna av kameror och mobila enheter, ledda av Samsung och Applem. Är du rädd att någon kan missbruka ditt utseende? Dela din åsikt med oss ​​i diskussionen under artikeln.

Dagens mest lästa

.