Facebook och Instagram har hittat ett nytt sätt att bekämpa falska nyheter

Falsk information cirkulerar snabbt på sociala nätverk, och i synnerhet på Metas. Företaget har därför hittat ett nytt sätt för användare att veta om vissa bilder är falska eller inte.

Meta, moderbolaget till Facebook och Instagram, meddelade att det kommer att börja märka bilder som genererats eller manipulerats av artificiell intelligens (AI) på dess plattformar. Denna åtgärd är en del av Metas ansträngningar för att främja onlinetransparens och förhindra spridning av desinformation, särskilt inför valet 2024.

Meta använder redan en synlig vattenstämpel för att markera bilder skapade av sin egen Imagine AI-motor, som kan generera realistiska bilder av människor, platser och saker. Företaget planerar nu att utöka denna praxis till bilder från tredjepartskällor, som OpenAI, Google och Midjourney. Etiketterna kommer att indikera att bilderna är AI-genererade och ger mer information om källan och processen. Den exakta utformningen av etiketterna håller fortfarande på att slutföras, men Meta delade en mock-up av hur de kan se ut, med orden “AI Info” bredvid bilderna.

Läs också – På TikTok sprids falska nyheter och konspirationsteorier mer och mer på grund av AI

Meta vill markera falska bilder på sina sociala nätverk

Förutom synliga etiketter utvecklar Meta även verktyg för att upptäcka osynliga markörer i bilder från tredjepartsgeneratorer. Dessa markörer är inbäddade i bildens metadata och fungerar som unika identifierare som inte kan ändras med redigeringsprogram. Meta sa att andra plattformar också planerar attanvända sådana markörer och vill sätta upp ett system för att känna igen dem.

Men hur är det med AI-genererat ljud och video? Meta medgav att man för närvarande inte har tekniken för att identifiera den här typen av innehåll på samma nivå som bilderna. Han indikerade dock att branschen arbetade för att bygga upp denna kapacitet och att han skulle uppdatera sin policy därefter.

Under tiden kommer Meta att kräva av användare att ange om ljud- eller videoinnehållet som de laddar upp har producerats eller redigerats av AI. Om de inte gör det kommer de att bli sanktionerade. Dessutom, om innehållet är så realistiskt att det kan vilseleda publiken, kommer Meta att placera en mer framträdande etikett med ytterligare detaljer.

Meta förbereder sig på att skruva på falska nyheter

Meta förbättrar också sina egna AI-verktyg, såsom sin Imagine AI-motor och Large Language Models (LLM). Företagets FAIR AI Research Lab arbetar på en ny vattenmärkningsteknik som kallas Stable Signature, som kommer att göra markörer mer motståndskraftiga mot radering. Meta utbildar också sina LLM:er på sina community-standarder, så att de kan rapportera innehåll som bryter mot dess policyer.

När gränsen mellan mänskligt och syntetiskt innehåll blir allt suddigare vill folk veta var gränsen går sa företagets VD för internationella frågor, Nick Clegg. ” Människor upptäcker ofta AI-genererat innehåll för första gången och våra användare har berättat för oss att de uppskattar transparensen kring denna nya teknik. Så det är viktigt att vi hjälper människor att veta om det fotorealistiska innehållet de ser skapades med AI “.

Meta sa att det skulle rulla ut etiketterna för AI-genererade bilder under de kommande månaderna, när det förbereder valet 2024 i många länder, inklusive USA. Företaget hoppas att dessa etiketter kommer att hjälpa användare att fatta välgrundade beslut och förhindra spridningen av felaktig information på dess plattformar.

Ändå bad Metas oberoende finansierade men oberoende styrda tillsynsstyrelse nyligen företaget att se över sin “inkonsekventa” manipulerade mediepolicy. efter att ha upprätthållit ett beslut som tillåter en redigerad video av president Joe Biden att finnas kvar på Facebook.

Leave a Reply

Your email address will not be published. Required fields are marked *