Välkommen till vÃ¥r insynssida inom Europeiska unionen (EU), där vi publicerar EU-specifik information som krävs enligt EU Digital Services Act (DSA), direktivet för audiovisuella medietjänster (AVMSD) och den nederländska medielagen (DMA). Â
Sedan 1 augusti 2023 har vi i genomsnitt 102 miljoner aktiva användare per månad ("AMAR") av vår Snapchat-app i EU. Detta innebär att i genomsnitt 102 miljoner registrerade användare i EU under de sex senaste månaderna har öppnat Snapchat-appen minst en gång under en given månad.
Denna siffra fördelas per medlemsstat enligt följande:
Dessa siffror beräknades för att uppfylla nuvarande DSA-regler och bör endast förlitas på för DSA-ändamål. Vi kan ändra hur vi beräknar denna siffra över tid, inklusive som svar på ändrade riktlinjer och teknik för regulatorer. Detta kan också skilja sig från de beräkningar som används för andra aktiva användarsiffror som vi publicerar för andra ändamål.
Snap Group Limited har utsett Snap B.V. till sitt juridiska ombud. Du kan kontakta representanten på dsa-enquiries [at] snapchat.com för DSA, på vsp-enquiries [at] snapchat.com för AVMSD och DMA, genom vår supportsida [här], eller på:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederländerna
Brottsbekämpande myndigheter kan följa stegen som beskrivs här.
För DSA regleras vi av Europeiska kommissionen och Nederländernas myndighet för konsumenter och marknader (ACM).Â
För AVMSD och DMA regleras vi av den nederländska mediemyndigheten (CvdM).
Snap är skyldiga enligt artiklarna 15, 24 och 42 i DSA att publicera rapporter som innehåller föreskriven information om Snaps innehållsmoderering för Snapchats tjänster som anses vara "online-plattformar", dvs. Spotlight, För dig, Offentliga profiler, Kartor, Linser och Annonsering. Denna rapport måste offentliggöras var sjätte månad, från och med 25 oktober 2023.
Snap publicerar insynsrapporter två gånger om året för att ge insikt i Snaps säkerhetsåtgärder och arten och volymen av innehåll som rapporteras på vår plattform. Vår senaste rapport för H1 2023 (1 januari - 30 juni) finns här. Den rapporten innehåller följande information:
Myndighetsbesluten, som inkluderar förfrÃ¥gningar om borttagning av information och innehÃ¥ll;Â
InnehÃ¥llsöverträdelser, vilket inkluderar Ã¥tgärder som vidtagits i samband med olagligt innehÃ¥ll och median svarstid;Â
Överklaganden, som tas emot och hanteras genom vår interna process för klagomålshantering.
Dessa avsnitt är relevanta för den information som krävs enligt artikel 15.1(a), (b) och (d) i DSA. Observera att de ännu inte innehÃ¥ller en fullständig data-uppsättning eftersom den senaste rapporten täcker H1 2023, som föregÃ¥r DSA:s ikraftträdande.Â
Vi tillhandahåller nedan lite ytterligare information om aspekter som inte omfattas av vår insynsrapport för H1 2023:
Innehållsmoderering (artikel 15.1(c) och (e), artikel 42.2)
Allt innehåll på Snapchat måste följa våra Community-riktlinjer och Användarvillkor, samt stödjande villkor, riktlinjer och förklaringar. Proaktiva upptäcktsmekanismer och rapporter om olagligt eller kränkande innehåll eller konton föranleder en granskning, och våra verktygssystem behandlar då begäran, samlar in relevanta metadata och dirigerar det relevanta innehållet till vårt modereringsteam via ett strukturerat användargränssnitt som är utformat för att underlätta en effektiv och ändamålsenlig granskning. När våra modereringsteam fastställer, antingen genom mänsklig granskning eller automatiserade medel, att en användare har brutit mot våra Villkor, kan vi ta bort det stötande innehållet eller kontot, avsluta eller begränsa det relevanta kontots synlighet och/eller meddela brottsbekämpande myndigheter enligt vår förklaring om moderering, tillämpning och överklaganden på Snapchat. Användare vars konton är låsta av vårt säkerhetsteam för överträdelser av Community-riktlinjer kan skicka in ett låst kontoöverklagande och användare kan överklaga vissa åtgärder för innehåll.
Verktyg för automatiserad innehållsmoderering
På våra offentliga innehållsytor går innehåll i allmänhet genom både automatisk moderering och mänsklig granskning innan det är berättigat för distribution till en bred publik. När det gäller automatiserade verktyg inkluderar dessa:
Proaktiv detektering av olagligt och kränkande innehåll med hjälp av maskininlärning;
Hash-matchningsverktyg (som PhotoDNA och Googles CSAI Match);
Missbrukande språkdetektering för att avvisa innehåll baserat på en identifierad och regelbundet uppdaterad lista över kränkande nyckelord, inklusive emojis.
För perioden för vår senaste insynsrapport (H1 2023) förekom det inget krav på att samla formella indikatorer/felfrekvenser för dessa automatiserade system. Vi övervakar dock regelbundet dessa system för problem och våra mänskliga modereringsbeslut är regelbundet utformade för att vara korrekta.
Mänsklig moderering
Vårt innehållsmodereringsteam arbetar över hela världen, vilket gör det möjligt för oss att hjälpa till att hålla Snapchattare säkra 24/7. Nedan hittar du uppdelningen av våra personalmodereringsresurser efter moderatorers språkspecialiteter (observera att vissa moderatorer är specialiserade på flera språk) från och med augusti 2023:
Siffrorna ovan varierar ofta eftersom vi ser inkommande volymtrender eller bidrag efter språk/land. I situationer där vi behöver ytterligare språkstöd använder vi översättningstjänster.
Moderatorer rekryteras med hjälp av en vanlig jobbeskrivning som innehÃ¥ller ett sprÃ¥kkrav (beroende pÃ¥ behovet). SprÃ¥kkravet anger att kandidaten ska kunna visa sig vara flytande i sprÃ¥ket skriftligt och muntligt, samt ha minst ett Ã¥rs arbetslivserfarenhet för positioner pÃ¥ grundnivÃ¥. Kandidater mÃ¥ste ocksÃ¥ uppfylla utbildnings- och bakgrundskraven för att kunna övervägas. Kandidater mÃ¥ste ocksÃ¥ visa förstÃ¥else för aktuella händelser i det land eller den region för innehÃ¥llsmoderering som de kommer att stödja.Â
Vårt modereringsteam tillämpar våra policyer och åtgärder för att skydda vår Snapchat-community. Träning genomförs under en flerveckorsperiod, där nya teammedlemmar utbildas om Snaps policyer, verktyg och eskaleringsprocedurer. Efter träningen måste varje moderator genomgå ett certifieringsprov innan de får granska innehållet. Vårt modereringsteam deltar regelbundet i uppdateringsträning som är relevant för deras arbetsflöden, särskilt när vi stöter på fall som rör policygränser eller är kontextberoende. Vi kör också uppgraderingsprogram, certifieringssessioner och frågesporter för att säkerställa att alla moderatorer är uppdaterade och medvetna om alla uppdaterade policyer. Slutligen, när brådskande innehållstrender dyker upp baserat på aktuella händelser, sprider vi snabbt policyförtydliganden så grupper kan svara i enlighet med Snaps policyer.
Vi tillhandahÃ¥ller vÃ¥rt innehÃ¥llsmodereringsteam – Snaps "digitala första insatsteam" – med betydande support och resurser, inklusive hälsostöd pÃ¥ jobbet och enkel tillgÃ¥ng till tjänster för psykisk hälsa.Â
Skyddsåtgärder för innehållsmoderering
Vi inser att det finns risker i samband med innehÃ¥llsmoderering, inklusive risker för yttrandefrihet och mötesfrihet som kan orsakas av automatiserade och mänskliga moderatorers partiskhet och kränkande rapporter, inklusive av regeringar, politiska kongresser eller välorganiserade individer. Snapchat är i allmänhet inte en plats för politiskt eller aktivistiskt innehÃ¥ll, särskilt i vÃ¥ra offentliga utrymmen.Â
För att skydda mot dessa risker har Snap testning och utbildning pÃ¥ plats och har robusta, konsekventa rutiner för att hantera rapporter om olagligt eller kränkande innehÃ¥ll, inklusive frÃ¥n brottsbekämpande och statliga myndigheter. Vi utvärderar och utvecklar kontinuerligt vÃ¥ra algoritmer för innehÃ¥llsmoderering. Även om potentiell skada pÃ¥ yttrandefriheten är svÃ¥r att upptäcka, är vi inte medvetna om nÃ¥gra betydande problem och vi tillhandahÃ¥ller möjligheter för vÃ¥ra användare att rapportera misstag om de uppstÃ¥r.Â
Våra policyer och system främjar konsekvent och rättvis tillämpning och, som beskrivs ovan, ger Snapchattare möjlighet att meningsfullt tvista om atgärder genom meddelande- och överklagandeprocesser som syftar till att skydda vårt communitys intressen samtidigt som enskilda Snapchattares rättigheter skyddas.
Vi strävar ständigt efter att förbättra vÃ¥ra policyer och processer för Ã¥tgärder och har gjort stora framsteg i att bekämpa potentiellt skadligt och olagligt innehÃ¥ll och aktiviteter pÃ¥ Snapchat. Detta Ã¥terspeglas i en uppÃ¥tgÃ¥ende trend i vÃ¥ra rapporterings- och Ã¥tgärdssiffror som visas i vÃ¥r senaste insynsrapport och sjunkande prevalensnivÃ¥er för överträdelser pÃ¥ Snapchat totalt.Â
Meddelanden om betrodda flaggare (artikel 15.1(b))
För perioden för vår senaste insynsrapport (H1 2023) förekom det inga formellt utsedda betrodda flaggare enligt DSA. Som resultat var antalet meddelanden som skickades in av sådana betrodda flaggare noll (0) under denna period.
Tvister utanför domstol (artikel 24.1(a))
För perioden för vår senaste insynsrapport (H1 2023) förekom det inga formellt utsedda tvistlösningsorgan utanför domstol enligt DSA. Som resultat var antalet tvister som skickades in till sådana organ noll (0) under denna period.
Avstängningar av konto i enlighet med artikel 23 (artikel 24.1(b))
För perioden för vår senaste insynsrapport (H1 2023) förekom det inget krav på att stänga av konton i enlighet med artikel 23 i DSA för tillhandahållande av uppenbart olagligt innehåll, ogrundade meddelanden eller ogrundade klagomål. Som resultat var antalet sådana upphävanden noll (0). Snap vidtar dock lämpliga tillämpningsåtgärder mot konton enligt vår förklaring om moderering, tillämpning och överklaganden på Snapchat, och information gällande nivån på Snaps kontoåtgärder finns i vår insynsrapport (H1 2023).