Förutom nakenhet, uppmaningar till farliga aktiviteter och våldsamt innehåll, omfattar dessa riktlinjer innehåll klassat som “hat”, baserat på bland annat:
– ras och etniskt ursprung
– religion
– funktionshinder
– kön
– ålder
– veteranstatus
– sexuell läggning
Företaget har också investerat i ny teknologi för maskininlärning, vilket gör att personalen ska avlastas genom automatisk radering. Sedan dessa system infördes i juni i år, har 150 000 videor raderats efter att ha klassats som “våldsam extremism”, och i dag utförs 98 procent av identifieringsarbetet av sådana program. Man uppskattar att motsvarande insats skulle ha krävt 180 000 heltidsanställda. Enligt Youtube raderas nu 70 procent i denna kategori inom åtta timmar. Dessa program ska nu också arbeta med kategorierna “barnsäkerhet” och “hat”.
Utöver radering av enskilda videor och kommentarer, kan åtgärderna också omfatta blockering av hela konton och kommentarsfält.
YouTube tar dock inte dessa steg enbart av god vilja, utan också med hänsyn till annonsörerna och de intäkter de genererar. I sitt meddelande skriver Susan Wojcicki bland annat:
“Vi vidtar också åtgärder för att skydda annonsörer och skapare från olämpligt innehåll. Vi vill att annonsörerna ska kunna vara säkra på deras annonser visas bredvid innehåll som återspeglar varumärkets värderingar. På samma sätt vill vi att skaparna ska vara säkra på att deras inkomst inte skadas av illvilliga aktörer. Vi tror att detta kräver ett nytt förhållningssätt till annonsering på Youtube, där vi noggrant bedömer vilka kanaler och videor som är lämpliga för annonsering. Vi tänker tillämpa striktare kriterier, utföra mer manuell datasäkring, samtidigt som vi utökar antalet annonsgranskare för att säkerställa att annonser endast visas där de ska. Det kommer också hjälpa skapare att få mer stabilitet kring deras intäkter.”