Facebook ha agito su 16,2 milioni di contenuti a novembre in India: Meta

Facebook ha agito su 16,2 milioni di contenuti a novembre in India: Meta

Il gigante dei social media Meta ha detto che oltre 16,2 milioni di contenuti sono stati “attivati” su Facebook attraverso 13 categorie di violazione in modo proattivo in India durante il mese di novembre. La sua piattaforma di photo-sharing, Instagram ha intrapreso azioni contro oltre 3,2 milioni di pezzi in 12 categorie durante lo stesso periodo in modo proattivo, come da dati condivisi in un rapporto di conformità.

Secondo le regole IT che sono entrate in vigore all’inizio di quest’anno, le grandi piattaforme digitali (con oltre 5 milioni di utenti) devono pubblicare rapporti di conformità periodici ogni mese, citando i dettagli dei reclami ricevuti e le azioni intraprese.

Include anche i dettagli dei contenuti rimossi o disabilitati attraverso il monitoraggio proattivo utilizzando strumenti automatici. Facebook ha “agito” oltre 18,8 milioni di contenuti in modo proattivo nel mese di ottobre in 13 categorie, mentre Instagram ha agito contro oltre 3 milioni di contenuti in 12 categorie durante lo stesso periodo in modo proattivo.

Nel suo ultimo rapporto, Meta ha detto che 519 segnalazioni di utenti sono state ricevute da Facebook attraverso il suo meccanismo di reclamo indiano tra il 1 novembre e il 30 novembre.

“Di queste segnalazioni in arrivo, abbiamo fornito strumenti per gli utenti per risolvere i loro problemi in 461 casi”, ha detto il rapporto.

Questi includono canali prestabiliti per segnalare contenuti per violazioni specifiche, flussi di auto-rimedio dove possono scaricare i loro dati, vie per affrontare problemi di account violati, ecc, ha aggiunto. Tra il 1 novembre e il 30 novembre, Instagram ha ricevuto 424 segnalazioni attraverso il meccanismo di reclamo indiano.

La società madre di Facebook ha recentemente cambiato il suo nome in Meta. Le applicazioni sotto Meta includono Facebook, WhatsApp, Instagram, Messenger e Oculus.

Secondo l’ultimo rapporto, gli oltre 16,2 milioni di contenuti presi in considerazione da Facebook durante il mese di novembre includevano contenuti relativi allo spam (11 milioni), contenuti violenti e grafici (2 milioni), nudità per adulti e attività sessuale (1,5 milioni), e discorsi di odio (100.100).

Altre categorie sotto le quali i contenuti sono stati perseguiti includono bullismo e molestie (102.700), suicidio e autolesionismo (370.500), organizzazioni e individui pericolosi: propaganda terroristica (71.700) e organizzazioni e individui pericolosi: odio organizzato (12.400).

Categorie come Child Endangerment – Nudity and Physical Abuse hanno visto 163.200 contenuti essere presi in considerazione, mentre Child Endangerment – Sexual Exploitation ha visto 700.300 pezzi e nella categoria Violence and Incitement 190.500 pezzi sono stati presi in considerazione. Il contenuto “perseguito” si riferisce al numero di contenuti (come post, foto, video o commenti) per i quali è stata intrapresa un’azione per violazione degli standard.

L’azione potrebbe includere la rimozione di un pezzo di contenuto da Facebook o Instagram o la copertura di foto o video che possono essere inquietanti per alcuni spettatori con un avvertimento.

Il tasso proattivo, che indica la percentuale di tutti i contenuti o account agiti su cui Facebook ha trovato e segnalato utilizzando la tecnologia prima che gli utenti li segnalassero, nella maggior parte di questi casi variava tra il 60,5-99,9%.
Il tasso proattivo per la rimozione di contenuti relativi al bullismo e alle molestie è stato del 40,7%, poiché questo contenuto è contestuale e altamente personale per natura. In molti casi, le persone devono segnalare questo comportamento a Facebook prima che possa identificare o rimuovere tali contenuti. Per Instagram, oltre 3,2 milioni di contenuti sono stati oggetto di azioni in 12 categorie durante il novembre 2021. Questo include contenuti relativi al suicidio e all’autolesionismo (815.800), contenuti violenti e grafici (333.400), nudità per adulti e attività sessuale (466.200), e bullismo e molestie (285.900).

Altre categorie in cui i contenuti sono stati perseguiti includono discorsi di odio (24.900), organizzazioni e individui pericolosi: propaganda terroristica (8.400), organizzazioni e individui pericolosi: odio organizzato (1.400), pericolo per i bambini – nudità e abuso fisico (41.100), e violenza e incitamento (27.500).

La categoria Child Endangerment – Sexual Exploitation ha visto 1,2 milioni di contenuti essere oggetto di azioni proattive nel mese di novembre.