Moderatori social: lavoratori invisibili ma indispensabili
Come mantengono le piattaforme social la conformità normativa dei contenuti? Una delle soluzioni adottate dalle aziende tecnologiche è l’impiego di figure professionali specializzate: i moderatori di contenuti.
Il lavoro quotidiano dei moderatori
Un moderatore tipico trascorre le otto ore lavorative esaminando contenuti digitali attraverso interfacce dedicate, affrontando un flusso ininterrotto di materiale da validare. Il volume di contenuti da analizzare è considerevole e richiede attenzione costante durante l’orario di lavoro.
Come documenta l’Harvard Journal of Law & Technology, questi professionisti si occupano di identificare contenuti che potrebbero non rispettare le linee guida delle piattaforme, inclusi materiali potenzialmente disturbanti, violenti od inappropriati. La natura del lavoro richiede l’esposizione ad una varietà di contenuti digitali che possono risultare impegnativi dal punto di vista emotivo, con un livello di esposizione a materiale paragonabile a quello delle forze dell’ordine specializzate in crimini digitali.
Oltre ai contenuti visivamente disturbanti, i moderatori si occupano anche di altre tipologie di materiale problematico, quali contenuti di disinformazione e teorie complottiste.
Secondo il MIT Technology Review, questi contenuti presentano sfide particolari per la moderazione a causa della loro natura controversa e del loro legame con questioni geopolitiche complesse. Operando in un contesto globale, i moderatori devono gestire contenuti provenienti da diverse culture dove riferimenti linguistici, culturali o sociali specifici richiedono una comprensione approfondita del contesto locale al fine di essere valutati correttamente.
Il processo decisionale, quindi, richiede valutazioni continue su quali contenuti mantenere o rimuovere, seguendo criteri prestabiliti che possono variare tra diverse piattaforme e nel tempo.
I moderatori si trovano a dover bilanciare principi di libertà di espressione e requisiti di sicurezza della piattaforma, prendendo decisioni rapide su una grande quantità di contenuti in un ambiente dove le regole cambiano continuamente.
Molti moderatori operano da diverse parti del mondo, spesso in contesti lavorativi che potrebbero beneficiare di maggiori standard di supporto professionale e riconoscimento del ruolo svolto: si tratta di professionisti che salvaguardano il benessere digitale degli utenti senza che venga adeguatamente tutelato il loro benessere professionale.
La letteratura scientifica specializzata, inclusi studi pubblicati su riviste di psichiatria, documenta come i professionisti esposti regolarmente a contenuti disturbanti possano sperimentare significativi effetti sul benessere psicologico. Secondo l’Harvard Journal of Law & Technology, non è raro che questi lavoratori sviluppino disturbi quali ansia, depressione o disturbi correlati allo stress post-traumatico.
Trasparenza e politiche aziendali
Il Brennan Center for Justice sottolinea come la trasparenza sia essenziale al fine di una regolamentazione efficace dei social media, ma rimane una delle aree più problematiche del settore.
Documenti resi pubblici in passato, inclusi i Facebook Papers, hanno rivelato come alcune aziende conducessero ricerche interne sugli effetti delle loro piattaforme – quali l’impatto di Instagram sulla salute mentale delle adolescenti – senza rendere sempre pubblici i risultati. Sono inoltre documentati casi in cui diverse politiche di moderazione sono state applicate a categorie diverse di utenti, incluse esenzioni dalle procedure standard nei confronti di determinate categorie di account.
Il ruolo dell’intelligenza artificiale
L’evoluzione verso sistemi di moderazione assistita da intelligenza artificiale sta cambiando significativamente il panorama professionale. Questi sistemi possono fornire criteri più definiti e tracciabili per le decisioni di moderazione, anche se sollevano pesanti questioni riguardo alla trasparenza dei processi automatizzati.
Le aziende spesso adattano altresì le proprie “politiche” ai contesti normativi e culturali dei paesi in cui operano, il che può determinare approcci diversificati alla moderazione dei contenuti, anche a seconda della giurisdizione geografica.
Prospettive future
Il riconoscimento dell’importanza del ruolo dei moderatori nella società digitale è crescente: come evidenziato dal Competitive Enterprise Institute e da altre organizzazioni di ricerca, la professione presenta criticità uniche che meritano attenzione dal punto di vista delle condizioni lavorative, del supporto professionale e della trasparenza nei processi.
L’esperienza e le prospettive di questi professionisti potrebbero offrire intuizioni preziose per comprendere meglio le dinamiche della moderazione dei contenuti e le problematiche etiche del mondo digitale contemporaneo. Come sottolinea l’Internet Governance Project, una maggiore comprensione di questi ruoli è essenziale affinché possano essere sviluppate “politiche” più efficaci ed attente alle esigenze ed al comportamento umano nella gestione dei contenuti online.
Riferimenti bibliografici:
- Harvard Journal of Law & Technology
Harvard Journal of Law & Technology. (s.d.). The human cost of online content moderation.
https://jolt.law.harvard.edu/digest/the-human-cost-of-online-content-moderation - MIT Technology Review
Donovan, J. (2020, 6 novembre). Why social media can’t keep moderating content in the shadows. MIT Technology Review.
https://www.technologyreview.com/2020/11/06/1011769/social-media-moderation-transparency-censorship/ - Brennan Center for Justice
Brennan Center for Justice. (2021). Double standards in social media content moderation.
https://www.brennancenter.org/our-work/research-reports/double-standards-social-media-content-moderation - Facebook Papers / Effetti di Instagram sulle adolescenti
Wells, G., Horwitz, J., & Seetharaman, D. (2021, 14 settembre). Facebook knows Instagram is toxic for teen girls, company documents show. The Wall Street Journal.
https://www.wsj.com/articles/facebook-knows-instagram-is-toxic-for-teen-girls-company-documents-show-11631620739 - Facebook Papers (contesto generale)
The Facebook Papers. (2021). Documenti interni resi pubblici da Frances Haugen.
https://www.nytimes.com/2021/10/25/technology/facebook-papers.html - Competitive Enterprise Institute
Lazar, I. (2021). The case against social media content regulation. Competitive Enterprise Institute.
https://cei.org/studies/the-case-against-social-media-content-regulation/ - Internet Governance Project
Internet Governance Project. (s.d.). Content moderation and digital governance.
https://www.internetgovernance.org/ - Harvard Law Review
Perel, M., & Elkin-Koren, N. (2022). Content moderation as systems thinking. Harvard Law Review, 136(2), 526–547.
https://harvardlawreview.org/wp-content/uploads/2022/11/136-Harv.-L.-Rev.-526.pdf - Georgetown Law Technology Review
Sheng, J. (2022). Automated content moderation and the rule of law. Georgetown Law Technology Review.
https://georgetownlawtechreview.org/wp-content/uploads/2022/11/Sheng_Automated-Content-Moderation.pdf