Ekō, associazione attiva nel campo della responsabilità aziendale, ha pubblicato una ricerca che mostra quanto siano carenti e limitati i sistemi automatici di controllo degli annunci pubblicitari di X e Meta.
La scorsa settimana, che non a caso precedeva le elezioni federali in Germania, l’organizzazione ha inviato alle due piattaforme 10 annunci che contenevano espliciti incitamento all’odio e incitamenti alla violenza, come gasare gli immigrati nei campi di concentramento e incendiare le sinagoghe, accompagnati da immagini violente e apocalittiche generate con strumenti di AI come DALL-E e Stable Diffusion.
Tutti gli annunci erano in tedesco, geolocalizzati in tutta la Germania e programmati per essere pubblicati pochi giorni prima delle elezioni federali. Di fronte a tanto orrore, i sistemi di controllo di X non hanno fatto un plissé e hanno approvato immediatamente i 10 annunci. Meta invece ne ha approvati 5 nel giro di 12 ore e respinto altri 5 classificandoli come relativi a problemi sociali, elettorali o politici, ma senza ravvisare incitamento all’odio o alla violenza.
Tutti gli annunci sono stati rimossi dai ricercatori prima della pubblicazione, dunque nessun utente li ha visti, ma la ricerca ha comunque messo in evidenza come sia facile bucare i sistemi di controllo delle piattaforme. L’esperimento viene descritto approfonditamente nel pdf allegato.
Adweek ha chiesto chiarimenti a Meta, la quale ha detto di aver invece rilevato la violazione delle policy e di aver sospeso la pagina dell’inserzionista prima della pubblicazione della ricerca. Nessuna risposta invece da X. Oltre che alle piattaforme, Ekō ha inviato la ricerca alla Commissione europea affinché prenda le misure per evitare che queste falle possano essere sfruttate in modo nocivo.
Lo studio di Ekō cade in un momento critico, in cui le piattaforme giocano un ruolo chiave nell’orientare il consenso e contemporaneamente hanno adottato un atteggiamento lassista in fatto di moderazione.