Facebook annuncia la "sfida dei memi odiosi" per fermare i memi offensivi e il discorso dell'odio

Facebook ha annunciato una nuova iniziativa per impedire ai meme "odiosi" di apparire in rete. Questo nuovo algoritmo soprannominato "Hateful Memes Challenge" è accessibile ai giornalisti e ai ricercatori per la revisione, che a sua volta può rendere i "memi pericolosi" qualcosa di "positivo" per "proteggere le persone" durante la navigazione sul web.

In primo luogo, se desideri un breve riepilogo del programma recentemente annunciato di Facebook per frenare i meme odiosi, puoi dare un'occhiata Video di Memology 101 giusto qui:

Nel caso in cui non hai guardato il video, secondo facebook.com, dice Douwe Kiela (ricercatore), Hamed Firooz (ricercatore applicato) e Aravind Mohan (scienziato di dati), che i contenuti dannosi "colpiscono l'intera industria tecnologica e la società in generale".

Oltre a quanto sopra, ecco uno dei tanti passi alla base di The Hateful Memes Challenge e quali obiettivi intende realizzare:

“Abbiamo creato e ora stiamo condividendo un set di dati progettato specificamente per aiutare i ricercatori dell'IA a sviluppare nuovi sistemi per identificare il discorso dell'odio multimodale. Questo contenuto combina diverse modalità, come testo e immagini, rendendo difficile la comprensione delle macchine.

Il set di dati di Hateful Memes contiene oltre 10,000 nuovi esempi multimodali creati da AI di Facebook. Abbiamo concesso in licenza le immagini di Getty Images in modo che i ricercatori possano utilizzare il set di dati per supportare il loro lavoro. Stiamo anche rilasciando il codice per i modelli addestrati alla base.

Stiamo anche lanciando l'Hateful Memes Challenge, un concorso online unico nel suo genere ospitato da DrivenData con un montepremi totale di $ 100,000. La sfida è stata accettata come parte della pista della competizione NeurIPS 2020 ".

L'IA di Facebook, insieme all'Hateful Memes Challenge, viene definita dai tre scienziati e dal team di Facebook come la migliore soluzione in questo momento. Tuttavia, il team sta anche cercando modi per prevenire potenziali abusi, ed è per questo che l'accesso sarà limitato.

Ciò significa che i partecipanti (giornalisti e ricercatori) dovranno concordare rigorose condizioni d'uso su come utilizzeranno, memorizzeranno e gestiranno tali dati.

Inoltre, apprendiamo anche che il team sta cercando di aiutare l'algoritmo AI a distinguere esempi odiosi da potenziali falsi positivi. Nel tentativo di assicurarsi che le decisioni sulla classificazione siano attuabili, il team ha creato i seguenti esempi specificamente per definire il discorso dell'odio:

"Un attacco diretto o indiretto alle persone basato su caratteristiche, tra cui etnia, razza, nazionalità, stato di immigrazione, religione, casta, sesso, identità di genere, orientamento sessuale e disabilità o malattia. Definiamo l'attacco come linguaggio violento o disumanizzante (paragonando le persone a cose non umane, ad esempio animali), dichiarazioni di inferiorità e richieste di esclusione o segregazione. Anche prendere in giro il crimine d'odio è considerato un discorso d'odio ".

Infine, si dice che il team stia facendo progressi nel miglioramento dei sistemi di intelligenza artificiale per rilevare "discorsi di odio" e altri "contenuti dannosi" su Facebook. Tuttavia, il team vuole che l'Hateful Memes Challenge si diffonda oltre Facebook e su altre piattaforme per "proteggere le persone".

~