Le perdite di eunomia rivelano l'antagonismo sul sistema di credito sociale federato
Punteggio di credito sociale

Un'iniziativa finanziata dall'Unione Europea, chiamata Eunomia, ha contattato vari gruppi di riflessione, gruppi tecnologici e evangelisti di Fediverse per aiutare con un nuovo sistema di punteggio di credito sociale. Il sistema verrà applicato ai social media e alle destinazioni federate utilizzando la tecnologia blockchain. Sarà governato da un sistema di crowdsourcing in cui i gruppi si classificano e classificano i livelli di fiducia delle informazioni. In termini semplici, è un adattamento del sistema di punteggio di credito sociale della Cina per il Fediverse. Bene, qualcuno che lavorava al progetto trapelava alcuni registri di chat e rivela una natura piuttosto antagonista da parte delle persone che lavorano al progetto verso gli utenti che sono scettici su questo progetto finanziato dall'UE.

Per quelli di voi che non hanno familiarità con questo progetto, è spiegato sopra Pagina Trilateral Research - che è uno dei gruppi che vengono pagati per aiutare a sviluppare il programma, € 280,437 per la precisione - dove spiega ...

"L'obiettivo principale del progetto EUNOMIA è assistere gli utenti nel determinare l'attendibilità delle informazioni sui social media usando un approccio open source libero da intermediari. EUNOMIA consente agli utenti di assumere la proprietà del problema di disinformazione dei social media fornendo una piattaforma tecnica e strumenti software che consentono agli utenti di votare sull'affidabilità di ciascun post sui social media. Il progetto affronterà la sfida della disinformazione nei social media da tre diversi punti di vista: stabilendo la fonte originale, identificando come le informazioni sono cambiate in una cascata di informazioni e aiutando l'utente a valutare l'attendibilità delle informazioni ".

Secondo un Rapporto dell'università di Purdue, il sistema aiuterà i giornalisti a identificare le fonti di notizie e a curare le informazioni per servizi di aggregazione come Blasting News per prevenire la diffusione di "false notizie".

Il progetto si baserà sull'apprendimento automatico e su altri sistemi che estrarranno i dati dalle API dei social media partecipanti, che includeranno servizi come Twitter e Mastadon. Dichiara ...

"L'approccio di Trilateral all'osservazione dei partecipanti comporta l'applicazione dell'analisi di rete, dell'elaborazione del linguaggio naturale e dell'apprendimento automatico per ottenere informazioni dai dati estratti tramite social media API (ad esempio, Twitter, Mastodon) sul sociale (ad es. Età, sesso, nazionalità) e politico fattori.”

Questo ovviamente non sembrava un innocuo progetto da parte dell'UE, soprattutto viste le recenti iniziative contro la libertà di parola dell'Unione Articolo 11 e articolo 13. In effetti, le fughe di notizie da qualcuno vicino al progetto hanno rivelato un po 'di più su come il progetto si svilupperà e alcune delle intuizioni su come sta andando avanti.

È stato originariamente commissionato dall'UE a dicembre di 2018 per € 2,942,780, ma non dovrebbe essere terminato fino a novembre 30th, 2021, secondo la scheda informativa sopra sito web della Commissione europea.

La scheda informativa rivela anche che il creatore di Mastadon, Eugen "Gargron" Rochko, un programmatore ebreo e russo misto della Germania, sta attualmente pagando € 63,290 per contribuire al progetto.

Allora, qual è il ruolo di Eugen nel progetto Eunomia? Bene, secondo le fughe di notizie, Rochko sta lavorando con gli ingegneri per costruire questo sistema di credito sociale che tenterà di estirpare individui inaffidabili e sopprimere "false notizie".

Le perdite sono state pubblicate sul GNU Jihad sito Web, dove suddividono alcune delle conversazioni che sono state scattate e salvate dal registro della chat per il progetto Eunomia. Una delle preoccupazioni iniziali che discutono è come le persone potrebbero sentirsi riguardo alla raccolta di dati e alla raccolta di informazioni sugli utenti che si svolgeranno, a cui Rochko avverte che dire alle persone che non hanno iniziato a raccogliere informazioni "ancora" non andrà bene con il pubblico generale.


Se non riesci a leggere l'immagine, Ryan afferma ...

"[...] Generalmente c'è molta paranoia che è difficile da affrontare. Tutto ciò che possiamo fare come progetto è essere assolutamente trasparenti su tutto ciò che facciamo.

"Anche nel caso di set di dati che generiamo e di come funzionano i nostri algoritmi ecc. Una sfida interessante per non dire altro, che ovviamente sarà anche open source.

"Replaying to mark è che intendiamo il contrario

"Non vogliamo modellare l'attendibilità da singoli individui, ma come un processo democratico che è resiliente alle condizioni contraddittorie come la collusione

"Sono un modo, anche se [sic] le risposte che otterremo dalla comunità saranno un po 'come i parlamentari votano per le opzioni di merito ... non ci sarà mai un consenso sull'approccio. Da qui la necessità di dimostrare che la nostra definizione di affidabilità non è una definizione in sé, ma un approccio in cui un individuo può adottare metriche oggettive per prendere la propria decisione. Ad esempio, dove l'analisi del sentimento fornisce un arricchimento oggettivo del linguaggio usato nei post. "

Quindi, in sostanza, stanno parlando dell'utilizzo del sistema come piattaforma collettiva per determinare ciò che è e non è "affidabile".

Nel registro delle chat attuali vediamo che Rochko gestisce anche la chat room per le persone invitate nella stanza, che include Ryan, nella foto sopra, insieme a Christoph Bauer, Nelscon Escravana e qualcuno del gruppo SYNYO GmbH, che è uno dei gruppi finanziati dall'UE per lavorare su Eunomia ... € 191,231, per essere precisi.

Una grande parte della perdita di chat consiste nel fatto che stanno solo cercando di organizzare le stanze che useranno per organizzare le informazioni e il lavoro del catalogo. Tuttavia, in prossimità del fondo, iniziano a discutere su quale tipo di criteri verranno utilizzati per determinare quali sono e non sono "notizie false".

Si collegano al New York Times pezzo pubblicato su 19 gennaio 2019 dal Dr. Gordon Pennycook e dal Dr. David Rand dal titolo "Perché la gente cade per notizie false?"

Usano anche Scienza Sociale Uno come riferimento per un repository sulla raccolta di un criterio per le notizie false.

Il progetto ha ricevuto critiche regolari per un certo numero di cose, specialmente per alcune delle organizzazioni coinvolte nel progetto, come INOV, un'azienda portoghese che ha ricevuto € 353,125 per sviluppare i sistemi di apprendimento automatico per il progetto. Un utente era critico di INOV per sviluppare sistemi per aiutare a prevenire l'immigrazione clandestina, con cui hanno avuto un problema.

Altri utenti che erano a conoscenza del progetto hanno iniziato a chiedere argomenti più importanti, come ad esempio "raschiare" i dati, con un post sul Studioso. Versetto sociale dall'account di amministrazione che chiede di raschiare i dati utente dalla loro istanza.

Ryan risponde a Rochko nella chat privata di Eunomia dicendo che non avrebbero "raschiato" i dati degli utenti dalle istanze, ma in seguito afferma che sarebbe "difficile da dire" se avrebbero raschiato i dati degli utenti per "analisi dei sentimenti" o determinare se i post contengono contenuti o strutture che potrebbero essere negativi, medi, empatici, ecc. ecc.

Ryan critica le persone per non essere a bordo del progetto e non capire l'importanza del progetto. Uno dei link che criticano da Pleroma sottolinea che il progetto Eunomia è fondamentalmente simile a un guscio occidentale che si aprirà per rivelare lo stesso tipo di draconiano sistema di credito sociale simile a quello utilizzato dalla Cina.


Per quelli di voi che non lo sanno, se il vostro punteggio di credito sociale in Cina diventa troppo basso a causa di cattivi comportamenti, crimini contro lo Stato, o per qualsiasi altro numero di atti ritenuti socialmente distruttivi dal Ministero della Giustizia, potreste essere penalizzati dalla partecipazione a determinati servizi disponibili pubblicamente, o peggio ancora, potresti essere portato in un campo di rieducazione, come descritto da Vox.com.

Ryan indietreggiò per i paragoni e la paranoia, sostenendo che le persone che criticano il sistema - che è ancora lontano dall'essere complete - lo stanno scambiando per un sistema di credito sociale, quando in realtà è un sistema di crowdsourcing.

Il problema principale ovviamente è come si filtrano le notizie false quando ci sono persone che attivamente lo spacciano mentre vengono considerate come una fonte di autorità? Un esempio perfetto è la CNN o il New York Times.

Quante volte sono stati sorpresi a spingere notizie false?

La storia di Covington è un esempio perfetto, che è stato segnalato erroneamente da una serie di punti vendita tradizionali e ora vengono citati in giudizio. Questo nonostante il fatto che siti come YouTube abbiano cercato di aiutare a seppellire alcuni fatti terminare gli account YouTube questo ha aiutato a esporre le false informazioni che i siti di notizie tradizionali usavano per molestare e colpire gli studenti delle scuole superiori.

In realtà, proprio questo punto è stato messo in discussione da YouTuber Giappone Anon, che ha sottolineato che molte delle storie spinte dalle notizie mainstream si sono rivelate false, eppure sono state considerate legittime dai detentori di piattaforme (come Google).

Cosa succede quando le persone sono portati a credere alle notizie false e utilizzano il sistema per tenere le notizie vere soppresse sul Fediverse?

Ryan afferma che il sistema sarà progettato per prevenire "collusione e pregiudizi", ma cosa succede quando la collusione e il bias vengono orchestrati fuori dalla piattaforma e poi trasmessi attraverso il Fediverse? Un perfetto esempio di ciò è la falsità che #GamerGate è stata una campagna di molestie.

Secondo la logica di Ryan, #GamerGate come una campagna di molestie sarebbe una verità ovvia perché è una posizione ampiamente condivisa da tutte le principali agenzie di stampa. Ma se chiedi a qualcuno dei fatti o delle prove delle molestie organizzate da # GamerGate, nessuno ha fatti o prove a sostegno delle affermazioni. Ma questo perché la "verità" che le persone credono su #GamerGate è nata in spazi chiusi come il GameJournoPros, dove i giornalisti hanno colluso sulla narrativa e poi l'hanno spinto nello spazio pubblico, che poi è stato raccolto dai media mainstream. Questo è esattamente il modo in cui le notizie false sono considerate "vere" nello spazio pubblico, e ci sono voluti soldi dei contribuenti e un'indagine lunga un anno dall'FBI per rivelare finalmente in un Relazione 2016 che i titoli che affermavano che #GamerGate fosse una campagna di molestie erano falsi e che non esistevano prove utilizzabili basate su quanto sostenuto dai media.

Tuttavia, Rochko ha continuato a controllare i danni sul Mastodonte Ad esempio, affermando che l'attendibilità dei contenuti sarà basata sulle persone e non su un'autorità centrale, e quindi le persone dovrebbero ritenere i giudizi.

Ma tutto ciò salta completamente allo squalo perché ignora le domande più basilari al centro della questione: perché un sistema di punteggio sociale è necessario anche per i social media se gli utenti non lo richiedono?

(Grazie per il suggerimento Japan Anon)

Su Di Noi

Billy è stato fruscio Jimmies da anni che copre i videogiochi, la tecnologia e le tendenze digitali nello spazio di elettronica di intrattenimento. Il GJP piangeva e le loro lacrime divenne il suo frullato. Hai bisogno di entrare in contatto? Prova il Pagina contatto.

NON segui questo link o sarai vietato dal sito!