Sistemi automatici, spam e trolling

Stavo leggendo questo articolo ove si parlava del problema del trolling su internet.  Sono abbastanza vecchio da aver visto le flamewar e il trolling sui forum e su internet e conosco abbastanza bene l’informatica per poter dire che, al giorno d’oggi, non può esistere e forse non esisterà mai un sistema automatico capace di ridurre a zero trolling.

Umoristicamente parlando si può dire che risolvere il problema del trolling si trova nella stessa classe di difficoltà del problema della stupidità. E, come disse un grande: contro la stupidità neanche gli dei possono nulla.

Al problema del trolling son connessi strettamente altri due problemi: l’indicizzazione precisa da parte dei motori di ricerca, in maniera che forniscano precisamente il contento cercato e non, come capitò ai suoi tempi con i primi motori di ricerca, qualche pagina uebbè con tante signorine poco vestite, e i filtri antispam che dovrebbero “segare” lo spam.

In tutti questi casi esistono sistemi automatici che svolgono il grosso del lavoro, e lo svolgono abbastanza bene. Le criticità son legate soprattutto ai falsi positivi, messaggi che sembrano essere spam, trolling e che invece non lo sono.  Segarli automaticamente? Il rischio è perdere qualcosa di interessante o di importante perché magari qualche spiritoso inizia con un “questo non è il solito enlarge your penis…”

Per un sistema automatico è difficilissimo capire il contesto e spesso il contenuto del messaggio può essere classificato come spam o trolling solo esaminando il contesto.  Capita anche per gli esseri umani; questa è una delle più celebri leggi di internet:

La Legge di Poe afferma che «senza un emoticon sorridente o qualche altro chiaro segno di intenti umoristici, non è possibile creare una parodia del fondamentalismo in modo tale che qualcuno non la confonda con il vero fondamentalismo»[1].

La legge di Poe afferma che, in un testo scritto, privo degli elementi prosodici della lingua parlata (tono e intonazione) e di loro sostituti grafici (del tipo in uso nelle scritture brevi, come emoticon e smiley), è arduo parodiare il fondamentalismo (o, in generale, ogni teoria o ipotesi strampalata) partendo dall’elemento da parodiare, poiché sia la parodia sia l’oggetto della stessa sembrano sconclusionati e rischiano di essere confusi l’uno con l’altro. Viceversa, il vero fondamentalismo può facilmente essere confuso con la parodia del fondamentalismo stesso. fonte wikipedia.

Inoltre se conosco bene come funzionano i filtri posso anche pensare a modi efficaci per aggirarli, basta vedere come agiscono spammer e scammer vari. O chi scrive nei forum con moderazione automatica “blocca insulti”  Watt a Farad in Coulomb, Tesla d’Ampere.

Ecco perché è molto difficile scrivere codice blocca trolling: il trolling è ancora più subdolo dello spam, dipende fortemente dal contesto; la stessa frase può essere umorismo oppure trolling a seconda del contesto e i software hanno molta difficoltà ad individuare il contesto.

L’unico quindi è usare i soliti, classici, sistemi: white/black list per gli autori, segare e censurare tutto quello che non piace. Rendersi conto che i social son la piazza dove tutti possono urlare e si ha poco controllo sulle urla che si sentono, i blog sono un ambiente un poco più riservato.

 

 

 

 

Perché i sistemi automatici non possono funzionare?

Annunci

I sistemi automatici e le tette su facebook

AlphaGo è un software sviluppato per simulare un giocatore di Go, un gioco simile agli scacchi ma con un numero di potenziali partite molto più elevato rispetto a quello già elevatissimo degli scacchi, per intenderci si parla di 2, seguito da centosettanta zeri di possibili configurazioni.
AlphaGo è stato il primo software capace di battere un maestro umano di Go.
https://it.wikipedia.org/wiki/AlphaGo

Ogni tanto si apre una piccola polemica perché su Facebook è stata censurata questa o quella foto oppure il profilo di tizio è stato segato, apparentemente senza motivo. La risposta non è il solito “gombloddo” ma semplicemente la “stupidità” dei sistemi automatici di controllo. Per un banale motivo di volumi di traffico(1), per facebook non è possibile avere sistemi manuali di moderazione, ovvero sistemi ove una persona umana guarda l’immagine e decide se sia ammissibile o meno.
La gran parte della moderazione è affidata a sistemi automatici, sistemi automatici che non hanno le capacità e la sofisticazione di AlphaGo quindi funzionano in maniera abbastanza rozza e diretta. Ad esempio sono incapaci di distinguere fra un seno messo in mostra da una donna che allatta e un seno mostrato dalla solita “amica di ammore” per raccattare gonzi.  Se il sistema automatico nota un capezzolo fa cadere automaticamente la mannaia, sia che si tratti di una foto degna di youporn, sia che si tratti di una foto artistica come quella Anastasia Chernyavsky; il software vede solo “una donna nuda” non riesce ad interpretare la foto. Non c’è alcun intervento umano diretto e, da tecnico, capisco che sviluppare un software di riconoscimento di immagini in modalità “ultrabacchettona” è molto più facile e veloce che svilupparne uno capace di distinguere fra una donna che allatta e una che invece fa esibizionismo.

Un altro sistema che usano i social è un sistema di censura semiautomatica dove un sistema automatico (spesso chiamato ‘bot’ da robot) censura al verificarsi di certe condizioni come potrebbe essere un certo numero di segnalazioni “genuine(2)”. Questo permette di intervenire rapidamente nel caso qualche utente posti immagini offensive/razziste/oscene etc. etc. ed è stato fatto anche allo scopo di evitare il più possibile rogne. Il difetto di tale sistema è che mettendosi in accordo in gruppo e segnalando in massa qualsiasi immagine questa verrà messa automaticamente in moderazione, anche se è un’immagine relativamente innocente. Ecco spiegato quanto è avvenuto a Luca Bizzarri.

Quello che a me stupisce non è che su FB vengano fatti giochetti simili, analoghi ad esempio al google bombing, quanto che molta gente non capisca come funzioni e sia convinta invece che ci sia un tizio che controlla immagine per immagine e mette i bollini allo stesso modo della commissione censura dei film. Non è così, dietro ci son solo stupidi bot e qualche supervisore che interviene quando il patatrac fatto dal bot diventa piuttosto grosso, altrimenti, FB si fida ciecamente del bot. Sì, può capitare qualche falso positivo (foto immagine che viene classificata come inadatta pur non essendolo) ma più che indagare i falsi positivi preferisce tollerarne un certo numero in cambio dell’economicità e del funzionamento abbastanza efficace del sistema automatico di moderazione. FB ragiona di numeri e di volumi e non tiene particolarmente al profilo di scosciandra.

(1) fonte: https://www.wolframalpha.com/input/?i=daily+visitor+of+facebook.com

Input interpretation:
facebook.com | daily visitors

Result:
510 million visits/day (visits per day) (based on Alexa estimates, as of 30/03/2016)

Unit conversions:
5903 visits/s (visits per second)

354167 visits/min (visits per minute)

(2) Generalmente eliminano le segnalazioni se provengono tutte da uno stesso indirizzo internet oppure le considerano duplicazioni e tengono conto solo della prima