Sul fatto quotidiano è apparso questo articolo; articolo che offre interessanti spunti di riflessione su empatia, social e “intelligenza delle macchine”.
Sorgente: ‘Non ricordatemi che il mio bambino è morto’. Il web e l’incapacità di capire il dolore di chi soffre – Il Fatto Quotidiano
Gillian Brockell è una video editor per il Washington Post e la sua è una denuncia che, nella polemica sulla tratta dei nostri dati online, per la prima volta va oltre e pone un problema di contenuto più che di forma. Aspettava un figlio, ha avuto un aborto. Ha sofferto. Ma Facebook&Co., dopo settimane, continuano a propinarle pubblicità per neomamme con annesse immagini di neonati e bambini.
”Lo so che voi sapevate che io ero incinta – scrive in una lettera aperta indirizzata alle grandi compagnie tecnologiche – È colpa mia. Semplicemente non ho saputo resistere a questi hashtag su Instagram: #30weekspregnant, #babybump. Che stupida! Ma vi imploro: se siete abbastanza intelligenti da rendervi conto che sono incinta, siete altresì sicuramente abbastanza intelligenti anche da rendervi conto che il mio bambino è morto”.
sfatiamo il primo mito: non sono abbastanza intelligenti da accorgersi che la tizia è incinta, semplicemente gli algoritmi per mostrare la pubblicità lavorano di profilazione e “sparano nel mucchio”. Se una persona cerca qualcosa o clicca su qualcosa legato ad un argomento X, significa che probabilmente è interessata anche a prodotti attinenti ad X e quindi gli algoritmi “stupidi” continuano a pescare pubblicità legate all’argomento X. Siccome sono stupidi non capiscono subito quando invece X non interessa più.
Caso personale; stavo cercando su Amazon una staffa per il televisore, e anche ad acquisto fatto amazon ha continuato a propormi in home page staffe per televisori. Se ho comprato la staffa perché mostrarmene altre?
Qualcosa, secondo la Brockell, non funziona: la donna racconta di aver fatto anche ricerche online che confermassero la tragedia della sua vita. E se non fosse bastato il silenzio di tre giorni sui social network, sarebbe però magari stato più utile l’annuncio della perdita del bambino con le parole chiave: ‘cuore spezzato’, ‘problema’ e ‘nato morto’. E invece no. Il dolore non è stato rilevato.
In pochi giorni, le segnalazioni di situazioni simili si moltiplicano: Gillian non è la sola, succede a tante tantissime donne, agli uomini, e per i casi più disparati. C’è una sola grande domanda: come è possibile che algoritmi così intelligenti, così bravi a profilare anche le più intime pulsioni degli utenti, capaci di misurare anche le nostre tasche (se glielo si concede) non siano in grado di capire che è accaduto qualcosa di così grave? Come mai non sono in grado di percepire la sofferenza di chi è dietro lo schermo?
La domanda è interessante perché mostra come molte persone non capiscano cos’è un algoritmo, come funzionino le procedure automatiche e quali siano i limiti del computer. “Capaci di misurare anche le nostre tasche (se glielo si concede)” misurare le tasche non è difficile soprattutto se si fanno “simulazioni” per la richiesta di un mutuo o per la richiesta di un finanziamento. Dalla lista degli acquisti fatti nei portali è facile profilare l’utente, vedere cosa compra, quanto spende e per che cosa. Gli algoritmi non sono particolarmente “bravi”, siamo noi che non ci rendiamo conto di quante informazioni diffondiamo, di quali sono i legami fra i prodotti.
La docente di basi di dati aveva portato, come esempio di big data e data mining, l’esempio di un supermercato che aveva fatto analizzare gli scontrini per scoprire quali erano le coppie di prodotti, di categorie merceologiche diverse, comprate più frequentemente assieme. Questo per mettere i prodotti più distanti possibili e costringere la gente a girare per il supermercato, aumentando la possibilità di invogliarla a compiere acquisti “non preventivati”. Per la cronaca scoprì che una coppia gettonata era “birra e pannolini”.
Questo il motivo per il quale negli ipermercati generalmente gli alimentari son lontani dall’ingresso mentre son vicini all’ingresso l’elettronica e le offerte.
Forse non gli interessa. O meglio: non è nel loro interesse. Senza sciacallaggio, non c’è nulla da vendere con profitto sulla disperazione altrui. Un aborto non è remunerativo, la tristezza non paga. Se si parte dal presupposto che siamo numeri che compongono un campione standard da offrire a chi paga per le inserzioni, vien da sé che l’unicità del nostro dolore non può trovare dignità nella compravendita massiva.
Sì è così. La pubblicità che che se ne dica ragiona per grossi numeri non per singolo caso. Si tratta di una sorta di scommessa su quanto la persona X che cerca quelle parole chiave sia interessata ad acquistare un prodotto attinente a tali parole chiave. Solo questo. Non interessa altro. Si tratta d’altronde di procedure completamente automatizzate tarate sulla massa, non di tanti microalgoritmi personalizzati.
Le macchine non pensano, non sentono. Giusto. Ma, vien da dire, non pensa e non sente neanche chi quelle macchine le progetta? Non ci credo alla storia della tecnologia senza umanità: è sempre l’uomo che la crea ed è all’uomo che tocca darle un’etica. Ma l’etica, si sa, non sempre va d’accordo con gli affari.
Io mi chiedo cosa c’entri l’etica. Quando si tratta con la massa l’individualità gioco forza sparisce. E’ stupido pretendere che la televisione non trasmetta pubblicità di pannolini durante le trasmissioni seguite prevalentemente dalle neomamme per rispetto a chi ha avuto un aborto; anche la televisione “spara nel mucchio”. Vietare la pubblicità “perché potrebbe colpire una singola sensibilità” è una stupidaggine colossale, utopistica ed irrealizzabile.
Questa frase però mostra anche un’altro aspetto, spinto all’eccesso dalla snowflake generation: il pesare che tutto il mondo debba tener conto della singolarità e specificità del singolo individuo, che tutto debba essere “personalizzato” sulla persona. Purtroppo il mondo non funziona così; gli orari e i percorsi dei pulmann tengono conto delle esigenze di spostamento della maggioranza delle persone, non dei desideri di una singola persona. Se si vuole un taxi occorre pagarsi il taxi. Protestare che l’autobus non è un taxi mostra semplicemente che non si è capito cosa sia e quali esigenze deve soddisfare un autobus e cosa sia e quali esigenze deve soddisfare un taxi.
Così la Brockell alla fine deve fare da sé: accedere alle impostazioni dei social, trovare le opzioni sulla profilazione dei propri interessi e disattivare la voce “genitorialità”. Accendere e spegnere, come a dire che se la macchina non può essere umana è l’uomo a doversi fare macchina. In questo caso, però, non senza dolore.
La conclusione è emblematica; da una parte si protesta perché gli algoritmi pubblicitari ci profilano per cercare di indovinare cosa potrebbero venderci più facilmente, dall’altra si protesta perché non riescono a profilarci talmente bene da capire quando non siamo più interessati a determinati prodotti. Mah.
—