Simona Tiribelli (MIT), quanto ci condizionano le tecnologie?

Simona Tiribelli (MIT), quanto ci condizionano le tecnologie?

Il tempo medio speso quotidianamente su TikTok a livello mondiale è di 52 minuti. Ora capisco perché l’industria dei libri è in crisi. Ma perché così tanto? È semplice, o meglio, TikTok ha tutto l’interesse di aumentarlo. Come? Probabilmente usando diversi modelli di intelligenza artificiale

Forse pochi lo sanno, ma ci sono diversi studi che mostrano come noi esseri umani ci comportiamo in tantissimi casi come se fossimo uno stormo di uccelli. E da qui il nome di “swarm intelligence”. Dove non esiste un capo ma l’informazione viene condivisa al resto del gruppo. Ed è il gruppo stesso a creare un comportamento emergente. Io non credo che le piattaforme tecnologiche riescano a manipolarci ma potremmo essere comunque parte di un esperimento sociale molto interessante. Pensiamo allo stormo di uccelli che si muove in direzione del cibo: ma se fosse la piattaforma stessa a nutrire gli “uccelli”?

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Probabilmente, scelte razionali e non sui social si confondono, vista anche l’influenza che ha il pensiero veloce su quello più lento. L’intelligenza artificiale molto probabilmente crea gruppi di individui con caratteristiche più o meno simili. E li monitora costantemente. Pattern dopo pattern viene studiato il comportamento di un determinato gruppo. Per quale motivo? Non per definirlo a priori, quanto per riuscire a comprendere la sua psicologia. Ovvero, nel caso di TikTok quali contenuti desidera non oggi, ma soprattutto domani. In modo tale che gli stormi – utenti – possano influenzarsi a vicenda ma in modo tale che io – intelligenza artificiale – possa monitorare e studiare le varie “evoluzioni”.

E no. Non sono i cosiddetti Big Data. Quanto l’opposto. Tantissimi dati sì, ma più o meno puliti e clusterizzati. Siete preoccupati? Io, in verità, no. Ho disinstallato TikTok perché mi mostrava sempre gli stessi contenuti e alla fine mi ha annoiato. Di un altro avviso è l’Unione europea e, nello specifico, il Consiglio dei ministri, che ha adottato, nel febbraio del 2019, una dichiarazione sulle pericolose e invisibili capacità – descritte come “manipolative” – degli algoritmi, invitando gli altri Stati a una maggiore vigilanza sull’uso di dati personali per allenare tecnologie algoritmiche dotate del potere di prevedere e rimodellare le preferenze personali degli individui.

Leggi anche:  Come Medallia ha supportato l’esperienza digitale di successo di Subito

«TikTok e altre piattaforme social possono condizionare il comportamento individuale e collettivo. Cruciale è capire il grado d’incisività e il modus operandi di tale influenza tecnologica se comparata ad altre (biologiche, sociali, politiche e così via) a cui siamo esposti fin dalla nascita».

Parola di Simona Tiribelli, giovanissima ricercatrice italiana del Massachusetts Institute of Technology (MIT), che studia l’impatto e le conseguenze etiche e sociali che ha la tecnologia sugli individui e sui loro processi decisionali. Non avevo neanche fatto la domanda ma aveva già capito dove volessi arrivare. Sì. Era lì. Proprio lì. «Una serie di azioni e decisioni attuate dall’individuo alla cui base possono esserci una serie di scelte o “non scelte”. Spesso, infatti, queste sono “non razionali”, poiché non prevedono un processo deliberativo o sono informate da tanti bias, errori o scorciatoie cognitive». In estrema sintesi, questo è il comportamento umano, o meglio, la sua genesi.

Data Manager: Ma le nostre scelte comportamentali sono consapevoli e utonome?

Simona Tiribelli: «Questo è il punto. Il cuore del discorso. Dobbiamo analizzare l’autonomia, come forma di autogoverno, o meglio, la capacità di agire secondo ragioni, motivi e obiettivi di cui possiamo rispondere e dirci “in controllo”. Essenziale è capire il grado d’influenza che TikTok e piattaforme simili possono avere sull’esercizio o meno della nostra autonomia. Specifico: se tale condizionamento è tale da rendere il comportamento predicibile e, di conseguenza, anche manipolabile e pre-determinabile».

C’è questo rischio?

«Il rischio c’è. Se le ragioni, i motivi e le convinzioni che muovono un certo comportamento divengono chiare, dunque prevedibili, diviene facile, agendo su di esse, fare leva sul comportamento, individuale e collettivo. In sintesi: la nostra esperienza quotidiana è costantemente datificata e se, attraverso tecniche di data mining è possibile derivare – per associazione e correlazione – informazioni rilevanti su ciò che muove il nostro comportamento individuale e, soprattutto, individuare patterns o schemi comportamentali collettivi ricorrenti, questi divengono materiale utilizzabile anche con l’intenzione di influenzare e rimodellare (reshape) il comportamento degli individui. Per esempio, agendo o ristrutturando il loro ambiente informazionale, il contesto nel quale siamo costantemente immersi, ci relazioniamo, formiamo le nostre idee, sviluppiamo i nostri desideri e, a lungo termine, le nostre identità».

Leggi anche:  Microsoft non supporta più le app Android su Windows

Torniamo all’autonomia. Qual è l’impatto della tecnologia sulla nostra vita?

«Un primo punto semplicissimo: l’intermediazione tecnologica nella nostra vita è profonda, costante – basti pensare al tempo di utilizzo dei nostri smartphone – e mai neutrale. Di conseguenza, il grado d’impatto è piuttosto alto. Meno ovvio, invece, è ragionare sul design e il modus operandi di tali piattaforme, pensate al fine d’indirizzare o spingere (nudge) gli individui verso determinati comportamenti, principalmente a fini economici. Nel caso di TikTok: mantenere l’utente il più possibile connesso al social media, gratificandolo continuamente. Nel caso di Amazon: spingere all’acquisto di beni suggeriti di cui non si ha vera necessità. Queste micro-influenze quotidiane possono avere conseguenze in termini macro sul nostro comportamento: nel tempo, le stesse tecniche, che spesso fanno leva sui nostri bias e modificano i nostri desideri e obiettivi a breve termine, possono avere un impatto sui nostri orizzonti di valori e obiettivi a lungo termine. Questo è un condizionamento importante sull’autonomia».

Perché l’autonomia è importante?

«Perché in gioco c’è la nostra libertà decisionale. Dato un particolare contesto, l’autonomia è la capacità di agire e compiere delle scelte secondo valori (nostri) e non determinati da terzi (organismi politici o compagnie con profitto)».

Mi viene in mente Kahneman con il suo bestseller “Pensieri lenti e veloci”…

«Sì. È inerente. Il modo in cui si strutturano i social media privilegia quest’ultimi e ci chiama spesso a decisioni rapide, veloci, piuttosto che favorire ragionamenti lenti, processi deliberativi e razionali stricto sensu, che sono il nostro strumento di prevenzione rispetto a qualsiasi forma di condizionamento più o meno elevato».

Leggi anche:  Maticmind, più forza alla cybersecurity con Fortinet

Se penso alle piattaforme social dove l’imperativo è: tutto e subito, questo non ci permette di analizzare bene le informazioni che riceviamo…

«Esattamente. E neppure di valutarle, compararle e, sulla base di ciò, formare un pensiero critico (lento). Per questo, tanti finiscono per essere vittima anche delle più banali fake news. Viviamo in una realtà dove il tempo sembra sempre più limitato (in realtà ne sprechiamo tanto, si pensi a TikTok) e molto ne trascorriamo, appunto, in ambienti che spesso rinforzano i nostri bias, sfruttano i nostri errori cognitivi, piuttosto che aiutarci nel correggerli».

Quale futuro?

«Circa il futuro, in generale, è necessario ripensare al ruolo delle compagnie big-tech come agenti di grande responsabilità, dal ruolo civico e dall’impatto sociale e politico sempre più rilevante. Non basta avvalersi di comitati etici spesso solo di facciata. Bisogna ripensare il design di queste piattaforme e innescare buone pratiche, tentando di renderle il più trasparenti possibile a livello sociale. Nello specifico, circa la nostra libertà decisionale, la sfida, in un mondo sempre più profilato, va oltre la sola regolamentazione delle inferenze algoritmiche in input (o ridursi a sole questioni di privacy individuale e data protection). Bisogna lavorare ancora molto sulla regolamentazione del “comportamento” algoritmico in output che è quello a cui siamo esposti a livello ambientale (informazionale) in modo sottile e perenne.