La Memoria e Internet

Questo articolo nasce da un caso reale, stavo cercando informazioni su un mio amico, inerenti a un episodio di molti anni fa. Come forse tutti o sicuramente molti fanno, ho cercato informazioni su internet, convinto che lì ci fosse tutto. Non sono riuscito a trovare nessun link o articolo che riportasse l’episodio di cronaca che stavo cercando, nonostante fosse avvenuto con certezza. Partendo da questo episodio personale ho iniziato a pormi alcune domande sulla memoria, su Internet e sul loro rapporto

Facciamo un altro esempio: se oggi volessi cercare informazioni inerenti il nostro amato Direttore Loris Bellè (che mi perdonerà di averlo usato come cavia), sicuramente sarei inondato di link ad articoli etc. ma se volessi conoscere informazioni su qualcosa in cui Loris sia stato protagonista prima dell’avvento di internet (anni 90) forse non riuscirei a trovare alcuna traccia a meno che qualcuno non si sia prodigato di inserire la notizia in qualsivoglia archivio.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

E se ci fosse un problema di mistificazione della realtà; implicitamente tutto ciò che trovo sulla Rete, credo sia giusto e soprattutto sia tutto, ma se non fosse così? Inoltre c’è il problema delle fonti, chi ne garantisce la correttezza?

Questo fenomeno mi spaventa molto anche perché non tutti sono in grado di analizzare fonti e fatti con il giusto approccio. La quantità d’informazioni alle quali possiamo accedere oggi è enorme, tuttavia non sempre queste informazioni sono rilevanti, serie, documentate.

Credits: Antonio Papasso PRO MEMORIA PROMEMORIA 1986 1992

 

Continuando a ragionare sul tema, mi sono reso conto che ci sono altri aspetti meritevoli di attenzione, ad esempio sul web, trovo spesso miriadi d’informazioni inerenti qualcuno o qualcosa. Come si può ricostruire la memoria ricomponendo i frammenti?

Ne ho parlato con Bernardo Magnini, ricercatore senior alla Fondazione Bruno Kessler di Trento, dove è responsabile della Unità di Ricerca su Tecnologie del Linguaggio e coordinatore del progetto di ricerca LiveMemories (estrazione e integrazione di contenuti da archivi non strutturati).

Leggi anche:  Meta dovrà chiedere il permesso per mostrare annunci personalizzati in Europa

Qual è il rapporto tra la memoria e le nuove tecnologie?

Nell’era del web abbiamo bisogno della tecnologia: la nostra memoria esterna, il web, è troppo grande per le nostre capacità cognitive, e inoltre è fuori dal controllo di ciascuno di noi singolarmente, perché frutto della cosiddetta “saggezza delle folle”. Se oggi siamo nostro malgrado costretti a fare il “lavoro sporco”, cioè filtrare, contestualizzare, ordinare, aprire e chiudere innumerevoli pagine sul web, in molti casi solo per renderci conto che non ci interessano, nel prossimo futuro il lavoro sporco speriamo possano farlo le macchine, lasciando a noi il compito di imparare, di divertirci, di emozionarci. Questa è la direzione del web semantico.

Oggi cerchiamo su internet le informazioni e le storie, ma sulla Rete non c’è tutto, ci sono filtri o forse mancano del tutto alcune cose. Cosa ne pensi?

Credo che sia difficile distinguere quello che non c’e’ davvero da quello che non siamo capaci di trovare. Ci troviamo in una condizione di sovraccarico cognitivo che ci impedisce di gestire al meglio la fruizione del materiale digitale. Il risultato è che tendiamo ad accontentarci. Ci bastano aggregazioni imperfette e tolleriamo una alta presenza di rumore, ci fermiamo presto nel ranking che ci viene proposto dai motori di ricerca e quindi escludiamo risultati potenzialmente utili, tendiamo a eliminare frammenti di informazione senza un adeguato contesto, perché troppo costoso per noi ricostruirlo, anche in questo caso abbassando la nostra capacità di esplorare in profondità i dati.

In cosa consiste il progetto Live Memories e quali traguardi avete raggiunto?

LiveMemories ha realizzato un esperimento unico nel suo genere: abbiamo taggato in modo automatico più di un milione di documenti (testi, video, immagini) prodotti dai media (giornali, televisioni) sul territorio trentino. Questo ha consentito di costruire un grande archivio di conoscenze su persone, luoghi, organizzazioni, che si alimenta di continuo e in modo completamente automatico. Abbiamo raggiunto prestazioni significative sul tagging semantico per la lingua Italiana, paragonabili a quelle sull’inglese, una lingua che e’ considerata lo stato dell’arte per le tecnologie della semantica.

Leggi anche:  Spotify potrebbe far debuttare video musicali integrali

Sviluppi futuri?

Il futuro sarà fatto di piccoli e costanti miglioramenti della tecnologia. Ci abitueremo, quasi senza accorgerci, a sistemi di ricerca sul web sempre più complicati, in grado di presentarci visualizzazioni schematiche e comprensibili di grandi quantità di dati eterogenei.

Quali sono le tecnologie che si possono utilizzare, e soprattutto in che modo, per ricomporre i frammenti multimediali?

In una parola le chiamerei “tecnologie della semantica”, tecnologie che in modo automatico possono “taggare” quantità enormi di testi, immagini e video, con una accuratezza sufficientemente alta. Attualmente si possono taggare nomi di persone o di luoghi presenti in archivi testuali, oppure volti di persone in una immagine. In un futuro prossimo sarà però possibile taggare scene di eventi complessi, come per esempio una festa di compleanno.

Un altro dei problemi emersi ultimamente è quello evidenziato dalla ricerca di due giovani universitari della Old Dominion University di Norfolk in Virginia (Stati Uniti) i quali hanno di recente pubblicato un report che spiega come e soprattutto in quale quantità i vecchi contenuti del web verrebbero “assorbiti” in una sorta di buco nero della rete. Ogni anno circa l’11% dei contenuti postati su internet sparisce dalla rete.

Incrociando migliaia di dati riguardanti i post pubblicati dai cybernauti in diversi social-network e filtrando le URL (controllando inoltre che gli indirizzi non fossero stati modificati), i due ricercatori hanno potuto scoprire come circa l’11% dei contenuti linkati in internet sia letteralmente sparito nel giro di un anno.

La percentuale del materiale scomparso dal web sarebbe pari allo 0,02 per cento dei contenuti totali postati al mondo quotidianamente. Dalla Primavera Araba alla morte di Michael Jackson, dall’allarme sul virus influenzale H1N1 alle elezioni americane, nessun evento è stato risparmiato dal buco nero di internet.

Leggi anche:  Sanzionati gli avvocati che si erano affidati a ChatGPT per preparare una causa in tribunale

Per combattere questo fenomeno sono nate istituzioni come la fondazione Internet Memory. La partecipazione non è mai stata così diffusa nell’elaborazione di qualsiasi supporto prima. La varietà dei contenuti esposti e la loro dimensione non sono mai state così grandi. Per questo motivo, internet sta diventando la fonte più importante d’informazioni sulla nostra società e sarà una risorsa fondamentale con cui pensare, ora e in futuro. Questa memoria deve essere diversa da un archivio tradizionale, o libreria, tanto quanto l’internet è diversa dai media tradizionali. Deve essere abbastanza grande da essere utile, neutrale nella sua estensione e rispettosa dei diritti della persona. Per riuscire nell’impresa, progetti come LIWADeveloping the next generation web archive technologies, stanno studiando e progettando nuovi strumenti per la cattura dei contenuti web, la conservazione, l’analisi e servizi per migliorare la fedeltà, la coerenza e l’interpretabilità degli archivi web.

Altro progetto interessante è la biblioteca digitale dell’Internet Archive che è tra le più ampie al mondo; i suoi server ospitano circa 10 Petabyte di dati accumulati fin dalla fondazione nel 1996. Per sua natura, il contenuto del web è effimero: i siti scompaiono continuamente e sono aggiornati di frequente, ciò comporta la scomparsa spesso di preziose informazioni online e di contenuti. I suoi crawlers periodicamente sulla falsariga di quelli di Google scandagliano la Rete e fanno copie dei siti che sono conservate e storicizzate.

Se per esempio siete curiosi di conoscere chi era il candidato nel 2006 del PDL al Quirinale, potete dare uno sguardo alla Home di Repubblica di quei giorni..

 

Un po’ di tempo fa Page e Brin scrivevano “The web creates new challenges for information retrieval” nell’introduzione del loro lavoro “The Anatomy of a Large-Scale Hypertextual Web Search Engine”, credo che nemmeno loro avessero idea di cosa sarebbe diventato il web qualche anno dopo e delle nuove sfide da vincere.