Skip to main content

Chi si ricorda il Millennium Bug?

Chi di noi ha memoria del Capodanno 2000, oltre ad essere un giovane d’altri tempi, forse ricorda anche l’agitazione e la psicosi collettiva che avevano accompagnato l’avvicinarsi della mezzanotte del 31 dicembre 1999. Arricchita dall’ansia apocalittica che andava a braccetto con la fine del primo millennio, una questione squisitamente tecnica si era trasformata in un caso mediatico, ribattezzato Millennium Bug.  Già da tempo infatti, il mondo dell’informatica aveva ipotizzato la probabilità di un bug informatico, noto come Y2K bug, che si sarebbe verificato al cambio del millennio e avrebbe riguardato sia PC privati, sia grandi elaboratori e controllori di processo. In altre parole, tutti sarebbero stati colpiti da questo bug, causato dalla difficoltà del sistema di riconoscere il cambio di data. Nella “preistoria” informatica infatti, data la scarsa e costosa memoria dei dispositivi, i computer risparmiavano preziosi byte indicando la data con le sole ultime due cifre, ad esempio “99”. Cosa sarebbe successo però al momento dello scatto dello “00”? Come distinguere 1900 da 2000?

Esempio di errore nel cambio di data in una scuola di Nantes, Francia

Vista la serietà della questione, i colossi informatici dell’epoca avevano iniziato un lavoro di prevenzione già a partire dalla fine del 1998, come ci racconta Luciano, che all’epoca era “responsabile di servizio” per una multinazionale informatica. «Il Millennium Bug lo ricordo come un possibile evento catastrofico:  da più di un anno le ditte si stavano attrezzando per sostituire i sistemi e avevano fatto un check per vedere cosa avrebbe potuto essere impattato» mi racconta. Quando gli domando se il loro lavoro avesse subito dei cambiamenti in quel periodo, ricorda ritmi pressanti e soluzioni d’emergenza:  «Gli ultimi mesi del 1999 erano stati un vero e proprio tour de force: c’erano stanze presidiate ventiquattr’ore su ventiquattro per fornire assistenza in tutto il mondo in qualsiasi momento. Avevamo allestito delle vere e proprie war room che erano rimaste attive anche nelle prime settimane del 2000.»

Turni speciali per dicembre 1999-gennaio 2000 (archivio IBM: http://rsuibmsegrate.altervista.org/)

I danni del Millennium Bug furono decisamente minori rispetto alle aspettative, soprattutto quelle dei profani, che si aspettavano sarebbe crollato il mondo allo scattare della mezzanotte; certo è che senza l’adeguata prevenzione che era stata messa in atto, il “baco del millennio” sarebbe stato meno indolore. La possibilità di prevedere il rischio aveva limitato i disagi ai primissimi giorni dell’anno nuovo e aveva causato danni seri soltanto in rari casi. «Poter fare una previsione dei bug è un bene, li rende facilmente gestibili e tutto sommato innocui», mi spiega Claudio, assegnista di ricerca in Informatica presso l’Università Statale di Milano. «Il vero problema si verifica quando il bug, o errore, è inaspettato. Gli errori si annidano in qualsiasi parte del codice, quando non è possibile prevederli si hanno i danni maggiori.» In particolare, Claudio cerca di spiegarmi i rischi attuali dei bug informatici raccontandomi della sua attività di ricerca sugli algoritmi: «Mi occupo di algoritmi che apprendono automaticamente, in parole semplici creo algoritmi a cui affido un compito ed essi poi impareranno a svolgere quel compito». Gli algoritmi autoapprendenti sono molto utilizzati, poiché spendibili in svariati ambiti, come quello delle Risorse Umane, dove spesso sono impiegati per la selezione dei candidati idonei a ricoprire determinante posizioni all’interno di un’azienda. Tuttavia, dietro all’innegabile utilità degli algoritmi si celano delle insidie: «Capire come apprendono gli algoritmi è difficile; essi infatti non seguono semplicemente i comandi che gli vengono dati, ma basano i loro comportamenti anche su esempi di comportamenti passati e subiscono altre influenze. Nel caso del loro impiego nelle Risorse Umane, per fare un esempio, può accadere che la selezione dell’algoritmo sia discriminante nei confronti delle donne, se in passato la tendenza dell’azienda era stata proprio quella di discriminare candidati di sesso femminile. Per questo siamo convinti che si debba chiarire una volta per tutte che gli algoritmi non siano affatto neutrali

Dall’inizio del millennio e dallo scongiurato pericolo del cambio di data, le minacce provenienti dal mondo dell’informatica hanno cambiato volto e hanno raggiunto un livello di complessità tale da sfuggire da ogni controllo. Il discorso sugli algoritmi e sull’effettivo problema della loro neutralità riguarda la nostra quotidianità più di quanto si possa immaginare. Azioni che compiamo quotidianamente, come ricercare qualcosa in Google o scorrere la bacheca di Facebook, sono in realtà soggiogate da algoritmi non neutrali, che cercano di farci vedere soltanto quello che pensano ci possa piacere ed interessare. «Si crea così una bolla di informazione diversa per ciascun utente, che ha accesso alle informazioni in modo personalizzato ma in un certo senso deformato, poiché la selezione di dati che ha a disposizione non è neutrale, oggettiva» mi spiega Claudio. «Le informazioni sono filtrate a scapito di un’oggettività che è però dichiarata dal motore di ricerca numero uno al mondo, che fa appello proprio alla presunta neutralità dell’algoritmo. Ciò che riguarda Facebook è ancora più difficile da spiegare, poiché il colosso di Mark Zuckerberg è un complesso pseudo-militare da cui non trapelano informazioni sugli algoritmi e sul funzionamento del social network.» Chiedo quindi a Claudio di fare chiarezza su una questione di cui si è molto parlato nelle ultime settimane, quella dei gruppi di Facebook che incitano all’odio e alla violenza nei confronti delle donne e che, seppure segnalati in massa dagli utenti, non sono ritenuti offensivi e non vengono cancellati da Facebook stesso. Come funziona la segnalazione? È un algoritmo che decide? «Come sempre quando si parla di questo social network bisogna supporre, poiché nulla è ufficialmente svelato. Possiamo tuttavia immaginare che sì, ci sia un algoritmo alla base che faccia una prima scrematura delle segnalazioni, probabilmente basandosi sulla quantità e sulla frequenza delle suddette. Solo successivamente si passa ad un controllo umano, ad una verifica della segnalazione da parte di una persona vera.»

La discussione su queste problematiche lascia spazio a moltissime domande e ad un senso di inquietudine, dovuto principalmente a tutte le misteriose dinamiche della tecnologia che sfuggono allo stesso controllo dell’uomo che le ha create. Il ruolo pregnante che l’informatica rimanda immediatamente la riflessione al rapporto fra tecnologia ed etica, a quanto sia necessario e allo stesso tempo pericolo servirsi dei frutti del progresso tecnologico. E pensare che tutto era cominciato da un innocente cambio di data…

2000, 2001, algoritmi, facebook, featured, Google, IBM, Millennium Bug


Margherita Ravelli

Nata nel 1989 ad ovest della cortina di ferro, dalla mia cameretta della provincia di Bergamo ho sempre guardato con curiosità verso est, terra dei gloriosi popoli slavi. Dopo aver vagabondato fra Russia, Ucraina e Polonia ho conseguito la laurea magistrale in lingua e letteratura russa, con una tesi sul multilinguismo e sulla multiculturalità nella repubblica russa del Tatarstan. Sono responsabile della sezione Internazionale di Pequod, oltre che redattrice occasionale per attualità, cultura e viaggi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.