Premio IBM “Leonardo 2000”

Premio IBM “Leonardo 2000”

Nel 1994 la IBM, allora la società n. 1 nel mondo dell’informatica, dopo essersi resa conto che aveva trasformato la sconosciuta Microsoft in una temibile rivale, decise che era giunto il caso di affrancarsi creando un proprio sistema operativo autonomamente. Oggi sappiamo che il tentativo fallì, ma quella guerra per me fu l’occasione di avere una grande soddisfazione.

Il contesto (per nerd)

Quando la IBM entrò nel mondo del personal computing, un decennio prima, per il sistema operativo dei suoi nuovi PC si affidò alla sconosciuta Microsoft e naque così il MS-DOS, “Microsoft-Disk Operating System“. L’MS-DOS aveva parecchi problemi strutturali, era difficile riuscire a farlo crescere (i nerd anzianotti ricorderanno i casini fra memoria estesa e memoria espansa…). Diciamolo, era proprio progettato male. Ecco che quindi IBM e Microsoft decisero, con l’arrivo dei processori Intel 80386 a 32 bit, di creare l’OS/2, che doveva essere un vero sistema operativo multitasking, moderno, scalabile. Per questioni di compatibilità non riuscì a prendere piede, nel frattempo l’MS-DOS si era diffuso incredibilmente con tutto un mondo di software dietro. L’IBM cerca comunque di fare il salto: si separa da Microsoft nello sviluppo dell’OS/2 e vara nel ’94 la versione 3.0. Con una enorme campagna marketing che solo un colosso poteva permettersi lo lancia globalmente chiamandolo Warp, in omaggio a Star Trek e alla sua velocità curvatura (e per le coincidenze, Bryan reciterà in uno degli spot). Nello stesso anno Microsoft a sua volta lanciava di corsa Windows 95, che doveva superare l’accoppiata MS-DOS+Windows 3.11 (Windows che però girava sempre sotto, o meglio sopra, il DOS).
Da un punto di vista tecnico OS/2 “Warp” era superiore a Windows 95. Era stabile, multitasking pre-emptive… solo che per garantire la retro-compatibilità con l’MS-DOS/Windows 3.11 di doveva usare una vera macchina virtuale (e ce la faceva!). Windows 95, che tutti abbiamo odiato per i suoi continui blue-screen, aveva invece dalla sua parte la retro-compatibilità con il DOS e un’interfaccia utente molto più intuitiva e amichevole. La Microsoft riuscirà a fare il salto di qualità tecnico solo con Windows NT, con una tecnologia acquisita, ma prima, nonostante la scarsa affidabilità di Windows 95/98, era comunque riuscita a monopolizzare il mercato.

Ecco che nell’ambito della campagna di lancio del nuovo sistema operativo la IBM promuove a livello europeo il concorso “Premio IBM Leonardo 2000”. Erano presenti diverse categorie (programmazione, slogan, saggistica, creatività…) e in palio c’erano personal computer di parecchi milioni di lire e software (il sistema operativo Warp e la suite Lotus). Avevo 20 anni, vidi il bando nella libreria dell’università e decisi di partecipare nella categoria “saggistica”. Mandai il mio scritto e qualche tempo dopo ricevetti una telefonata: ero fra i finalisti, ma per sapere se fossi stato fra i primi cinque (cioè quelli che vincevano il computer portatile) avrei dovuto partecipare all’evento di premiazione, dove i primi cinque sarebbero stati chiamati sul palco, a sorpresa, stile Oscar. Fu così che andai al Forum di Assago dove trovai un mega-evento con un mega-palco, condotto da Jerry Scotti e Alba Parietti, con sketch, balli ecc. E poi davvero i primi cinque venivano chiamati, categoria per categoria, a sorpresa sul palco. Fino ad allora sapevamo tutti solo di essere fra i primi venti. Quando venne il turno della categoria saggistica e sentii “Marcooo Ferrariii“… non ci potevo credere… mi ritrovai frastornato sul palco davanti a centinaia di persone, premiato dal giornalista scientifico Giovanni Caprara, presidente della giuria. Ero lì coi miei 20 anni, in mezzo agli altri premiati che erano tutti mooolto più grandi di me… e con Jerry Scotti che mi sfotteva…

La premiazione della categoria saggistica

Quel giorno tornai a casa super-orgoglioso con un portatile IBM ThinkPad 360C, piccolo come un foglio A4, modulare, con schermo a colori con l’innovativa tecnologia TFT, e con processore 486SX. Il valore era sui 7-8 milioni di lire, una cifra folle per l’epoca (e anche oggi!), era un oggetto che allora avevano solo i top manager. E io. 😎

Oggi rileggo quanto scrissi 25 anni fa e sorrido. Da un parte sono orgoglioso di aver visto in anticipo molte cose che si sono poi davvero concretizzate (solo non ho previsto la velocità di connessione via etere cioè il mondo wireless… ma d’altronde anche la rivista dei nerd nata in quegli anni non ci aveva visto lungo chiamandosi… “Wired“), dall’altra… ma come ho fatto a scegliere un titolo così brutto!? 🙂

Ecco che quando oggi vedo “Black Mirror” su Netflix, penso che 25 anni fa avevo previsto questo evento (la TV interattiva HD su fibra ottica ecc.), e ragionavo anche sui risvolti sociali e politici dell’innovazione tecnologica raccontati dalla serie.

Riporto qui lo scritto in versione filologica, con la stessa impaginazione che ho usato per mandarla a IBM.


Premio IBM Leonardo 2000

Categoria Saggistica

Titolo:      Un Futuro Informatico (elaborato con MS Word 6 per Windows)
Autore:    Ferrari Marco Riccardo

UN FUTURO INFORMATICO

Forse quando i francesi ne coniarono il termine non prevedevano che l’informatica raggiungesse applicazioni tanto estese e universali. Eppure in quelle due parole, information automatique, da cui informatique, è racchiusa tutta la potenza di questo incredibile connubio di scienza e tecnologia: perché l’informatica non è altro che un insieme di informazioni trasformate nel più basso livello di logica, cioè un insieme di uno e un insieme di zero, che elettricamente si possono tradurre in livello di tensione alto (fra 3,5 e 5 volt) e livello di tensione basso (fra 0 e 0,4 volt). Tutta la filosofia dell’informatica è racchiusa in una sequenza ordinata di livelli logici elementari. Grazie a questa semplicità è stato possibile far “capire” alle valvole prima, ai transistor poi, infine ai chip VLSI [1], le complesse informazioni del mondo circostante.

Colori, suoni, lettere, parole, immagini sono traducibili in sequenze di uno e zero. Quando noi vediamo tutti i giorni le applicazioni informatiche, che vanno dal Televideo alla calcolatrice, dalla lavatrice alla prenotazione dei voli, dai semafori stradali alla TAC, non vediamo altro che traduzioni di enormi masse di bit. Ad esempio l’occhio può distinguere fino a cinque milioni di colori diversi, con ventiquattro bit si possono descrivere sedici milioni di colori [2]. Bastano? Ma questo lo si è sempre saputo. Come mai, allora ci si chiede, solo recentemente si vedono applicazioni informatiche che fanno enorme uso di suoni e immagini? La risposta sta nella solo recente disponibilità di memoria e velocità di elaborazione. Si pensi al compact disk domestico in cui sono registrati digitalmente fino a settanta minuti di musica, ebbene sono necessari per descriverli sonoramente ben cinque miliardi e duecentomilioni di bit, quando il primo personal computer, l’IBM XT, nel 1980 aveva come disco rigido solo dieci megabyte (ovvero ottantamilioni di bit). Inoltre la velocità di elaborazione dell’XT, dotato del microprocessore Intel 8086, è di quattrocento volte inferiore a quelle di un moderno personal, dotato del nuovo Pentium, quindi l’elaborazione di suoni e immagini era praticamente impossibile con l’enorme quantità di informazioni richieste per descrivere fenomeni analogici (ad esempio per un’immagine a colori possono essere necessari anche 20 megabyte). Infatti il solo pensare a suoni e immagini è riduttivo dato che ogni fenomeno fisico è rappresentabile digitalmente, si pensi all’andamento delle perturbazioni atmosferiche, o ai fenomeni sismici. Naturalmente più il campione di rilevamento è grande, meglio è possibile descrivere il fenomeno: ad ogni campione si associa un numero, e ad ogni numero si associano dei bit. E’ per questo che la parola informatica è particolarmente adatta, oggi con l’informatica si possono gestire velocemente e senza rischi treni e aerei, si possono fare teleconferenze fra continenti diversi, si può consultare l’enciclopedia e alla voce “Wagner” sentire dei brani del “Parsifal”.

I due nodi per un’informatica di consumo

Avendo il personal computer come protagonista, e limitandoci ad ipotesi realistiche, per entrare nel terzo millennio con una cultura informatica diffusa sarà necessario concentrarsi su due aspetti tecnologici di grande importanza: la mobilità e le autostrade informatiche. Il primo vede impegnati i produttori hardware e software, il secondo è un problema inerente alla telematica e coinvolge anche la pubblica amministrazione.

Tutto il sapere in un chilo

Una volta risolti i problemi legati alle interfacce grafiche e sonore, con risultati più che accettabili, il nodo da risolvere rimane quello dell’immissione dei dati. La tastiera, anche se aiutata dal mouse, è il vero ostacolo alla totale sostituzione del supporto cartaceo. L’uomo da più di diecimila anni comunica per iscritto. Non con la macchina da scrivere, inventata nel ‘800, ma con la penna. I cosiddetti pentop, ovvero computer portatili (laptop) a penna, saranno in primo piano quanto prima e sostituiranno ogni computer da scrivania e portatile tradizionale. Quando i PC avranno sufficiente memoria e potenza per elaborare software in grado di riconoscere la scrittura umana, allora i PC sostituiranno i bloc notes e quaderni di milioni di persone. Gli studenti del duemila andranno a scuola senza più le pesanti cartelle, avranno in mano un parallelepipedo di dimensioni inferiori di un foglio A4 per qualche centimetro di profondità, con uno schermo sul lato più ampio e una sola penna, il tutto per un chilo e mezzo. All’interno milioni di transistor hanno in memoria i libri di testo, le pagine degli appunti, i libri di narrativa, l’album delle figurine…. In un futuro più lontano, quando ancora più potenza e più velocità saranno disponibili, si potrà ricevere la televisione, e si potrà comunicare col telefono cellulare incorporato: la penna sarà sostituita da un microfono e allora, forse, si parlerà di mictop a riconoscimento vocale. Tutto questo è già oggi disponibile ma a costi altissimi, e senza la necessaria versatilità. La strada da fare è ancora lunga ma la via sembra già definita: si tratta solo di migliorare le interfacce video, e soprattutto integrare tutta l’elettronica in un unico chip, che contenga il microprocessore, la memoria e tutte le interfacce. In questo modo l’integrazione consentirà dimensioni e consumi ridotti, ma è necessario per giungere a questo obiettivo un ulteriore sviluppo tecnologico nella produzione. Si può prevedere anche un futuro sistema operativo non su supporto magnetico, ma già integrato nel microprocessore per ottimizzarne la velocità (una sorta di FOS, firmware operating system).

Il bit corre sul filo

L’attuale presidente degli Stati Uniti, Bill Clinton, nel presentare il programma di governo incluse anche lo sviluppo delle autostrade telematiche. La notizia non passò inosservata perché fu la prima volta che un leader politico fece espressamente accenno ad un argomento così tecnico e specifico. Quello che io intendo per autostrade telematiche sono delle reti che basandosi sulla rete telefonica, o sviluppando un proprio mezzo, mettano in comunicazione le istituzioni, le imprese e le famiglie che fanno uso dell’informatica in senso generale. Un esempio attuale potrebbe essere la rete Internet, nata nelle università americane, che oggi collega oltre trenta milioni di utenti. Con lo sviluppo delle fibre ottiche e della modulazione digitale le linee telefoniche potranno raggiungere volumi elevatissimi di trasmissione, praticamente senza errori. Il ruolo della pubblica amministrazione è fondamentale, dato l’ingente investimento che è necessario per la “cablatura” di un intero paese. Quando la fibra ottica arriverà alla spina del telefono, allora sarà possibile oltre a telefonare (o meglio videotelefonare) ordinare la spesa, prenotare l’albergo, interagire con la televisione (il cosiddetto video on demand), votare con il semplice utilizzo del personal computer. Ma questa è sono una limitata visione dal punto di vista domestico, ma pensiamo alle aziende: i sistemi informatici gestiranno in modo completamente automatico gli ordini di merce e di pagamento, le banche velocizzeranno i loro movimenti, la cartamoneta sarà sostituita dalla cosiddetta moneta elettronica. Non sarà più necessario produrre nessun documento alla pubblica amministrazione, basta un collegamento all’autostrada e si saprà tutto del soggetto.

Quali i costi di un futuro informatico?

L’informatica semplificherà la nostra vita, ma questa semplificazione non ha solo vantaggi. Quello che studiosi della giurisprudenza chiamano “diritto all’oblio” è forse il fenomeno più pericoloso che l’automazione presenta. Con la capacità degli elaboratori di immagazzinare enormi quantità di dati, la vita di un individuo sarà completamente schedata. Dagli acquisti nel negozio, alla degenza in ospedale,  dal viaggio in autostrada, al crimine commesso, sarà tutto memorizzato, e la nostra vita sarà ricostruibile con precisione in un secondo usufruendo della potenza dell’informatica. Questa, secondo molti, è una limitazione della libertà: se un individuo va al cinema, potrebbe volerci andare anonimamente, ma se paga con la carta di credito lascia la sua impronta permanentemente. Inoltre esiste il commercio delle informazioni. Ad esempio le banche si scambiano informazioni sulla puntualità di pagamento dei clienti, sullo stato finanziario, ma molte volte queste informazioni sono scarne e sintetizzate e rischiano di ledere l’immagine del soggetto. Per questo vi sono varie leggi e accordi internazionali[3] a tutela della persona, nell’affermazione del diritto di ciascuno di interrogare le banche dati sul proprio conto per modificare, integrare, o cancellare le informazioni nel caso in cui siano errate, incomplete, superate o delle quali sia proibita la raccolta.

Passando ad uno scenario più fantascientifico, unendo la potenza di gestione delle informazioni dei computer, alla recenti scoperte nel campo della genetica, è possibile “mappare” ciascun soggetto in base alle proprie caratteristiche genetiche [4]. Quindi interrogando una futuribile banca dati del DNA di una popolazione, è possibile individuare in qualche secondo i soggetti inclini all’arte, allo sport, alla criminalità.

Quale futuro

Nicholas Negroponte fondatore del Media Lab del MIT, Massachusetts Institute of Technology, in una sua analisi del futuro prevede che compagnie discografiche, televisioni, giornali non avranno più nessun senso. La sua analisi si basa sul fatto che il futuro dipenderà dalla multimedialità, la quale prevede forme di comunicazione diverse, ma tutte su cavo, o meglio su fibra ottica, e che si realizzano in un PC. L’etere ha limitate capacità di trasmissione mentre su cavo, ha detto, l’attuale limite è di mille miliardi di bit al secondo [5], ed è ancora migliorabile. Il futuro è quindi nelle mani delle telecomunicazioni. Nel 2000 si potrà lavorare a casa, non si andrà più a scuola, dato che il professore farà lezione da casa sua e gli studenti daranno gli esami dal proprio computer.

La nostra vita sarà costretta ad un profondo cambiamento, in positivo, e suoni e immagini digitalizzate saranno il nostro pane quotidiano. Il prossimo secolo avrà un’impronta elettronica, informatica, telematica, come per questo lo sono stati il motore a scoppio e il tubo catodico.

Ma quello che voglio evidenziare è il fatto che l’informatica sarà così parte integrante della vita quotidiana, gli interessi in gioco saranno così importanti che lasciare tutto al settore privato non sarà più possibile. L’intervento dello stato, ma è meglio dire degli stati, in un ottica di integrazione europea e mondiale, soprattutto in campo normativo, è necessario.

Milano, li 13 gennaio 1995.                               © 1995 Marco Riccardo Ferrari.


[1] Very Large Scale Integration (circuiti ad altissima scala di integrazione: oltre 10000 componenti).
[2] Con 24 bit le combinazioni sono: 224=16.777.216.
[3] Convenzione di Strasburgo del 28 gennaio 1981.
[4] Il progetto Genoma, che vede impegnati ricercatori di tutto il mondo, conta di completare la mappatura delle 3 miliardi di basi del DNA entro il 2010, allora il patrimonio genetico dell’uomo sarà disponibile in 375 Mb di memoria.
[5] Secondo l’esempio di Negroponte, mille miliardi di bit descrivono tutte le tabelle della borsa di New York dalla sua fondazione ad oggi!

Condividi...

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *