La nuova era digitale tra vecchie e nuove storie

Collocare storicamente il fenomeno evolutivo delle tecnologie informatiche in un quadro storico ben determinato è un tassello importante nel processo di comprensione dello stretto legame esistente tra tali innovazioni e la storia del secolo passato.

L’incubatrice culturale che ha determinato un’impennata evolutiva delle tecnologie elettroniche, supporto fisico necessario per il successivo sviluppo dell’era digitale, trova origine in una dimensione spaziale e temporale ben determinata[1]. Lo scenario è quello del secondo dopoguerra: alla fine delle ostilità belliche, i nuovi dominatori della scena mondiale, grazie al prestigio politico, militare ed economico conquistato sul campo di battaglia contro il nazifascismo, iniziarono una lunga ed estenuante guerra “fredda” per l’egemonia del Mondo che poneva a confronto, l’una contro l’altra, due ideologie e, con esse, due complessi modelli di società. Il mondo appariva così diviso in due blocchi contrapposti, separati simbolicamente, e in alcuni casi fisicamente, da un muro di reciproca diffidenza e sospetto. Le sorti dell’umanità quotidianamente venivano messe in gioco sul tavolo del mantenimento di un terrificante equilibrio di armamenti tecnologici e sulla consapevolezza che un loro impiego avrebbe determinato un serio rischio per la fine della vita sulla Terra. La corsa verso nuove tecnologie belliche, offensive e difensive, determinò durante gli anni del dopoguerra un incremento vertiginoso delle sovvenzioni pubbliche destinate alla ricerca scientifica. I momenti più significativi della storia dell’elettronica, informatica e telematica di questi ultimi cinquant’anni, infatti, affondano le radici nel clima di sospetto glaciale in cui la politica mondiale si trovava impantanata senza un’apparente possibilità d’uscita e che oggi, cambiati gli attori protagonisti della scena, sembra rivivere con il suo pesante carico d’angosce ed incubi.

I diversi binari di sviluppo seguiti dalla scienza moderna non devono essere analizzati e valutati, quindi, come realtà a “compartimenti stagni”, ma come entità figlie di scoperte ed invenzioni comuni che trovano nella sinergia della ricerca il loro punto di forza e il loro massimo stimolo. I diversi campi della ricerca, così intesi, hanno consentito nel corso degli ultimi decenni di oltrepassare sistematicamente con scadenze temporali sempre più ravvicinate i limiti umani che oggi appaiono, consapevolmente o inconsapevolmente, sempre più di natura contingente.

I momenti più significativi di questo sviluppo tecnologico, che non appare ancora aver raggiunto la fase discendente della sua parabola evolutiva, sono rappresentati:

1) dalla microelettronica la cui nascita è collocabile, simbolicamente, nel 1947 nei Bell Laboratories di Murray Hill nel New Jersey dove venne inventato il transistor[2] e con esso la possibilità di trasformare gli impulsi elettrici in un codice binario (semiconduttori) utilizzabile, in estrema sintesi, per comunicare con le macchine in modo rapido e sempre più complesso[3];

2) dal computer, anch’esso figlio della seconda guerra mondiale, madre di tutte le tecnologie[4];

3) da Internet, la cui ideazione e realizzazione è frutto di una sinergica commistione tra la classica strategia militare e l’innovazione imprenditoriale di una nuova generazione di studiosi e ricercatori universitari[5].

In questa necessariamente breve e superficiale descrizione, utile ad incorniciare la situazione-madre dell’era del Bit, particolare attenzione deve essere dedicata alla nascita del fenomeno Internet. Le origini della Rete delle reti si possono rinvenire all’interno delle ricerche condotte dall’ARPA (Advanced Research Projects Agency) del Dipartimento degli Stati Uniti. In un momento storico di particolare frizione tra i due blocchi ideologici ed economici che si dividevano il mondo, il lancio del primo Sputnik, l’America avvertì l’esigenza di aumentare i fondi della ricerca per prevenire eventuali attacchi provenienti dallo spazio. Tra le idee seguite e sviluppate dall’ARPA, di particolare interesse fu quella concepita da Paul Baran alla Rand Corporation nel 1960-64, che aveva ad oggetto «la progettazione di un sistema di comunicazioni invulnerabile agli attacchi nucleari. Basato sulla tecnologia di comunicazione della commutazione a pacchetto, il sistema rese la rete indipendente da centri di comando e controllo, affinché le unità di messaggio trovassero le proprie strade lungo la rete, venendo ricomposte nel messaggio originale in qualsiasi punto del sistema»[6].

Accanto ai computer ed internet vi è un altro elemento da analizzare per avere un quadro dello scenario entro cui ricostruire il fenomeno dei crimini informatici in azienda e della conseguente esigenza di una maggiore tutela dei dati e delle informazioni: il software.

Il software, quale bene in sé, acquista autonomia giuridica, distaccandosi dal cordone primordiale che lo legava indissolubilmente ad un ruolo di semplice appendice dell’hardware, in un tempo successivo alla diffusione e commercializzazione degli elaboratori elettronici. Il tardivo riconoscimento di un’autonoma valenza del programma è legato alla storia della diffusione delle nuove tecnologie informatiche; per tale motivo, una breve analisi storica è utile al fine di individuare le ragioni che hanno spinto i legislatori dei Paesi più industrializzati a dettare una puntuale disciplina tesa a tutelare il software nella sua intrinseca valenza sociale e giuridica.

Con l’avvento del microprocessore i rapporti uomo/lavoro, uomo/tempo libero si avviarono verso un drastico mutamento di prospettiva in cui il computer divenne sempre più “personal” e presente in tutte le quotidiane dinamiche di relazione sociale. Nel 1975 ED ROBERTS, fondatore della MITS, una piccola società produttrice di calcolatori nel New Mexico diede alla luce “Altair”. La novità che caratterizzava questa nuova macchina, differenziandola da tutte le altre precedentemente realizzate, trovava fondamento nella concezione di base con cui la stessa era stata ideata e successivamente costruita: Altair era un computer creato attorno ad un microprocessore.

Le dimensioni e i costi degli elaboratori, col passare del tempo, divennero più contenuti e il loro impiego si dimostrò appetibile per una tipologia di utenti le cui dimensioni aumentarono esponenzialmente in rapporto alla maggiore popolarità/curiosità nata attorno al nuovo strumento elettronico. Tale innovativa concezione della struttura del computer divenne, in breve tempo, il modello e la fonte d’ispirazione per la realizzazione del progetto che prese il nome di Apple (I e II): il primo computer che riuscì a riscuotere un successo commerciale degno di nota. L’Apple venne progettato da STEVE WOZNIAK e STEVE JOBS, nel garage dei genitori a Menlo Park (Silicon Valley). Queste due giovani menti, fondatori della famosa “APPLE COMPUTERS”, in una storia che ormai si è tinta di leggenda, costituiscono il “brodo primordiale” da cui prenderà forma, dopo un rapido processo evolutivo di tipo selettivo, la futura “Età dell’Informazione”.

Alla proposta della “APPLE COMPUTERS”, reagì la possente industria IBM immettendo nel mercato un proprio modello di microcomputer. Per testare la fortuna commerciale che tale prodotto riuscì a riscuotere è sufficiente evocare il nome che l’IBM scelse di donargli: Personal Computer (PC). Chiaramente il nome di questo prodotto informatico era destinato ad oltrepassare le barriere del tempo e a divenire il simbolo stesso di un periodo storico di forte fermento culturale e di feconde ricerche scientifiche.

Il traguardo raggiunto, dall’APPLE e dall’IBM, fu quello di riuscire a ridimensionare la struttura fisica del computer adeguandola alle esigenze legate ad un impiego più comodo di tali strumenti che fino ad allora apparivano difficilmente utilizzabili nella vita quotidiana. Non più enormi apparati elettronici costituiti da migliaia di valvole e transistor che richiedevano spazi enormi per l’installazione ed il loro utilizzo, ma un computer da scrivania, di dimensioni e costi umanamente contenibili. Il salto tecnico e culturale fu enorme e i semi di tale innovazione non tardarono a dare frutti in ogni campo dell’attività umana.

Bisogna rilevare che in questa prima fase il rapporto hardware/software è di tipo simbiotico con la netta prevalenza del primo sul secondo. Era inconcepibile, infatti, non fornire assieme al computer un programma che consentisse la sua utilizzazione.

Dopo qualche anno di ricerche l’APPLE riuscì a raggiungere un nuovo traguardo; questa volta l’ingegno degli scienziati andò a colpire, modificandolo profondamente, il difficile rapporto computer/utente che, nei primi anni dell’“alfabetizzazione informatica”, aveva rappresentato il maggiore ostacolo alla diffusione, capillare e trasversale all’interno della società, dell’uso del computer.

Tali argomentazioni sono poste alla base della nascita del Macintosh della APPLE (1984) che «rappresentò il primo passo verso il computer user-friendly, con l’introduzione di una tecnologia d’interfaccia utente, basata su icone…(omissis)…»[7].

E’ in questi anni che si solidifica, nella stessa coscienza dei produttori di computer e degli utenti finali, l’importanza e il valore individuale del software[8]. L’idea di un valore intrinseco del programma/linguaggio necessario per far comunicare l’utente con il computer, al fine di far svolgere a quest’ultimo operazioni di vario tipo, era ben presente, sin dagli anni Settanta, nella mente di due giovani studiosi: BILL GATES e PAUL ALLEN. I due giovani imprenditori/studiosi nel giro di pochi anni, grazie all’idea vincente “Basic” contribuirono in modo decisivo alla creazione del mercato del software, imponendosi (sotto l’egida del marchio MICROSOFT) nel ramo dei sistemi operativi (Dos – Windows) e degli applicativi (si pensi alla diffusione capillare e mondiale del pacchetto Office).

«E’ accaduto così che la “Cenerentola” software sia oggi divenuto il “motore” di un settore industriale che apporta contributi sempre più significativi all’economia mondiale generando occupazione e gettiti fiscali e aumentando la produttività, la capacità e la competitività dei più diversi settori.»[9]

La macchina, intesa come un insieme di componenti elettronici, senza un opportuno programma idoneo a fornire le istruzioni per svolgere le diverse operazioni e risolvere i più disparati problemi non rappresenterebbe un bene utilizzabile dall’utente; quest’ultimo, infatti, acquista il computer per svolgere determinate attività (ad esempio: videoscrittura, gestione della contabilità, progettazione e per infiniti altri scopi) e non per la macchina in sé.

E’ il software che infonde, in un certo senso, la vita alla macchina; la quale, senza di esso, non potrebbe apparire in alcun modo appetibile. Le diverse industrie del settore informatico ben presto percepirono l’importanza di tale inscindibile legame e dedicarono una parte sempre maggiore delle proprie risorse allo sviluppo di pacchetti, insieme di programmi, idonei a risolvere le più svariate esigenze dei futuri e probabili acquirenti.

Da quanto affermato si riesce a percepire l’importanza strategica che il software oggi riveste nell’ambito di un mercato sempre più globale, dove flussi ingenti di risorse economiche sono legati, in modo diretto ed indiretto, alle vicende di questo nuovo e particolare bene.

Quello descritto, con rapidi tratti, è solo un quadro generale di ciò che ha determinato, assieme ad altre numerose concause, gli assetti economici e culturali di quella che viene comunemente definita l’era del BIT.

Oggi, in un periodo in cui il Mondo torna ad essere sconvolto da conflitti politici, ideologici e religiosi, assistiamo ad una nuova corsa agli armamenti che probabilmente porterà nei prossimi anni a nuovi impulsi tecnologici capaci di modificare profondamente la nostra vita quotidiana. Ai giuristi, ancora una volta, l’obbligo morale di accompagnare la corretta diffusione di queste innovazioni, tentando, grazie all’aiuto indispensabile di studiosi di discipline informatiche, di circondare le stesse con quell’anima di giustizia che spesso manca a scoperte ed invenzioni che, nate ai piedi di un conflitto, rischiano di mantenere nel proprio DNA qualche carattere ereditario non proprio secundum ius.


NOTE

Il presente articolo è stato estratto da Stilo Leo, La Nuova Era Digitale tra vecchie e nuove storie, in Diritto della Gestione Digitale delle Informazioni (suppl. della Rivista “Il Nuovo Diritto” n. 11, 2002), pag.69.

[1] Per approfondimenti si rinvia a : Chronology of Personal Computers, http://www.islandnet.com/~kpolsson/comphist; Computer Museum, http://www.computermuseum.it; The Computer Museum History Center, http://www.computerhistory.org/; RetroBeep – The Computer Museum @ Bletchley Park, http://www.retrobeep.org/; University of Virginia – Dep. of Computer Science, http://www.cs.virginia.edu/brochure/museum.html; Russian Computer Museum, http://www.computer-museum.ru/index.php; Computer History, http://www.computerhistory.org .

[2] Per questa scoperta ai tre fisici che lo invitarono, Bardeen, Brattain, Shockley, venne attribuito il premio Nobel.

[3] Per un quadro più esaustivo della storia della microelettronica e dei traguardi raggiunti in tale campo di ricerca si rinvia a: http://www.laureaelettronica.ing.univpm.it/page.php?id=1; International Technolgy Roadmap For Semiconductor-2001, http://public.itrs.net; Ricerca & Futuro, Rivista del Consiglio Nazionale delle Ricerche, http://www.fi.cnr.it/r&f/ , The National Nanotechnology Initiative (NNI), http://www.nano.gov/

[4] Escludendo le apparecchiature belliche come il Colossus britannico (1943) e lo Z-3 di fabbricazione tedesca (1941 probabilmente), utilizzate principalmente per decifrare i codici nemici, il primo elaboratore programmabile, ENIAC( Electronic Numerical Integrator and Calculator) venne realizzato sotto l’egida dell’esercito americano nel 1946 alla University of Pennsylvania. Il precursore dei moderni computer pesava oltre 27 tonnellate ed era costruito su moduli metallici altri tre metri, utilizzava 70.000 resistenze e 18.000 valvole.

[5] Per un quadro maggiormente esplicativo della recente e complessa storia di Internet si rinvia a: Università degli Studi Roma Tre, Dipartimento di Informatica e Automazione, http://www.dia.uniroma3.it/~necci/storia_internet.htm, Wikipedia, http://it.wikipedia.org/wiki/Storia_di_Internet .

[6] M. Castells, La nascita della società in rete, Milano, 2002, 48. Per maggiori notizie sulla storia della Apple si rinvia a: Apple History, http://www.apple-history.com/; Apple Museum, http://www.macitynet.it/applemuseum/

[7] CASTELLS, La nascita della società in rete, op.cit., 45.

[8] CUNEGATTI – SCORZA, Multimedialità e diritto d’autore, Napoli, 2001, 85:« Sul finire degli anni ’50 le industrie del settore informatico, che sino a quel momento avevano investito ingenti capitali e risorse nello sviluppo dell’hardware, compresero l’importanza e l’utilità del software e, di conseguenza, cominciarono a sviluppare programmi applicativi preconfezionati capaci di risolvere i più diversi problemi degli utenti. Sino al 1969, però, il software rimase, di fatto, un bene accessorio all’hardware ed era, per lo più venduto con questo in un unico pacchetto…(omissis)…dagli anni ’60 ad oggi il software ha radicalmente mutato la sua posizione nel mercato informatico trasformandosi da semplice bene accessorio all’hardware ad indiscusso, e incontestato, protagonista.».

[9] CUNEGATTI – SCORZA, , op. cit. , 86.