home

Hacktivism. La libertà nelle maglie della rete

 

di A. Di Corinto e T.Tozzi

 

indice

3.2.3. La scienza collettiva. Cooperazione, standard e linguaggi condivisi. Unire i popoli e i saperi in rete.

 

Un altro degli aspetti principali dell'etica hacker, al MIT e non solo, è il promuovere gli aspetti cooperativi. Una delle caratteristiche delle reti telematiche è quella di permettere la cooperazione a distanza delle persone per realizzare un obbiettivo comune.

Secondo M. Chiari "la rete abolisce sostanzialmente le distanze geografiche e aiuta in modo molto netto la possibilità di organizzare piccoli gruppi di ricerca internazionali con contatti quotidiani, quasi di amicizia personale molto stretta, anche se non fisica, di scambio continuo delle proprie impressioni e delle proprie indagini di ricerca. Questo cambia due aspetti: l'aspetto della diffusione dei risultati e l'aspetto della certificazione dei risultati" e dunque "il concetto della proprietà intellettuale del lavoro" (Chiari M., 1997).

Un'altra caratteristica delle reti telematiche è stata quella di fornire uno strumento attraverso il quale i saperi possano essere condivisi e il contenuto di tali saperi possa essere il risultato di una molteplicità di espressioni.

Per realizzare tali obiettivi, è stato cercato di creare un linguaggio (degli standard, altrimenti chiamati protocolli) condiviso attraverso cui far dialogare le più svariate tecnologie della comunicazione.

A tale impresa hanno partecipato le persone degli ambiti scientifici ed istituzionali più disparati.

 

Nel 1945 V. Bush scrive "As we may think" in cui viene teorizzata una macchina ipertestuale, ovvero una macchine che permettesse di creare una strutturazione ed una serie di rimandi tra le informazioni secondo percorsi molteplici, non gerarchici e non fissi. Sarà uno dei primi studi che permetteranno la nascita di Internet così come oggi la conosciamo. Poco dopo, nel 1947 viene fondata The Association for Computing Machinery (ACM) che diventerà uno dei riferimenti nello sviluppo delle tecnologie informatiche. Tra gli obiettivi dell'ACM vi è quello di promuovere la circolazione e il libero scambio di informazioni tra gli specialisti e il pubblico riguardo all'informatica. Al 1948 risale il primo tentativo di creare un mezzo di comunicazione di gruppo. Fu intrapreso durante la crisi e il ponte aereo di Berlino nel tentativo di collegare apparecchi telex di una decina di paesi diversi ma, dato che ognuno cercava di comunicare simultaneamente in lingue diverse, il tentativo fallì.

Nel 1957 i russi lanciano lo Sputnik e ciò provocò negli americani la necessità di creare nello stesso anno un'agenzia, l'Arpa, che concorresse con i russi nella realizzazione di un sistema di comunicazione globale.

Gli studi sul perceptron della fine degli anni cinquanta, sono studi su reti artificiali distribuite che ispireranno gli studi di P. Baran. Baran è un dipendente della Rand Corporation che tra il 1960 e il 1962 disegnerà il modello di rete distribuita (in alternativa alle reti centralizzate) che a sua volta ispirerà lo sviluppo del modello della rete Arpanet da cui nascerà in seguito Internet. Sarà inoltre un saggio del 1960 di Licklider dal titolo "Man-Machine Symbiosis" a postulare un'analisi del computer come organismo in simbiosi con l'uomo. Da tale testo e dal suo successivo "On-Line Man Computer Communication" (1962), in cui avanza l'ipotesi di un Network Galattico, trarranno in molti l'ispirazione per le ricerche che faranno nascere Arpanet.

All'inizio degli anni sessanta, la tecnologia che permetteva l'uso contemporaneo di un computer da parte di più utenti veniva definita "time sharing". Tale tecnologia fu alla base della nascita della telematica, che veniva tra le altre cose pensata come la possibilità per più utenti di collegarsi alle risorse remote di una macchina tramite una rete telematica e sfruttarne le risorse di calcolo. Il "time sharing" è stato importante anche per la nascita delle "comunità virtuali" in quanto gli utenti collegati simultaneamente in "time sharing" potevano anche scambiarsi materiali e comunicare tra loro in tempo reale. Non a caso alcune applicazioni come la posta elettronica nacquero proprio ad uso dello scambio durante il "time sharing".

Tale tecnologia venne elaborata grosso modo contemporaneamente presso tre gruppi di ricerca indipendenti: il MIT tra il 1961 e il 1967, la Rand Corporation tra il 1962 e il 1965 e al National Physical Laboratory in Inghilterra tra il 1964 e il 1967 (Blasi, 1999, pag.17-18).

Come si è già detto saranno gli hacker a promuovere al MIT le tecnologie interattive, sviluppandone tutti gli aspetti che permettevano di utilizzarle per cooperare e scambiarsi materiali in rete. Lo sviluppo di tali tecnologie veniva fatto collettivamente. Ad esempio, all'inizio degli anni sessanta, quando arriva un nuovo modello di computer al MIT, il Tx-0, la sua programmazione viene realizzata collettivamente dal gruppo degli hacker, ovvero ognuno mette a disposizione le sue soluzioni.

Nel 1962 S. Russell, hacker del MIT, programma il videogioco Space War, il primo videogioco per computer, e ne mette il codice a disposizione di tutti. Grazie a ciò gli altri hacker realizzarono degli abbellimenti al programma Space war che alla fine era il risultato di un'elaborazione collettiva e venne dato gratuitamente in giro, diventando uno dei più famosi videogame della storia.

Lo stesso spirito lo ritroveremo nella realizzazione del ben più famoso Linux, il sistema operativo realizzato collettivamente negli anni novanta.

Originariamente il termine hacker veniva usato per definire una soluzione brillante ad un problema informatico. Ma allo stesso tempo alla base dell'etica hacker vi era la cooperazione e libertà di rielaborare e migliorare i prodotti intellettuali altrui, quale nel loro caso era l'esempio del software.

Nella seconda metà degli anni sessanta l'ITS 9 al MIT, è un sistema aperto che incoraggia la condivisione dei files. E' una sorta di biblioteca collettiva di programmi disponibile on-line.

Mentre nel 1965 T. Nelson nel testo "Literary Machines" conia il termine ipertesto ("per 'ipertestò si intende un testo scritto non sequenziale che si dirama e fornisce opzioni al lettore, meglio se letto su di uno schermo interattivo"), nel 1967 viene realizzato il primo sistema ipertestuale, chiamato Hypertext Editing System, ponendo dunque le premesse ad un'organizzazione dei saperi globali non gerarchica e non lineare (Gubitosa, 1998).

Nel 1968 D. Engelbart elabora il NLS (oNLineSystem) che era un sistema di comunicazione a distanza attraverso l'integrazione in rete di computer "interattivi e multiaccesso". Il sistema di Engelbart faceva tra le altre cose uso di monitor e di uno strumento simile all'attuale mouse per fornire un puntatore (Blasi, 1999, pag. 23-25).

Lo stesso anno, mentre i movimenti di tutto il mondo scendono in piazza rivendicando la necessità di abolire le strutture gerarchiche ed elitarie a favore del collettivo, nasce il Network Working Group (NWG), all'interno del quale si distingue la figura di S. Crocker. Lo scopo del NWG era quello di sviluppare i protocolli di comunicazione ed altre parti significative di quella che diventerà la rete Internet. Il Network Working Group, un nucleo di hacker selezionato da un gruppo di talentuosi studenti universitari, operava sulla base del modello open-source: a chiunque era permesso di contribuire con idee, che venivano poi sviluppate collettivamente. I codici sorgente di tutte le soluzioni venivano pubblicati fin dall'inizio, di modo che gli altri potessero usarli, testarli e svilupparli. Questo modello è usato ancora oggi. La composizione e il nome di questo gruppo di hacker d'avanguardia sono cambiati molte volte nel corso del tempo. A tutt'oggi è conosciuto come Internet Engineering Task Force, e opera con l'Internet Society fondata da V. Cerf, un membro preminente del gruppo fin da quando era studente di informatica alla UCLA. Cerf ha rivestito un ruolo importante in quasi tutti i progressi tecnologici che hanno scandito l'evoluzione della Rete. Tuttavia, un aspetto è sempre rimasto immutato: Internet non ha alcun direttorio centrale che ne guidi lo sviluppo; al contrario, la sua tecnologia viene ancora sviluppata da una comunità aperta di hacker. Riflettendo su questo sviluppo, Abbate (Abbate, 1999) nota che nella progettazione di Internet pare non ci sia stata alcuna partecipazione da parte delle corporation. Così come il suo predecessore (Arpanet), Internet è stata progettata informalmente e con pochissima grancassa da un gruppo di esperti autoselezionatisi (Himanen, 2001, pag. 136).

Sempre nel 1968 J.C.R. Licklider scrive insieme a R. Taylor il saggio "Il computer come strumento di comunicazione". Al suo interno si legge "tra pochi anni le persone saranno in grado di comunicare più efficacemente attraverso un computer piuttosto che faccia a faccia". Nella stesura del suo saggio Licklider aveva in mente il sistema NLS (On Line System) progettato da Engelbart lo stesso anno (Blasi, 1999, pag. 23-25). Nel saggio Licklider affronta anche il problema della disparità tra chi avrà accesso alle nuove tecnologie e chi ne sarà privo. Si legge al suo interno: "Anche se vengono venduti sempre più sistemi di elaborazione interattiva ad accesso multiplo e se sempre più gruppi prevedono di usare questi sistemi entro l'anno prossimo, per il momento esistono forse solo cinque o sei comunità di elaboratori interattivi ad accesso multiplo. (...) Per la società, l'impatto sarà più o meno buono, principalmente a seconda di come verrà risolta questa questione: <<Essere collegati sarà un privilegio o un diritto?>>. Se la possibilità di sfruttare il vantaggio dell'"amplificazione dell'intelligenza" sarà riservata a un'elité privilegiata della popolazione, la rete non farà che esasperare le differenze tra le opportunità intellettuali. Se invece l'idea della rete dovesse risultare, come noi speravamo progettandola, un ausilio per l'istruzione, e se tutte le menti vi dovessero reagire positivamente, di certo il beneficio per il genere umano sarà smisurato" (Rheingold, 1994, pag. 90-91).

Nel 1969 nasce Arpanet, finanziata dalla Advanced Research Projects Agency del Pentagono.

Secondo Himanen "si sente spesso sostenere che lo scopo di Arpanet era di costruire una rete resistente agli attacchi nucleari. Nel loro saggio 'A Brier History or the Internet', i precursori dello sviluppo della Rete (V. Cerf, B. Kahn e altri) hanno definito questa diffusa credenza una falsa diceria. Le vere origini della Rete furono più pratiche. Il direttore del progetto, L. Roberts, un accademico che passò dal Mit ad ARPA, ideò una rete come mezzo per migliorare la cooperazione tra gli informatici: <<In particolari campi disciplinari sarà possibile raggiungere una massa critica di talenti, permettendo così a persone geograficamente distanti di lavorare con efficacia interagendo in un sistema>> (Roberts, 1992, pag. 2)" (Himanen, 2001, pag. 156).

Di fatto all'inizio per i progettisti di Arpanet la rete serve in primo luogo a condividere dei computer prima ancora che a comunicare, rispecchiando i presupposti del concetto di "time sharing" (Blasi, 1999, pag. 28).

Nel 1969 Steve Crocker, del gruppo di ricerca di Leonard Kleinrock all'UCLA, scrive il "Request For Comments" (RFC) numero l, un documento nel quale si descrivono i "protocolli" di connessione tra due computer. I documenti RFC sono proposte di innovazioni tecniche, "richieste di commenti" aperte a tutti nella rete. Lo stile aperto dei RFC viene immediatamente apprezzato da tutte le università e si crea un clima di intensa cooperazione che si riflette in quello del Network Working Group (NWG) che farà costante uso degli RFC (Gubitosa, 1998).

Lo stesso anno viene progettato il Sistema Operativo Unix che sarà destinato a diventare nel giro di poco tempo uno standard all'interno dei principali centri universitari e scientifici. Per molti anni la At&t non prende nemmeno in considerazione la commercializzazione di Unix, e lo cedono gratuitamente alle università pur continuando a detenerne i diritti (Gubitosa, 1998).

All'inizio degli anni settanta venne realizzato uno dei primi sistemi di e-mail. Fu R. Tomlinson a scegliere il simbolo @ che tuttora usiamo negli indirizzi e-mail (Himanen, 2001, pag. 136).

Nel 1971 M. Hart, professore di testo elettronico all'Illinois Benedectin College, idea il Progetto accademico Gutenberg Project (http://promo.net/pg/). Il progetto offre libri gratuitamente e liberi da copyright in rete (Blasi, 1999, pag. 117).

Nel 1971 R. Stallman entra al MIT. Sarà Stallman ad avviare nel 1983 il progetto GNU intorno a cui si aggregheranno gli sforzi di coloro che credono nel software libero e nella realizzazione collettiva del software. La nascita di Linux, il sistema operativo più usato dai provider Internet, dovrà molto al progetto GNU di Stallman (vedi La liberazione del software).

Nel 1972 il prototipo di Arpanet viene presentato ufficialmente ad ottobre all'International Conference on Computer Communications (ICCC) ad Washington con una dimostrazione pratica organizzata da B. Kahn. Tra le applicazioni ludiche c'era il dialogo a distanza di due computer che simulava una seduta con un computer che faceva da psicanalista grazie al software Eliza e un altro che riproduceva lo stile discorsivo di un soggetto paranoide (Parry). In realtà l'unica applicazione che interessasse i ricercatori di Arpanet era l'uso della posta elettronica (Blasi, 1999, pag. 29). A quell'occasione si fa risalire il primo utilizzo della parola "Internet". In seguito a questo incontro viene costituito un gruppo di lavoro internazionale che prese il nome di INWG, International Network Working Group, con lo scopo di realizzare lo sviluppo degli standard di Internet. Il primo direttore operativo del gruppo fu Cerf. L'INWH non aveva un'autorità formale, ma in pratica sviluppò e fissò i più importanti standard di Internet.

Nel 1973 viene creato il File Transfer Protocol per scambiare file in rete. Nel 1974 il Transmission Control Protocol da V. Cerf e R. Kahn che saranno i protocolli chiave di Internet. Di fatto il TCP fu anche il risultato del RFC-793, Transmission Control Protocol, che chiedeva pareri e collaborazioni sulla relativa proposta di protocollo.

Nel 1975 nacquero i Message Service Group "SF-Lovers", "Human Nets", ed altri. Non appena entrò in funzione ARPANET, la gente cominciò a mandare posta elettronica, ben oltre il minimo necessario per la manutenzione della rete. Di colpo la corrispondenza diventò una conversazione di gruppo, una sorta di sistemi di teleconferenze personalizzati che chiunque può mettere su comunità virtuali "fai da te". Una delle prime mailing list fu SF-LOVERS, un elenco di ricercatori dell'ARPA che volevano partecipare a dibattiti pubblici sulla fantascienza. SF-LOVERS cominciò a comparire pubblicamente in ARPANET alla fine degli anni settanta. Ci furono tentativi per sopprimerlo, perché evidentemente era al di fuori anche delle interpretazioni più liberali del concetto di attività di ricerca. (...) L'aspetto sociale delle reti di elaboratori trovò la prima sede virtuale nell'elenco di posta elettronica HUMAN NETS, in cui si discuteva sui rapporti uomo-macchina (Rheingold, 1994, pag. 91).

Nel 1977 viene realizzato il TCP/IP e i programmatori dei Bell Laboratories distribuiscono il programma di servizio Unix-to-Unix Copy (UUCP), progettato l'anno prima. UUCP fu distribuito insieme alle versioni del sistema operativo Unix e consentiva a qualsiasi computer che eseguisse Unix di comporre automaticamente il numero e connettersi via modem con qualsiasi altro elaboratore Unix, effettuando scambi reciproci di file (Rheingold, 1994., pag. 137).

Nel 1981 nasce a Palo Alto in California il Computer Professional for Social Responsability (CPRS). Il CPRS nasce come gruppo informale di discussione di scienziati e tecnici informatici della California uniti da un'indirizzario elettronico. Si costituiscono in società nel 1983. Il CPRS ha lavorato come lobby nei confronti sia del governo che del pubblico con uno sforzo educativo rivolto all'esterno, lanciando austeri avvertimenti contro la fiducia eccessiva e irrazionale nei sistemi informatici complessi. Il CPRS insiste nel dire che i semplici computer non dovrebbero mai venire considerati una panacea magica per i problemi sociali, etici o politici dell'umanità. I suoi membri sono particolarmente preoccupati per la stabilità, sicurezza e affidabilità dei sistemi di computer militari e soprattutto per quelli che controllano gli arsenali nucleari. In effetti il CPRS si è fatto conoscere soprattutto per i suoi continui e ben pubblicizzati attacchi alla credibilità scientifica dell'Iniziativa di Difesa Strategica (SDI o Guerre Stellari) (Sterling, 1992, pag. 246).

Nel 1983 alcuni programmatori della University of California, finanziati dall'ARPA, crearono una versione di Unix per i nuovi computer in commercio; in questa nuova versione di Unix furono inseriti i codici dei computer per comunicare con Internet, riuniti nel protocollo TCP/IP. A questo punto i computer Unix potevano non solo comunicare tramite modem relativamente lenti, ma potevano anche codificare e decodificare i pacchetti di dati che viaggiavano a velocità molto più alte in Internet. Dato che lo sviluppo era stato promosso da finanziamenti pubblici, questa nuova versione di Unix fu distribuita al prezzo del costo di distribuzione. A metà degli anni ottanta nacquero nuove aziende, come la Sun Microsystem, sovvenzionata dall'ARPA, e prosperarono all'istante perché distribuivano Unix con il software necessario per le connessioni in rete. (...) Questa "rete di reti" nata negli anni ottanta fu chiamata ARPA Internet, poi solo Internet. Più questo nuovo strumento si dimostrava utile, più le persone originariamente non autorizzate a usarlo volevano metterci le mani sopra. I ricercatori di informatica a cui fu negato accesso alla Rete sulla base della rigida interpretazione del concetto di "uso accettabile" da parte del Dipartimento della Difesa si rivolsero alla National Science Foundation (NSF). Quella interconnessione tra reti per gli scienziati stava diventando una preziosa risorsa intellettuale, perciò l'NSF istituì CSNET, altra rete scientifica nell'ambito di Internet. (...) Dato che la tecnologia della commutazione di pacchetti e delle connessioni in rete era stata creata con sovvenzioni publiche, per le generazioni successive di reti il concetto di uso accettabile escludeva soltanto le attività commerciali; questa situazione ha cominciato a modificarsi nel 1993, con l'inizio della privatizzazione di Internet. (...) La prima definizione di "uso accettabile" limitava la Rete ai ricercatori del DARPA (come si chiama ora l'ARPA); poi fu estesa comprendendo altri ricercatori scientifici sovvenzionati da militari e dal governo, poi fu ancora estesa alle comunità scientifiche e di studiosi, e ora [nel 1994, n.d.a.] sta per estendersi anche alla comunità commerciale (Rheingold, 1994, pag. 99).

Nel 1984 la National Science Foundation (NSF) entra in internet collegando la rete con potenti calcolatori e potenziandone le linee di trasmissione (Gubitosa, 1996, pag. 13). Viene creato il NSFNET, successivamente si collegheranno altre agenzie come la NASA, il National Institute of Health, il Department of Energy (Sterling, 1993). Il NSFNet è il consorzio che amministra l'intera rete accademica negli USA. Nel 1987 La dorsale di rete di NSFNet (il consorzio accademico USA) comincia a essere gestita in collaborazione con una società privata, la Merit Networks, a sua volta connessa con la IBM e la MCI (Blasi, 1999, pag. 62). L'Advanced Network & Services (ANS), controllata da IBM e MCI, gestisce NSFNET dal 1987. In tal modo Merit Networks, IBM e MCI gestiscono su una propria rete privata a larga banda il network accademico USA. Nel 1991 la ANS, società senza scopo di lucro, fondò una consociata a fine di lucro, la ANS CO+RE, per vendere servizi telematici. In un articolo del dicembre 1991 sul New York Times, intitolato Denunciati favoritismi nella promozione della rete telematica nazionale, il cronista di tecnologia J. Markoff, che pubblicò per primo la storia del WORM di Morris, scriveva: "Proprio a una settimana da quando il presidente Bush ha sottoscritto un decreto che istituisce la creazione di una superautostrada telematica nazionale, sono scoppiate polemiche su un eventuale vantaggio illecito che il governo avrebbe aggiudicato a una joint venture di IBM e MCI, che ha creato  e gestisce una parte fondamentale della rete". Markoff citava vari esperti e concorrenti privati che temono che l'ANS possa sfruttare la posizione di gestore della NSFNET per mettere in difficoltà i concorrenti desiderosi di connettersi alla Rete (Rheingold, 1994, pag. 103).

Ciò venne dunque inizialmente visto come una violazione delle regole sulla concorrenza nel fatto che una rete pubblica (finanziata con soldi pubblici) potesse competere direttamente - sulla stessa rete fisica - con concorrenti privati. A partire dal 1993-1994 la situazione viene risolta creando un sistema decentralizzato che interconnetteva le realtà accademiche regionali evitando di passare dalla ANS (che in seguito sarà acquistata da AOL) (Blasi, 1999, pag. 62).

Le domande che si poneva Rheingold in relazione a tale episodio erano le seguenti: "se le organizzazioni commerciali (tra cui due delle principali aziende mondiali, IBM e AT&T) assumono la gestione della Rete dalle istitituzioni pubbliche, chi vi avrà accesso e a chi sarà negato? Chi deciderà che cosa potranno dire e fare gli utenti della Rete? Chi farà da giudice in caso di disaccordo sul diritto di accesso o sul comportamento telematico? Questa tecnologia è stata sviluppata con denaro pubblico. Deve esserci un limite alle tariffe che le aziende private possono praticarci in futuro per usare una tecnologia nata e sviluppata con il denaro delle nostre tasse? (...) Quanto si dovrà pagare, e che cosa bisognerà accettare di dire o non dire per inserire e consultare informazioni nella rete? I prezzi determinano l'accesso. Che cosa vogliono controllare le grandi aziende che aspirano a diventare i principali appaltatori della rete del futuro? Se controllano i canali di informazione, le reti a fibre ottiche e i nodi di smistamento ad alta velocità, e sono anche in concorrenza per erogare servizi commerciali attraverso quel canale, che effetto avrà tutto ciò sui loro concorrenti minori? Quale potrebbe essere per loro il prezzo ragionevole dei sevizi continuativi di rete? E se questi grandi protagonisti fossero tentati di impedire ai distributori di informazioni minori di fare loro concorrenza come venditori di contenuti?" (Rheingold, 1994, pag. 103-104).

Nel 1988 viene realizzato Internet Relay Chat (IRC) il sistema che permette di fare un dialogo scritto in rete in tempo reale.

Tra il 1989 e il 1990 Tim Berners-Lee progetta il World Wide Web al CERN di Ginevra. Il Web è un sistema client/server per distribuire documenti ipertestuali. I documenti vengono codificati con uno speciale linguaggio di descrizione del testo, HTML (HyperText Mark-up Language).

Se prima un libro elettronico poteva essere scaricato dalla rete (via FTP ad esempio) ma non consultato direttamente, il Web permette ora una lettura on line (Blasi, 1999, pag. 71-72).

Le tecnologie basate sulla microelettronica sono anche caratterizzate dalla loro capacità di ricombinare informazioni in ogni maniera possibile. Questo è ciò che Castells chiama "ipertesto" (seguendo la tradizione che va da Ted Nelson a Tim Berners-Lee) e che la gente chiama World Wide Web. Il vero valore di Internet sta nella sua capacità di collegare ogni cosa a partire da ogni punto e di ricombinarla insieme. Ciò sarà ancora più esplicito quando il progetto originario di World Wide Web di Berners-Lee verrà ripristinato nelle sue due funzioni, sia come browser sia come editor, invece di essere soltanto un browser/provider di informazioni collegato a un sistema di posta elettronica. Mentre lo Xanadu di Nelson era chiaramente un'utopia visionaria, il potenziale reale di Internet, così come lo vedeva Nelson, sta nella ricombinazione di tutta l'informazione e di tutta la comunicazione esistente sulla base di scopi specifici decisi in tempo reale da ciascun utente/produttore dell'ipertesto. La ricombinazione è fonte di innovazione (Castells, 2001, pag. 122).

Dice Berners-Lee: "il Web è una creazione sociale più che tecnica. L'ho progettato per un effetto sociale -aiutare la gente a lavorare insieme- e non come un giocattolo tecnico. Lo scopo finale del Web è quello di sostenere e migliorare la nostra vita in rete nel mondo" (Himanen, 2001, pag. 136).

Dal punto di vista storico, il concetto di ipertesto sembra emergere da tre linee di ricerca differenti. Per Bush il problema principale è la crescita dei dati (records) di cui gli operatori devono tenere conto. Per Nelson il problema fondamentale è il modo in cui il sistema editoriale può venire riformato dalle nuove tecnologie dell'informazione. Per figure come D. Engelbart e Tim Berners-Lee il tema centrale è quello degli strumenti di collaborazione e coordinamento di gruppi di lavoro (Blasi, 1999, pag. 69).

Nel 1992 viene fondata ISOC, Internet Society, una organizzazione internazionale non governativa che ha come obiettivo la definizione e l'evoluzione degli standard Internet, la raccolta di documenti sulla storia della rete e il coordinamento delle attività internazionali per facilitare lo sviluppo e la diffusione dell'Internet in tutti i paesi del mondo (Gubitosa, 1998). Per combattere la logica del networking esclusivo, alcuni hacker difendono l'obiettivo di un networking inclusivo. A questo proposito opera l'istituzione hacker collocata al cuore dello sviluppo della Rete, l'Internet Society. La sua etica si riassume in questo principio: "Nessuna discriminazione nell'uso di Internet sulla base di razza, colore, genere (sessuale), linguaggio, religione, opinioni politiche o di altro tipo, origini nazionali o sociali, proprietà, censo o altre condizioni sociali". L'Internet Society sostiene la diffusione della Rete e l'insegnamento delle competenze del network a tutti coloro che sono stati tagliati fuori dallo sviluppo, dalle imprese e dai governi (Himanen, 2001, pag. 100).

Nel 1994 T. Berners-Lee fonda il W3C (World Wide Web Consortium) un'organizzazione no-profit per l'elaborazione di protocolli comuni rivolti al miglioramento del web che vede la partecipazione attiva di programmatori di tutte le case software coinvolte nel mercato del web per introdurre e imporre standard de facto. Il risultato è un'innovazione continua degli standard base del sistema (Blasi, 1999., pag. 77).

 

continua

indice
 

Licenza: Questo testo e' soggetto alla GNU Free Documentation License

Copyright (c) 2002 A. Di Corinto, T.Tozzi

Permission is granted to copy, distribute and/or modify this document under the terms of the GNU Free Documentation License, Version 1.1
or any later version published by the Free Software Foundation; with no Invariant Sections, with no Front-Cover Texts, and with no Back-Cover Texts. A copy of the license is readable in http://www.gnu.org/copyleft/fdl.html