| 
  • If you are citizen of an European Union member nation, you may not use this service unless you are at least 16 years old.

  • Stop wasting time looking for files and revisions! Dokkio, a new product from the PBworks team, integrates and organizes your Drive, Dropbox, Box, Slack and Gmail files. Sign up for free.

View
 

Corso di informatica - Introduzione e storia

Page history last edited by Andreas Formiconi 9 years, 5 months ago
  • Macchine analogiche e macchine digitali

    Fino a circa 20 anni fa il regolo calcolatore è stato il principale strumento di calcolo in tutte le attività tecniche. Il regolo era uno strumento analogico poiché utilizzava la posizione reciproca e variabile con continuità di due regoli di legno (nelle ultime versioni negli anni 70 erano di plastica) marcati con delle scale logaritmiche. L'accorgimento di usare scale logaritmiche era quello che consentiva di fare moltiplicazioni e divisioni (se qualcuno ricorda le proprietà dei logaritmi e delle potenze non dovrebbe avere difficoltà a comprendere il trucco). Se vogliamo rimanere nell'ambito delle cose del passato, l' abaco è invece una macchina digitale, evidentemente.

     

  • Può sembrare curioso prendersi la briga di menzionare strumenti che oggi fanno sorridere. È bene tuttavia ricordare che sino a pochi decenni fa il problema del calcolo ha rappresentato un ostacolo massiccio allo sviluppo della conoscenza ed alla realizzazione di nuove tecnologie. Il lavoro di tanti scienziati del passato non era solamente fatto di serena e felice creatività ma in grandissima parte di lunghissimi e tediosissimi calcoli numerici. Calcoli che potevano durare mesi e nei quali era difficilissimo individuare errori e risalire alla loro fonte: per esempio le leggi del moto dei pianeti di Keplero hanno avuto bisogno di un poderoso sforzo di calcolo dello stesso Keplero per potere essere formulate. Numerosi curiosi strumenti sono stati concepiti nel passato per affrontare il problema del calcolo.

    Per riferirsi a fatti più recenti, è probabilmente vero che la maggior parte dei viadotti e delle gallerie che attraversiamo siano state progettate da ingegneri, architetti, geometri che avevano nel regolo calcolatore il loro principale strumento di calcolo.

    Negli anni 70, non era impossibile vedere medici nucleari con un regolo calcolatore nel taschino. Infatti la Medicina Nucleare è una disciplina medica particolarmente tecnica nella quale l'informazione diagnostica viene prodotta mediante un consistente uso di strumenti di calcolo. Oggi tutto questo può risultare un po' nascosto a causa dell'ubiquitaria presenza dei computer ma il medico nucleare ha ben presente il ruolo del calcolo nel suo lavoro.

 

  • Il prototipo di macchina tessile di Falcon (1728)

    Con questa invenzione si introduce l'idea di scheda perforata : nasce così l'idea di programma come una successione di istruzioni preordinate. Falcon era un operaio che lavorava in un'industria tessile di Lione. La sua invenzione fu dimenticata sino al 1801, quando Jacquard, un meccanico, riuscì a farne una versione industrializzabile. Nel settore della manifattura dei tessuti con il termine "Jacquard" ci si rifersice oggi ad un particolare tipo di tessuto.

  • La Pascalina di Blaise Pascal (1642)

    Questa fu la prima macchima automatica per fare calcoli. Pascal la costruì perché si annoiava ad aiutare suo padre a fare i conti per la sua attività di esattore delle tasse. Ne furono costruiti solamente 50 esemplari.

Interno della pascalina

particolare degli ingranaggi

 

  • La macchina analitica di Charles Babbage (1792-1871)

    Era una macchina destinata alla risoluzione di problemi matematici complessi. Non vide mai la luce se non in una realizzazione storica del 1991.

  • Babbage si rovinò economicamente per la realizzazione di questa macchina ma non fu possibile costruirla perché la precisione meccanica richiesta era troppo elevata per quell'epoca. Avrebbe dovuto essere comandata automaticamente da un nastro perforato con codici rappresentanti le istruzioni. I cosiddetti nastrini perforati sono stati uno dei mezzi di input impiegati nei computers moderni fino agli anni 70. Chi scrive ha fatto in tempo ad usarli. I progetti della macchina analitica di Babbage furono ripresi dalla figlia di Lord Byron, Ada , contessa di Lovelace (1815-1852). Essa approfondì il problema di organizzare le istruzioni da dare a questa macchina e come tale è stata la prima persona ad occuparsi di programmazione. Un noto linguaggio di programmazione per usi scientifici è stato chiamato ADA in suo onore.

 

  • I contributi di Leibniz (1646-1716) e di Boole (1815-1864)

    Lo sviluppo delle tecnologie informatiche è dovuto anche al contributo di alcuni protagonisti della cultura occidentale apparentemente più lontani da ciò che viene considerata mera tecnologia.

    Nei calcolatori digitali ogni tipo d'informazione viene codificata mediante le cifre del sistema di numerazione binario.

    Fu il filosofo e matematico Leibniz ad introdurre i numeri binari nel mondo occidentale. In realtà quella di Leibiniz fu una rivisitazione di un sistema di rappresentazione introdotto in Cina tremila anni fa nell'ambito di una sistematizzazione e classificazione destinata prevalentemente alla divinazione. Leibniz in tale circostanza studiò questo sistema definendo le caratteristiche della "aritmetica binaria". Dopo Leibniz il calcolo binario fu dimenticato fino al 1936, quando, indipendentemente, i due matematici Alan Turing in Gran Bretagna e Louis Couffignal in Francia, fecero l'elogio del calcolo binario proponendo di usarlo come linguaggio di base nelle calcolatrici meccaniche esistenti a quell'epoca.

    Altrettanto rilevante fu il contributo del matematico inglese George Boole che intorno al 1850 formulò delle teorie che unificavano l'algebra e la logica. Il lavoro di Boole è consistito essenzialmente nel decomporre il ragionamento in proposizioni elementari combinate mediante congiunzioni quali e, o e nel manipolare tali proposizioni mediante regole di natura algebrica. Questi studi hanno faciltato molto la concezione di cricuiti elettrici in grado di eseguire le operazioni fondamentali in un computer.

    Per inciso, le operazione logiche fondamentali definite nell'ambito dell'algebra di Boole, alcune delle quali note come AND, OR e NOT, sono oggi comunemente utilizzate per formulare le richieste ai motori di ricerca nelle banche di dati o, più in generale in Internet. Particolarmente rilevante per il nostro contesto è il caso della base di dati Medline che contiene un'amplissima raccolta di voci bibliografiche mediche.

 

  • I calcolatori entrano nel mondo del lavoro

    L'ingresso del calcolatore nel mondo del lavoro può essere fatto risalire all'inizio del 1900. Nel 1917 viene fondata la IBM (International Business Machine Corporation), destinata ad essere, talvolta attraversando pesanti vicissitudini, la più importante industria di computer del mondo sino ai nostri giorni; la IBM tuttavia non è stata l'unica grande produttrice di computer, ma molte di quelle esistenti fino all'avvento del computer sono poi scomparse, o assorbite da altre di più recente costituzione (all'epoca era in uso l'acronimo BUNCH per designare le 5 principali concorrenti di IBM; ossia Burroughs, Univac, NCR, Computer Data e Honeywell: nessuna di queste è ad oggi operante nel mondo dei computer...) 

    La tecnologia delle macchine di calcolo prodotte all'inizio del secolo era la tecnologia meccanografica. Esistevano infatti all'interno delle grosse organizzazioni i centri meccanografici che erano in realtà attrezzati con una varietà di macchine diverse, fra le quali:

    • la perforatrice per tradurre documenti in schede perforate mediante un apposito codice chiamato codice di Hollerith, dal nome del ricercatore che inventò tale sistema di codifica verso la fine dell'800;
    • la verificatrice che controllava la qualità del lavoro fatto dalla perforatrice;
    • la smistatrice per ordinare le schede, per esempio in ordine alfabetico o numerico;
    • la calcolatrice per eseguire calcoli numeri sui dati letti dalla schede perforate e per perforare i risultati su altre schede;
    • la tabulatrice per stampare i risultati in chiaro.
  • Con queste macchine si eseguivano calcoli ad una discreta velocità per quei tempi, dell'ordine di 60 operazioni al minuto. La loro gestione era tuttavia complessa, come si può intuire dalla precedente descrizione. Inoltre si trattava di macchine idonee all'esecuzione di operazioni su serie di dati, qualcosa di ancora molto lontano dalle funzionalità che oggi siamo abituati a trovare nei computer moderni.

    Questa tecnologia ha subito una evoluzione relativamente lenta (almeno rispetto a quella a cui siamo abituati oggi) sino ad arrivare, verso il 1940, a delle macchine di tipo elettromeccanico in grado di riunire le funzionalità dei diversi componenti meccanografici. In queste macchine ricompare in modo elementare il concetto di programma come serie di istruzioni preordinate da eseguire in successione. Le istruzioni venivano somministrate sotto forma di codici perforati su di una banda di carta, in modo analogo a quello prefigurato per la macchina di Babbage. Si parla in tal caso di calcolatrici elettromeccaniche a "programma esterno".

 

  • Il primo computer elettronico

    La logica delle calcolatrici elettromeccaniche fu riportata nel primo calcolatore elettronico: l'Eniac, costruito nel 1942 presso l'Università di Pensylvania. L'impiego della tecnologia elettronica permise di ottenere una velocità di calcolo mille volte superiore. Si trattava sempre di una macchina a programma esterno ed era ben diversa dai computer moderni: un gigante pesante 30 tonnellate che si guastava con grande frequenza a causa dell'enorme quantità di componenti relativamente fragili.

 

  • Per programmarlo si dovevano cambiare i collegamenti al suo interno. Si guastava con grande frequenza a causa dell'enorme quantità di componenti relativamente fragili.

 

Confronto fra Eniac ed un Pentium 150 MHz

 

 

ENIAC

150MHz Pentium

Velocita'

5,000 addizioni / secondo

300,000,000

Memoria

200 bytes

16,000,000

Elementi

18,000 tubi a vuoto

6,000 interruttori

10,000 condensatori

70,000 resistenze

1,500 relays

4,000,000 transistors (CPU)

Misure

altezza 3 metri x superficie 160 metri quadrati

dimensioni di un personal computer

Peso

30 tonnellate

alcuni Kg

 

  • I contributi di Turing e di von Neumann

     

    Siamo quindi arrivati verso la metà del '900 ed abbiamo già visto molti importanti progressi culminati con il primo calcolatore elettronico, l'Eniac. Tuttavia le macchine sin qui progettate erano tutte passive esecutrici di sequenze di calcoli. Mancavano gli ingredienti essenziali per ottenere un comportamento flessibile e variabile secondo le circostanze. La tecnologia adatta iniziava ad esserci ma mancavano ancora delle idee fondamentali. E da chi vengono di solito le idee fondamentali? Dai matematici tanto per cambiare.

    Sono Alan Turing (1912-1954) e John Von Neumann (1903-1957) che hanno trasformato queste macchine in modo sostanziale. Si può dire che il computer così come oggi lo concepiamo sia nato con il contributo di questi due grandi matematici. Il fatto che si possa costruire una macchina che possa servire a molti scopi completamente diversi fra loro è oggi una nozione comune. Ad un livello di descrizione abbastanza generale, il computer su cui state leggendo queste righe, il vostro cellulare, la centralina elettronica della vostra automobile (quella che costa molto se si rompe ...), il computer di una TAC (Tomografia Assiale Computerizzata) sono sostanzialmente la stessa cosa. All'epoca di cui stiamo parlando questo era assolutamente impensabile. Il massimo che si poteva concepire, l'Eniac, era sì una macchina che poteva essere predisposta per calcoli diversi, ma questi dovevano essere preordinati prima, all'esterno della macchina. Diciamo che la "programmazione" della macchina era una cosa molto attinente alla costruzione della medesima.

    Sono i contributi di Turing e di von Neumann che hanno consentito di trasformare i primitivi calcolatori in macchine capaci di risolvere i problemi più vari e di operare in modo flessibile. In macchine cioè che possono assumere comportamenti che dipendono dalle circostanze, sia sotto forma di informazioni che giungono dall'esterno della macchina che dal particolare stato dei calcoli che sono in corso di svolgimento.

    Per ottenere un simile risultato era necessario concepire una macchina astratta nella quale potessero vedere la luce gli elementi fondamentali dell'architettura di un computer moderno: un insieme di istruzioni poste in una memoria che vengono eseguite sequenzialmente da un un'unità di esecuzione. Le istruzioni sono quelle che compongono il software (programma, codice, applicazione), la memoria è quella che oggi chiamiamo RAM, Random Access Memory. Fu Alan Turing nel 1936 ad immaginare una macchina astratta di questo tipo e a definirne le proprietà. Tale macchina è nota oggi con il nome di "macchina di Turing". Potete trovare dei riferimenti ed alcune note bibliografiche nelle pagine scritte da un vostro compagno sulla vita e le opere di Turing.

    L'altro matematico, John von Neumann, tenendo anche conto delle idee di Turing contribuì in modo determinante alla progettazione dei primi veri e propri computer. John von Neumann fu un matematico particolare perché pur essendo in grado di dare importanti contributi teorici ebbe anche la capacità di contribuire concretamente a numerose applicazioni interessandosi anche agli aspetti ingegneristici delle nuove realizzazioni. Il suo ruolo fu così determinante che l'architettura del computer moderno si designa con ilo termine "macchina di von Neumann". L'idea fondamentale della macchina di von Neumann consiste nel fatto che sia i dati che le istruzioni si trovano nella stessa memoria. è l'idea fondamentale che ha dato vita alle macchine a programma interno alla cui categoria appartengono tutti i computerconstruiti sino ad ora. Questa idea ha generato due concetti fondamentali per la programmazione:

     

    1. L'iterazione che consente di riutilizzare uno stesso insieme di istruzioni consecutive con dati diversi. Questa è una cosa fondamentale per potere processare informazioni che sono costituite da grandi quantità di dati. Un buon esempio è costituito dalle immagini. Infatti anche le più semplici operazioni di elaborazione sulle immagini richiedono che una o più operazioni vengano ripetute su tutti i pixel che le compongono: una volta eseguito un calcolo sul contenuto di un pixel mediante una serie di istruzioni si può fare lo stesso calcolo sul prossimo pixel tornando indietro all'istruzione iniziale. Oppure pensate alle informazioni tomografiche o di risonanza magnetica, molto usate in medicina. Si tratta di informazioni che sono composte da sequenze di immagini sulle quali devono essere ripetuti complessi calcoli matematici. Tutto questo è possibile grazie al fatto che le istruzioni sono memorizzate nella memoria del computer, formando il cosiddetto programma interno. Quindi per ripetere ciclicamente una serie di istruzioni l'unità non deve fare altro che puntare all'istruzione iniziale della serie una volta terminata l'ultima.
    2. L'istruzione condizionale che consente di eseguire gruppi di istruzioni diverse in funzione di una certa condizione dipendente dai risultati temporanei. Facciamo un esempio molto concreto per capirsi. Voi o i vostri genitori avrete molto probablmente un conto in banca. Nessuno di voi si immaginerà il proprio conto bancario come un sacco pieno di monete e banconote chiuso con un'etichetta con su scritto il vostro nome e cognome! Ma allora cosa "sono" i vostri soldi? Sono semplicemente numeri (vedrete in seguito come sono codificati questi numeri) memorizzati in una particolare memoria di un computer della banca. Ebbene, qualsiasi operazione voi facciate, un pagamento con un assegno o con la carta di credito, un prelievo con il bancomat, questa si traduce nell'esecuzione di certe istruzioni che agiscono sul saldo del vostro conto. Tuttavia, se esagerate con le spese, può succedere che il vostro conto "vada in rosso", ossia vada sotto 0, diventi negativo. In tal caso potete stare sicuri che il software della banca non eseguirà più le stesse operazioni sul vostro saldo: per esempio calcolerà interessi di tipo molto diverso se il saldo sarà negativo! L'esempio è banale e forse impreciso ma rende bene l'idea.

 

  • L'elettronica miniaturizzata

    Con l'avvento alla fine degli anni 50 dei componenti elettronici a semiconduttore (transistors) e successivamente dei cricuiti integrati si realizzano le prime macchine veloci e sufficientemente affidabili per le applicazioni nel mondo del lavoro. Si assiste ad una crescita impetuosa delle prestazioni che nel giro di pochi decenni genera tecnologie successive destinate ad avere un impatto dirompente nel mondo del lavoro. Negli anni 60 l'evoluzione concerne computer di grandi dimensioni dal valore dell'ordine di 1 milione di Euro. Tali computer, usualmente denominati mainframe, potevano essere acquistati e gestiti solamente da organizzazioni di elevate dimensioni, quali grandi aziende, atenei, banche e via dicendo. Gli utenti accedevano ai mainframe acquistandone il tempo di calcolo.

    Per esempio negli anni 60 e 70 un ateneo della dimensione dell'Università di Firenze era dotato di un centro di calcolo attrezzato con un mainframe destinato a soddisfare le varie esigenze di calcolo quali la gestione amministrativa, la gestione della segreteria studenti, il calcolo scientifico. Per utilizzare il computer i ricercatori dovevano aprire un conto presso il centro di calcolo. I programmi venivano scritti su delle schede perforate mediante apposite macchine perforatrici, una istruzione per scheda. Il pacco di schede contenente il programma veniva lasciato presso il centro di calcolo; gli operatori del centro provvedevano a passare le schede nel lettore di schede e il computer eseguiva il programma ad una determinata ora dipendente dalla coda di tutti gli altri processi pendenti. I risultati erano prodotti mediante appositi tabulati. Il giorno dopo era possibile ritirare i tabulati con i risultati ed il pacco di schede. Il tempo di calcolo e l'impiego delle risorse (spazio di memoria su disco) venivano conteggiati automaticamente per detrarre l'importo dal conto dell'utente secondo opportune tariffe.

    Il processo di miniaturizzazione dà origine negli anni 70 ai minicomputer. Con questi gran parte delle funzionalità del computer possono essere ottenute da componenti distribuiti su poche schede elettroniche. I costi diventano accessibili a livello dipartimentale e di piccole aziende essendo dell'ordine di alcune centinaia di migliaia di Euro. Per esempio verso la fine degli anni 70 era normale che l'unità di Medicina Nucleare di un ospedale avesse un proprio centro di calcolo per l'acquisizione, l'elaborazione e la gestione dei dati.

    Negli anni 80 il processo di miniaturizzazione consentì la realizzazione di macchine nelle quali pressoché tutte le principali funzionalità venivano gestite da componenti integrati montati su di una sola scheda: nasce cosi il microcomputer. Si raggiunge la diffusione capillare del computer. Negli anni 90 è la volta delle infrastrutture di rete grazie alle quali qualsiasi computer può agevolmente essere messo in contatto con tutti gli altri. Le rivoluzioni tecniche indotte dalla continua miniaturizzazione dei componenti elettronici hanno avuto conseguenze tali da individuare una nuova categoria di tecnologie: le "disruptive technologies".

 

  • La legge di Moore

    Si ritiene che questo progresso tecnologico sia ancora in atto e che per alcuni anni debba continuare a valere la cosiddetta legge di Moore la quale dice che il numero di componenti Nt che si riesce ad integrare in un singolo chip raddoppia circa ogni 1.5 anni. Questo equivale a dire che si tratta di una crescita esponenziale descritta dalla formula seguente

 

Nt = 20 x 2(anno-1965)/1.5

 

  • Nel grafico seguente la linea continua riporta la legge di Moore ed è confrontata con l'effettivo numero di transistors contenuti nei chips prodotti dalla Intel nel corso degli anni.

 

 

  • Il grafico termina con il Pentium II (1997). Gli ultimi processori prodotti hanno superato 1 miliardo di componenti.

 

Possiamo dare un'idea dei riflessi concreti di questo andamento facendo il seguente confronto

 

Dal Cray X-MP alla Playstation

 

1986: Il National Center for Supercomputing Applications (Illinois) ha acquistato il primo Cray X-MP, il primo supercomputer progettato esplicitamente per applicazioni scientifiche avanzate

  • 16 miliardi di L.
  • 60000 Watt (alimentazione dedicata)
  • impianto di raffreddamento
  • privo di capacità grafiche
  • collegato ad altri centri con dorsale 56 Kb/s

 

2008: Chiunque può acquistare al supermercato una Playstation o una Wii (processore Power PC)

  • oggi, diciamo, circa 200 euro...
  • 5 Watt
  • uso domestico
  • incredibili capacità grafiche e di interazione
  • possibile collegamento domestico ADSL a parecchi Mb/s

 

  • Il personal computer

    Fin qui abbiamo incontrato le macchine più varie, dalla Pascalina all'Eniac e al supercomputer per fare calcoli scientifici, il Cray. Non abbiamo visto tuttavia niente di simile ai computer che usiamo tutti i giorni, genericamente noti come personal computer, o PC.

    Il personal computer è un classico esempio di disruptive technology. Si può dire che sia nato quasi per scherzo dall'iniziativa di due giovani forse troppo vispi e intraprendenti per rimanere a languire all'università, Steve Wozniak e Steve Jobs. Nel 1975 mettono insieme un microprocessore, una tastiera ed un piccolo visore per fare qualcosa che assomiglia assai poco ai computer che conoscete ma che in realtà, al pari di questi ultimi è una macchina di von Neumann, cioè ha l'anima di un vero computer.

    I dettagli di questa tipica storia dell'impreditoria americana li potete trovare in una breve storia del Macintosh scritta da due vostre compagne. Qui diciamo solo che già nel 1976 Wozniak e Jobs iniziarono a vendere computer dando vita alla Apple. Come si vede, è la Apple la prima azienda ad avere proposto al mercato il personal computer. Curiosamente, sarà sempre la Apple a proporre le più significative innovazioni intorno a questo tema e non vi è dubbio alcuno che manterrà sempre la leadership tecnologica.

    La maggiore innovazione è stata certamente l'introduzione nel 1982 dell'interfaccia grafica con pulsanti e simboli grafici che l'utente può attivare sullo schermo mediante un dispositivo di puntamento, il mouse. Questa tecnologia era stata ideata poco tempo prima in un progetto di ricerca della Xerox, presso i suoi laboratori situati a Palo Alto in Calfornia. Su di un quotidiano italiano apparve un articolo di Luciano De Crescenzo, il noto scrittore di libri divulgativi di filosofia ma in origine ingegnere di IBM Italia, su di un rivoluzionario computer che chiunque poteva imparare ad usare senza sapere nulla di informatica grazie all'interfaccia grafica.

    È molto curioso che né la Xerox, cui spetta il merito di avere ideato la tecnologia, né la Apple, che è riuscita ad ingegnerizzarla in un ottimo prodotto commerciale, siano riuscite a trarne debiti profitti. La Xerox ha addirittura abbandonato il progetto e la Apple non è riuscita mai a conquistare la leadership del settore a causa della travolgente crescita di una specie di brutto anatroccolo dei personal computer che è, sì, diventato un cigno come nella favola ma in verità un cigno piuttosto spelacchiato. Prima di vedere questa storia è interessante rilevare come spesso prodotti che sembrerebbero avere tutte le carte in regola per essere vincenti finiscano poi per avere una vita molto più stentata del previsto. Perché, per esempio, la Xerox che aveva concepito quella che è risultata un'innovazione rivoluzionaria l'ha addirittura abbandonata senza ricavarne alcun apprezzabile profitto?

    Vale la pena fare una riflessione su questo aspetto. Dal nostro punto di vista di utenti e consumatori, il tumultuoso sviluppo della Information Technology con tutti i suoi miracolosi prodotti ci fa pensare ad una interminabile serie di travolgenti successi. La realtà è invece molto diversa. Come succede in tutte le aziende, le decisioni sulle strategie di lancio, produzione e marketing vengono prese dai cosiddetti manager. Naturalmente, un manager deve conoscere le logiche del mercato ma deve anche avere delle idee abbastanza chiare sulla natura dei prodotti e qui viene il punto dolente. Le tecnologie si sviluppano oggi ad una velocità incredibile e sono molto molto complesse. In questi settori è abbastanza vero (non sempre) che i manager hanno iniziato la loro carriera nei quadri tecnici e quindi partono con una buona preparazione. Tuttavia, dal momento in cui si sono formati tecnicamente a quello in cui operano come manager passano anni e in questi anni le cose possono essere cambiate molto. È vero che i contatti fra i manager di vario livello e i tecnici (ingegneri, programmatori e via dicendo) sono molto frequenti ma può essere veramente molto difficile avere le idee sufficientemente chiare sulle caratteristiche di quello che si vuole proporre al mercato, su cosa effettivamente il mercato vuole e su come proporre i nuovi prodotti, tutto questo in un clima di spietata concorrenza. In effetti, se si va a vedere la storia delle più importanti aziende che hanno operato nella settore della Information Technology negli ultimi 30 anni, questa è costellata di clamorosi e quasi incomprensibili incidenti. Nella sezione "Letture" trovate il riferimento ad un libro molto divertente su questo argomento. Messo in questa luce quello del manager appare un lavoro infernale, un po' assimilabile alla situazione di un comandante, costretto a condurre la propria nave sempre bendato eccetto qualche raro e casuale momento nel quale può intravedere qualcosa. Detto così sembra uno scherzo e invece è una descrizione abbastanza attinente alla realtà.

    Ritorniamo al brutto anatroccolo dei computer. Questo è il personal computer, concepito dalla IBM nel 1980. Già nel 1975 IBM aveva tentato di costruire un microcomputer ma l'iniziativa abortì miseramente. Invece, nel 1980 il consiglio di amministrazione dell'IBM fu preso dal panico: era ormai diventato chiaro che la più grande e stabile multinazionale del mondo, sulla breccia da oltre mezzo secolo, avrebbe rischiato di svanire per colpa del personal computer il quale si stava rivelando una terribile disruptive technology. La IBM vendeva i mainframe, potentissimi e costosissimi computer, alla maggior parte delle grandi organizzazioni e delle banche di tutto il mondo ma se non avesse messo le mani sul mercato dei piccoli personal computer, sarebbe perita rapidamente perché quello era un mercato dai numeri colossali: si potevano fare molti più soldi vendendo moltissimi computer economici che pochi costosi computer.

    La IBM aveva le spalle sufficientemente grosse per costruire un computer ex novo per quanto riguarda la parte hardware. Infatti il progetto IBM si impose rapidamente dando vita alla grande famiglia dei computer "IBM compatibili", riprodotti successivamente da una miriade di aziende in tutto il mondo. Il software si rivelò invece l'ostacolo maggiore per la rapida commercializzazione della nuova creatura. La IBM aveva prodotto sino a quel momento molto software ma solo per i grossi mainframe e non aveva assolutamente niente che entrasse in macchine così piccole. I manager di IBM, data l'emergenza della situazione, furono costretti a trovare una soluzione all'esterno e la trovarono presso la Microsoft, un'azienda ancora relativamente piccola che era nata nel 1976 dall'iniziativa di Bill Gates e Paul Allen, altri due giovani più attratti dalle avventure imprenditoriali che dalle carriere accademiche. Fino a quel momento Bill Gates e Paul Allen avevano prodotto software per scrivere programmi in vari linguaggi su vari microprocessori ma questo con la IBM fu decisamente l'affare della loro vita. Bill Gates viene spesso descritto come un "genio dell'informatica" ma forse è molto più corretto considerarlo un genio dell'impreditoria. In effetti la vera impresa di Bill Gates è stata quella di riuscire ad offire ad IBM sempre la soluzione più conveniente finendo col diventare un colosso della Information Technology.

    Il primo sistema operativo prodotto da Microsoft per i computer IBM si chiamava DOS e consentiva di interagire con il computer solamente mediante comandi che dovevano essere scritti sul terminale e che l'utente doveva impararsi su di un manuale. Niente interfaccia grafica dunque. C'è da domandarsi come abbia potuto confrontarsi con successo un simile prodotto con i computer della Apple che nel 1982 furono in grado di porre sul mercato una macchina con interfaccia completamente grafica. La risposta sta sostanzialmente in una politica dei prezzi molto aggressiva fondata sul fatto che la gente era ancora molto titubante a mettersi in casa un prodotto che nell'immaginario collettivo era un qualcosa di estremamente sofisticato (ci si riferiva ancora al computer col termine "cervellone elettronico") ma che non era del tutto chiaro a cosa potesse servire. Ricordo il padre di un mio coetaneo che aveva comprato uno di questi oggetti e che, sapendo che io ero uno studente di fisica e immaginando erroneamente che ci capissi qualcosa, mi chiese di provarlo per dirgli che cosa ci si poteva fare. Io conclusi che non serviva assolutamente a nulla ... meno male non ho fatto il manager! In questa situazione era ovvio che le persone avessero poca voglia di esporsi più di tanto economicamente e quindi fu favorito il prodotto dal costo più basso.

    È anche opportuno ricordare che nella stessa epoca esisteva già un ottimo sistema operativo, lo Unix. Questo sistema è nato nel 1969 presso i prestigiosi Bell Laboratories, i laboratori di ricerca della compagnia telefonica Bell, poi diventata AT/T. Alla fine degli anni 70 esistevano già una decina di versioni di Unix che era stato adottato da diverse aziende per implementarlo su diversi tipi di computer. Il sistema operativo Unix, diventato presto uno dei più potenti, versatili e flessibili sistemi operativi, era stato concepito sin dall'inizio per consentire a più persone di lavorare su di uno stesso computer. Inizialmente Unix era nato come uno strumento di ricerca, in particolare uno strumento per la produzione software. Tuttavia, il sistema funzionava così bene che presto trovò numerosissime applicazioni in altri campi della scienza, nelle università, nell'industria e nel commercio. Era il sistema per applicazioni tecnico-scientifiche per eccellenza. Quindi negli anni 80 Unix, in tutte le sue numerose varianti, era un prodotto solidissimo che consentiva la condivisione delle risorse del computer fra numerosi utenti senza problemi. Tutta un'altra cosa rispetto al DOS che i primi utenti dei PC si ritrovarono sui loro computer e con il quale si poteva fare rigorosamente una sola cosa per volta.

    In realtà i manager di IBM avevano altri piani in mente e pensavano che, una volta superata l'emergenza dell'ingresso nel mercato dei personal computer, si sarebbero potuti sbarazzare facilmente della Microsoft producendo un sistema operativo "serio" in casa. In effetti questo sistema operativo prodotto da IBM ha visto la luce ma per poco tempo. Si chiamava OS/2 ed era stato programmato per uscire nel 1986. Il momento sarebbe stato buono perché il contrasto fra l'interfaccia dei computer Apple, in commercio già dal 1982 (un tempo rilevante per questo tipo di prodotti) ed i rozzi comandi del DOS iniziava a farsi pesante. L'idea del sistema OS/2 era buona perché avrebbe dovuto avere le prestazioni di Unix ed un interfaccia grafica all'altezza di quella dei computer Apple. Probabilmente se fosse effettivamente uscito nel 1986 avrebbe fatto in tempo a consolidarsi nel mercato ma invece uscì nel 1988 e questo ritardo si rivelò fatale. Il brutto anatroccolo PC-DOS si stava ormai trasformando in un cigno, anche se molto spelacchiato, di nome Windows. Bill Gates si rivelò in questo frangente assolutamente brillante nel mantere salda la presa sul mercato e il sistema OS/2 perì miseramente malgrado fosse stato prodotto da quella che era stata per decenni una delle più potenti multinazionali.

    Non stiamo a descrivere i dettagli delle varie versioni di Windows che si sono susseguite sino ad ora: Windows 3.0, Windows 95, Windows 98, Windows 98 SE, Windows NT, Windows 2000, Windows XP. Avete trovato il vostro? Mi limito qui a dire che in realtà vi sono almeno due sottofamiglie. Una di sistemi concepiti per l'uso domestico o comunque leggero: Windows 3.0, Windows 95, Windows 98, Windows 98 SE. L'altra per uso professionale: Windows NT e Windows 2000. Questi ultimi sono sistemi superiori rispetto ai primi e riproducono le funzionalità di base dei sistemi Unix. Windows XP è stato invece concepito come un sistema che riunisce in se le caratteristiche delle due famiglie. I pareri sul fatto che questa operazione sia riuscita o meno sono controversi. Sta di fatto che incidenti riconducibili a blocchi del computer, programmi divenuti instabili, deterioramento delle prestazioni, necessità di riinstallare tutto ex novo, costituiscono un esperienza comune dell'utente Windows.

    Sono invece praticamente immuni da tali problemi i PC equipaggiati con il sistema operativo Linux e con Mac OS X (computer Macintosh). O meglio, è più corretto dire quasi immuni, perché sistemi perfetti non esistono e mai esisteranno. Tuttavia la differenza rispetto alle macchine Windows è veramente grossa.

    Rimando ad una sezione successiva, "Scelta del computer", il confronto attuale fra i diversi sistemi. Poiché sia Linux che Mac OS X utilizzano software Open Source è opportuno che leggiate prima qualcosa su questo tipo di software più avanti in questo capitolo.

  • Internet

    Non vi è dubbio che il propellente principale dell'esplosione delle tecnologie informatiche sia l'incredibile crescita della potenza di calcolo dei computer ed il crollo dei costi di tali prodotti. Tuttavia un altro ingrediente fondamentale è quello costituito dalle infrastrutture di rete, cioè da quell'insieme di tecnologie di telecomunicazione che consentono la comunicazione di computer lontani.

    Le tecniche impiegate per collegare computer diversi sono estremamante varie ed in rapidissima evoluzione. Questo rende difficile la realizzazione di progetti organici per la diffusione e l'impiego delle infrastrutture di rete poiché spesso avviene che, anche entro i tempi minimi necessari per l'installazione di un nuovo tipo di infrastuttura, possono nascere nuove tecnologie che rendono obsoleti i nuovi impianti ancora prima che questi siano stati completati.

    Malgrado queste difficoltà è un dato di fatto che i computer oggi possano facilmente comunicare fra loro. Questo è dovuto all'esistenza di un insieme di programmi software, i cosiddetti protocolli di rete, che consentono di gestire la comunicazione fra macchine diverse a prescindere dalla natura fisica dei collegamenti. È così che si è materializzata quella cosa che oggi chiamiamo Internet e che potremmo sinteticamente definire come l'insieme di tutte le reti che possono comunicare fra loro.

    Internet è nata alla fine degli anni Sessanta, con il nome di ARPAnet, nell'ambito di un progetto del Dipartimento della Difesa degli Stati Uniti (ARPA era l'acronimo di Advanced Research Project Agency, l'agenzia di ricerca di quel Dipartimento). L'obiettivo del progetto era quello di realizzare una rete di comunicazione fra computer remoti per

    La prima realizzazione nel 1969 connetteva solamente 4 computer dislocati nello Standford Research Institute, nelle Università di Los Angeles, di Santa Barbara e dello Utah. Già nel 1971 i nodi erano 21 e nel 1973 furono realizzate le prime connessioni internazionali. Fra la fine degli anni '70 e l'inizio degli anni '80 vide la nascita una rete destinata a scopi accademici separata da quella militare. Fu in tale fase che furono definiti i protocolli di rete, brevemente denominati TCP/IP, che sono stati alla base dei vari sviluppi successivi. Oggi si stima che gli utenti di Internet si aggirino intorno a 600 milioni!

    La diffusione delle infrastrutture di rete ha dato luogo a moltissime innovazioni nel mondo del lavoro e della ricerca in virtù della economia di scala che Internet offre. Si può dire che, da un certo punto in poi, Internet abbia creato una sorta di corto circuito fra potenziali decine di milioni di utenti di software e milioni di programmatori di software. Oggi tutte le aziende coinvolte nella produzione del software non possono fare a meno di pensare ai propri prodotti all'interno della rete anziché nell'ambito del singolo computer di ciascun utente.

    • consentire la comunicazione e lo scambio dei dati tra computer aventi diverse architetture hardware e differenti sistemi operativi;
    • assicurare la possibilità di comunicazione anche in caso di emergenze quali un attacco nucleare.

 

  • La prima realizzazione nel 1969 connetteva solamente 4 computer dislocati nello Standford Research Institute, nelle Università di Los Angeles, di Santa Barbara e dello Utah. Già nel 1971 i nodi erano 21 e nel 1973 furono realizzate le prime connessioni internazionali. Fra la fine degli anni '70 e l'inizio degli anni '80 vide la nascita una rete destinata a scopi accademici separata da quella militare. Fu in tale fase che furono definiti i protocolli di rete, brevemente denominati TCP/IP, che sono stati alla base dei vari sviluppi successivi. Oggi si stima che gli utenti di Internet si aggirino intorno a 600 milioni!

    La diffusione delle infrastrutture di rete ha dato luogo a moltissime innovazioni nel mondo del lavoro e della ricerca in virtù della economia di scala che Internet offre. Si può dire che, da un certo punto in poi, Internet abbia creato una sorta di corto circuito fra potenziali decine di milioni di utenti di software e milioni di programmatori di software. Oggi tutte le aziende coinvolte nella produzione del software non possono fare a meno di pensare ai propri prodotti all'interno della rete anziché nell'ambito del singolo computer di ciascun utente.

  • Un nuovo modo di produrre il software

    Negli ultimi 10 anni abbiamo assistito ad una vera e propria rivoluzione nelle modalità di produzione del software. Già negli anni '70 iniziò ad essere chiaro che il software era destinato a rivestire un ruolo di importanza strategica nell'industria. Fu infatti in quegli anni che nacque il concetto di "software proprietario" con il quale si intende che al cliente viene ceduta solo la componente esecutiva e non i codici necessari per capire come siano realizzate le varie funzionalità.

    Si trattava di un concetto che tutto sommato in altre attività produttive era scontato: a nessuno sarebbe venuto in mente di pretendere le caratteristiche progettuali di un'automobile al momento dell'acquisto. Le varie competenze necessarie alla fabbricazione delle automobili confluivano le aziende di produzione e là vi rimanevano confinate.

    Il software ha invece la particolarità di essere un prodotto volatile e di presentare meno passaggi intermedi fra la progettazione e la realizzazione nel senso che un programmatore trova nel suo computer tutti gli strumenti necessari per trasformare un codice in un programma eseguibile. Non ci sono di mezzo catene di montaggio, assemblaggio di componenti fisici diversi e via dicendo. Inoltre, oggi si può dire che il software può essere prodotto direttamente in un ambiente che possiamo identificare senza mezzi termini con Internet.

    Si è sviluppata così una vastissima comunità di sviluppatori che ha dato vita ad un modello produttivo assolutamente inedito. È doveroso ricordare che tale modello produttivo è stato immaginato da un ricercatore genialoide e un po' visionario: Richard Stallman, ricercatore presso il celebre laboratorio di "intelligenza artificiale" del MIT fra il 1975 ed il 1985.

    A questo fantasioso ma tenace ricercatore dobbiamo la precoce e lucida definizione di un modello di sviluppo diverso da quello che sembrava dovesse inesorabilmente evolversi nell'ambito della produzione industriale convenzionale.

    La visione di Stallman conduceva all'individuazione di una etica dello sviluppo e diffusione del software in base alla quale l'autore deve impegnarsi a diffondere in chiaro il codice consentendo a chiunque di modificarlo successivamente per migliorarlo. Stallman giustificava questo modello con l'asserzione che il software è un prodotto dell'ingegno umano e come tale deve essere considerato un patrimonio comune e, quindi, non deve essere assoggettato ad alcuna restrizione nella sua diffusione.

    Stallman si preoccupò anche di creare (per svolgere tale attività, nel gennaio 1985, rinunciò anche al suo posto di ricercatore presso i laboratori del MIT) un'organizzazione per la tutela del software prodotto secondo questo modello, la Free Foundation Software (FSF) ed uno strumento per proteggere il software prodotto in questo modo, la General Public Licence (GPL).

    Più precisamente si prevede che chi riceve un programma coperto da GPL abbia quattro tipi di libertà:

    Secondo la FSF, tali diritti derivano da una question etica e non hanno niente a che vedere con il fatto che il software sia distribuito a pagamento o meno. Per quanto esista una cospicua quantità di software distribuito con la licenza GPL (per esempio il sistema Linux è distribuito con la licenza GPL) ha finito con il prevalere una tipologia che va sotto il nome di Open source (a codice aperto) con la quale non si pone tanto l'enfasi sugli aspetti etici quanto sugli aspetti di natura tecnica ed economica inerenti alla libera distribuzione del software. Con il termine Open source si comprende senz'altro il codice GPL ma anche qualsiasi altro tipo di software rilasciato insieme al suo codice. Commentando il contesto economico ed industriale attuale è senz'altro appropriato riferirsi tout-court al software Open source.

    1. eseguire il programma
    2. studiare il funzionamento leggendone il codice
    3. ridistribuire a sua volta il codice
    4. migliorare il codice e ridistribuirlo.
  • Impatto del software open source

    È opportuno innanzitutto riferire alcune cifre per evidenziare l'entità del fenomeno. Attualmente il software Open source, partito come abbiamo visto da istanze etiche e con modalità in stridente contrasto con la prassi industriale consolidata, basata sulla stretta osservanza del diritto di proprietà, costituisce un elemento estremamente rilevante con il quale anche le più importanti realtà economiche della Information Technology (IT) devono fare i conti.

    Esistono applicazioni di ogni tipo nell'ambito dell'offerta Open source; si può dire tuttavia che il motore della crescita esplosiva del codice Open source sia costituito dal sistema operativo Linux che da prodotto dell'iniziativa spontanea di un giovane studente, Linus Torwalds è diventato forse il più robusto ed affidabile sistema operativo esistente: il 60 % dei cosiddetti web servers diffusi nel mondo è sostenuto dal sistema Linux. Questo significa che ogni volta che fate un click con il mouse in una pagina Web avete il 60 % di probabilità di accedere ad una macchina Linux.

    Sembra incredibile ma la crescita di Linux è giunta ad un punto tale da influire pesantemente sul destino dei più importanti attori della IT dividendoli in vincitori e perdenti in relazione al grado di accettazione della nuova tecnologia. Si può tranquillamente affermare che Linux sia un eclatante esempio di "disruptive technologies".

    Larry Ellison, l'attuale CEO (Chief Executive Officer) della Oracle, la seconda più grande azienda software (e maggiore produttore di software per la gestione dei data base), ama spiazzare i propri interlocutori. Nel Marzo 2003 si è riesibito in questa sua caratteristica attaccando il suo antico nemico, la Microsoft, prima azienda software del mondo. Microsoft - ha dichiarato - ha rischiato di essere "cancellata dalla faccia della terra" da Linux, il sistema operativo open-source liberamente disponibile sviluppato da Linus Torwalds, un programmatore finlandese e un gruppo di appassionati. Anche se forse questa dichiarazione è un po' drastica, essa contiene un germe di verità perché la crescita di Linux sta effettivamente cambiando le dinamiche del business dei computer: alcuni dei titani dell'industria software ne beneficiano pesantemente mentre altri ne vengono danneggiati pericolosamente.

    L'attrazione di Linux è evidente: è liberamente disponibile, al contrario dei sistemi operativi quali Windows della Microsoft e Solaris della Sun. Gira su quasi tutti i computer a vantaggio della compatibilità, flessibilità ed ulteriori riduzioni dei costi.

    Linux è utilizzato principalmente nei server, i computer che stanno al centro delle organizzazioni per gestire posta elettronica, pagine web, condivisione delle informazioni e stampa. Computer equippaggiati con Linux possono anche essere riunite in "clusters" per ottenere le prestazioni di un supercomputer a costi estremamente ridotti.

    Linux ha ancora un impatto marginale nella fascia più alta del "business computing" che comprende settori quali quello della gestione degli addebiti delle telocomunicazioni o della prenotazione delle linee aeree. Tuttavia sta avanzando constantemente in questi settori. Inizialmente impiegato da aziende informatiche, ora viene utilizzato da aziende quali Merril Linch, Verizon e Boeing. Un rappresentante di un'azienda specializzata (Linuxcare) nel supporto alle grandi imprese che intraprendono la transizione a Linux sostiene che il 2001 è stato l'anno dell'indagine sull'adozione di Linux, il 2002 l'anno dei progetti pilota ed il 2003 l'anno della transizione reale al nuovo sistema. Un recente rapporto della Gartner, specializzata in indagini di mercato, conclude che "le imprese iniziano a considerare Linux come un'alternativa vantaggiosa rispetto a Unix e Windows".

    La Sun Microsystem, uno dei maggiori produttori di server, è l'azienda che ha subito le maggiori perdite in seguito alla diffusione di Linux. Il prodotto Solaris è considerato una delle più apprezzate interpretazioni di Unix, il sistema operativo che tipicamente equipaggia i server di fascia alta. Tuttavia per molte applicazioni sta emergendo che Solaris può essere tranquillamente sostituito da Linux. Accade così che in moltissimi casi si preferisce utilizzare un economico PC con Linux al posto di un costoso computer con Solaris.

    Il fenomeno è cresciuto al punto tale da minacciare l'esistenza stessa della Sun constringendola ad includere la nuova tecnologia nemica nella propria offerta. Nel 2002 Sun ha lanciato il proprio server equipaggiato con Linux ed ora i server Sun sono offerti con ambedue i sistemi consentendo ai clienti una morbida transizione da Linux a Solaris laddove richiesto. Molti osservatori sono tuttavia scettici sul futuro di Sun.

    Il colosso dell'informatica, IBM , insieme a Hewlett-Packard e Dell, ha tratto invece vantaggio dalle circostanze ponendo tempestivamente sul mercato server con Linux. La IBM ha adottato Linux nel 1999 (nel 2000 ha investito 1 milione di dollari in Linux) che viene ora offerto su tutte le fasce di computer, ,dal più piccolo PC al più grande mainframe. Grazie a queste iniziative IBM ha incrementato le vendite di mainframe grazie ad un nuovo sistema mediante il quale un singolo mainframe può ospitare decine di piccoli server Linux virtuali. Così grandi aziende in possesso di un mainframe hanno potuto liberare intere stanze piene di server Unix.

    Inaspettatamente, Linux ha fornito la soluzione di un problema che affliggeva la IBM da anni: un sistema operativo che unificasse tutte le proprie linee produttive. è così che Linux sta favorendo le aziende che si basano sulla diversificazione tecnologica e tende invece a punire quelle che spingono una sola tecnologia a spese di altri, quali Microsoft o Sun.

    Dobbiamo quindi concludere che la Microsoft sta per essere annientata da Linux? Non ancora. La posizione di Microsoft deriva dal dominio del suo sistema operativo Windows che gira sul 90% di quei computer che si trovano sulle scrivanie di tutti gli uffici del mondo. Tuttavia per Microsoft l'espansione di Windows anche nel mondo dei server, inzialmente dominato da macchine Unix, era considerata fondamentale. L'operazione aveva avuto inizialmente successo perché i server Windows erano più economici dei server Unix. I problemi per Microsoft sono sorti quando è emerso che i server Linux sono ancora più economici dei server Windows.

    Inoltre, Windows è la piattaforma sulla quale i virus si diffondono più facilmente mentre i server equipaggiati con Linux sono generalmente più sicuri. Microsoft sta cercando di correre al riparo ponendo una versione di Windows per i server pù economica e rendendo il codice sorgente disponibile alle istituzioni goverantive perché possa essere esaminato. Questa misura, del tutto inedita per un'azienda che ha sempre custodito gelosamente i codici, trova la sua motivazione nella preferenza che molte pubbliche amministrazioni hanno preferito Linux perché questo consente di ridurre i costi, di migliorare la gestione grazie alla trasparenza del software Open source e di ridurre un legame obbligato con singole imnprese fornitrici.

    La conseguenza più probabile di questi eventi e che gli utenti dispongono ora della scelta fra Linux, che è economico ed affidabile, e Windows, più ricco di orpelli attraenti, ben integrato con altri prodotti Microsoft e più facile da usare per utenti meno tecnicamente preparati ma più costoso. In generale quindi più che essere sconfitta Microsoft vede ridursi il ruolo di vincitore assoluto mentre nel mercato dei server Microsoft ha trovato in Linux un reale forte competitore.

    La reale minaccia cui Microsoft si sente esposta trapela anche dai comunicati diffusi in questi ultimi anni ove si descrive l'avvento dell'Open source come di un qualcosa che potrebbe distruggere interamente l'industria commerciale. Secondo i quadri della Microsoft, i software Open source di maggiore successo, quali Linux, Apache (motore di web server) o MySQL (database), riducono l'incentivo delle industrie ad innovare con la conseguente stagnazione ed infine il collasso della produzione industriale.

    Il disegno di questo scenario è in realtà unilaterale. L'innovazione software nasce in realtà nelle università e nelle piccolissime aziende emergenti (start-ups), non nelle grandi aziende. È signifcativo il fatto che Microsoft sta cercando di diffondere queste idee tramite una lobby denominata "Initiative for Software Choice" con la speranza di dissuadere le publiche amministrazioni dall'adottare il software Open source.

  • Codice a sorgente aperto nelle pubbliche amministrazioni , Nel corso dell'ultimo lustro i governi di numerosi paesi nel mondo hanno preso posizione nei riguardi del fenomeno Open source con una generale tendenza a prendere in considerazione anche l'offerta Open source nell'acquisizione di software per le pubbliche amministrazioni. Quasi tutti i governi si sono mossi designando una commissione di esperti per eseguire un'indagine conoscitiva sul fenomeno. Questo è accaduto in Regno Unito, Danimarca, Belgio, USA, Nuova Zelanda, Sud Africa, Argentina, Perù, India, Germania, Cina, Corea del Sud.

    La lista è probabilmente destinata ad allungarsi. In Italia il MIT (Ministero per l'Innovazione e le Tecnologie) ha incaricato una commissione di esperti di eseguire un'indagine che, in seguito ad un lavoro di circa sette mesi, ha prodotto un circostanziato documento dal titolo "Indagine conoscitiva sul software a codice sorgente aperto nella Pubblica Amministrazione".

    Sintetizzando, si può affermare che tutte queste iniziative sono unanimi nell'affermare che:

    La dimostrazione dell'importanza di tali iniziative è data dall'intensa azione di lobbying che la Microsoft ha intrapreso nei confronti delle pubbliche amministrazioni dei vari paesi. Tale attività di lobbying è sostenuta mediante un'organizzazione creata appositamente, la "Initiative for Software Choice" (ISC) che cerca di fare leva principalmente sul concetto di "value for money" mettendo in evidenza ed enfatizzando tutti gli oneri meno palesi che l'impiego delle soluzione Open source può comportare. Concetto che peraltro tutte le istituzioni pare abbiano adottato.

    1. le pubbliche amministrazioni devono prendere in considerazione anche i prodotti Open source nelle acquisizioni di nuovo software
    2. deve comunque prevalere un criterio del tipo "value for money" per giustificare la scelta di qualsiasi tipo di soluzione, nel senso che la scelta deve basarsi sul valore reale ottenuto a fronte di tutti i costi.

 

  • Proposte e raccomandazioni del documento italiano

    Il documento proposto dalla commissione del MIT è particolarmente esteso e circostanziato. Ecco alcuni dei punti punti più rilevanti che in esso sono messi in evidenza per quanto riguarda l'acquisizione di nuovi pacchetti software all'interno delle pubbliche amministrazioni

     

    • Non si dovrebbe mai escludere o penalizzare il software Open source purché la scelta sia sempre subordinata al criterio "value for money"
    • Il software sviluppato appositamente per una organizzazione pubblica deve sempre rimanere in piena proprietà dell'organizzazione medesima (anche se non necessariamente proprietà esclusiva)
    • All'interno delle pubbliche amministrazioni deve essere favorito il riutilizzo del software già sviluppato per altre organizzazioni pubbliche così come deve essere favorita la diffusione di informazioni relative a precedenti esperienze di successo

       

    • Tutti i pacchetti acquistati con licenza proprietaria devono essere disponibili in forma aperta al fine di consentire ispezioni e verifiche del codice
    • Tutti i documenti prodotti devono essere memorizzati e resi disponibili in almeno un formato libero
    • Il software sviluppato per il settore pubblico e le licenze acquistate deveono potere essere liberamente trasmissibili da un'amministrazione all'altra

 

 

Comments (0)

You don't have permission to comment on this page.