Storia della tecnologia del computer

Gli elaboratori elettronici, utilizzanti relè o valvole, cominciarono ad apparire nei primi anni 1940. Lo Zuse Z3 elettromeccanico, completato nel 1941, fu il primo computer programmabile del mondo e – secondo i moderni – una delle prime macchine che potesse essere considerata una macchina informatica completa. Colossus, sviluppato in Inghilterra durante la Seconda guerra mondiale per decrittare i messaggi tedeschi, fu il primo computer digitale elettronico. Sebbene fosse programmabile, non era multiuso, essendo progettato per eseguire solo un unico compito.

Gli mancava anche la capacità di immagazzinare il suo programma in una memoria: la programmazione era condotta usando spine e interruttori per alterare la cablatura interna. Il primo computer a programma memorizzato digitale elettronico riconoscibilmente moderno fu la Small-Scale Experimental Machine (SSEM), ossia “macchina sperimentale su scala ridotta”, che eseguì il suo primo programma il 21 giugno 1948.

Dispositivi per aiutare la memoria umana nell’effettuare calcoli numerici sono usati da migliaia di anni. Probabilmente i primi ausilii furono i bastoncini di contrassegno. La macchina di Anticitera, risalente all’incirca al principio del I secolo a.C., è considerata generalmente il primo computer analogico e il primo meccanismo a ingranaggi conosciuto. Meccanismi a ingranaggi comparabili non emersero in fino al XVI secolo, e fu solo nel 1645 che fu sviluppato il primo calcolatore meccanico capace di eseguire le quattro operazioni aritmetiche elementari.

Lo sviluppo dei transistor alla fine degli anni 1940 presso i Laboratori Bell permise a una nuova generazione di computer di essere progettati con un consumo elettrico notevolmente ridotto. Il primo computer a programma memorizzato disponibile commercialmente, il Ferranti Mark I, conteneva 4.050 valvole e aveva un consumo elettrico di 25 kilowatt. Per fare un paragone, il primo computer transistorizzato, sviluppato all’Università di Manchester e operativo a partire dal novembre 1953, consumava solo 150 watt nella sua versione finale.

Memorizzazione dati
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Supporto di memoria.
I primi computer elettronici come Colossus facevano uso di un nastro perforato, una lunga striscia di carta sulla quale i dati erano rappresentati da una serie di buchi, una ora obsoleta. La memorizzazione elettronica dei dati, che si usa nei computer moderni, risale alla Seconda guerra mondiale, quando fu sviluppata una forma di memoria a linea di ritardo per rimuovere l’eco spurio dai segnali radar, la cui prima applicazione pratica fu la linea di ritardo al mercurio.

Il primo supporto di memoria digitale ad accesso casuale fu il tubo Williams, basato su un normale tubo a raggi catodici, ma l’informazione memorizzata in esso e la memoria a linea di ritardo era volatile in quanto doveva essere aggiornata continuamente, e così si perdeva una volta che era rimossa la corrente. La prima forma di memorizzazione per computer non volatile fu il tamburo magnetico, inventato nel 1932 e usato nel Ferranti Mark 1, il primo computer elettronico multiuso del mondo disponibile commercialmente.

L’IBM introdusse il primo disco rigido nel 1956, come componente del suo sistema di computer 305 RAMAC. La maggior parte dei dati digitali oggi sono ancora memorizzati magneticamente sui dischi rigidi, oppure otticamente su mezzi come i CD-ROM. Fino al 2002 la maggior parte delle informazioni era memorizzata su dispositivi analogici, ma quell’anno la capacità di memorizzazione digitale superò per la prima volta quella analogica. Al 2007 quasi il 94% dei dati memorizzati in tutto il mondo era conservato digitalmente: il 52% su dischi rigidi, il 28% su dispositivi ottici e l’11% su nastro magnetico digitale. È stato stimato che la capacità mondiale di memorizzare informazioni su dispositivi elettronici crebbe da meno di 3 exabyte nel 1986 a 295 exabyte nel 2007, raddoppiando grosso modo ogni 3 anni.

Basi di dati
Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Base di dati.
I sistemi di gestione delle basi di dati emersero negli anni 1960[24] per affrontare il problema di memorizzare e recuperare grandi quantità di dati in modo accurato e rapido. Uno dei primi sistemi fu l’Information Management System (IMS) dell’IBM,[24] che è ancora ampiamente utilizzato più di 40 anni dopo.[25] L’IMS memorizza dati gerarchicamente,[24] ma negli anni 1970 Ted Codd propose un modello alternativo di memorizzazione relazionale basato sulla teoria degli insiemi e sulla logica dei predicati e sui concetti familiari di tabelle, righe e colonne. Il primo sistema per la gestione di basi dati relazionale (relational database management system, RDBMS) di tipo commerciale fu reso disponibile dalla Oracle nel 1980.

Tutti i sistemi per la gestione di basi di dati relazionali consistono in un numero di componenti che insieme consentono ai dati che memorizzano di essere acceduti simultaneamente da molti utenti, pur mantenendo la loro integrità. Una caratteristica di tutte le basi di dati è che la struttura dei dati che contengono è definita e memorizzata separatamente dai dati stessi, in uno schema di base di dati.

Negli ultimi anni l’extensible markup language (XML) (“linguaggio marcatore estensibile”) è diventato un formato per la rappresentazione dei dati molto diffuso. Sebbene i dati XML possano essere memorizzati in normali file system, sono conservati comunemente in basi di dati relazionali per trarre vantaggio dalla loro “robusta implementazione, verificata da anni di sforzi sia teorici che pratici”. Come evoluzione dello Standard Generalized Markup Language (SGML) (“linguaggio marcatore generalizzato standard”), la struttura basata sui testi dell’XML offre il vantaggio di essere leggibile sia dalle macchine che dall’uomo.

Recupero dati
Il modello delle basi di dati relazionali introdusse un linguaggio di interrogazione strutturato, il cosiddetto Structured Query Language (SQL), indipendente dal linguaggio di programmazione e basato sull’algebra relazionale.

I termini “dato” e “informazione” non sono sinonimi. Qualunque cosa sia memorizzata è un dato, ma diviene un’informazione soltanto quando è organizzata e presentata in un modo significativo. La maggior parte dei dati digitali del mondo sono non strutturati e memorizzati in una varietà di formati fisici diversi anche all’interno di un’unica organizzazione. I “magazzini di dati” (data warehouses) cominciarono a essere sviluppati negli anni 1980 per integrare queste archiviazioni disparate. Essi contengono tipicamente dati estratti da varie fonti, comprese fonti esterne come Internet, organizzati in modo tale da facilitare i sistemi di supporto alle decisioni (decision support systems, DSS).

Trasmissione dati
La trasmissione dati ha tre aspetti: trasmissione, propagazione e ricezione. Essa in linea di massima può essere categorizzata come una radiodiffusione, nella quale le informazioni sono trasmesse unidirezionalmente a valle, o una telecomunicazione, con canali bidirezionali a monte e a valle.

XML è sempre più impiegato come mezzo per lo scambio di dati fin dai primi anni 2000, particolarmente per interazioni orientate alle macchine come quelle nei protocolli orientati al web come SOAP, che descrivono “dati-in-transito piuttosto che … dati-a-riposo”.

Una delle sfide di tale uso è convertire i dati da basi di dati relazionali in strutture con un modello a oggetti di un documento (Document Object Model, DOM) XML.

Manipolazione dati
Hilbert e Lopez identificano il ritmo esponenziale del cambiamento tecnologico (una specie di legge di Moore): la capacità delle macchine, specifica per ogni applicazione, di elaborare informazioni pro capite raddoppiò grosso modo ogni 14 mesi tra il 1986 e il 2007; la capacità dei computer multiuso del mondo raddoppiò ogni 18 mesi durante gli stessi due decenni; la capacità pro capite delle telecomunicazioni globali raddoppiò ogni 34 mesi; la capacità di memorizzazione pro capite richiese grosso modo 40 mesi per raddoppiare (ogni 3 anni); e l’informazione pro capite trasmessa è raddoppiata ogni 12,3 anni.

Massicce quantità di dati sono memorizzate in tutto il mondo ogni giorno, ma a meno che non possano essere analizzati e presentati efficacemente essi risiedono essenzialmente in quelle che sono state chiamate tombe dei dati: “archivi di dati che sono visitati raramente”.

Per affrontare questo tema, alla fine degli anni 1980 emerse la tecnica dell’esplorazione di dati o data mining, “il processo di scoprire modelli e conoscenze interessanti da grandi quantità di dati”.

Fonte

Clicca su + per scegliere altri social non elencati...