sabato 28 marzo 2009

Dentro il computer - Hardware e software (Approfondimento sulla Sesta Lezione)

È possibile valutare la potenza dei chip attraverso una combinazione di tre elementi: la capacità d’integrazione, data dalla minima larghezza lineare nel chip, misurata in micron (1 micron = 1 milionesimo di metro); la capacità di memoria, misurata in bit: migliaia (K) e milioni (M); e la velocità del microprocessore misurata in megahertz.
Il primo processore del 1971 era formato da linee di circa 6,5 micron; nel 1980 aveva raggiunto i 4 micron; nel 1987, 1 micron; nel 1995 il chip Pentium della Intel presentava dimensioni comprese nel limite di 0,35 micron mentre già nel 1999 si raggiunsero gli 0,25 micron. Pertanto, laddove nel 1971 su un chip della misura di una puntina da disegno stavano 2300 transistor, nel 1993 ce ne stavano 35 milioni. La capacità della memoria, come indicata dalla capacità DRAM (Dynamic Random Access Memory), nel 1971 ammontava a 1024 bit; nel 1980, a 64.000; nel 1987, a 1.024.000 bit. Per quanto riguarda la velocità, i microprocessori a 64 bit degli anni Novanta erano 550 volte più veloci rispetto al primo chip Intel del 1972, e la velocità di calcolo raddoppia ogni diciotto mesi. Le proiezioni per il 2010 evidenziano un rapido progresso della tecnologia della microelettronica sia in termini d’integrazione, della capacità DRAM nonché della velocità del microprocessore.

Associata agli straordinari sviluppi dell’elaborazione parallela utilizzando microprocessori multipli sembra che la potenza della microelettronica sia ancora senza freni, incrementando inarrestabilmente la capacità di calcolo. Inoltre, la maggiore miniaturizzazione, l’ulteriore specializzazione e la riduzione del costo di chip sempre più potenti ne hanno permesso l’installazione su ogni macchina della nostra vita quotidiana, dalla lavastoviglie, al forno a microonde, all’auto, la cui elettronica, nei modelli standard degli anni Novanta, era già più costosa dell’acciaio impiegato.

martedì 17 marzo 2009

Il paradigma elettronico: una soluzione alla crisi.

“Nei primi cinquant’anni trascorsi dalla fine della Seconda guerra mondiale si è verificato un cambiamento che potrebbe incidere profondamente sull’architettura: lo spostamento dal paradigma meccanico a quello elettronico”. Con queste parole l’architetto Peter Eisenman descrive bene la situazione attuale nell’epoca dei media elettronici.

Il paradigma elettronico propone una difficile sfida all’architettura, in quanto definisce la realtà attraverso i media e la simulazione, privilegia l’apparenza rispetto all’esistenza, ciò che si vede rispetto a ciò che è.
È proprio questo concetto tradizionale di vedere che il paradigma elettronico vuole mettere in dubbio.

Non è un caso che l’invenzione della prospettiva da parte di Brunelleschi sia avvenuta in un momento storico caratterizzato da un cambiamento di paradigma, da una visione teologica del mondo a una visione antropocentrica, posizione che dal XVI secolo resiste ancora fino ai nostri giorni. Tuttavia, nonostante i numerosi cambiamenti stilistici che si susseguirono, la posizione di centralità del soggetto osservante costituisce ancora il termine fondamentale dell’architettura. Si potrebbe dire che l’architettura, in effetti, non ha mai pensato al problema della visione, poiché è rimasta legata al concetto dominante del soggetto e delle “quattro mura”. Il fatto che in architettura il soggetto sia contemporaneamente all’interno e all’esterno, a differenza di quanto avviene nella pittura o nella musica, ha fatto sì che la visione si concettualizzasse in questo modo.

L’ambito di crisi che intendo indagare è quello relativo al problema della visione, di un diverso rapporto tra “orizzontale” e “verticale”, figura e piano, interno ed esterno implicando anche una dislocazione del soggetto antropocentrico.