DI RECENTE ACCOMAZZI...
CERCA
» Ricerca avanzata
MAILING LIST

Se vuoi iscriverti alla mailing list di Luca Accomazzi inserisci qui la tua mail:

Vuoi ricevere i messaggi immediatamente (50 invii / giorno) o in differita e in gruppo
(due invii / giorno)?

» Vuoi saperne di più?

La morte di Pentium

La regina Elisabetta d'Inghilterra è solita definire il 2001 come annus horribilis, a causa degli eventi che lo funestarono, tra cui la morte della ex nuora Diana Spencer. Intel, regina dei microprocessori, produttrice del nucleo di elaborazione per quasi tutti i PC al mondo, potrebbe ben definire annus horribilis il 2004: l'anno in cui è morto il Pentium 4.
Negli anni precedenti il processore più popolare di Intel godeva di buon salute, avendo raggiunto la frequenza di 3,2 GHz (miliardi di micro-operazioni per secondo) in un circuito integrato che incorporava cinquantacinque milioni di transistor. La generazione successiva, che i progettisti avevano soprannominato "Prescott", doveva debuttare a fine 2003 e toccare i 4 GHz: ma la nuova versione, nonostante i suoi 125 milioni di transistor, ha offerto un guadagno molto modesto nelle prestazioni (del 6%) ed è stata ritardata di oltre sei mesi per una serie di problematiche tecniche. Poi, a maggio 2004, l'annuncio: Intel avrebbe rinunciato a sviluppare ulteriormente Pentium 4, così come il più costoso e professionale fratello maggiore Xeon. "Sono stati scartati oltre due anni di lavoro", secondo la stima di William Siu, responsabile Intel per le piattaforme desktop.
Tutto questo non significa che Intel sia in crisi nera o che il resto del mondo dei microprocessori abbia prosperato nel medesimo periodo di tempo. Per esempio, l'architettura PowerPC, utilizzata nei calcolatori della famiglia Macintosh, negli ultimi dodici mesi è cresciuta in prestazioni del 25%: molto meglio del Pentium 4, ma molto meno del consueto 50% o 75%. Non si può neppure dire che si sia definitivamente infranta la cosiddetta legge di Moore, quella regola pragmatica secondo la quale ogni diciotto mesi circa viene rilasciato un calcolatore il doppio più potente del precedente, ma al medesimo prezzo.
Si è infranta "soltanto" la corsa al megahertz, voluta proprio da Intel dalla metà degli anni Novanta in poi. La frequenza di elaborazione dei prodotti Intel tra il 1981 e il 1993 crebbe di tredici volte. Tra il 1993 e il 2005, un periodo di eguale durata, la frequenza è invece salita di oltre cinquantun volte; moltissimo, come si vede, nonostante la brusca frenata degli ultimi diciotto mesi. La spiegazione? La frequenza del microprocessore non ha un rapporto diretto con la sua velocità di elaborazione: ma il personale Intel addetto alle vendite ha propagandato i Pentium come se questo fosse vero. Oggi, aumentare ancora la frequenza è tecnicamente difficile e poco utile, quindi si preannuncia un grosso mal di testa per il dipartimento marketing Intel, che nel prossimo periodo sarà costretto a inventarsi qualcosa per commercializzare processori dalla frequenza identica o addirittura più bassa rispetto al recente passato.
Secondo Patrick Gelsinger, direttore tecnico di Intel, circa il settanta per cento dell'aumento prestazionale nei prossimi dieci anni arriverà da miglioramenti architetturali. La maggior velocità verrà dalla architettura multicore. L'idea viene da IBM, che già nel 2001 dotò di questa soluzione i suoi Power4 (processori complessi e assai performanti usati nei più grandi elaboratori, non nei PC). In ogni singolo chip trovano posto più core, motore dell'elaborazione, che lavorano in parallelo: e ciascuno di essi può far avanzare un programma tra i molti che competono all'interno della memoria di un moderno calcolatore. Come avere una squadra di servitori a disposizione anziché una singola domestica che si arrabatta di corsa. Ciascun core è più semplice, e lavora a una frequenza più bassa, di quanto accada alla singola unità di elaborazione del Pentium 4, e i vantaggi sono molteplici. La dispersione di calore, per esempio: un Pentium 4 al lavoro può generare più calore per centimetro quadrato di un ferro da stiro in posizione "cotone". Tra l'altro, il calore emanato è potenzialmente in grado di danneggiare l'elettronica, tanto che il "Prescott" dispone di un controllo incorporato che lo rallenta (umiliando, però, ancor più le prestazioni) quando viene superato il livello di guardia.
Migliora anche la richiesta di energia: un microprocessore per PC da scrivania del 2004 può consumare anche 110 watt. Davvero troppo per venire messo anche dentro a un portatile, i quali infatti vengono solitamente dotati di processori più modesti.
Infine, si allentano le richieste e gli squilibri sul resto del calcolatore. Un processore da 3,6 GHz è potenzialmente in grado di chiedere alla memoria centrale una informazione per l'elaborazione ogni 0,277 miliardesimi di secondo: la miglior memoria oggi disponibile sul mercato però è in grado di rispondere soltanto in un tempo quattrocento volte maggiore.
I maggiori mal di testa spetteranno ai produttori di software, in testa Microsoft. La casa di Redmond oggi richiede un prezzo elevatissimo per la versione di Windows in grado di sfruttare la presenza di processori paralleli, in base al principio che una cosa del genere serve solo ai server delle grandi aziende: presto non sarà più così e dunque sarà necessario concepire un'altra strategia, possibilmente senza mettere a rischio gli utili. Più in genere, ottimizzare una applicazione perché funzioni al meglio in una architettura multicore richiede un ripensamento delle sue fondamenta: per esempio, per ricalcolare al più presto il valore di tutte le celle di un foglio elettronico, una futura versione di Microsoft Excel potrebbe essere costretta a dividerle in porzioni, una per ogni core. Ma questo richiede che esiste un sistema per riconoscere le dipendenze tra le celle, in modo da non bloccare un primo core sinché un secondo non ha terminato la sua parte. Non c'è nulla del genere nell'Excel odierno...


E pluribus unum

I primi processori multicore per personal computer sono imminenti. AMD, maggior concorrente di Intel, ha dimostrato un prototipo (compatibile con i programmi scritti per Pentium 4, a cominciare da Windows) nell'agosto 2004 e ne conta di lanciarlo sul mercato entro l'estate, sotto il nome di Opteron.
Anche nei Macintosh i processori multicore sono probabilmente imminenti. Le macchine di punta della famiglia oggi montano due processori della famiglia PowerPC quinta generazione (o, in breve, "G5"). Sono i PowerPC 970 a sessantaquattro bit e singolo core, prodotti da IBM nello stabilimento di Fishkill negli USA. IBM, che ha prodotto per prima processori a multicore nel 2001, ha già cominciato a consegnare ad Apple i primi esemplari della versione 970mp a doppio core. Sono a doppio core anche i fratelli maggiori dei PowerPC G5 chiamati Power5 che IBM usa per i grandi calcolatori mirati al mercato delle aziende e che ha introdotto nel maggio 2004.
Intel ha dimostrato un prototipo multicore del suo processore di punta, lo Itanium a 64 bit che ha conosciuto un modesto successo nel campo dei server di rete. Intel ha annunciato che userà la tecnologia multicore anche il venturo successore del Pentium 4.
Sun Microsystems, per le sue stazioni dedicate (quelle usate per elaborare gli effetti speciali dei filmoni hollywoodiani) utilizza sin dal febbraio 2004 un processore a doppio core, lo Ultrasparc-IV. Sun ha in sviluppo un successore di quel processore dotato di ben otto core, il "Niagara", che verrà introdotto all'inizio del prossimo anno.
Un processore multicore dotato di otto sotto-unità indipendenti di elaborazione è, secondo alcuni esperti, il punto in cui la crescita di complessità comincia a non ripagare più in guadagno prestazionale, proprio come la barriera dei 3 GHz si è dimostrata il punto in cui non valeva più la pena di insistere nell'aumentare la frequenza del processore. Secondo Steven Pawlowski, responsabile del laboratorio processori di Intel, "per alcuni compiti non si ha alcun vantaggio da una architettura multicore". Per altri, molto specializzati, ci potrebbe sfruttare qualsiasi numero di core gli ingegneri siano in grado di infilare in un singolo chip. "Per la grande maggioranza dei compiti però esiste il punto in cui l'investimento non paga più: sedici core non sono marcatamente meglio di otto" ha dichiarato Pawlowski.


Questo articolo fa parte di uno dei miei percorsi. Se vuoi saperne di più su questo argomento, visita il resto del percorso cliccando qui.