lunedì 30 aprile 2007

Mars Duo: sistema gaming di sostanza da Playdeep



Massimo Bordin.
Fra le numerosissime proposte di PC completi disponibili sul mercato, esistono alcune soluzioni pensate per utilizzi abbastanza definiti, che determinano la scelta di componentistica ed hardware difficilmente riscontrabile in sistemi pensati per utilizzi molto più generici. Destinata all'appassionato di gaming la soluzione Mars Duo Playdeep, marchio scelto dall'azienda Deepoverclock per commercializzare PC ed accessori destinati al videogiocatore.

Deepoverclock ha infatti sviluppato un sito/store specifico, http://www.playdeep.it, nel quale è possibile configurare il proprio PC e scegliere le periferiche per ottenere un sistema completo di tutti gli accessori necessari. Il modello giunto in redazione prende il nome di Mars Duo, consistente in un sistema basato su processore Intel Core 2 Duo e scheda grafica della famiglia NVIDIA GeForce 8800 GTS, 2 GB di memoria e sistema operativo Windows Vista Home Basic.

Il modello di ingresso della serie Mars Duo è proposta al prezzo di 1.199,00 Euro IVA compresa, che può comunque essere arricchito tramite il configuratore disponibile sul sito dell'assemblatore. La versione giunta i redazione differisce da quella base esclusivamente per l'upgrade da Windows Vista Home Basic a Windows Vista Home Premium ( sovrapprezzo di 59 Euro). Di seguito le caratteristiche dettagliate del modello in test:
Playdeep Mars Duo
Cabinet AeroCool ExtremeEngine 3T *
Scheda madre ASUS P5N-E SLI
Processore Intel Core 2 Duo E6600, 2,4GHz 4MB di cache L2
Memoria Corsair CM2X1024-6400 1 GB x 2
Scheda video NVIDIA GeForce 8800GTS 320 MB
Hard disk Maxtor 250 GB 7200 giri SerialATA

venerdì 19 gennaio 2007

Si scrive Armed Assault, si legge Operation Flashpoint

Si scrive Armed Assault, si legge Operation Flashpoint

“E' principalmente il nome che distingue l'ormai imminente Armed Assault dal simulatore di guerra per eccellenza. Piccole migliorie al gameplay, un forte restyling grafico e un consistente potenziamento del supporto multiplayer sono gli aspetti su cui si è lavorato maggiormente.




Introduzione

Sono ormai trascorsi più di cinque anni dalla pubblicazione di Operation Flashpoint, ma di simulatori di guerra così rigorosi ne abbiamo visti pochissimi, se non nessuno. Tutto ciò fa dello sparatutto di Bohemia Interactive un prodotto estremamente valido innanzitutto perché unico. Titoli come Brothers in Arms, Battlefield, Call of Duty, America's Army in realtà non possono ambire a quel livello di realismo, confermando piuttosto una struttura molto più agile e tendenzialmente votata a quell'approccio arcade a cui siamo indissolubilmente legati da qualche generazione videoludica a questa parte.
Se volessimo fare un paragone con un titolo che si avvicina alle caratteristiche di Operation Flashpoint potremmo rispolverare World War II Online: Battleground Europe, sviluppato da Matrix Games e la cui prima edizione fu pubblicata nel 2001, ma ci troviamo certamente su livelli qualitativi drasticamente inferiori se paragonati a quelli raggiunti da Bohemia Interactive.


Si scrive Armed Assault, si legge Operation Flashpoint

Se Operation Flashpoint ottenne un grande successo iniziale per il rigore della simulazione, questo successo si propagò nel tempo grazie al supporto multiplayer. Ancor oggi si possono rintracciare facilmente delle comunità online che periodicamente si sfidano al simulatore di guerra per eccellenza. Come vedremo nel dettaglio più avanti, Bohemia Interactive ha pensato ad un approccio ancor oggi estremamente valido (ripetuto con Armed Assault) attraverso il quale è stato possibile dare un supporto e un aggiornamento continuo a questa sezione di Operation Flashpoint.

Come abbiamo voluto sottolineare con il titolo, inoltre, non bisogna farsi ingannare dal nome Armed Assault. In realtà è questo gioco l'attesissimo Operation Flashpoint 2, anche se delle vicissitudini legali con il produttore del primo episodio, Codemasters, hanno costretto la software house ceca a produrre Armed Assault in maniera indipendente e a stabilirne un nuovo nome. D'altronde giocando Armed Assault saltano immediatamente all'occhio i legami con Operation Flashpoint, al punto che tantissimi elementi del gameplay sono del tutto immutati.

Armed Assault è già in commercio in Repubblica Ceca, Polonia e Russia, mentre nel resto d'Europa il rilascio è previsto nel corso del mese di febbraio. In realtà la versione resa disponibile fino ad oggi non è molto più di una semplice beta, considerato l'enorme numero di bug che la affligge e la mancanza di alcune caratteristiche. La realizzazione di patch e l'aggiunta di nuovi contenuti per le altre versioni attese per febbraio affineranno il gioco che, si spera, raggiungerà i negozi del resto d'Europa in forma più completa.

La struttura di gioco

Entriamo subito nel dettaglio parlando della struttura di gioco di Armed Assault. Chi ha giocato Operation Flashpoint riconoscerà delle evidenti affinità, proprio in virtù del fatto che il nuovo titolo di Bohemia Interactive è stato fortemente costruito sulle basi del predecessore, con l'effetto che tantissimi aspetti del gameplay sono qui riproposti pedissequamente. Come vedremo più avanti, ad esempio, anche il motore grafico è in realtà un'evoluzione di quello impiegato in Operation Flashpoint.
Non è facile descrivere le sensazioni che si hanno giocando Operation Flashpoint o Armed Assault. Come dicevamo, i titoli di Bohemia Interactive non possono rientrare nello stesso genere di giochi a cui appartengono Battlefield, Brothers in Arms, America's Army e via dicendo, perché il livello di simulazione è ben più alto. Le missioni si svolgono in enormi spazi aperti entro i quali noi e il nostro team d'attacco siamo chiamati ad assolvere precisi obiettivi militari. Lunghi tratti di terreno da percorrere a piedi o per mezzo di veicoli e combattimenti ben pianificati caratterizzano, prima di ogni altra cosa, la struttura di gioco dei due titoli di Bohemia Interactive.



La sensazione di essere da soli e di poter far poco o nulla per cambiare le sorti del conflitto, mentre attorno a noi impazza la guerra più feroce, è sempre viva in Armed Assault. E' del tutto impensabile ingaggiare uno scontro a fuoco con i nemici senza il riparo opportuno e senza aver curato la disposizione degli uomini ai nostri ordini. La regola dell' "one shot, one kill" è centrale in Armed Assault: ovvero, basta un semplice colpo per far fuori i soldati nemici e viceversa.

Il realismo è alle stelle ed è corroborato dalla maggior parte degli elementi presenti sul campo di battaglia. Al di là della struttura architettonica dei livelli di gioco e della precisione e pulizia della grafica (ne parleremo diffusamente più avanti), noteremo in prima persona le difficoltà nel muoversi e nello spostarsi del nostro alter ego, così come la complessità nel prendere la mira e uccidere i bersagli che si trovano ad elevatissime distanze.



Lo spostamento è fondamentale all'interno di questa struttura di gioco. Sostanzialmente tutte le missioni lo prevedono, sia che esso sia a piedi che a bordo di veicoli. Spostarsi a piedi implica l'allinearsi con gli altri membri della squadra e lo stare attenti a possibili pericoli non immediatamente visibili. Guardando a terra noteremo anche i piedi e le gambe del nostro alter ego muoversi in maniera convulsa, il che, unitamente allo scorrere del terreno, corrobora ulteriormente la sensazione di essere veramente lì. Inoltre, se veniamo colpiti alle gambe non riusciremo più ad alzarci e saremo costretti a proseguire in posizione prona.


Rosario Grasso dall'eccelente sito Hardware Upgrade, un approffondita recensione.


A proposito, sono tre le posizioni che possiamo assumere durante la battaglia: l'appena citata posizione prona, per la quale ci troveremo completamente radenti al suolo, la posizione inginocchiata e quella in piedi. Cambiare posizione è un'operazione immediata a livello di tasti da premere sulla tastiera, ma il personaggio simulato dovrà completare il movimento prima che il giocatore possa riprendere il pieno controllo su di lui.

Armi e veicoli

Prendere la mira nella maniera corretta è l'elemento che distingue maggiormente Armed Assault dagli sparatutto tradizionali. Molte volte basta solamente un colpo per far fuori il nemico di turno, ma se ciò non dovesse accadere il tutto si complica in maniera drastica. Il secondo colpo, infatti, risente del decentramento dell'arma dovuto al primo sparo, il che rende estremamente complesso far fuori i bersagli con una raffica. Vi è la possibilità di trattenere il respiro, ma questa fase resta terribilmente difficile, costituendo uno dei tanti fattori di differenziazione tra il giocatore esperto e quello novizio.
I conflitti a fuoco, comunque, prevedono nella stragrande maggioranza dei casi che centinaia di metri di distanza dividano le due squadre che si fronteggiano. Disporsi in posizione prona, usare il mirino e avere molto sangue freddo diventano fondamentali in ciascuno dei combattimenti. D'altronde proprio in questo dobbiamo ravvisare una piccola pecca di Armed Assault, perlomeno nella misura in cui non ha saputo evolversi rispetto al predecessore. Il comportamento delle armi non ci è parso, infatti, estremamente realistico, nel senso che lo sparo delle armi ci ha dato la sensazione di essere poco consistente. Questa impressione è avvalorata anche da effetti audio decisamente sotto tono, praticamente immutati rispetto a quelli di Operation Flashpoint. Sparare in Armed Assault, insomma, non dà la sensazione della potenza delle armi di cui si dispone, cosa che invece accade in altri giochi, serie Rainbow Six su tutte.



Ciò rende idea su una delle tante contraddizioni di Armed Assault: da una parte vi sono aspetti terribilmente realistici, dall'altra aspetti grossolanamente sottovalutati, ma che invece risultano centrali per coinvolgere pienamente il giocatore. Come vedremo meglio più avanti, infatti, anche l'intelligenza artificiale e la simulazione della fisica presentano delle contraddizioni di questo tipo.

D'altronde, Armed Assault individua in maniera precisa il proprio pubblico. I combattimenti su ampie distanze e il fatto che non ci si accorge quasi mai di chi ci ha uccisi né la posizione dalla quale proviene il colpo fatale rendono Armed Assault adatto solamente alla fascia di pubblico abituata a questo tipo di approccio. Chi predilige strutture più immediate (lo ripetiamo, al confronto lo sono anche quelle di Brothers in Arms o di America's Army) potrebbe trovarsi nettamente spaesato con il nuovo gioco di Bohemia Interactive.



Parlando di armi non possiamo tacere della grande varietà messa a disposizione del giocatore: ben trenta armi, infatti, sono disponibili tra le tre fazioni di gioco (US, RACS, SLA, vedi dopo). Ecco la lista:

Fucili d'assalto: M4, M4 CompM2, M4 ACOG, M4 + M203, M4 + M203 CompM2, M4A1 ACOG, M4A1 ACOG + M203, M4A1 QDS CompM2
per gli americani: M16A2, M16A2 + M203 Grenade launcher, G36, G36K, G36C;
per RACS: AK74, AK74 + GP-25, AK74 PSO scope;
per SLA: AKS74U, AKS74UN, AKS74UN PBS-4.
Mitragliatrici: MP5SD6, MP5A5, MP5SD6, MP5A5, AKS74UN Kobra, AKS74UN PBS-4 Kobra.
M249, M240 per gli americani;
M240 per RACS;
PK per SLA.
Fucili da cecchino, pistole, armi anti-carro, esplosivi ed altri tipi di equipaggiamento come binocoli, visori notturni, razzi luminosi, fumogeni.



La dotazione di veicoli è egualmente corposa. Ciascun veicolo risulta adeguatamente modellato rispetto alla controparte originale e presenta un forte livello di realismo anche nel modello di guida.

Per gli americani abbiamo M1A1 M1126 STRYKER ICV, M1134 STRYKER ATGM, M1133 STRYKER MEV, HMMWV, HMMWV M2, HMMWV Mk19, HMMWV TOW;
per i RACS M113A3, M113 Ambulance, Vulcan, 5T Truck, 5T Truck M2, 4x4, 4x4 M2;
per SLA BMP-2, BMP-2 Ambulance, T-72, ZSU-23-4 Shilka, BRDM2, BRDM2 ATGM, UAZ, UAZ-469 DSHK, UAZ-469 RECOILLESS RIFLE, UAZ-469 AGS-30, Ural, Ural Open, Ural Ammo, Ural Refuel, Ural Repair.
A questi dobbiamo aggiungere elicotteri, aerei e altri veicoli civili. Abbiamo notato una generale tendenza ad un approccio ancor più simulativo per la guida di elicotteri e aerei, il che rende, d'altra parte, la gestione di questi mezzi un po' troppo ostica.

La gestione del team

Armed Assault si può definire come una simulazione di guerra con elementi tattici, ma comprende altresì degli aspetti da vero e proprio strategico in tempo reale. Le battaglie coinvolgono, infatti, diverse squadre d'assalto, le quali hanno sempre una posizione iniziale e un preciso compito da assolvere. Ogni squadra può essere costituita da soldati con mansioni differenti: abbiamo ufficiali, medici, soldati anti-carro, cecchini, soldati semplici, piloti. Ovviamente la gestione di ciascun membro dipenderà moltissimo dalle armi che quest'ultimo possiede.
Chi conosce Operation Flashpoint è già pratico con questa impostazione, per cui la descriviamo velocemente per chi non ha avuto modo di giocarlo in profondità. Innanzitutto, diciamo che tutti i soldati della nostra squadra sono raccolti in una barra posta nella parte sottostante della schermata di gioco. Possiamo richiamare ciascuno di essi tramite i tasti funzionali che vanno da F1 a F12 e impartire gli ordini per mezzo di un menu posto nella parte superiore destra della schermata. Così possiamo ordinare loro di assumere la posizione prona piuttosto che stare in piedi, di prendere copertura presso una struttura che è loro vicina, di ingaggiare un determinato nemico, di raccogliere delle armi lasciate a terra da un soldato morto, di salire a bordo di un veicolo e molto altro ancora.



Segue ancora...

Pagina 5: Le novità
Pagina 6: Le novità - parte 2
Pagina 7: Il single player
Pagina 8: Il multiplayer
Pagina 9: Grafica, fisica e sonoro
Pagina 10: Conclusioni

mercoledì 17 gennaio 2007

XFX GeForce 7600 GT Fatal1ty

Paolo Corsini
“Con un sistema di raffreddamento completamente passivo e frequenze di funzionamento overcloccate di default, la nuova scheda video XFX della serie Fatal1ty propone un connubio per certi versi impossibile: ecco una delle più interessanti schede con chip video NVIDIA GeForce 7600 GT attualmente disponibili in commercio”

Introduzione
scheda tecnica modello GeForce 7600 GT Fatal1ty 256MB RoHS 650 MHz - PV-T73G-U1D4

http://www.xfxforce.com

scheda tecnica modello GeForce 7600 GT Fatal1ty 256MB RoHS 650 MHz - PV-T73G-U1D4
Fatal1ty è lo pseudonimo di Johnathan Wendel, ragazzo americano classe 1981 che in questi ultimi anni ha assunto una notevole fama per via dei propri risultati in varie competizioni legate ai videogiochi, principalmente partecipando alla Cyberathlete Professional League (CPL). La fama di questo giocatore è cresciuta negli anni grazie sia ai risultati ottenuti nelle competizioni internazionali, sia per gi suoi interventi in vari eventi un po' in tutto il mondo come vera e propria bandiera del videogaming come sport.

XFX GeForce 7600 GT Fatal1ty

Il marchio Fatal1ty è quindi diventato un riferimento per tutto quello che è legato al videogaming professionistico; dietro questo anche un'abile mossa commerciale e di marketing, che ha visto Wendel stringere importanti accordi con vari produttori di periferiche e accessori per PC. La taiwanese Abit è stata la prima a credere nelle potenzialità di questo marchio, sviluppando alcune schede madri marchiate Fatal1ty e destinate al segmento dei videogiocatori più esigenti, seguita più recentemente da Zalman, Creative e da XFX.

Quest'ultima azienda ha sviluppato una serie di schede video, basate su GPU NVIDIA GeForce 7600 GT, marchiate Fatal1ty e destinate proprio a completare la gamma di accessori e periferiche pensate per il videogiocatore appassionato. Alla base, quindi, alcune soluzioni tecniche che differenziano questa scheda dalle altre in commercio basate sulla stessa GPU.

Trattandosi di una scheda che vuole differenziarsi dalle altre proposte basate su GPU GeForce 7600 GT, XFX ha optato per impostare le frequenze di funzionamento di chip e memoria video su valori superiori a quelli di default: il chip video ha frequenza di funzionamento di 650 MHz, contro i 560 MHz indicati dalle specifiche NVIDIA, mentre per i 256 Mbytes di memoria video la frequenza di funzionamento è pari a 1.600 MHz, contro i 1.400 MHz indicati da NVIDIA per questa tipologia di schede.

Di questa scheda, tuttavia, è presente anche una seconda versione con specifiche identiche a quelle della reference board NVIDIA; sul sito XFX le due schede vengono chiamate con lo stesso nome, pertanto l'unico modo per distinguere la versione con clock maggiorato è quella di osservare le indicazioni presenti sulla scatola oppure il part number.

XFX è, tra i partner NVIDIA, uno dei più attivi nell'overclocking delle proprie schede: le frequenze qui indicate vengono certificate da XFX per il corretto funzionamento, rappresentando quindi un valore aggiunto ulteriore di questo prodotto rispetto alle altre soluzioni con medesima GPU in commercio. E' ovviamente possibile intervenire ulteriormente ad aumentare le frequenze di GPU e memoria video, ma si tratta di una pratica che potrebbe portare la scheda ad operare a livelli di temperatura ben superiori a quelli per i quali il proprio sistema di raffreddamento è stato pensato. Il suggerimento è quindi quello di dotare la scheda di una ventola attiva prima di spingersi ad overcloccare, o quantomeno assicurarsi che nel case sia garantito un corretto ricambio d'aria.



Segue Hardware Upgrade >> La scheda

domenica 14 gennaio 2007

Nuova serie di PC XPS da Dell

Paolo Corsini
“Processori quad core overcloccati e un innovativo sistema di raffreddamento, per un sistema ancora non previsto in commercio in Italia”


Nella cornice del CES di Las Vegas Dell ha annunciato la prossima disponibilità della nuova linea di soluzioni desktop top di gamma per videogiocatori esigenti, la serie XPS. La nuova serie, chiamata XPS 710 "H2Ceramic" (H2C) Edition, è basata sull'utilizzo di processori Intel Core 2 Quad, con frequenza di clock portata a 3,2 GHz dal valore di default di 2,66 GHz grazie all'utilizzo di un particolare sistema di raffreddamento. Dell, ovviamente, certifica il corretto funzionamento del sistema a questa frequenza di clock.



Il nome XPS 710 "H2Ceramic" (H2C) Edition lascia intendere la presenza di un particolare sistema di raffreddamento per il processore, grazie al quale il produttore americano può garantire funzionamento stabile anche con cpu overcloccata di default a 3,2 GHz. Stando a quanto anticipato dal produttore il sistema utilizza un tradizionale sistema di raffreddamento a liquido, con radiatore posizionato nella parte frontale dello chassis.

La base a contatto con il processore non è un tradizionale waterblock, ma di tipo ceramico: include un TEC, thermoelectric cooling, cioè un sistema a base elettrica che trasferisce il calore dalla superficie inferiore a contatto con il processore verso quella superiore, collegata al sistema di raffreddamento a liquido. Detto in altre parole, si tratta di un sistema con cella di Peltier, familiare a molti overclockers di vecchia scuola.



Dell ha integrato nel sistema di raffreddamento alcuni sensori che verificano l'eventuale formazione di condensa, bilanciando il funzionamento della cella in modo tale che la temperatura del processore si mantenga di poco superiore a quella ambiente.

La dotazione del sistema viene completata con 4 Gbytes di memoria di sistema, due hard disk SATA da 150 Gbytes di capacità e velocità di rotazione dei piatti di 10.000 giri al minuto, due schede video NVIDIA GeForce 8800 GTX collegate in SLI e un display da 20 pollici di diagonale. Il prezzo indicativo per questo sistema, nella sua configurazione base, è segnalato in 5.500 dollari USA.

In occasione dell'edizione 2006 del CES di Las Vegas, tenutasi esattamente un anno fa, Dell aveva mostrato un proprio sistema XPS innovativo per quel tempo. Alla base un processore Pentium D overcloccato e una configurazione video Quad SLI, per la prima volta mostrata in pubblico nella forma di prototipo in abbinamento a display TFT da 30 pollici di diagonale e con risoluzione massima di 2560x1600 pixel.



Quel sistema aveva raccolto l'interesse dei partecipanti alla fiera, a motivo soprattutto della presenza di una configurazione Quad SLI, ma non era poi stato commercializzato che in una limitata quantità di pezzi da parte di Dell. Complice di questo la difficoltà di avere processori Pentium D in grado di reggere la frequenza di clock overcloccata, oltre che di configurare il setup Quad SLI correttamente per via dell'indispensabile sviluppo driver.

Hardware Upgrade

mercoledì 10 gennaio 2007

Thermaltake MozartTX, due sistemi in uno

Thermaltake MozartTX, due sistemi in uno
Alessandro Bordin
“Thermaltake realizza un case davvero originale, contraddistinto da una particolarità unica: ospitare due sistemi completamente indipendenti. Breve sguardo al modello MozartTX, una proposta davvero particolare che va ad arricchire un listino prodotti per utenti particolarmente esigenti”




I recenti anni sono stati particolarmente ricchi di novità per tutto ciò che riguarda l'hardware infornatico, soggetto ad un susseguirsi vorticoso di tecnologie sempre più votate alla ricerca delle massime prestazioni. Abbiamo assistito in tempi recenti alla commercializzazione di processori multi-core, schede video sempre più potenti, dischi rigidi prossimi al terabyte di capienza, senza contare il concomitante sviluppo di software sempre più completi e performanti.

Uno dei componenti fondamentalmente immutati nella storia del PC rimane tuttavia il case, ovvero lo chassis nel quale vengono ospitati tutti i componenti di un PC desktop. Non mancano certo novità in tal senso, sia chiaro, ed il successo dei modelli di dimensioni ridotte in stile mini-PC lo testimonia; siamo in ogni caso di fronte ad un componente vincolato a precisi standard costruttivi che non può permettersi molto in fatto di slanci creativi.

Il motivo è semplice: per quanto si possa procedere con la tecnologia, un case standard attualmente deve ospitare un alimentatore, una scheda madre e dei dischi rigidi, tutti con dimensioni praticamente immutate negli anni se si escludono ovviamente i modelli studiati ad hoc come per esempio gli X-PC di Shuttle.

Pur condizionati da regole decisamente ferree, non mancano esempi di interpretazioni molto originali del concetto di case, come nel caso del modello Thermaltake MozartTX oggetto della nostra breve analisi. Controcorrente, in quanto enorme, bizzarro, in quanto in grado di ospitare ben due sistemi completi, versatile, in quando dotato di accessori decisamente fuori dal comune: in una parola, interessante.

martedì 9 gennaio 2007

Principi di funzionamento delle memorie


Non solo RAM, ma anche CMOS, EPROM e memorie flash

Quando si parla di memoria è immediato pensare alla RAM del nostro PC. Eppure, la RAM è solo uno dei molti tipi di memoria esistenti e la RAM di sistema del PC non è che uno degli impieghi della RAM nell’architettura generale del computer. Troviamo infatti memorie anche come sottocomponenti dei vari elementi di cui si compone un PC.

Il disco rigido, per esempio, è un’unità di memoria di massa basata su tecnologia magnetica, ma incorpora anche un quantitativo di RAM volatile usata come cache memory (di solito 8-16 MB) al fine di migliorare le prestazioni percepibili in fase di lettura e rilettura di dati recenti; nei recenti modelli SATA con NCQ, la stessa memoria serve anche per memorizzare ed elaborare la coda di richieste di I/O emesse dal sistema operativo al fine di ottimizzare l’ordine in cui servirle.

Sono inoltre in arrivo hard disk “ibridi”, in cui una quantità di flash memory (inizialmente dell’ordine di 1 Gbit) affianca la ben più grande capacità di tradizionale memoria magnetica con il duplice scopo di migliorare le prestazioni al boot e ridurre i consumi elettrici (specie sui laptop). Infatti, a seguito dell’accensione la flash memory risulta leggibile senza dover attendere che la velocità di rotazione del disco vada a regime, tenendo fermo il disco ogni volta che è possibile farlo: essendo non volatile, la flash memory può essere usata come buffer di scrittura per accumulare i dati scritti prima di scaricarli effettivamente su disco, cosa inaccettabile con una cache RAM in quanto una perdita di alimentazione farebbe perdere i dati in transito.

Una scheda video di ultima generazione richiede una grande quantità di memoria (fino a 1 GB nei modelli top), con ulteriori importanti requisiti riguardo la velocità di lettura/scrittura e la concorrenza nell’accesso (esiste, per esempio, un tipo di memoria dual ported o Video-RAM – VRAM - che permette al chip grafico di scrivere nel display file nello stesso momento in cui il RAMDAC lo legge per generare il segnale video). È infatti importante poter disporre di una elevata banda passante fra il chip grafico e il banco di memoria, al fine di poter velocizzare al massimo le operazioni di ridisegno della scena, nelle applicazioni multimediali o nei giochi. La capacità di questo canale di comunicazione si ottiene aumentando contemporaneamente la frequenza di lavoro e la larghezza di banda (256 o 512 bit).

La stessa scheda madre contiene un certo quantitativo di RAM non volatile per contenere le impostazioni del BIOS (la cosiddetta CMOS Memory). La sua persistenza è assicurata (per un tempo non illimitato) da una batteria tampone ricaricabile montata sulla motherboard: di solito si tratta di una batteria “a moneta” all’ossido di litio. Sempre sulla motherboard, vi è un banco di memoria non volatile di medie dimensioni (dell’ordine di 128 Kbyte) destinato a contenere il codice del BIOS e altro firm­ware necessario a governare il funzionamento della motherboard e il suo programma di configurazione e controllo. Questo secondo banco è oggi implementato in tecnologia EEPROM o Flash.

Impieghi della memoria fuori dal PC
Anche uscendo dall’unità centrale troviamo banchi di memoria: ne sono dotati gli scanner, che si avvalgono di banchi RAM come buffer per i pixel acquisiti in attesa di spedirli al PC via USB; ne sono dotate le stampanti, soprattutto quelle laser che devono comporre l’intera pagina prima di poter avviare il processo di stampa (fanno eccezione le stampanti che utilizzano la memoria di sistema del PC); troviamo memoria perfino nelle webcam, in cui il processore di segnale necessita di un’area di appoggio per comprimere o elaborare le immagini prima di inviarle all’host. Perfino un monitor, una tastiera o un mouse contengono memoria, rispettivamente: per salvare le impostazioni dell’OSD; per ricordare l’ultimo tasto premuto o per salvare lo stato di tasti bistabili come Caps Lock e Num Lock; per elaborare le immagini del sensore ottico al fine di stimare direzione e velocità di movimento.

Schede di acquisizione video, switch e router di rete, schede sonore USB e schede Wi-Fi sono tutti esempi di periferiche che usano RAM e memoria non volatile per il proprio funzionamento e per salvare le proprie impostazioni di configurazione. Non soltanto i personal computer, ma anche un gran numero di dispositivi digitali sempre più diffusi non sarebbero neppure concepibili senza memorie.

Un classico esempio è il telefono cellulare, dove troviamo memoria nella SIM, nell’apparecchio e nella scheda d’espansione per impostazioni, contatti, sfondi, suonerie, foto e musica. Anche per altri dispositivi come i player multimediali, le fotocamere e le videocamere digitali la memoria ha un’importanza cruciale. In particolare, sono fondamentali la capacità della memoria, il fatto che sia non volatile e che abbia un tempo d’accesso basso anche in scrittura, così da velocizzare al massimo le operazioni di caricamento dei brani dal PC all’apparecchio. Quando la memoria è rimovibile, diventa assai rilevante anche il suo formato: per le videocamere digitali la scelta è fra nastro (prevalente il formato MiniDV), hard disk e DVD; per le fotocamere conta il formato della flash card, oltre alla velocità d’accesso.

Anche gli apparecchi digitali di home entertainment sono consumatori di memoria, sia per quanto riguarda i supporti destinati a ospitare i contenuti, sia per i banchi di RAM necessari per le esigenze di funzionamento del sistema operativo, dell’OSD e degli algoritmi di elaborazione del segnale.

La memoria “per antonomasia”: RAM
Come già osservato, però, quando si parla di memoria è scontato che il pensiero vada alla tipologia di maggior impatto sulle prestazioni e sul costo di un moderno PC: la RAM (Random Access Memory), così nominata poiché possiede un tempo d’accesso indipendente dalla posizione della locazione indirizzata e dall’ordine con cui si accede alle celle. Due proprietà che la contrappongono a tutti quei tipi di memoria a funzionamento sequenziale o semisequenziale come le unità a nastro e quelle a disco.
Esistono due categorie principali di RAM: la RAM Dinamica (DRAM) e la RAM statica (SRAM), realizzate con tecnologia a semiconduttori.

La DRAM è una memoria volatile con basso consumo elettrico, alta velocità d’accesso e alta densità spaziale. Il suo principio di funzionamento si basa sul fatto che un condensatore caricato elettricamente, se ben isolato, si mantiene in questo stato per un certo tempo. Associando allo stato carico il significato di bit 1 e a quello scarico il significato 0, possiamo usare questo condensatore per rappresentare un bit. Il condensatore, però, tende spontaneamente a scaricarsi in un tempo che, con le basse tensioni e correnti in gioco e a questa scala dimensionale, si aggira sulle decine di millisecondi. L’unico modo per evitare che la memoria perda il suo contenuto è riscriverla periodicamente: questo processo si chiama refresh e richiede un certo tempo, durante il quale la parte di memoria interessata non è accessibile. Questo è uno dei motivi per cui la RAM è meno veloce della SRAM usata, ad esempio, per la cache del processore.

La SRAM è infatti realizzata in modo tale che i bit mantengano il loro stato senza richiedere rinfresco periodico, a condizione che venga alimentato il circuito. Purtroppo, nella SRAM ogni bit è fisicamente implementato come una rete di ben 6 transistor (ognuno più ingombrante del condensatore usato per un bit della DRAM), ragion per cui l’area occupata a parità di capacità è molto superiore a quella della DRAM (in altre parole, la densità spaziale della SRAM è molto minore), facendo lievitare anche i costi; inoltre, a causa della necessità di alimentazione continua, il consumo elettrico della SRAM è molto maggiore. Queste caratteristiche rendono impraticabile la realizzazione di banchi di SRAM di grandi dimensioni, pertanto la SRAM viene utilizzata in piccoli quantitativi in applicazioni particolari, nelle quali per la sua elevata velocità essa può migliorare le prestazioni di un componente: l’esempio tipico è la cache memory della CPU, che deve poter funzionare a frequenze elevate anche a costo di assorbire correnti elevate.

I moduli di RAM di sistema abitualmente usati nei PC contemporanei sono costituiti da DRAM organizzate in un’architettura logica detta SDRAM, in cui il modulo accetta sequenze di richieste di lettura e scrittura che vengono servite con alcuni cicli di ritardo (latenza), ma senza che questo richieda di sospendere l’invio di nuove richieste.

La banda passante, ossia la capacità del canale di comunicazione che questi moduli rendono disponibile verso la CPU, dipende dalla frequenza di funzionamento, dalla larghezza di parola e dal numero di trasferimenti dati che è possibile attuare a ogni ciclo di clock.

Per esempio, nelle SDRAM DDR (Double Data Rate) a ogni impulso di clock il controller è in grado di trasferire, su ogni linea di connessione, due bit anziché uno solo: un bit viene trasferito sul fronte di salita e uno sul fronte di discesa. Così, un chip funzionante a 200 MHz può effettuare 400 milioni di trasferimenti al secondo (MT/s), donde il nome di memoria DDR-400. Assemblando un certo numero di chip DDR-400 si realizzano moduli di memoria il cui bus in ciascuna direzione è largo 64 bit, pertanto ogni trasferimento sposta 8 byte. A 400 MT/s, questo corrisponde a una banda passante di 3.2 Gbyte/s, da cui il nome dei moduli questo tipo di memoria: PC3200.

Il principio di funzionamento viene ulteriormente ottimizzato nella tecnologia DDR2, in cui il controller trasferisce sempre 2 bit per ciclo di clock lavorando però a una frequenza doppia rispetto a quella della RAM. La banda disponibile raddoppia: a 200 MHz abbiamo così dei chip DDR2-800 e moduli di memoria PC2-6400. La contropartita, dovuta al fatto che i dati vengono comunque estratti da una memoria che internamente funziona sempre alla stessa velocità, è una latenza maggiore. Le memorie DDR3 di prossima introduzione esaspereranno ulteriormente questo trade-off, con un raddoppio della larghezza del prefetch buffer e della frequenza di lavoro del controller che garantiranno un raddoppio della banda passante, ma anche un deciso aumento della latenza.

La latenza, ossia il ritardo con cui il chip di memoria inizia a rispondere a una richiesta di dati, è la somma di vari ritardi elementari che si verificano in vari punti della sua architettura logica. Così, per esempio, l’indicazione “2-2-2-5-1” sta a indicare rispettivamente i cinque ritardi funzionali (CAS, RAS to CAS, Row precharge, Row activation, Command) che concorrono a formare la latenza complessiva del modulo, espressi in cicli di clock. Più bassi sono questi valori (e la loro somma) e migliori sono le prestazioni del modulo.

Memorie non volatili: EPROM, EEPROM e Flash
Una configurazione circuitale opportuna può trasformare i transistor, solitamente impiegati nei circuiti digitali come interruttori comandati, in vere e proprie “trappole di carica” impiegabili per memorizzare un bit proprio come i condensatori delle DRAM. Grazie al miglior isolamento, in assenza di alimentazione questi transistor mantengono il loro stato di carica non per decine di millisecondi come farebbero le DRAM, ma per decine d’anni.

I chip di memoria EPROM (Erasable Programmable ROM), in passato usati anche per memorizzare il BIOS delle motherboard, sfruttavano questo principio. Erano riconoscibili per la finestrella trasparente che sovrastava il chip e serviva per la cancellazione, tramite esposizione a luce ultravioletta per alcuni secondi.

Questo scomodo sistema di cancellazione fu superato nei chip EEPROM (Electrically Erasable Programmable ROM), in cui si usava un segnale elettrico: con essi diventava possibile scrivere e leggere una memoria non volatile in modo elettrico, e quindi direttamente sul sito circuitale, senza bisogno di smontarla per trattarla con attrezzature esterne.

La più recente evoluzione delle EEPROM è la flash memory, un tipo di EEPROM che non permette di indirizzare singoli bit, ma viene scritto a blocchi proprio come un disco fisso. Questo, fra l’altro, accelera il processo naturale di deterioramento dell’isolante che assicura ai transistor la loro proprietà di mantenere lo stato per lungo tempo, e accorcia di molto la longevità delle flash rispetto alle EEPROM in termini di numero di cicli di cancellazione sopportabili (dell’ordine del milione di cicli per le flash memory).

In compenso, le flash memory risultano molto più economiche da fabbricare delle EEPROM e hanno riscosso uno straordinario successo, come tutti sanno, come memorie di massa per tutti i tipi di dispositivi digitali. Esistono due tipi di flash memory, a seconda del tipo di porta logica usata per implementare una cella da un bit: i chip NOR e i chip NAND.

I chip NAND, i più usati, hanno migliori prestazioni, maggior densità, minor costo e maggior durata ma, a differenza dei NOR, non si prestano bene ad accessi non sequenziali. Pertanto, nelle applicazioni in cui il chip flash deve ospitare un programma da eseguire direttamente senza trasferirlo prima in RAM, come il BIOS di una motherboard, è necessario usare flash memory basate su chip NOR.
Rivista:PCOpen

lunedì 8 gennaio 2007

Hitachi un nuovo hard disk da 1.000 Gbytes




Hitachi annuncerà un nuovo hard disk consumer della serie Deskstar, caratterizzato dalla capacità di archiviazione massima di ben 1 Terabyte di dati, corrispondenti a 1.000 Gbytes. Al momento attuale le meccaniche da 3 pollici e 1/2 in commercio non superano la soglia di 750 Gbytes quale capacità di archiviazione.

Stando alle informazioni anticipate dal sito Techreport, Hitachi proporrà questo hard disk sia con interfaccia Serial ATA che con quella tradizionale Parallel ATA. In comune la velocità di rotazione dei piatti, pari a 7.200 giri al minuto, con però un differente quantitativo di cache onboard: 8 Mbytes per il modello Parallel ATA e 32 Mbytes per quello Serial ATA.

Hitachi ha implementato in questo nuovo modello, il cui nome commerciale sarà Desktar 7K1000, alcuni dispositivi miranti a ridurre il consumo e la rumorosità. E' infatti presente un sistema di idle a 3 stadi, che ridurrà il consumo e la rumorosità di funzionamento del disco nel momento in cui non verrà utilizzato per accedere a dati.

Il prezzo indicativo per questo modello, stando alle informazioni attualmente disponibili, dovrebbe essere pari a 399 dollari nel mercato retail Nord Americano. Hitachi dovrebbe proporre anche una seconda meccanica della stessa serie, con capacità di 750 Gbytes e costo indicativo pari a 299 dollari, sempre retail in USA.

Il debutto di questa nuova serie di hard disk è atteso nel corso del secondo trimestre dell'anno; una capacità di archiviazione di questo tipo fa prevedere che questi hard disk verranno utilizzati in sistemi PC di fascia molto alta, oltre che in dispositivi di elettronica di consumo per la registrazione di programmi e video.

Seagate, inoltre, si prepara a presentare un nuovo hard disk da 3 pollici e mezzo con capacità di 1.000 Gbytes nel corso della prima metà del 2007. Stando alle informazioni attualmente disponibili, questa meccanica sarà caratterizzata dalla presenza di 4 soli piatti per la memorizzazione dei dati. La conseguenza diretta è che la capacità di memorizzazione di ogni piatto sarà pari a 250 Gbytes, valore estremamente elevato nel complesso e superiore ai 200 Gbytes per piatto attualmente messi a disposizione da Seagate con la propria linea di hard disk Barracuda 7200.10.

Meccaniche di questo tipo troveranno nella registrazione di flussi video in alta definizione uno dei principali ambiti di utilizzo: è presumibile che nel corso del 2007 i produttori di set top box e di videoregistratori digitali su hard disk, possano iniziare ad abbinare capienze anche sino ad un terabyte con i propri prodotti. Sarà presumibilmente necessario attendere ancora un po' di tempo prima di vedere capienze di questo tipo integrate in televisori LCD: al momento attuale infatti i prodotti con hard disk integrato, per la registrazione di trasmissioni digitali terrestri, hanno tipicamente capienze attorno agli 80 Gbytes.

Fonte:Hardware Upgrade