Avertir le modérateur

02/08/2008

La 9800GTX+ watercoolée de Zotac annoncée disponible

Zotac vient d'annoncer la disponibilité de sa GeForce 9800GTX+ watercoolée sur le marché français. Une carte qui devrait être silencieuse, et surtout très overclockable avec un GPU en 55 nm.

Cette 9800GTX+ ZONE Edition tourne à 738 MHz pour le GPU, 1836 MHz pour ses 128 processeurs de flux, et 2200 MHz pour ses 512 Mo de mémoire GDDR3 sur un bus 256 bits. Overclockée en usine, donc, mais avec un système de watercooling intégré qui permettra certainement de monter plus haut, avec un peu de courage.

Zotac 9800GTX+Zotac 9800GTX+

Zotac 9800GTX+

Pour l'instant, cette carte n'est pas référencée sur Prix du Net. On ne sait donc pas encore son prix, mais son système de watercooling devrait certainement faire un peu monter la note finale à plus de 200 euros.

01:07 Publié dans Materiél | Lien permanent | Commentaires (0) | Tags : 9800gtx, watercoolée

17/06/2008

Nvidia dévoile la gamme GeForce GTX 200

Les nouveaux composants graphiques de Nvidia sont sortis. En terme de puissance de calcul, c'est une bonne surprise

Les cartes graphiques Nvidia GeForce GTX 260 et GTX 280 sont annoncées. Première bonne nouvelle, le nombre de processeurs de flux est en hausse : respectivement 192 et 240 contre 128 pour la GeForce 9800 GTX. L'architecture a été entièrement refondue, pour permettre une meilleure utilisation simultanée des processeurs de flux. Dans la pratique la puissance est plus que doublée.

Nvidia met également l'accent sur l'utilisation de ses cartes dans d'autres domaines que l'affichage 3D. Cuda permet effectivement d'effectuer des calculs massivement parallèles « classiques » sur les cartes graphiques du constructeur.

Le GPU GT200 a un atout caché dans ce domaine : il est capable d'effectuer des calculs sur des nombres flottants en double précision. Cette caractéristique est nécessaire (quoique rarement indispensable) pour investir le monde scientifique et celui du calcul de haute performance. Notez qu'en mode double précision, la puissance de calcul brute du GPU est divisée par huit. Cela met tout de même la GeForce GTX 280 à 116,6 GFlops en double précision (933 GFlops en simple précision).

Cuda était déjà exploitable sur les précédents GPU de la firme. Mais c'est la première fois que la compagnie communique à grande échelle sur les capacités de calcul parallèle de ses cartes graphiques, mettant (presque) au second plan leur usage dans le cadre de jeux 3D. Il faut dire qu'avec 70 millions de GPU compatibles déjà vendus, les applications Cuda peuvent maintenant toucher une large clientèle.

Des spécifications en hausse

Les GPU de la famille GT200 sont gravés par TSMC en 65 nm. Ils comprennent la bagatelle de 1,4 milliard de transistors. Voici les caractéristiques les plus importantes de ces deux modèles. Commençons par la GeForce GTX 280 :

- fréquence de fonctionnement de 602 MHz (taux de remplissage de 19,2 Mpixels/s) ;
- 240 processeurs de flux cadencés à 1.296 MHz (puissance de calcul de 933 GFlops) ;
- 1 Go de GDDR3 512 bits cadencée à 1.107 MHz (bande passante de 138,4 Go/s).

Et poursuivons avec la GeForce GTX 260 :

- fréquence de fonctionnement de 576 MHz (taux de remplissage de 16,1 Mpixels/s) ;
- 192 processeurs de flux cadencés à 1.242 MHz (puissance de calcul de 715 GFlops) ;
- 896 Mo de GDDR3 448 bits cadencée à 999 MHz (bande passante de 109,3 Go/s).

Chaque carte comprend deux ports DVI dual link, convertibles en HDMI, ainsi qu'une sortie télévision. Le support de DirectX 10 est présent (mais toujours pas celui de DirectX 10.1). Pour comparaison, la puissance brute de la GeForce 8800 GTX est estimée à 518 GFlops et celle de la GeForce 9800 GTX à 647 GFlops.

Plus de puissance, moins de consommation

La firme a soigné la consommation de son nouveau GPU. Il est maintenant capable de réduire ses besoins lorsque la 3D n'est pas utilisée. La consommation est de 25 W au repos et 32 W lors de la lecture d'un disque Blu-ray. Les premiers tests ne semblent pas totalement confirmer ces chiffres, même si les GTX consomment effectivement moins que la génération précédente.

L'HybridPower permet de basculer sur l'IGP (Integrated Graphics Processor) intégré dans un jeu de circuits Nvidia. La carte graphique externe est alors totalement déconnectée.

Les GeForce GTX 260 et GTX 280 sont également plus souples, avec un support du SLI (deux cartes graphiques simultanées) mais aussi du triple SLI (… trois).

Des exemples d'utilisation de Cuda

Deux exemples de calcul ont été présentés à la presse. Le premier consiste à utiliser BadaBoom, un logiciel d'encodage vidéo créé par Elemental Technologies (qui sera disponible courant août). Sur un fichier de test de deux heures, une machine bicœur cadencée à 1,6 GHz met dix heures pour convertir la vidéo. Cette durée tombe à environ cinq heures avec un Core 2 Quad cadencé à 3 GHz, et à… 35 minutes en utilisant la puissance de calcul de la GeForce GTX 280. À titre de comparaison, une GeForce 9600 GT met environ 50 minutes pour effectuer la même tâche.

Autre exemple flagrant, celui du client Folding@home, évoqué précédemment. Ici la GeForce GTX 280 est cinq fois plus rapide qu'une PlayStation 3, elle même bien plus véloce que la plupart des PC pour ce type de calcul. La différence avec un PC peut ainsi atteindre un facteur de 130 en faveur de la GTX 280. Impressionnant.

« Les GPU GeForce vont bientôt apporter une énorme puissance de traitement supplémentaire jamais vue auparavant dans l'histoire de Folding@home », a déclaré Vijay Pande, professeur de chimie de l'Université de Stanford. « Le GPU GeForce GTX 280 fait tourner Folding@home 45 fois plus rapidement que le dernier CPU Core 2 Quad à 3 GHz. Si seulement un pour cent des GPU GeForce 8/9 faisaient tourner Folding@home, nous aurions 70 petaflops de puissance de traitement pour aider à trouver des moyens de guérir les maladies. C'est 10 fois plus de puissance de traitement que les 100 premiers supercalculateurs associés ».

Les premières cartes sont annoncées

Point of View a été le premier à dégainer ses cartes graphiques GeForce GTX 200. Les prix correspondent aux tarifs publics annoncés par Nvidia : 349 euros TTC pour la GTX 260 et 549 euros TTC pour la GTX 280.

Les annonces d'Asus, BFG, Emtek, EVGA, Gainward, Gigabyte, Innovision, Leadtek, MSI, Palit, PC Partner/Zotac, Unika, Unitek et XFX devraient suivre rapidement.

Nvidia signale que les cartes graphiques GeForce GTX 280 seront disponibles dès demain. Pour les GeForce GTX 260, il faudra attendre le 26 juin prochain.

 

21:28 Publié dans Materiél | Lien permanent | Commentaires (0) | Tags : geforce-gtx-200

08/06/2008

Orange Labs dévoile son système de visioconférence en relief

Au Salon européen de la recherche et de l'innovation de Paris, Orange Labs a présenté son système de visioconférence en 3D. Il devrait être disponible pour les entreprises dans 2 ou 3 ans.

Imaginez un grand écran de télévision, sur lequel apparaît votre collègue, bien vivant, gesticulant avec tellement de réalisme, que lorsqu'il vous tend un objet... vous vous penchez pour le prendre. En une fraction de seconde, vous avez juste oublié que vous étiez basé à Paris et lui à Bangkok et que son bras qui traverse l'écran est juste un effet induit par... la 3D.

Au Salon européen de la recherche et de l'innovation, la démonstration du nouveau système de visioconférence en relief, tout droit sorti des laboratoires de recherche d' Orange Labs, le réseau R & D de France Télécom, est spectaculaire. D'un coup, la vision un peu vieillotte de la visioconférence, avec un petit écran, un visage figé, des gestes parfois un peu décalés, part en poussière.
Pour utiliser cet outil - qui sera commercialisé dans deux ou trois ans - les entreprises doivent s'équiper d'un PC, du logiciel iconf d'Orange, de plusieurs caméras par site, d'une connexion haut débit comme la fibre optique et, surtout, d'écrans dits « à réseau lenticulaire ». Doté d'une couche de microlentilles optiques, ce type d'écran adresse à chaque oeil une image différente, créant ainsi un effet stéréoscopique à l'oeil nu, sans lunettes spéciales.

Des échanges plus humains

Grâce à ce système, jusqu'à huit personnes peuvent communiquer simultanément, en temps réel, avec la possibilité de prendre la conférence virtuelle en cours de route. Et surtout, malgré l'éloignement, elles ont le sentiment d'être très proches. « Plus de 70 % de la communication repose sur le langage non verbal : les expressions du visage, les tics, les rougeurs, les regards, etc., explique Olivier Gachinard, ingénieur R & D à Orange Labs. Notre système, très sophistiqué, rend tout cela visible à l'écran parce qu'il offre une très grande finesse dans l'image. Il supprime "l'effet faux-jeton" qui donne l'impression que la personne nous parle mais regarde ailleurs », ajoute-t-il. De quoi réjouir les professionnels, amenés à négocier à distance, ou simplement les managers soucieux de maintenir des liens entre des équipes, dispersées aux quatre coins du globe.

Vision plus juste d'un produit

En prime, les participants ont l'opportunité avec cet outil de montrer à distance des objets, et en trois dimensions ça change tout. « Avec les systèmes de visioconférence classiques, une personne pouvait montrer un produit mais il était très difficile de se faire une idée très précise de sa structure et de son relief. Cela donnait donc une vision parfois faussée de la réalité », explique Yannick, démonstrateur sur le salon. Une aubaine donc, pour les directions marketing, par exemple, mais pas seulement. Les formateurs, pour compléter leurs cours, ont l'opportunité de se livrer à des démonstrations plus réalistes. Un spécialiste réseau peut montrer, par exemple, un commutateur réseau à ses élèves pour qu'ils puissent correctement envisager son emplacement dans une salle blanche. Une telle innovation est bien la preuve qu'entre le virtuel et le réel, les frontières s'estompent... parfois plus vite qu'on ne le pense !

 source:http://www.01net.com/editorial/382239/orange-labs-devoile...

14:51 Publié dans Materiél | Lien permanent | Commentaires (0) | Tags : orange, système

07/06/2008

VIA met de la puissance dans le mini-PC de salon pour concurrencer l'Atom d'Intel

Après l'annonce de la sortie de son nouveau processeur, le Nano, VIA présente la version 2.0 de sa plate-forme mini-ITX. Cette évolution est très importante pour le constructeur taïwanais, au regard de la compétition grandissante autour des systèmes compacts et consommant peu d'énergie, netbooks et nettops en tête. Car la niche de VIA, peuplée de « geeks modeurs » qui se bricolaient des platines de salon ou des serveurs maisons cachés dans leur grille-pain, est devenue un marché de masse dans lequel la marque peut faire valoir son savoir-faire. Bien qu'ouverte –quelques modèles de carte mini-ITX étaient prévus pour des processeurs AMD et Intel–, la plate-forme a pour but essentiel de vendre du VIA inside et donc du Nano.

 

((/public/./.VIA-miniITX2.0_t.jpg

Où le rapprochement avec nVidia se fait sentir
Quand on regarde les évolutions techniques, deux éléments interpellent : le « haut » degré d'équipement requis –2 Go de mémoire minimum, LAN Gigabit, son HD, vidéo HD, etc.– qui tire les performances de base de la plate-forme vers le haut ; et la partie graphique embarquée castrée, puisque le seul port obligatoire est le VGA à l'heure où le HDMI devient un standard. La raison de ne pas faire du port HDMI un prérequis alors que VIA communique sur les capacités de décryptage Blu-ray de son processeur tout neuf? Sans doute le rapprochement avec nVidia : en effet, si on lit entre les lignes de ce choix, on s'aperçoit que le support de DirectX 10 et le port HDMI ne sont garantis que par l'ajout d'une carte fille. Les spécifications minimales de la plate-forme et la présence d'un port PCI-Express x16 invitent donc les constructeurs à offrir le minimum vital –le port VGA– afin d'abaisser les prix de vente de leurs cartes mères (sur lesquelles le processeur est soudé, rappelons-le) et incitent les acheteurs à s'équiper d'une carte graphique tierce, afin d'avoir le port HDMI et les performances 3D ainsi que le décodage vidéo qui vont avec.

La stratégie du gagnant/gagnant?
Dans ce choix, tout le monde semble gagnant : les constructeurs de cartes graphiques premièrement, puisqu'on invite à acheter leurs cartes et on fournit même le port nécessaire à en tirer parti. VIA ensuite, qui va pouvoir communiquer –et qui le fait déjà, comme l'atteste la vidéo ci-dessous- sur les performances générales (CPU+GPU) de la plate-forme (avec des cartes nVidia of course), ce qui redorera son blason, ses solutions étant réputées pour être poussives voire faibles. Le consommateur enfin : si le surcoût d'une carte graphique low-profile est faible (on trouve de 8600 GT fanless à 50 euros), ces solutions sont grandement supérieures aux solutions embarquées. :

Ne pas se faire atomiser
Qui est en ligne de mire? Intel, avec son Atom bien sûr. Au vu des performances évoquées ici et là, les deux processeurs se talonnent, avec un léger avantage au Nano en calcul sur les entiers (ALU) et un bel avantage à Intel en dissipation de chaleur (TDP). Ayant rattrapé un peu de son retard en matière de performances minimales nécessaires, VIA entend séduire les consommateurs de PC bas de gamme, qui sont à l'informatique ce que les joueurs occasionnels sont à la Wii : un public qui recherche un outil simple et pas cher et qui se fiche des performances brutes.

La chance de Linux, le énième sursis de Windows XP
Même si les performances du Nano semblent être en nette hausse par rapport à celles de son prédécesseur le C7, Vista reste un gros morceau pour ce type de puce et cette plate-forme en général. Et s'il n'est bien sûr pas impossible de faire tourner le gros Vista, la fameuse « expérience utilisateur » sera bien meilleure sous GNU/Linux et… Windows XP. Lequel a d'ailleurs vu sa période de vente étendue à 2010 pour les fabricants d'ordinateurs à bas coût, la cible de VIA et du mini-ITX 2.0. Cette plate-forme est donc un outil de rêve pour les fervents partisans du manchot et une petite épine dans le pied de Microsoft qui, s'il doit se réjouir de continuer de vendre des licences XP d'un côté, se voit rappeler de l'autre que son OS Vista est une usine à gaz.

Le standard mini-ITX 2.0

Processeur : Processeur x86 économe en énergie
Mémoire : Minimum 2 Go de SDRAM DDR2
Graphique : DirectX 9.0 intégré (IGP); DirectX 10 par carte additionnelle
Affichage : 1 port VGA pour écran LCD; 1 port HDMI sur carte additionnelle
Audio HD : 3 jacks Audio pour son surround jusqu’à 6 canaux
Connectivité haut débit : 1 port réseau Gigabit
Stockage : 2 emplacements Série ATA II + 1 emplacement IDE (PATA)
Connectivité périphérique : 4 ports USB 2.0 minimum
Extension : 1 PCI Express 16x
Taille : 17 x 17 cm
Systèmes d’exploitation : Windows Vista; Windows Vista Premium (par carte graphique additionnelle); Windows XP, et les principales distributions Linux

19:37 Publié dans Materiél | Lien permanent | Commentaires (0) | Tags : intel, atom

05/06/2008

AMD lance Puma, la réponse à Centrino

Capitalisant sur le rachat d'ATI, AMD sort officiellement sa nouvelle plate-forme pour PC portables, réunissant un processeur, un chipset, un contrôleur graphique et une puce Wi-Fi.

« Cette nouvelle plate-forme est la première à tirer pleinement parti de la fusion avec ATI et des développements croisés entre les équipes d'AMD et d'ATI », entame Patrice David, directeur marketing Europe pour les portables au sein d'AMD. Attendue depuis longtemps, la plate-forme répondant au nom de code Puma est une réponse tardive aux technologies Centrino et Centrino 2 d'Intel. Elle réunit un ensemble de composants destinés à fournir l'essentiel de l'architecture d'un PC portable : un processeur double coeur Turion X2, un chipset M 780G qui embarque lui-même un contrôleur graphique Radeon 3200 et enfin une puce Wi-Fi IEEE 802.11n draft 2.0 en provenance de fournisseurs tiers comme Atheros ou Broadcom.

Contrairement à Intel, qui intègre ses propres contrôleurs réseau sans fil au label Centrino, AMD a choisi de faire confiance à des partenaires. « Nous avons à ce niveau plus de souplesse que notre concurrent et nous laissons les constructeurs choisir les puces et les technologies qui leur paraissent les plus séduisantes sur le marché, sans les tenir enfermés. Nous avons simplement fait une sélection de fournisseurs sérieux », explique Patrice David.
Selon AMD, le prix des portables architecturés autour de Puma devrait s'échelonner entre 399 et 1 800 euros. Des constructeurs comme HP, Acer, Asus, Dell et Fujitsu-Siemens prévoient de lancer leurs premiers PC portables exploitant cette technologie, à la rentrée.

De grosses capacités graphiques

La plate-forme d'AMD permettra notamment de construire des portables très orientés vers le multimédia puisque le contrôleur graphique ATI 3200 intégré au chipset M 780G est compatible DirectX 10 et peut décoder les flux HD à la volée. Le fondeur laisse tout de même la possibilité d'installer une carte graphique dédiée.
Il vient notamment de présenter trois modèles Radeon HD 3400, 3600 et 3800 qui offriront des possibilités graphiques intéressantes sur les futurs portables Puma. Ainsi, il sera possible de basculer automatiquement (avec la technologie PowerXpress) de la carte graphique dédiée au contrôleur intégré, lorsque l'on débranchera son portable et que l'on passera en situation de mobilité. Ce qui permettra de diminuer la consommation électrique du système et d'augmenter l'autonomie du PC. Par ailleurs, la technologie Hybrid CrossFire permettra d'utiliser simultanément le contrôleur graphique intégré et la carte graphique dédiée pour obtenir plus de performances graphiques.
Enfin, AMD a dévoilé sa plate-forme XPG (External Graphic Platform) qui permettra de « sortir la puissance graphique du PC ». Celle-ci offrira la possibilité de réaliser des boîtiers graphiques externes, qui pourront rester à la maison et qui se connecteront au portable via un lien PCI Express 2.0.

 

23:17 Publié dans Materiél | Lien permanent | Commentaires (0) | Tags : amd, puma

Disques durs flash : l'innovation la plus excitante depuis dix ans selon Sun


Le constructeur annonce l'intégration de disques SSD dans ses gammes de serveurs et de baies de stockage d'ici à la fin de 2008.
A l'occasion d'une récente conférence de presse à Boston, Sun a donné des détails sur ses ambitions dans le domaine du solid state disk (SSD) ou disque flash. Pour John Fowler, vice-président systèmes chez Sun, le flash SSD est tout simplement « l'innovation la plus excitante des dix dernières années » et préfigure un « changement profond pour l'architecture des systèmes et du stockage », selon un communiqué diffusé par l'éditeur.

Des logiciels Flash Ready

C'est pourquoi le constructeur ne veut pas perdre de temps. Il compte intégrer des disques flash à ses serveurs et ses baies de stockage d'ici à la fin de l'année. Il travaille d'ores et déjà avec des fournisseurs OEM pour assurer l'interopérabilité des disques et du matériel. Selon eWeek, le constructeur va d'abord équiper ses produits de disques 2,5 pouces. Les disques 3,5 pouces seront intégrés en 2009. Le système de fichiers Solaris ZFS et la base de données MySQL seront également adaptés pour interagir au mieux avec ces nouveaux supports de stockage (Flash Ready).
Sun n'est pas le premier à se positionner sur le SSD. Certaines baies de stockage Symmetrix d'EMC peuvent déjà accueillir des disques flash, pour le traitement de gros volumes d'informations.

La performance, principal atout pour l'entreprise

Pour l'entreprise, le principal avantage du flash réside dans sa performance. « Avec un disque fibre channel, on peut atteindre 200 écritures par seconde. Avec le flash, on arrive à 8 000 écritures par seconde. Le seul handicap du flash, c'est son prix, qui reste très élevé », explique Jean-Yves Pronier, directeur marketing chez Sun France.
L'adoption du flash en entreprise restera donc directement subordonnée à son coût. Selon le constructeur, l'utilisation des disques SSD sera, dans un premier temps, strictement réservée aux serveurs à haute performance et au stockage primaire, là où l'accès aux données est le plus intensif. Dans ce cas, elle permettra de « booster » des applications pointues comme le calcul scientifique ou le calcul en temps réel. Mais, pour une diffusion plus large du flash dans les serveurs et le stockage, il faudra certainement attendre 2010.
 

 
Toute l'info avec 20minutes.fr, l'actualité en temps réel Toute l'info avec 20minutes.fr : l'actualité en temps réel | tout le sport : analyses, résultats et matchs en direct
high-tech | arts & stars : toute l'actu people | l'actu en images | La une des lecteurs : votre blog fait l'actu