Nvidia G80 har fastnat på bild

Permalänk
Medlem

Varför spekulera om strömförbrukningen, värmeutvecklingen och ljudnivån när vi ändå inte har fått se en enda test av korten? kanske har nvidia gjort korten strömsnåla, visste vi att Intels nästa processor (C2D) inte skulle vara nån enegrislukande värmepanna när alla satt där med sina P4-or där just dessa egenskaper var så dåliga? Och nog har nvidia lärt sig en läxa genom FX5***. Så smutskasta inte de kommande korten i förväg, för man vet aldrig...

Visa signatur

SLUTA SÄR SKRIV! http://www.skrivihop.nu/exempel/roliga.php
|Core2Duo E6600 @2.4Ghz | Gigabyte GA-965P-DS3 | OCZ Gold XTC DDR2 PC6400 2048MB + Corsair XMS2 PC6400 4GB | Radeon 4870 512MB @stock | Hiper 580W | 2x250GB + 640GB WD SATA2|

Permalänk
Permalänk
Medlem

mitt kort har också 2 12v kontakter, varför.. nej ja har inte en aning chill, stort kort =P

Visa signatur

Bomba.nu

i7 950 @ 4ghz | Asus P6X58D-E | Corsair 6GB 1600MHz XMS3 | Asus GTX 770 OC | 50 TB SSD

Permalänk
Medlem

De ska va kallt utan massiv kylning!
Tack .. men nej tack!

Undra hur mycket back dom kommer gå?

Permalänk
Citat:

Ursprungligen inskrivet av hejsann
Undra hur mycket back dom kommer gå?

Inget. De kommer växa som de har gjort sedan de har lanserade 6-serien för 2 år sen.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

De som diskuterar om kortet kommer låta mkt har nog missat att kortet också kommer i en vattenkyld version?

Vattenkylning = tyst.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av zulbat
De som diskuterar om kortet kommer låta mkt har nog missat att kortet också kommer i en vattenkyld version?

Vattenkylning = tyst.

Det beror ju helt på fläktarna. och som det ser ut på de där bilderna, så lär det ju bli en hybridkylning, vilket inte borgar för låg ljudvolym.

Visa signatur

Datorer, ett enkelt sätt att dagligen träffa idioter....

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Don_Tomaso
Jättehype. De fick alla att tro att det va största händelsen sen muffinsen. Kortet (FX5800, highend) i sig lät extremt mycket och presterade inte mycket bättre än ATIs kort, om ens alls, kommer inte riktigt ihåg.

Det som gjorde FX korten så dåliga va just att deras pixel pipelines var bedrövliga, de presterade riktigt bra sålänge där inte va någon bumpmapping och dylikt.
Det ironiska är att det är just bumpmapping som va det hetaste just då, och det som FX korten satsade mycket PR på att skryta om

Visa signatur

CPU: Ryzen 7 5800H RAM: 32gb DDR4 GPU: nVidia 3070 8gb vRam

Permalänk
Medlem

Trevligt. Kan man ju koppla på den i fjärrvärme-systemet i huset. Hjälper till nu i vintermånaderna. hah!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av vodkaman
Varför spekulera om strömförbrukningen, värmeutvecklingen och ljudnivån när vi ändå inte har fått se en enda test av korten? kanske har nvidia gjort korten strömsnåla, visste vi att Intels nästa processor (C2D) inte skulle vara nån enegrislukande värmepanna när alla satt där med sina P4-or där just dessa egenskaper var så dåliga? Och nog har nvidia lärt sig en läxa genom FX5***. Så smutskasta inte de kommande korten i förväg, för man vet aldrig...

Förlåt? Vem förstod inte att något likande Core 2 Duo skulle komma när de släppte Pentium M?
Att se att detta kort drar enormt mycket är inget svårt att se. Det är bara att titta på de två pci-e strömkablarna. Visserligen är det ju mycket fläns, men radialfläkt?! Jag har bara dålig erfarenheter av radialfläktar.

Permalänk
Medlem

Jag tror inte att det blir något G80/R600 för min del. Jag nöjer mig med nuvarnade rigg tills det kommer lite svalare och strömsnålare grejer. 45nm to the people...

Visa signatur

CPU: AMD Ryzen 7 7800X3D CO + 2133 MHz FCLK GPU: Sapphire RX 7900 XT Pulse OC
RAM: Corsair 2x16GB 6000 MT/s CL30 (Hynix) BZ subtimings
MB: ASUS ROG Strix B650E-F Gaming WIFI SSD: Kingston KC3000 2TB PSU: Corsair RM850x

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Arzei
Jag tror inte att det blir något G80/R600 för min del. Jag nöjer mig med nuvarnade rigg tills det kommer lite svalare och strömsnålare grejer. 45nm to the people...

Tror att du kommer vilja uppgradera innan 45nm om du spelar. 65nm borde bli nästan ok. Detta är ju 80nm.

Och trenden har ju varit att grafikkort drar mer och mer ström. Så när det släppts 45nm så kommer det bara leda till högre klock och kanske inte lägre strömförbrukning så vida det inte bara är en kympning av föregående modell som 7800->7900 då vi såg just detta.

Permalänk
Citat:

Ursprungligen inskrivet av Pudeln

Och trenden har ju varit att grafikkort drar mer och mer ström.

Delviss. Strömförbrukning har ståt på samma nivå sedan X850XT/6800Ultra dagarna tills ATI kom med sina glödvarma R520 och respektive R580(+). Ribban har höjts nu. Första generationen av Dx10 från nVidia o ATI kommer dra 150-200+W.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Delviss. Strömförbrukning har ståt på samma nivå sedan X850XT/6800Ultra dagarna tills ATI kom med sina glödvarma R520 och respektive R580(+). Ribban har höjts nu. Första generationen av Dx10 från nVidia o ATI kommer dra 150-200+W.

Som jag kommer ihåg det så har Nvidia minskat sin strömförbrukning sedan 6800-serien. 7800GTX drar mindre än 6800Ultra (enda undantaget var 512MB versionen). 7900GTX som inte är något annat än en minskning och lite extra klock jämfört med 7800-serien, drar i sin tur mindre där med...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MOrKiz
Som jag kommer ihåg det så har Nvidia minskat sin strömförbrukning sedan 6800-serien. 7800GTX drar mindre än 6800Ultra (enda undantaget var 512MB versionen). 7900GTX som inte är något annat än en minskning och lite extra klock jämfört med 7800-serien, drar i sin tur mindre där med...

Det där med krympningar nämnde jag ju. Sedan ligger Nvidias design lite efter Ati för tillfället. Så om man istället hela tiden tittar på det bäst presterande kortet för tillfället oavsett märke så ser vi en liten ökning. 1900xtx som är bäst/mest avancerat just nu är ju en ökning från tidigare gen. Samma kommer vi se med r600.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Pudeln
Det där med krympningar nämnde jag ju. Sedan ligger Nvidias design lite efter Ati för tillfället. Så om man istället hela tiden tittar på det bäst presterande kortet för tillfället oavsett märke så ser vi en liten ökning. 1900xtx som är bäst/mest avancerat just nu är ju en ökning från tidigare gen. Samma kommer vi se med r600.

Det bästa presterande kortet för tillfället är 7950 GX2. T o m där är strömförbrukning relativt låg till den massiva prestandan.

Permalänk
Citat:

Ursprungligen inskrivet av MOrKiz
Det bästa presterande kortet för tillfället är 7950 GX2. T o m där är strömförbrukning relativt låg till den massiva prestandan.

Det beror på att G71 har 106 miljoner transistors mindre än R580. Därför G71 har så god prestanda/strömförbrukning ratio.

Varför R580 har mer transistorer beror nog på att R580 är en General Purpose Graphics Processing Units (GPGPU) som kan också behandla fysik och beräkningar (t ex Folding@home).

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

Jag tycker det är kul att se utvecklingen av grafikkort och spelens grafik. För 12år sedan kunde man räkna pixlarna på skärmen och en gubbe i ett strategispel bestod av ugnefär 5 st

Om vi hoppar fram 10 år så borde utvecklingen har nått en gräns där det inte är lönt att satsa mer på det grafiska. Idag så är man riktigt nära ett värkligt utseende. Tänk om man då endast köper nya kort när det gamla går sönder För för eller senare måste denna utvecklingen stanna upp.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC