Geforce GF100 – 25 procent törstigare än GTX 285

Permalänk
Medlem

Den kommer inte dra mycket i idle, det kan jag aldrig tänka mig. Till och med förra G200-serien var bra på låg idleförbrukning, bättre än ATI/AMD innan de gjorde om sina kort lite senare.

Permalänk
Medlem

Med tanke på att 5970 drar nästan 300W så är väl 250W ganska bra för ett kort som presterar bättre. 250W är dessutom spekulationer och inga officiella siffror, den kan dra över 300W, den kan dra 200W, ingen vet förutom Nvidia.

Jag väntar hellre på officiella siffror än att lita på Sweclockers källor inom chassi och nätaggsbranschen.

Jag citerar från Sweclockers egna artikel

Citat:

Inte heller några siffror för strömförbrukningen har släppts till omvärlden. Med tanke på grafikkortens utformning och de extra strömkontakterna (6+8 pinnar) bör dock GF100 vara i närheten av Geforce GTX 285, det vill säga drygt 200 W.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gender Bender
Med tanke på att 5970 drar nästan 300W så är väl 250W ganska bra för ett kort som presterar bättre. 250W är dessutom spekulationer och inga officiella siffror, den kan dra över 300W, den kan dra 200W, ingen vet förutom Nvidia.

Jag väntar hellre på officiella siffror än att lita på Sweclockers källor inom chassi och nätaggsbranschen.

Jag citerar från Sweclockers egna artikel

Vart har du uppgifter på att det är bättre än 5970? Gissar du bara eller har du några bra grundade spekulationer som säger det? nVidia har i alla fall inte gett sken utav att påstå det. De planerar ju tom en konkurrerande dubbelmacka för att ha något att sätta mot.

Det kan inte dra över 300W för då får de inte släppa kortet, 300W är max vad standarden klarar av idag. Med tanke på vad 5870 drar och hur stort det är är det absolut inte orimligt att GF100 drar 250W.

Jag citerar Sweclockers egna artikel:
"...De lovande siffrorna förtäljer dock inte hela historien. Enligt SweClockers källor hos chassi- och nätaggregatstillverkare är åtminstone toppmodellen ett riktigt törstigt grafikkort. Uppgifterna tyder på att strömförbrukningen hamnar runt 250 W – 25 procent mer än Geforce GTX 285.

Siffran underbyggs ytterligare om hänsyn tas till grafikkortets konstruktion. Nvidia har valt att utrusta visningsexemplaren av GF100 med 6+8 pinnars strömkontakter. Det gör det möjligt att förse grafikkortet med maximalt 300 watt (75 W PCI Express, 75 W 6-pin, 150 W 8-pin). Med dubbla 6-pinnars kontakter hade grafikkortet endast försetts 225 W som mest, något som uppenbarligen inte räcker till för GF100.

Siffran kan ställas i relation till Radeon HD 5870 på 188 W och Radeon HD 5970 som drar hela 294 W."

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem

Jag kommer ihåg när gf 6800 Ultra lanserades och tillverkaraen rekommenderad eett nätaggregat på 550 till 600W. Ett grafikkort som idag blir utklassat av en radeon HD 4670 som inte kräver mer än 300W aggregat.

Visa signatur

Bärbara [ Nada ]
Jobbets [HP Elitebook]
Stationära [ kaputt ]
Övrigt [LG OLED65C2] [PS5] [Xbox One X] [Xbox One Series X]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Funnyvlad
Jag kommer ihåg när gf 6800 Ultra lanserades och tillverkaraen rekommenderad eett nätaggregat på 550 till 600W. Ett grafikkort som idag blir utklassat av en radeon HD 4670 som inte kräver mer än 300W aggregat.

Utveckling! Men trots det så ligger de snabbaste grafikkorten och drar mycket ström vid full prestanda. AMD drar mindre, men 188W är inte speciellt lite det heller (31W mer än förra generationens 4870 som låg på 157W om min googling stämmer).

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av blade80
De planerar ju tom en konkurrerande dubbelmacka för att ha något att sätta mot.

Att det är just "för att ha något att sätta mot" vet vi väl dock inte; kanske gör de det bara för att få ett ännu bättre kort?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av blade80
Vart har du uppgifter på att det är bättre än 5970? Gissar du bara eller har du några bra grundade spekulationer som säger det? nVidia har i alla fall inte gett sken utav att påstå det. De planerar ju tom en konkurrerande dubbelmacka för att ha något att sätta mot.

Det kan inte dra över 300W för då får de inte släppa kortet, 300W är max vad standarden klarar av idag. Med tanke på vad 5870 drar och hur stort det är är det absolut inte orimligt att GF100 drar 250W.

Jag citerar Sweclockers egna artikel:
"...De lovande siffrorna förtäljer dock inte hela historien. Enligt SweClockers källor hos chassi- och nätaggregatstillverkare är åtminstone toppmodellen ett riktigt törstigt grafikkort. Uppgifterna tyder på att strömförbrukningen hamnar runt 250 W – 25 procent mer än Geforce GTX 285.

Siffran underbyggs ytterligare om hänsyn tas till grafikkortets konstruktion. Nvidia har valt att utrusta visningsexemplaren av GF100 med 6+8 pinnars strömkontakter. Det gör det möjligt att förse grafikkortet med maximalt 300 watt (75 W PCI Express, 75 W 6-pin, 150 W 8-pin). Med dubbla 6-pinnars kontakter hade grafikkortet endast försetts 225 W som mest, något som uppenbarligen inte räcker till för GF100.

Siffran kan ställas i relation till Radeon HD 5870 på 188 W och Radeon HD 5970 som drar hela 294 W."

Varför får nvidia inte släppa kortet om det drar mer än 300w? Jag har aldrig hört talas om en standard för strömförbrukning.

Permalänk
Medlem

Jag börjar tro att man blir tvungen att ha 2 datorer i framtiden om man skall leva hyfsat strömsnålt.

Internet & Tankburk ström snålaste möjligt, används oftast.
Spelburken, endast igång vid spel tillfällen.

Permalänk
Medlem

W hit och W dit...

Vem bryr sig om det egentligen? Vill man ha en speldator ja då betalar man strömmen också utan att gnälla...

Drabbar ingen fattig!

Visa signatur

Amiga 1200 /Blizzard 1230 Mk-IV 32meg /60GB HD/

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av s1k
Varför får nvidia inte släppa kortet om det drar mer än 300w? Jag har aldrig hört talas om en standard för strömförbrukning.

Just ordet "får" är kanske inte rätt, men det handlar om vad PCI-expressbussen klarar att leverera, samt hur mycket det går att koppla från nätagget. 75+75+150 watt..

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Avstängd

Har man råd att köpa kortet så har man väl råd med eget vindkraftverk också...

Visa signatur

Mmmarabou

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av atreyu
W hit och W dit...

Vem bryr sig om det egentligen? Vill man ha en speldator ja då betalar man strömmen också utan att gnälla...

Drabbar ingen fattig!

Ju mer ström de drar desto mer värme vilket oftast brukar betyda många högljudda fläktar alternativt andra dyra exotiska kylanordningar. Dessutom är det intressant när man jämför med ATI-korten. Ju mer W per prestanda, desto mindre effektivt kort och sämre på överklockning. Om nvidias fetaste kort drar 300w och ATIs fetaste kort drar 300w så kommer ATI vinna prestandatävlingen om deras kort är mer effektivt.

Det är av denna anledning Intel krossar AMD på cpu-fronten just nu, i allt annat än billiga budget-processorer där folk inte bryr sig om annat än priset.

Visa signatur
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av tosseboll
Just ordet "får" är kanske inte rätt, men det handlar om vad PCI-expressbussen klarar att leverera, samt hur mycket det går att koppla från nätagget. 75+75+150 watt..

Det spelar inte så stor roll om vad PCI-E bussen klarar av att leverera. Om det drar över 300W så är det väl bara att trycka dit en till 6-pins kontakt, elr?

Det lät på dig som om det fanns någon lag/regel som gjorde att man inte får sälja kort som drar över 300W, men det menade du väl inte?

Permalänk

@atreyu
Det skulle gå att argumentera att alla har ett ansvar att försöka hushålla med gemensamma resurser, t.ex. ström. Den hype kring detta som finns inbyggd med tanke på detta dagens teknik är troligen inte motiverad av ett syfte att spara pengar på elfakturan, åtminstone inte i Sverige.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av zalleswe
Det spelar inte så stor roll om vad PCI-E bussen klarar av att leverera. Om det drar över 300W så är det väl bara att trycka dit en till 6-pins kontakt, elr?

Det lät på dig som om det fanns någon lag/regel som gjorde att man inte får sälja kort som drar över 300W, men det menade du väl inte?

inte jag som sa de inte får sälja iofs...
Teoretiskt kan jag hålla med dig om att det bara borde vara att trycka dit en connector till, men det skulle kräva ännu mer av nätaggen, och jag känner inte till något som har kopplingar för 2x6-pin + 1x8-pin. Fast har iofs inte kollat på jättedyra agg...

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Citat:

Ursprungligen inskrivet av zalleswe
Det spelar inte så stor roll om vad PCI-E bussen klarar av att leverera. Om det drar över 300W så är det väl bara att trycka dit en till 6-pins kontakt, elr?

Det lät på dig som om det fanns någon lag/regel som gjorde att man inte får sälja kort som drar över 300W, men det menade du väl inte?

Enligt PCIe-standarden så får kortet inte dra mer än 300W totalt. Dvs om kortet drar mer än 300W totalt, så är det inte längre ett PCIe-kort.

Det här är anledningen till att AMD klockade ner 5970's GPUer jämfört med 5870 förresten.

EDIT: Sorry, ATX ska det vara inte PCIe. Tack blade80 för att du länkade till anandtech.

Visa signatur

Dator: i5-13600K, Asus Prime Z690-P, Noctua NH-D14, Kingston Fury Beast RGB 32GB DDR5-6000, Gigabyte RTX 4090 gaming OC, Seasonic Platinum SS-1000XP, Lian-Li Lancool 215, Samsung 980Pro 2TB M.2 NVME, Acer Predator XB323QKNV 4k 144Hz

Permalänk
Citat:

Ursprungligen inskrivet av tosseboll
GF100 är ju bara arbetsnamnet. Det kommer heta GT380 eller liknande när det väl släpps.

ok, ja då förstår jag. Då blir det ju logiskt.

Visa signatur

[Core i7-3930K med 32GB ram, 2*256GB SSD] & [Core i7 3770K med 16 GB RAM, 256GB SSD] som tillsammans har ett [HD 5850 1GB] och 3st 24".

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Milky Way
Enligt PCIe-standarden så får kortet inte dra mer än 300W totalt. Dvs om kortet drar mer än 300W totalt, så är det inte längre ett PCIe-kort.

Vilket innebär att det inte kommer att släppas något kort som är över det, men om man själv vill klocka upp kortet och dra mer än 300W går det bra. Undrar om de kommer ändra på det till PCI Express v3.0 (som är försenad och kommer bli klar senare i år vad jag förstått). Kanske dags för NVidia att ta fram en egen buss, med över 9000 (W)

Permalänk
Citat:

Ursprungligen inskrivet av Thxsen
Jag börjar tro att man blir tvungen att ha 2 datorer i framtiden om man skall leva hyfsat strömsnålt.

Internet & Tankburk ström snålaste möjligt, används oftast.
Spelburken, endast igång vid spel tillfällen.

Kommer inte behövas då grafikkorten kan klocka ner när du t ex. surfar, kollar på film etc.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Vilket innebär att det inte kommer att släppas något kort som är över det, men om man själv vill klocka upp kortet och dra mer än 300W går det bra. Undrar om de kommer ändra på det till PCI Express v3.0 (som är försenad och kommer bli klar senare i år vad jag förstått). Kanske dags för NVidia att ta fram en egen buss, med över 9000 (W)

Eller helt enkelt släppa det nerklockat på 300w och ge det en Overboost funktion som aktiveras först när man pluggar in samtliga strömkablar.

Att något inte är standard borde inte vara så stort hinder (som exempel 802.11n draft som var ute i flera år innan standarden).

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av tosseboll
inte jag som sa de inte får sälja iofs...
Teoretiskt kan jag hålla med dig om att det bara borde vara att trycka dit en connector till, men det skulle kräva ännu mer av nätaggen, och jag känner inte till något som har kopplingar för 2x6-pin + 1x8-pin. Fast har iofs inte kollat på jättedyra agg...

Jag har för mig att hx750w och uppåt har 4st 6+2 pin.

Citat:

Ursprungligen inskrivet av Milky Way
Enligt PCIe-standarden så får kortet inte dra mer än 300W totalt. Dvs om kortet drar mer än 300W totalt, så är det inte längre ett PCIe-kort.

Det här är anledningen till att AMD klockade ner 5970's GPUer jämfört med 5870 förresten.

Jaså då förstår jag, tack så mycket

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av s1k
Eller helt enkelt släppa det nerklockat på 300w och ge det en Overboost funktion som aktiveras först när man pluggar in samtliga strömkablar

Tror inte de vill låta AMD/ATI ha prestandatronen med det som räknas till 1 kort (multi-GPU eller inte). De lär väl försöka hitta någon lösning som gör att de även kan slå HD 5970.

Permalänk
Medlem

Oj, vad "gulligt" att fermi värmer våra hjärtan ♥

Skämt åsido så börjar det inte bli lite för mycket?

Skulle det inte varit bra om kortet tog upp 3 slots för att fortfarande vara relativt svalt och tyst?

Jag tänker mig en stor radialfläkt som blåser mycket och fortfarande är relativt tyst.

Permalänk

Vafan vem bryr sig om watt.. det är väl för fasiken bara att trycka dit fler strömpinnar om det överskrider 300W, inte märkvärdigare än så.
"Det kallas inte ett PCI-E kort längre om det överskrider 300W". Dummaste jag hört.

Roligt hur folk är ALLTID extremt pessimistiska när det gäller dubbelmackor, ni klagade över GTX2xx korten: "neeeej det kommer aldrig gå att göra en dubbelmacka av dem korten", det gick, inga problem.
Ni klagade över HD5xx korten: "neeeej det kommer aldrig gå att göra en dubbelmacka" *blah blah watt hit och watt dit ojojoj vad varmt och strömtörstigt det kommer bli*, det gick, inga problem.

Kommer bli samma sak igen.

(okej jag är inte 100% säker om jag minns rätt om det där med HD5xx korten men jag minns rätt om GTX2xx korten allafall).

Om ni köper en Ferrari för 1 mille så klagar ni väl för fasiken inte över hur törstig den är..

Permalänk
Medlem

Om nu prestandan förbättrats mer än 25% jämfört med GTX 285 (vilket återstår att se) så blir prestanda per Watt inte sämre än innan...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Vafan vem bryr sig om watt.. det är väl för fasiken bara att trycka dit fler strömpinnar om det överskrider 300W, inte märkvärdigare än så.
"Det kallas inte ett PCI-E kort längre om det överskrider 300W". Dummaste jag hört.

Roligt hur folk är ALLTID extremt pessimistiska när det gäller dubbelmackor, ni klagade över GTX2xx korten: "neeeej det kommer aldrig gå att göra en dubbelmacka av dem korten", det gick, inga problem.
Ni klagade över HD5xx korten: "neeeej det kommer aldrig gå att göra en dubbelmacka" *blah blah watt hit och watt dit ojojoj vad varmt och strömtörstigt det kommer bli*, det gick, inga problem.

Kommer bli samma sak igen.

(okej jag är inte 100% säker om jag minns rätt om det där med HD5xx korten men jag minns rätt om GTX2xx korten allafall).

Om ni köper en Ferrari för 1 mille så klagar ni väl för fasiken inte över hur törstig den är..

Håller med, jag skiter fullständigt om den drog 1kw. Som sagt man kan inte få prestenda och låg förbrukning.

Visa signatur

AMD Ryzen 7 9800X3D 5.4Ghz +NH-D15 Chromax
MSI RTX 5080 Gaming Trio OC 3390mhz
Asus ROG Strix X870-F Gaming WIFI
Corsair Dominator Platinum 6200mhz 32GB CL36
Samsung G9 49”/240hz, NZXT H9 Flow, Corsair RM850X ATX 3.1

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ronnylov
Om nu prestandan förbättrats mer än 25% jämfört med GTX 285 (vilket återstår att se) så blir prestanda per Watt inte sämre än innan...

släpper man en helt ny arkitektur så borde man få ut mer prestanda per watt och kr än föregående generation. annars kan man lika gärna låta bli.

Visa signatur

Stationär: FD Define R4 | Asus P8Z77-V Pro | Core i5 3570K @ 4.23GHz | 8 GB Corsair Vengeance @1648Mhz | Asus Radeon HD 7790 | Samsung Evo 850 512 GB | Win 10 Home x64 | NAS Synology 210j 2x2TB Samsung F4

Permalänk
Inaktiv

DETTA ÄR ETT PRESTANDAKORT, för er som inte förstår!
Jag bryr mig inte ett dugg om strömförbrukningen och den är även lägre än vad jag trodde att den skulle bli.

Bara att skaffa fetare nätagg om man får problem, plus att det inte blir så mycket dyrare per månad med +~50W (om det nu är elräkningen folk oroar sig för).

Nvidia ION är strömsnål, köp en Nettop/Netbook om ni vill ha en strömsnål dator, prestandan spelar ju knappast någon roll eftersom ni verkar bry er mer om antalet Watt

EDIT: Tog bort ett s på prestanda

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av WeeMaan
+1 Hur mycket den drar i idle är det enda som är av intresse för mig, eftersom det är där den kommer ligga >95% av tiden i mitt fall.

Jag är också mest intresserad av hur mycket ström som går åt i IDLE.

Köper nog hellre i framtiden ett kort i mellanklassen med bra IDLE Watt, än ett i högre klassen som drar mycket W i IDLE.

Permalänk

Det här med Watt och strömförbrukning har blivit så jäkla tjatigt..

Citat:

Ursprungligen inskrivet av v1lle
DETTA ÄR ETT PRESTANDAKORT, för er som inte förstår!

presstandan spelar ju knappast någon roll eftersom ni verkar bry er mer om antalet Watt

Bra sagt.

Alltså seriöst folk.. det här är uppenbarligen inte ett kort för er, vänd er om och leta efter något annat kort, gå och köp typ ett AMD HD3870 eller nåt, det drar säkert lite ström.