Geforce GF100 – 25 procent törstigare än GTX 285

Permalänk
Medlem

Ljudnivån på kortet tycker jag är väldigt viktigt. Vill ju inte ha ett jetplan i maskinen som jag hade med mina 4870 kort

Visa signatur

https://valid.x86.fr/pyrh0w
https://valid.x86.fr/hc225t
https://valid.x86.fr/6dilbx
Ryzen 9 7950X, Asus X670E Hero, 64GB ram, Zotac RTX 4090 AMP Extreme AIRO, Seasonic SnowSilent 1050, CORSAIR 7000D Airflow, Custom loop för CPU med ett Phanteks Glacier C360A CPU Block.
Det enda jag med säkerhet vet är att jag ingenting med säkerhet vet

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Vafan vem bryr sig om watt.. det är väl för fasiken bara att trycka dit fler strömpinnar om det överskrider 300W, inte märkvärdigare än så.
"Det kallas inte ett PCI-E kort längre om det överskrider 300W". Dummaste jag hört.

Roligt hur folk är ALLTID extremt pessimistiska när det gäller dubbelmackor, ni klagade över GTX2xx korten: "neeeej det kommer aldrig gå att göra en dubbelmacka av dem korten", det gick, inga problem.
Ni klagade över HD5xx korten: "neeeej det kommer aldrig gå att göra en dubbelmacka" *blah blah watt hit och watt dit ojojoj vad varmt och strömtörstigt det kommer bli*, det gick, inga problem.

Kommer bli samma sak igen.

(okej jag är inte 100% säker om jag minns rätt om det där med HD5xx korten men jag minns rätt om GTX2xx korten allafall).

Om ni köper en Ferrari för 1 mille så klagar ni väl för fasiken inte över hur törstig den är..

En ferrari köper man av helt andra anledningar än att åka till ica dödsfort.

Själv skulle jag inte köpa något till min dator om det låter för mycket eller blir varmt, är man inte så kräsen med detta så finns det väl inga problem med strömtörstiga komponenter.

Visa signatur

Om du vill att jag ska se ditt svar så tryck på Citera.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Thxsen
Jag börjar tro att man blir tvungen att ha 2 datorer i framtiden om man skall leva hyfsat strömsnålt.

Internet & Tankburk ström snålaste möjligt, används oftast.
Spelburken, endast igång vid spel tillfällen.

Du är inte ensam person om att börja tänka i de här banorna eller så har en del personer redan den lösningen redan klar - en billig eller gammal strömsnål burk för vardagsgöromål etc. och en annan dator för lek och/eller tunga program (t.ex. bildredigering och film på hobbybasis) som inte en strömsnål burk orkar med att driva. Men så finns det andra personer som av olika skäl lägger t.ex. spelandet på hyllan när kostnaderna börjar dra iväg för ett extremt nytt spelsystem och kanske på sin höjd skaffar sig en spelkonsol istället.

Övrigt. Man undrar om hur framtiden kommer att kanske se ut om utvecklingen på grafikkortssidan fortsätter så här med allt mer extrema grafikkort i toppskiktet som visserligen är roliga att se på (enligt mitt tyckande) men få personer kan nytta fullt ut i vardagliga sammanhang och ännu mindre antal personer som har råd att köpa de grafikkorten med ett passande datorsystem med alla de extra kostnader som det medför ett sådant system. Även många spel är fortfarande idag mindre bra kodade och ibland utgår de (bl.a. spelutvecklarna) från enkla spelkonsoler med begränsad grafik vilket inte är till någon större nytta hos de värre grafikkorten ute i konsumentleden. Men även annan mjukvara och hårdvara behöver ses över för en bättre balans i ett framtida system. Frågan är om vi kommer en dag få se och uppleva en gräns när det är inte längre försvarbart såväl tekniskt och som ekonomiskt med allt för extrema datorsystem bland privatpersoner? Den som hade en "kristallkula" ändå... tills den dagen kommer gott folk passa på att ta tillfället i akt och njut av ny teknik och nya tekniska landvinningar - här inom datorvärlden, så länge man kan ha råd med de nya tekniska sakerna om intresse finns för dem hos betraktaren ifråga.

/Saint25

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av v1lle
DETTA ÄR ETT PRESTANDAKORT, för er som inte förstår!
Jag bryr mig inte ett dugg om strömförbrukningen och den är även lägre än vad jag trodde att den skulle bli.

Bara att skaffa fetare nätagg om man får problem, plus att det inte blir så mycket dyrare per månad med +~50W (om det nu är elräkningen folk oroar sig för).

Nvidia ION är strömsnål, köp en Nettop/Netbook om ni vill ha en strömsnål dator, presstandan spelar ju knappast någon roll eftersom ni verkar bry er mer om antalet Watt

Håller med om att kostnadsaspekten på effektbehovet är helt irrelevant men ökad effekt drar med sig lite småsaker som ljudnivå, temperaturer och med temperaturen även överklocknings marginalen. Känns trist att behöva vattenkylning för att kunna klocka korten. Gäller väll i praktiken redan 5890.

Sen indikerar ju ett effektbehov på närmare 225W, hade räckt med 2x6 annars, på att det kommer bli besvär med en dubbel GPU kort som inte bör dra över 300W för att följa PCI-e normen. Varför köpa ett dubbel GPU kort om det är så strypt att det blir krossat av en riktig SLI setup.

Visa signatur

"Jag har inte gått 5 år på Chalmers, men till och med jag vet att det är en dum idé att blanda vatten och elektronik"
Min Fru

Permalänk
Citat:

Ursprungligen inskrivet av zeagan
En ferrari köper man av helt andra anledningar än att åka till ica dödsfort

Ica= internet
Racerbana= krävande spel

Citat:

Ursprungligen inskrivet av lideri
Varför köpa ett dubbel GPU kort om det är så strypt att det blir krossat av en riktig SLI setup.

Tydligen säljer ju HD5970.. 2st HD5870 utklassar HD5970..

Nog pladdrat i den här tråden för min del.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lideri
Håller med om att kostnadsaspekten på effektbehovet är helt irrelevant men ökad effekt drar med sig lite småsaker som ljudnivå, temperaturer och med temperaturen även överklocknings marginalen. Känns trist att behöva vattenkylning för att kunna klocka korten. Gäller väll i praktiken redan 5890.

Sen indikerar ju ett effektbehov på närmare 225W, hade räckt med 2x6 annars, på att det kommer bli besvär med en dubbel GPU kort som inte bör dra över 300W för att följa PCI-e normen. Varför köpa ett dubbel GPU kort om det är så strypt att det blir krossat av en riktig SLI setup.

Kylaren på hd 5970 är anpassad för att kunna kyla 400 watt. Alltså finns det en marginal för överklockning även på dubbelmackorna.

Visa signatur

3770k @4,5ghz, EK-Supremacy, 2x hd 7970 @1050/1500 , 4x 4 GB corsair vengeance LP 1600 mhz, Corsair RM1000x, z77a-gd65, Samsung 840 pro 256 GB, Crucial m4 128 GB, Nzxt switch 810

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
5870 utklassar HD5970..

Nog pladdrat i den här tråden för min del.

Skulle nu inte säga att 5870 CF utklassar 5890, men vist är CF det bättre. Känns som om Nvidia kommer få stryp Fermi betydligt mer än AMD för att komma ner under 300W, och möjligen hamna i ett läge där den enda fördelen en dubbel Fermi har är att den är snabbast. Sen finnas en viss tjusning att äga det snabbaste grafikkortet som finns så några entusiaster köper väll det alltid

Sen har jag i och för sig glömt bort att din definition av utklassa är 3-5% bättre

Citat:

Ursprungligen inskrivet av Anders127
Kylaren på hd 5970 är anpassad för att kunna kyla 400 watt. Alltså finns det en marginal för överklockning även på dubbelmackorna.

Som jag förstått det så är överklockningsmarginalen på 5890 väldigt liten utan vattenkylning, kylaren klarar säkert att kyla bort värmen från GPU:erna men volt regleringen verkar överhetta rätt snabbt i alla fall och begränsa klockningen.

Visa signatur

"Jag har inte gått 5 år på Chalmers, men till och med jag vet att det är en dum idé att blanda vatten och elektronik"
Min Fru

Permalänk
Medlem

Jo det finns en 300W-gräns oavsett om någon tycker att det är löjligt eller inte:

Moving on, for power, the 5970 uses an 8pin and a 6pin power connector (although the 6pin sits on top of a spot silk-screened for anther 8pin). The TDP is 294W, bringing it in just under the 300W ATX limit. Idle power is 42W, thanks to AMD’s aggressive power optimizations present in the entire 5000 series.

As some of you may have noticed, in spite of the fact that this card is at least a pair of 5850s, it consumes less than the 320W (2x160W) such a setup would. In order to meet the 300W limit, AMD went and binned Cypress chips specifically for the 5970, in order to find chips that could operate at 725MHz at only 1.05v (the 5850 runs at 1.088v). Given the power creep coming from the 4800 series, binning for the best chips is the only way AMD could get a 300W card out.

http://www.anandtech.com/video/showdoc.aspx?i=3679

5970 är väldigt klockvänliga just pga att de klockat ned korten för att hålla sig inom standarden, den är gpuerna handplockade för att klara av specifikationerna också som även det bidrar till extra bra överklocknignspotensial. Så klart är det inga problem att öka spänningen själv och lätt gå över de 300W som är standard men de får inte släppa ett kort som drar mer som standard.

Hur mycket BS några än må tycka att det är så är det en begränsning i dagsläget och det är en begränsning som även nVidia kommer bli drabbad av.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lideri
Skulle nu inte säga att 5870 CF utklassar 5890, men vist är CF det bättre. Känns som om Nvidia kommer få stryp Fermi betydligt mer än AMD för att komma ner under 300W, och möjligen hamna i ett läge där den enda fördelen en dubbel Fermi har är att den är snabbast. Sen finnas en viss tjusning att äga det snabbaste grafikkortet som finns så några entusiaster köper väll det alltid

Sen har jag i och för sig glömt bort att din definition av utklassa är 3-5% bättre

Som jag förstått det så är överklockningsmarginalen på 5890 väldigt liten utan vattenkylning, kylaren klarar säkert att kyla bort värmen från GPU:erna men volt regleringen verkar överhetta rätt snabbt i alla fall och begränsa klockningen.

5890 finns väl inte?

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk

Sj är jag besviken att Fermi inte har dubbla 8-pins ström intag. det vore kickass bra!

Visa signatur

Intel 9700 i7@4.7GHz | LG55G920V | Silverstone Raven RV02 | Thermaltake MAX | Asus TUF 3080 OC | g-string 32GB RAM 1833mhz | Hyper 880W Gold | Intel 9700 Pro mNVME 1TB |
Intel 2700K@4.7GHz | VIEWSONIC 4K PROJ | SILVERSTONE HTPC | Zalman 9900CCMAX | MSI GTX970 4096Mb SLi | Kingston 16Gb DDR3 1866Mhz | Windows 8 64 Bit | Hyper 880W Gold | LG BH10LS30 | Asus P8P67 Maximus IV Extreme| Samsung 840 Pro 256GB SSD | Acer

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av lideri
Håller med om att kostnadsaspekten på effektbehovet är helt irrelevant men ökad effekt drar med sig lite småsaker som ljudnivå, temperaturer och med temperaturen även överklocknings marginalen. Känns trist att behöva vattenkylning för att kunna klocka korten. Gäller väll i praktiken redan 5890.

Sen indikerar ju ett effektbehov på närmare 225W, hade räckt med 2x6 annars, på att det kommer bli besvär med en dubbel GPU kort som inte bör dra över 300W för att följa PCI-e normen. Varför köpa ett dubbel GPU kort om det är så strypt att det blir krossat av en riktig SLI setup.

Vart blir 5970 krossat av en SLI-setup? Menar du CF-setup eller SLI förresten? Du får gärna visa.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem

Om detta stämmer så drar det grafikkortet mycket mer än hela min dator

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av prodigy
FAIL!

Ehh va? trodde du världens snabbaste/kraftfullaste grafikkort skulle klara sig på 5W

ROFLMAO du är lam!

Verkar vara många som är 'nervösa' och klankar ner på Fermi pga lite W =/ 5970 drar ju mer än Fermi kort i load

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_

"Det kallas inte ett PCI-E kort längre om det överskrider 300W". Dummaste jag hört.

Det uttalandet säger mer om dina kunskaper än sanningen - eller snarare brist på kunskaper

Citat:

Ursprungligen inskrivet av v1lle
DETTA ÄR ETT PRESTANDAKORT, för er som inte förstår!
Jag bryr mig inte ett dugg om strömförbrukningen och den är även lägre än vad jag trodde att den skulle bli.

intel lyckades halvera strömförbrukningen samtidigt som prestandan dubblades när de övergav netburst och introducerade core2.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem

Fortfarande vis vet ingen om det är världens snabbaste grafikkort.

Visa signatur

Hårdvaru och mjukvaru intresserad

Permalänk
Medlem

Madness!! Men jaja, verkar ju lovande att de verkar få upp prestanda per krona ordentligt.

Förresten. Om 6-pin ger 75W, och 8-pin 150W. Varför har då vissa kort 2x6-pin istället för 1x8-pin?

Visa signatur

Fractal Design Define R3 | HP ZR24w & Hyundai L90D+ | Corsair HX520W | Asus P8P67 Pro | i5 2500k @ 4,0 | Samsung 850 Evo 500GiB | GTX960 | 16 GB

Permalänk
Citat:

Ursprungligen inskrivet av blade80
Jo det finns en 300W-gräns oavsett om någon tycker att det är löjligt eller inte:
Så klart är det inga problem att öka spänningen själv och lätt gå över de 300W som är standard men de får inte släppa ett kort som drar mer som standard.

Hur mycket BS några än må tycka att det är så är det en begränsning i dagsläget och det är en begränsning som även nVidia kommer bli drabbad av.

Sen när har politiker börjat blanda sig in i datorhårdvara?
Sånt skit gör mig förbannad, nån jäkla 300W gräns av nån jädra anledning..
Det finns inget som helst fysiskt hinder som sätter en 300W gräns.

Vi borde protestera..

Jäkla muffin-ätande-kontorsnissar..

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Vafan vem bryr sig om watt.. det är väl för fasiken bara att trycka dit fler strömpinnar om det överskrider 300W, inte märkvärdigare än så.
"Det kallas inte ett PCI-E kort längre om det överskrider 300W". Dummaste jag hört.

Roligt hur folk är ALLTID extremt pessimistiska när det gäller dubbelmackor, ni klagade över GTX2xx korten: "neeeej det kommer aldrig gå att göra en dubbelmacka av dem korten", det gick, inga problem.
Ni klagade över HD5xx korten: "neeeej det kommer aldrig gå att göra en dubbelmacka" *blah blah watt hit och watt dit ojojoj vad varmt och strömtörstigt det kommer bli*, det gick, inga problem.

Kommer bli samma sak igen.

(okej jag är inte 100% säker om jag minns rätt om det där med HD5xx korten men jag minns rätt om GTX2xx korten allafall).

Om ni köper en Ferrari för 1 mille så klagar ni väl för fasiken inte över hur törstig den är..

Jag får hjärnblödning av formateringen på din... text...

Klart folk inte gillar Dubbelmackor, för det är en korkad lösning. Men det är en lösning. AMD har aldrig gjort en Dubbelmacka, som jag kan minnas, utan har två grafikkretsar på en något längre plastbräda - vilket kanske kräver mer tid på ritbordet men som blir billigare för både tillverkare och konsument.

Sedan är det självfallet folk bryr sig över hur mycket sina datorkomponenter drar då för hög belastning skulle riskera att behöva byta ut respektive nätaggregat för att tillverkaren ignorerar marknadstandard. Det känns ju ganska tappat om Nvidia, eller varför inte AMD, lanserar ett grafikkort som kräver att man byter ut sin nätdel mot något nytt - oberoende av vilken nätdel man sitter med vid tillfället. Tekniken ska gå i riktningen; högre prestanda per effekt. Det lyckades AMD med i största allmänhet - varför skulle det vara så fantastiskt svårt för Nvidia?

Permalänk
Inaktiv

Fyfan, palla ha ett så löjligt törstigt kort?!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Mr.Borka
Tekniken ska gå i riktningen; högre prestanda per effekt. Det lyckades AMD med i största allmänhet - varför skulle det vara så fantastiskt svårt för Nvidia?

Det har nog NVidia också gjort, bara det att deras effekttak ligger högre än AMDs.

4870: 157W, 5870: 188W.

Ett tag ryktades det om att GT200 skulle ha 250W TDP:
http://www.fudzilla.com/index.php?option=com_content&task=vie...

GTX 280: 236W (en del verkar ha glömt bort denna monsterkrets), GTX 285: 206W, GF100: 250W?

Obs, siffrorna lite snabbt googlade, rätta mig om jag har fel.

Permalänk
Medlem

Jag vill ha törstigare kort, jag vill ha ett manligt kort.... Då ska dom vara dyra, ha bra med kraft under huven och dra förbannat med ström...

Buhu buhu, aj så mycket med ström det kommer dra...

Slut gnäll, köp ett annat då...

Köper man en jänkare så skiter man väl i att den drar bensin där efter...

Visa signatur

Amiga 1200 /Blizzard 1230 Mk-IV 32meg /60GB HD/

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Sen när har politiker börjat blanda sig in i datorhårdvara?
Sånt skit gör mig förbannad, nån jäkla 300W gräns av nån jädra anledning..
Det finns inget som helst fysiskt hinder som sätter en 300W gräns.

Vi borde protestera..

Jäkla muffin-ätande-kontorsnissar..

Nu har du nog missuppfattat. Inga politiker är inblandade i detta som tur är.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av piddeman
Ehh va? trodde du världens snabbaste/kraftfullaste grafikkort skulle klara sig på 5W

ROFLMAO du är lam!

Verkar vara många som är 'nervösa' och klankar ner på Fermi pga lite W =/ 5970 drar ju mer än Fermi kort i load

Så du vet vad Fermi kommer att förbruka?

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Citat:

Ursprungligen inskrivet av Gurrty
Nu har du nog missuppfattat. Inga politiker är inblandade i detta som tur är.

Jag vet väl att det inte är politiker inblandade..
Men jag syftade på det att det finns en gräns när det inte finns nån uppenbar teknisk anledning för gränsen..

Citat:

Ursprungligen inskrivet av atreyu
Jag vill ha törstigare kort, jag vill ha ett manligt kort.... Då ska dom vara dyra, ha bra med kraft under huven och dra förbannat med ström...

Buhu buhu, aj så mycket med ström det kommer dra...

Slut gnäll, köp ett annat då...

Köper man en jänkare så skiter man väl i att den drar bensin där efter...

Word, folk gråter som småflickor nuförtiden..

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Jag vet väl att det inte är politiker inblandade..
Men jag syftade på det att det finns en gräns när det inte finns nån uppenbar teknisk anledning för gränsen..

Det finns många fall där man helt enkelt måste sätta en gräns (standard) för att göra saker praktiskt genomförbara och för att ha någon form av kontroll.

Det finns säkert en bra anledning till att standarden är 300W men jag har ingen aning. Jag ser själv bara praktiska problem som tex. kylning om man skulle ändra gränsen till låt säga 500W.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Entusiast
Citat:

Ursprungligen inskrivet av nME
Förresten. Om 6-pin ger 75W, och 8-pin 150W. Varför har då vissa kort 2x6-pin istället för 1x8-pin?

Skillnaden medllan en 6pin och 8pin är endast två till gnd-pins. Max 75W för en 6pin är inte riktigt sant, snarare en bit över 100W.

Permalänk
Medlem

Ursäkta självklart menar jag 5970 inte 5790 i tidigare posts, får skylla på tryckfels Nisse och eller dåligt minne.

Citat:

Ursprungligen inskrivet av blade80

Vart blir 5970 krossat av en SLI-setup? Menar du CF-setup eller SLI förresten? Du får gärna visa.

Har inte tittat men misstänker att tre 285 spöar ett 5970 men nu var det inte det jag tänkte på.
Snarare att det finns risk för att en Fermi dubbel macka kan bli fullständigt krossad av 2 GF100 i SLI, för att man får strypa ner de enskilda GPU:erna så mycket för att få rimlig effektförbrukning på kortet. Är det ens värt besväret att tillverka en Fermi dubbel macka som bara presterar snäppet bättre än ett singel Fermi bara för att vara snabbare än 5970?

Kan hända men kommer det bli ett bra/intressant kort?

Visa signatur

"Jag har inte gått 5 år på Chalmers, men till och med jag vet att det är en dum idé att blanda vatten och elektronik"
Min Fru

Permalänk
Medlem

Vem bryr sig om strömförbrukningen? En dator drar nog mycket mindre ström än era kylskåp

Jag märker ingen skillnad på min elräkning efter att ha köpt en dator till frugan som är på 24/7

Visa signatur

Core i5 3570K@stock||Asus Z77 Sabertooth||16GB 1600mhz G.Skill RipJaws X||5850 1GB||Corsair Force GT SSD 120GB||XFX XXX 650W||CM HAF XB||Opad Mk-85 MX Red||Win7 Ultimate Signature Edition signerad av Steve Ballmer

Permalänk
Medlem

"ska dessutom klara av att trycka ut åtta gånger fler trianglar än tidigare med hjälp av DirectX 11-funktionen tesselering, något som bådar väl för framtidens datorspel."
Tesselering är ingenting som DX har uppfunnit.. OpenGL har haft tesselering i flera år.

Permalänk
Medlem

Undrar hur många som kör 5870 crossfire eller 4890 i crossfire här på forumet, dom lär inte bry sig om strömmen iaf, med 1GHz på kärnorna osv lär dra jäkla mycket... vill man ha prestanda så vill man...