Geforce GF100 – 25 procent törstigare än GTX 285

Permalänk
Medlem

Jag fattar inte överhuvudtaget vad det spelar för roll hur mycket ström den drar? Folk pratar om prestanda/watt eller en speldator och en dator för annat som drar lite ström. Jag förstår inte..

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av onlyleif
Jag fattar inte överhuvudtaget vad det spelar för roll hur mycket ström den drar? Folk pratar om prestanda/watt eller en speldator och en dator för annat som drar lite ström. Jag förstår inte..

Det är ok, alla kan inte förstå.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av onlyleif
Jag fattar inte överhuvudtaget vad det spelar för roll hur mycket ström den drar? Folk pratar om prestanda/watt eller en speldator och en dator för annat som drar lite ström. Jag förstår inte..

Ja så är det med grafikkort, kollar du specsen på det så borde du fatta varför det ska dra 225w.

Permalänk

om man går efter 25% och sweclockers test så får man 235watt för Fermi
(285)188w*1,25= 235watt mot 5870 = 160w, 5970 = 223w

http://www.sweclockers.com/articles_show.php?id=6212&page=8

http://www.sweclockers.com/nyhet/10401-geforce_gf100_25_proce...

så om inte fermi presterar bättre än 5970 så är det ett oeffektivtivare kort... (tog total w i idle minus (5870) 27w och fick fram vad gpu drar)

bara en spekulation baserat på sweclockers påståenden och sweclockers egna tester. gärna feedback på iden...

Visa signatur

2600K @ 4.5 Ghz , Asrock extreme 6, 16GB 1600mhz Kingston, XFX R9 290X@1100/1300 (Arctic cooler 3) ,Corsair 550D ,
Noctua D14, 1TB WD Black, Samsung 830 RAID0, Windows 7.

Permalänk
Medlem

Är väl ganska enkelt dom som vill ha ett kort med bästa prestanda med möjlighet att OC bryr sig nog inte om strömförsöjningen (om den e tillräcklig)
(,Fast påverkar ju negativt på OC potentialen + troligtvis ljudnivån)
Dom som bekymmrar sig så finns det massor med alternativ( inbyggd grafik enklare kretsar osv )
.Tycker själv att eftersom det inte finns någon information vad varken en dubbelmacka eller vad fermi drar i färdigt skick, så spelar det väl ingen roll
Är bara att hoppas att kretsen blir bra & att den presterar som den ska så blir jag nöjd( heja via & matrox & andra små)
Dock tycker jag att det börjar vara ett stort bekymmer att konsollerna styr utvecklandet av spelen nu för tiden så att pc spelen blir allt sämmre (börjar vara dags att starta nåt mot det (Hur det nu ska gå till))
pengar pengar ge mig mera pengar

Visa signatur

Arne Berg

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av blade80
Det finns många fall där man helt enkelt måste sätta en gräns (standard) för att göra saker praktiskt genomförbara och för att ha någon form av kontroll.

Det finns säkert en bra anledning till att standarden är 300W men jag har ingen aning. Jag ser själv bara praktiska problem som tex. kylning om man skulle ändra gränsen till låt säga 500W.

När man bygger ett nätaggregat dimensioneras de olika linorna efter vilken ström de förväntas ta. Därför har företagen skapat en standard, så att man inte kan köpa ett grafikkort, koppla in det och sen bränner nätaggregatet för att kortet drar mer ström än nätaggregatet är dimensionerat för. Det är alltså i högsta grad en teknisk begränsning.

Att klaga på att det är begränsat till 300W är ungefär som att klaga på att någon bro är begränsad till 2 ton.

Permalänk
Citat:

Ursprungligen inskrivet av aent
När man bygger ett nätaggregat dimensioneras de olika linorna efter vilken ström de förväntas ta. Därför har företagen skapat en standard, så att man inte kan köpa ett grafikkort, koppla in det och sen bränner nätaggregatet för att kortet drar mer ström än nätaggregatet är dimensionerat för. Det är alltså i högsta grad en teknisk begränsning.

Att klaga på att det är begränsat till 300W är ungefär som att klaga på att någon bro är begränsad till 2 ton.

Ja fast nu är det inte så att vi är ute efter att väga så mycket som möjligt på en bro!

Vi vill ha ut så mycket prestanda som möjligt, och är tillverkarna begränsade av en viss standard, som ger käppar i hjulet för prestanda ökning, så har vi väl all rätt att misstycka, oavsett nätaggregatens kapacitet!

Dom får gärna göra kort som drar 6000w och som kostar 300 000kr. Inte många som kommer köpa, men det borde vara upp till marknaden vad som är eftertraktat och inte bestämmas via vissa företags normer och standarder!

Skulle det finnas en marknad som efterfrågar grafikkort som drar 6000w så skulle det även finnas en marknad för nätaggregat som klarar av att driva ett grafikkort på 6000w. Allt är relativt bara det finns en efterfrågan, och då är en standard som säger att man inte tillverkar grafikkort som drar mer än 300w helt onödig!

Alla som inte förstår det, förstår inte tanken bakom utveckling!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av thebelfry
Wall of text...

Alla som inte förstår det, förstår inte tanken bakom utveckling!

Utveckling har väl inget med effektförbrukning att göra? :/ Är inte tex SU3500 som huserar i min laptop ett tecken på utveckling? 1,4ghz á 5,5W TDP och nog fan smiskar den en herrans massa äldre processorer som drar mer än tio gånger så mycket kräm. Personligen tycker jag att begränsningar kan vara bra i viss mån....utan dessa hade väl utvecklingen kört på i något netburst-liknande skede där man skiter i effektivitet och bara kör på. Kanske dags att invänta kommersiell fusionskraft först

Visa signatur

WS: AMD Ryzen 3700X | 16GB Corsair LPX 3733 | MSI RX 6800 | Samsung PM981a 1TB | Louqe Ghost S1
Laptop: ASUS UX32LN | i7-4510U | 12GB DDR3 | 13.3" FHD | 256GB SSD
Server: Intel Xeon E5-2660 | 32GB DDR3 | UnRaid

Permalänk
Citat:

Ursprungligen inskrivet av pellen
Utveckling har väl inget med effektförbrukning att göra? :/ Är inte tex SU3500 som huserar i min laptop ett tecken på utveckling? 1,3ghz á 5,5W TDP och nog fan smiskar den en herrans massa äldre processorer som drar mer än tio gånger så mycket kräm. Personligen tycker jag att begränsningar kan vara bra i viss mån....utan dessa hade väl utvecklingen kört på i något netburst-liknande skede där man skiter i effektivitet och bara kör på. Kanske dags att invänta kommersiell fusionskraft först

Om du tänker dig ett senario där grafikkorts tillverkarna inte kan få ut mer prestanda utan att höja strömförsörjningen till korten men inte kan göra detta pga en satt standard dom måste följa. Då hämmar ju detta utvecklingen av nya kort!

Nu menar jag inte att dom skall utveckla nya kort som drar mer och mer ström för varje gång, utan vill bara poängtera att man inte skall sätta gränser för vad som är okej och inte okej när det gäller utveckling.

Visst är det toppen att dom gör effektivare kort med mindre strömförbrukning men att dom sätter en standard på just 300w är löjligt då den likaväl kan vara på 400w vilket då tillåter att dom bla kan göra fulländade dubbelmackor, som verkar vara eftertraktat och öppnar upp för en bredare marknad.

Varför inte utnyttja en tekniks fulla potential åt båda hållen istället för ett håll och därmed hämma utvecklingen?

Kolla bara på biltillverkarna! Dom gör inte bara bensinsnålare motorer, dom gör också starkare, snabbare som drar en jävla massa bensin (eller disel) och endast för att det finns en efterfrågan för det! Vem vill inte åka snabbt liksom?

Permalänk
Medlem

Det är väl snarare bra att det finns en maxgräns? Det tvingar ju tillverkarna att göra just effektivare kort genom att bla. sänka tillverkningstekniken osv. Det är ju det som ÄR utveckling?

Eller är det bättre att man utvecklar kort på 130nm som drar ca 600w? För att inte tala om kylningen som krävs för att kyla ett kort på tpd på över 300w. Menar, kolla på gtx295 mars t.ex. den gick ju knappt att använda pga. tempen stack så pass mycket i load så systemet krashade. Ljudnivån var ju också under all kritik på det kortet. Men det kanske är så folk vill ha det?

http://www.sweclockers.com/articles_show.php?id=6192&page=9

Visa signatur

Spelriggen: Intel i5 10400F - GTX 1070 - 16GB DDR4 - ASUS TUF GAMING B460M-PLUS - 500 GB SDD - be quiet! 730W - Define Mini C

Permalänk
Medlem

haha tydligen vill folk ha oljud och varma kort i datorn!, jag skulle då aldrig köpa ett strömtörstigt kort som gtx200 korten eller denna fermi!

Visa signatur

Amd Ryzen 1600, Gigabyte ab350 gaming 3, corsair LPX 3000@2933
Radeon 480 4GB Corsair TX 650

Permalänk

Skriver jag någonstans i mitt inlägg att jag är emot lägre strömförbrukning?

Läs innan du skriver!

Citat:

Ursprungligen inskrivet av thebelfry

Nu menar jag inte att dom skall utveckla nya kort som drar mer och mer ström för varje gång, utan vill bara poängtera att man inte skall sätta gränser för vad som är okej och inte okej när det gäller utveckling.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av al0be
haha tydligen vill folk ha oljud och varma kort i datorn!, jag skulle då aldrig köpa ett strömtörstigt kort som gtx200 korten eller denna fermi!

Mitt HD 4870 512MB idlar på 80 grader celcius om jag låter fläkten gå på automatiskt. Så det är inte bara NVidia som har en del varma kort. Men så går det när man köper först generationens kort (tydligen är det betydligt bättre på nya 4870 (1GB också). Dessutom drar mitt 4870 rätt mycket kräm i idle, betydligt mer än GTX260/280/5 gör. Du kan kolla länken nedan;
http://www.tomshardware.com/reviews/radeon-hd-4870,1964-15.ht...

Nu låter det som jag är missnöjd med mitt 4870 och det är jag inte. Finfin spelprestanda i cirka 1,5 år eller så. Ville bara informera att saker och ting inte alltid är så himla svart och vitt.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av blade80
Det är ok, alla kan inte förstå.

Suck

Citat:

Ursprungligen inskrivet av HazZarD
Ja så är det med grafikkort, kollar du specsen på det så borde du fatta varför det ska dra 225w.

Min poäng framgick tydligen inte. Om det bara är en vettig fläkt på kortet känns hela resonemanget kring strömförbrukning på ett grafikkort helt oväsentligt utan fokus borde ligga kring prestanda och värmeutveckling kontra pris.

Jag är mer inne på den här linjen kring den rena elkostnaden, resten bör kunna vägas upp med vettig kylning.

Citat:

Ursprungligen inskrivet av Knuckles
Vem bryr sig om strömförbrukningen? En dator drar nog mycket mindre ström än era kylskåp

Jag märker ingen skillnad på min elräkning efter att ha köpt en dator till frugan som är på 24/7

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Firkraag
Jaha? Det säger absolut ingenting, mitt GTX260 käkar 6+8 och inte drar väl det några 250W inte.

tänkte samma dom vill kanske bara att kraften SKA finnas vid behov

Visa signatur

Lian li gör världens snyggast chassi!
_____________________________
http://listen.grooveshark.com/ som spotify fast utan nerladdning :)

Permalänk
Citat:

Ursprungligen inskrivet av aent
När man bygger ett nätaggregat dimensioneras de olika linorna efter vilken ström de förväntas ta. Därför har företagen skapat en standard, så att man inte kan köpa ett grafikkort, koppla in det och sen bränner nätaggregatet för att kortet drar mer ström än nätaggregatet är dimensionerat för. Det är alltså i högsta grad en teknisk begränsning.

Att klaga på att det är begränsat till 300W är ungefär som att klaga på att någon bro är begränsad till 2 ton.

Så du menar att om man stoppar in t.ex. ett 370W grafikkort i en dator med Corsair HX1000W nätagg så kommer nätagget brinna upp?
HX1000W pallar jäkligt mycket, skulle säkert palla typ ett 700W grafikkort eller nåt sånt (om inte mer)

Permalänk
Medlem

Skulle dom lägga den strax under gränsen för mindre försörjning så skulle det väl blir problem för överklockare?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Huddit
Skulle dom lägga den strax under gränsen för mindre försörjning så skulle det väl blir problem för överklockare?

Hur menar du då? Skulle det bli lättare på något sett om de överskred gränsen?

Visa signatur

Spelriggen: Intel i5 10400F - GTX 1070 - 16GB DDR4 - ASUS TUF GAMING B460M-PLUS - 500 GB SDD - be quiet! 730W - Define Mini C

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Så du menar att om man stoppar in t.ex. ett 370W grafikkort i en dator med Corsair HX1000W nätagg så kommer nätagget brinna upp?
HX1000W pallar jäkligt mycket, skulle säkert palla typ ett 700W grafikkort eller nåt sånt (om inte mer)

Det är möjligt att det klarar det - Corsair brukar bygga bra nätaggregat. Dock är det något som man får kolla själv, man får undersöka vilka specifikationer som Corsair gett. Det är dock inte poängen.

Poängen är att standarder finns av en anledning, och det är absolut inte för att hämma utveckling, utan för att främja den. Det är tack vare denna standard som vi kan köpa ett nätaggregat och förvänta oss att det fungerar till det moderkort vi har. Detta ger alla tillverkare tillgång till en enormt mycket större marknad. Det sänker också priset eftersom man får större volym på allt som tillverkas.

När man skapar en standard (för ett datorsystem, eller för en bro) måste man välja vilka begränsningar man vill ha. Detta är något som görs kontinuerligt, och syftet är att utveckla och förbättra (ex usb 3.0). Begränsningar väljs därför att det för det mesta finns en kostnad associerad med att öka den. Det finns ingen poäng med att bygga komponenter som tål mycket mer än vad de förväntas utsättas för. Standarder tas oftast fram av branschorganisationer, det vill säga företagen själva.

Slutligen - standarder är frivilliga. Det finns inget som hindrar företag från att bygga helt efter eget huvud. Det är därmed helt fel att säga att standarder hindrar utveckling. Standarder främjar utveckling, skapar en gemensam plattform som gör det lätt för både företag och konsumenter att sälj och köpa.

Fotnot: AMD hade kunnat gå över 300W gränsen med sitt 5970, men valde att inte göra det. Den som köper ett kan dock lätt göra det, och det finns också ett otal nätaggregat som kan leverera utan problem. Dock får man ju då själv kolla att nätaggregatet verkligen klarar det.

Permalänk
Medlem

Är väl knappast ekonomiskt försvarbart att rucka på standarden för hur mycket ett grafikkort får sluka, i teorin är det ju egentligen inga problem alls, på med en 6 eller 8 pins kontakt till bara, problem löst!
Men antagligen måste man ha större kylare kanske även 3 slots kort och priset rusar iväg mer än vad dom flesta vill betala, rätt väg skulle ju vara att sänka nm ytterligare ett snäpp men där är vi inte än, men kanske om 1-2 år, varvid det hela upprepas igen

Visa signatur

Acer Predator Helios 300

Permalänk
Medlem

Någon som bryr sig om strömförbrukningen kanske skulle kunna räkna ut hur mycket fermi skulle ge i elräkning, om man för enkelhetens skull räknade load 24/7 i ett år ?
Och gärna detsamma för 5870

Permalänk
Medlem

Dom som inte gillar att man ruckar på fastslagna max värden är OEM tillverkarna som designar sina datorer efter det. Produkter som inte håller sig inom ramarna köps inte heller av OEM tillverkarna och det är där de stora pengarna finns.

Angående strömförbrukning:
Säg att Fermi kommer dra 250 watt max. Det blir på ett år om man räknar 1kr per kwh

(0.250*24)*365=2190kr

HD5870 tar max 188 watt och det blir

(0.188*24)*365 = 1646kr

Så över 500kr gör det på ett år.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av onlyleif
... Om det bara är en vettig fläkt på kortet känns hela resonemanget kring strömförbrukning på ett grafikkort helt oväsentligt utan fokus borde ligga kring prestanda och värmeutveckling kontra pris.

Värmeutveckling är direkt relaterad till strömförbrukning.

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av S1im
Dom som inte gillar att man ruckar på fastslagna max värden är OEM tillverkarna som designar sina datorer efter det. Produkter som inte håller sig inom ramarna köps inte heller av OEM tillverkarna och det är där de stora pengarna finns.

Angående strömförbrukning:
Säg att Fermi kommer dra 250 watt max. Det blir på ett år om man räknar 1kr per kwh

(0.250*24)*365=2190kr

HD5870 tar max 188 watt och det blir

(0.188*24)*365 = 1646kr

Så över 500kr gör det på ett år.

haha, jo men då jäklar ska de vara en Woware som gejmar 24/7

Mer normala siffror skulle nog vara runt en tredjedel av det där

runt 700 för GT100 och 550 för 5870 då på ett ungefär.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem

Hehe, nu ville ju Gibbon ha siffror för 24/7 spel, han måste vara arbetslös OCH spelberoende

Hur är det med folding, kan inte det ligga och maxa kortet 24/7 ?

Permalänk
Medlem

Rejält spelberoende till och med.

Folding kostar förstås en hel om man har den på 24/7.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av aent
Slutligen - standarder är frivilliga. Det finns inget som hindrar företag från att bygga helt efter eget huvud. Det är därmed helt fel att säga att standarder hindrar utveckling. Standarder främjar utveckling, skapar en gemensam plattform som gör det lätt för både företag och konsumenter att sälj och köpa.

Fotnot: AMD hade kunnat gå över 300W gränsen med sitt 5970, men valde att inte göra det. Den som köper ett kan dock lätt göra det, och det finns också ett otal nätaggregat som kan leverera utan problem. Dock får man ju då själv kolla att nätaggregatet verkligen klarar det.

Kan enbart instämma. Alla nätaggregat som har PCI express 6-pin+8-pin SKA klara av ett HD5970. 75W+75W+150W. AMD skulle mycket väl kunnat gå över 300W, men det innebär samtidigt att nätaggregatet måste överleverera ström via PCI-express linorna. Alla nätaggregat av kvalitet klarar detta, men för användare med skräp nätaggregat som precis uppfyller standarden kan de inte ta risken att dessa börjar brinna. Därav 300W gränsen.

Säg att du har ett fint nätagg från Corsair. Skulle inte förvåna mig om HX 1000W kan leverera flera hundra W över standarden via PCI-EX 6-pin+8-pin. Klarar ditt nätagg detta ber AMD dig mer eller mindre att överklocka HD5970. De har ett verktyg för att dra upp spänningen till HD5870 nivå samt satt ribban för överklockning till 1GHz/1,5GHz. Kylaren är även byggd för att kunna hantera 400W.

Permalänk

det är ju trots allt så att om vi hade grafikkort för 100.000 kr som drog 1000 w och var 3 meter långa, så skulle yberentusiaster köpa sådana, ungefär samma personer som skaffar enginering samples. dock skulle det bli ganska orättvist i överklockningsvärlden, då det skulle gälla om vem som har fetast plånbok och inte mest skillz

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av alibababert
det är ju trots allt så att om vi hade grafikkort för 100.000 kr som drog 1000 w och var 3 meter långa, så skulle yberentusiaster köpa sådana, ungefär samma personer som skaffar enginering samples. dock skulle det bli ganska orättvist i överklockningsvärlden, då det skulle gälla om vem som har fetast plånbok och inte mest skillz

Det kan väl ändå inte vara ett problem, ifall det skulle gå så långt får man väl titta på klasser av hårdvara istället. Det är redan nu så att det krävs en hel del pengar för att köpa det som skulle ge bäst resultat.

Permalänk
Medlem

"dock skulle det bli ganska orättvist i överklockningsvärlden"

haha, snacka om i-landsproblem

moahahahaa

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.