Nvidia medger att Geforce GTX 480 slukar ström

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Kilroy
5970?

Snabbaste GPUn.
Jag tycker dock det är skillnad på om ett kort har en eller två kärnor, microstuttering, dåligt stöd för vissa spel och andra små egenheter som SLI/Crossfire har jämfört med singel-gpu.
Har jag hört.

5970 är gpu'er inte gpu

Alltså är 480 den snabbaste GPU'n!

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Durra_666
Fanboys, nvidia var snabbare än ati nu och så är de bara.
Börja inte gnälla på värme och energi bara för att försöka få erat (ATI) märke att verka bättre eller kanske få er själv att må bättre för att ni gick och köpte ett "söligare" kort.

LIKNELSE.

En Ferrari (som någon tog upp tidigare) blir jäääävligt varm och slukar soppa (energi).
En Volksvagen golf blue motion eco driving fuel saver går inte så varm och drar lite soppa (energi).

Dvs, va är man ute efter?? Åka billigt eller snabbt ?

ds. de gröna som blåser om er ati fanboys i innerkurvan är inte en golf eco driver.

Vilken underhållning, "Erat ATI märke" LOL? Nvidia var snabbare nu?

Jag önskar ändå att det var så. Har väntat i månader på Fermi för att bli tokbesviken.
I ärlighetens namn så hade jag inte stoppat i ett GTX480 i min burk om jag så fick det gratis. Hade hellre haft kvar mitt 8800GTS som är näst intill knäpptyst och aldrig går över 70 grader C (inte för att det har med saken att göra).

Själv så känner jag mig lite smått plågad av allt det här, för jag hade verkligen hoppats på att korten skulle varit "all that". Kan säga att jag inte bryr mig speciellt mycket om att prestandan bara är några få % bättre än på ett 5870. Det är priset, värmen och ljudet som är extremt plågsamt. Även elen har det ju pratats en del om. Idle temp och energiförbrukning är ju bara löjliga. Det är bara för många faktorer att ignorera iallafall för mig och många andra.

Jag tror det här ATI vs. Nvidia kriget bottnar någonstans i att vissa av oss, inklusive jag själv, har lite svårt att förstå hur så många inte KAN eller rättare sagt VILL inse vilken miss Nvidia har gjort denna gången.

Jag hade en träslöjdslärare grundskolan som hette Bengt. Frågade man honom om hjälp med något så var standardsvaret nästan alltid "måla den grön". Efterföljt av "alla färger är fina bara de är GRÖNA!" Tycker det passar bra in i den här tråden.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Avstängd

Bjorn3d Överklockar GTX480.

Reference design

idle temp: 37c. (100% fan speed)
41c (44% fan speed)

DEL1: http://www.bjorn3d.com/read.php?cID=1836&pageID=8816

DEL2: http://www.bjorn3d.com/read.php?cID=1836&pageID=8817

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av mr_krut
Detta test är som att jämföra en trampbil med en sportbil

Taget från Elcomsofts hemsida

Stöd för 5000-serien lades in för drygt 2 veckor sen, innan ens Fermi fanns tillgängligt.

GPGPU är Nvidias starka sida, AMD har ingen chans här, och resulatet kommer att ändras när/om Elcomsoft lägger till stöd för 400-serien.

Geforce vann förra generation i detta test tack vare CUDA, något som programmet har stöd för. Så när Elcomsoft lagt till riktigt stöd för Fermi, hur lång tid de nu kan ta, så kan vi göra om testet och se på dom resultaten istället.

Men jag måste säga att resultatet från Radeon är jävligt imponerande då dom saknar CUDA men ändå får så bra resultat.

Mycket snack om vad Nvidia 'kommer att vara'
Faktum är AMD 5xxx ÄR fullständigt överlägsna i det här testet.
Sen kan du ju fundera om 4xx korten klarar av att göra beräkningar
med dubbel precision direkt i hårdvaran vilket AMD's gamer kort kunnat göra ett bra tag nu.

För övrigt finns dom fortfarande bara på pappret för oss vanliga användare
Hos komplett.se står det att de förväntas in först i början av nästa månad.

Tippset är att 4xx inte kommer att vara så överlägsen som du tror baserar på det HÄR inlägget.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av cratzky
Bjorn3d Överklockar GTX480.

Reference design. och kommer INTE över 51c.

idle temp: 37c. (100% fan speed)
41c (44% fan speed)

DEL1: http://www.bjorn3d.com/read.php?cID=1836&pageID=8816

DEL2: http://www.bjorn3d.com/read.php?cID=1836&pageID=8817

OMG! Den kommer INTE över 51c!!!1... efter hela 50 sekunder ATITool med fläkten på 100%...

Idle-tempen med en skärm är det ingen som klagat på, den klockar ju ner sig till 50MHz eller nått sånt så den blir ju inte så varm, problemet är när man kör två skärmar och har fläkten på auto.

EDIT: Så ingen missuppfattar något, det är inte bjorn3d som är partiska eller vinklade, det är bara cratzky som bara tittar på bilderna och läser inte texten. På den artikeln visar de bara hur OC-verktyget ser ut och hur den funkar. Här kan man läsa vad de egentligen tycker om värmen och ljudnivån: http://www.bjorn3d.com/read.php?cID=1831&pageID=8795

Visa signatur

Nämen hej!

Permalänk
Avstängd

"We wanted to let you know that we’ve also heard your concerns about GTX 480 with respect to power and heat. When you build a high performance GPU like the GTX 480 it will consume a lot of power to enable the performance and features I listed above. It was a tradeoff for us, but we wanted it to be fast. The chip is designed to run at high temperature so there is no effect on quality or longevity. We think the tradeoff is right."

Yeah, but that's not necessarily true because the 5870 is nearly as "high performant" meanwhile alot less powerhungry.. So for AMD's sake there's no such "tradeoff" so how do you explain that mr fancy nvidia worker?

Jävla nvidia medarbetare och skylla ifrån sig på saker som inte alls är självklara när det gäller grafikkort, kolla bara AMD.

Visa signatur

https://mega.nz/#!xNBjAJKA!OQctTR0tY5EK1Dk68MV0loIyCD3ftwL_KI...
(DX-11 DLL-fil till SweetFX/Reshade som är kompatibel med GTA 5)

Permalänk
Avstängd

Nog för att kortet är varmt, men det betyder inte att livslängden på korten är dålig. Nividia är ju just kända för att bygga robusta och stryktåliga kvalitetsGPU... Oh. wait..

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Donan Fear
OMG! Den kommer INTE över 51c!!!1... efter hela 50 sekunder ATITool med fläkten på 100%...

Idle-tempen med en skärm är det ingen som klagat på, den klockar ju ner sig till 50MHz eller nått sånt så den blir ju inte så varm, problemet är när man kör två skärmar och har fläkten på auto.

EDIT: Så ingen missuppfattar något, det är inte bjorn3d som är partiska eller vinklade, det är bara cratzky som bara tittar på bilderna och läser inte texten. På den artikeln visar de bara hur OC-verktyget ser ut och hur den funkar. Här kan man läsa vad de egentligen tycker om värmen och ljudnivån: http://www.bjorn3d.com/read.php?cID=1831&pageID=8795

Tycker artikeln va intressant.

Att dom klockade upp kortet 100mhz på coreklocken osv skulle i praktiken generera en ganska stor skillnad i prestandan.

Sen får vi inte glömma heller vad för sorts ökning man bör kunna förvänta sig i prestanda.

Här är lite siffror på hur ett gtx260 (som ett exempel) presterar igenom tiden med de olika nvidia drivrutinerna som släppts på senare tid (drivrutin 186.18 till 197.25 som är den senaste beta drivrutinen)

Notera: Detta är mätt under 1års tid (186 till 197)

FURMARK

1680x1050 , 2XAA

186.18
FPS: min=53 max=78 avg=61
191.87
FPS: min=53 max=84 avg=61
196.86
FPS: min=54 max=77 avg=61
197.13
FPS: min=(62) max=(94) avg=(71)
197.25
FPS: min=62 max=94 avg=(72)

Jag är mycket intresserad av o veta hur pass nuvarande fermi kort kommer prestera med nyare drivrutiner, de officiella drivrutinerna för fermi korten är inte lanserade än, och alla tester som gjorts med fermi kort har gjorts med 197.13 eller 197.17.
Ingen av dom 2 drivrutinerna har officiellt stöd för fermi kort..
Ska även bli intressant o se vad för temps och klocks man kan få ut ur ett 480 med vattenkylning och hur pass bra det skalar i prestandan i förhållande till värme utveckling

För övrigt tror jag det börjar bli dags att lansera high-end kort med vattenkylning från början för o slippa dessa högljudda små skit fläktar som kommer från början... Då kan tillverkarna pressa ut lite mer prestanda utan att oroa sig allt för mycket över tempen och en icke existerande ljudnivå.
Jahapp, nu blev man sugen på och skaffa vattenkylning då....

Sen måste jag passa på att säga till alla som sitter och gissar hej vilt här på forumet som påstår att nvidia haft 6mån på sig att utveckla drivrutiner till fermi och att det är dem som använts vid testerna.
Detta påstående stämmer inte, det finns massor med information på nätet att läsa om drivrutiner och fermi, som jag skrev tidigare så finns det inga officiella drivrutiner för fermi ännu.
Men! det betyder inte att dom inte redan sitter på mängder med data från den tiden dom arbetat med fermi korten som dom säkerligen planerar att implementera i den kommande fermi drivrutinen

Jag tycker vi låter nvidia och fermi vara, ge dom lite tid att utveckla detta vidare, jag tror det kommer bli riktigt häftigt inom det närmare året !

Permalänk
Citat:

Ursprungligen inskrivet av cratzky
Tycker artikeln va intressant.

Att dom klockade upp kortet 100mhz på coreklocken osv skulle i praktiken generera en ganska stor skillnad i prestandan.

Sen får vi inte glömma heller vad för sorts ökning man bör kunna förvänta sig i prestanda.

Här är lite siffror på hur ett gtx260 (som ett exempel) presterar igenom tiden med de olika nvidia drivrutinerna som släppts på senare tid (drivrutin 186.18 till 197.25 som är den senaste beta drivrutinen)

Notera: Detta är mätt under 1års tid (186 till 197)

FURMARK

1680x1050 , 2XAA

186.18
FPS: min=53 max=78 avg=61
191.87
FPS: min=53 max=84 avg=61
196.86
FPS: min=54 max=77 avg=61
197.13
FPS: min=(62) max=(94) avg=(71)
197.25
FPS: min=62 max=94 avg=(72)

Jag är mycket intresserad av o veta hur pass nuvarande fermi kort kommer prestera med nyare drivrutiner, de officiella drivrutinerna för fermi korten är inte lanserade än, och alla tester som gjorts med fermi kort har gjorts med 197.13 eller 197.17.
Ingen av dom 2 drivrutinerna har officiellt stöd för fermi kort..
Ska även bli intressant o se vad för temps och klocks man kan få ut ur ett 480 med vattenkylning och hur pass bra det skalar i prestandan i förhållande till värme utveckling

För övrigt tror jag det börjar bli dags att lansera high-end kort med vattenkylning från början för o slippa dessa högljudda små skit fläktar som kommer från början... Då kan tillverkarna pressa ut lite mer prestanda utan att oroa sig allt för mycket över tempen och en icke existerande ljudnivå.
Jahapp, nu blev man sugen på och skaffa vattenkylning då....

Sen måste jag passa på att säga till alla som sitter och gissar hej vilt här på forumet som påstår att nvidia haft 6mån på sig att utveckla drivrutiner till fermi och att det är dem som använts vid testerna.
Detta påstående stämmer inte, det finns massor med information på nätet att läsa om drivrutiner och fermi, som jag skrev tidigare så finns det inga officiella drivrutiner för fermi ännu.
Men! det betyder inte att dom inte redan sitter på mängder med data från den tiden dom arbetat med fermi korten som dom säkerligen planerar att implementera i den kommande fermi drivrutinen

Jag tycker vi låter nvidia och fermi vara, ge dom lite tid att utveckla detta vidare, jag tror det kommer bli riktigt häftigt inom det närmare året !

100 mhz clock är godkänt , men frågan är om man kommer kunna använda det med den medföljande kylningen , om man inte vill ha fläkten på 100% hela tiden.

det där furmark 260 gtx under ett års tid , är det testat med samma version av furmark , eller har de bytt upp sig under årets gång?

förhoppningsvis inte , utan testat under samma dag där enda skillnaden är byte av drivrutiner .

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av cratzky
Jag tycker vi låter nvidia och fermi vara, ge dom lite tid att utveckla detta vidare, jag tror det kommer bli riktigt häftigt inom det närmare året !

Ja! jag tycker också att vi ger dem mer tid då denna lansering överlag var en flopp, då det inte levde upp till förväntningarna. Synd bara på alla gröngölingar som väntat alldeles för länge...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av cratzky

...

Jag tycker vi låter nvidia och fermi vara, ge dom lite tid att utveckla detta vidare, jag tror det kommer bli riktigt häftigt inom det närmare året !

Utmärkt idé . Hoppas att det var ditt sista inlägg ifråga. Men tvivlar starkt på det.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Devildoll
100 mhz clock är godkänt , men frågan är om man kommer kunna använda det med den medföljande kylningen , om man inte vill ha fläkten på 100% hela tiden.

det där furmark 260 gtx under ett års tid , är det testat med samma version av furmark , eller har de bytt upp sig under årets gång?

förhoppningsvis inte , utan testat under samma dag där enda skillnaden är byte av drivrutiner .

Det är testat med samma version, dock skrev jag 1års tid för att det är så långtid det tog för nvidia att släppa drivrutiner mellan 186 till 197 som finns i dagens läge.

Testet utfördes på samma dator under 1dag, samma version på furmark, men med olika drivrutiner (började på 186 och fortsatte uppåt) samt antecknade resultaten för att jämföra hur mycket prestandan ökade i praktiken under ett teoretiskt 1års utveckling av drivrutiner..

Jag tror inte gtx480 kommer bli någon hit dock, kanske för vissa personer som använder bildbehandlingsprogram och diverse, men som någon sa tidigare så är inte gtx480 ett renodlat gamer kort.

Sen köper man inte heller ett high-end kort i denna klassen för att sitta och spela WoW eller liknande (vilket väldigt många gör) eller utan att ha ett rejält ventilerat chassi där bättre ventilation i chassit gör saker och ting kallare inuti, vilket leder till lägre hastighet på cpu fläkt, grafikkorts fläkt, etc...

Annars så va det bara några dagar sen jag läste att Danger Den , DD (om jag inte minns helt fel?) redan håller på, eller redan har? utvecklat en vattenkylning till de nya fermi korten.
Nästan så att man sitter och kliar sig i väntan på dessa resultat...

Men som sagt, man borde absolut inte flamea ett kort bara sådär, jag tror att dom som vill köpa något har nog koll på den informativa biten själva när det gäller såna här prestanda kort som inte är allt för billiga heller.

Finns ju ingen som tvingar någon att köpa ett sånt här kort, sen man kan diskutera bäst man vill ang strömmen, värmen, etc, men sådana saker är inget problem för entusiasten då många av entusiasterna redan sitter på vattenkylningssystem och 1500w nätagg redan, men för oss dödliga (mig inkluderat) så är inte gtx480 ett alternativ.
Det kostar för mycket, det drar en hel del ström (mitt nätagg skulle få hjärtinfarkt) osv...

Allt handlar nog om vad man ska ha kortet till. Ska man ha det för att sitta och spela wow eller liknande spel som mw2, bfbc2 osv och bänka kortet i vantage så kan man lika gärna köpa sig ett billigare, mindre energi krävande, mindre värmeutvecklande kort och investera i ett gymkort istället och lägga sig och köra lite riktig bänkpress

Men som sagt, ska bli mycket spännande att följa fermi nu när det äntligen lanserats, även om det betyder att det inte blir något inköp för min del än.

Permalänk
Medlem

borde man inte kunna överklocka fermi så det blir snabbare än ati isf?

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av hesjana
borde man inte kunna överklocka fermi så det blir snabbare än ati isf?

Fermi är redan snabbare, men till en kostnad för en hel del mer ström, och mer värme utveckling än ATI, Vilket gör det dyrare att köpa, och att äga (i längden) i praktiken. (om man nu är petig med el-räkningarna)

Ifall du syftar på att få ett gtx480 snabbare än ett 5970 så tror jag att det är ganska hopplöst, vi lär inte se nvidia gå om 5970 på ett tag, iallafall inte i spel. Men i bildbehandlingsprogram som kräver raytracing, tesselering, dx11 rendering etc så är gtx480 ganska mycket snabbare tack vare den nya tekniken.
Frågan är bara hur långtid det kommer ta för spelutvecklarna , och vad det kommer kosta att inkludera den tekniken i spel, och hur lång tid det kommer att ta.
Än så länge finns det inte ett enda spel vad jag vet som använder sig av tesselering eller raytracing.
Förutom benchmarken Heaven som vi alla har hört så mycket om så våra ögon och öron blöder.

Så ATI håller såklart 1a platsen på att ha det snabbare grafikkortet, men nvidia kniper första platsen på snabbare Single GPU kortet i dagens läge.

Men det dröjer nog inte länge innan ATI släpper något nytt som ska ta tillbaka den platsen också.
Samma sak där med nvidia , Jag vet att det kommer att lanseras överklockade versioner av gtx470 och 480 i maj/juni så det kommer bli lite av ett prestanda krig.

Det intressanta är hur pass bra fermi skalar vid överklockning med den nya arkitekturen, det kanske blir skit dåligt, men det ka
n också bli bra. Några siffror har inte presenterats än vad jag har hittat.
Det dröjer säkerligen 1-2månader innan vi får veta svaren på dom frågorna

Permalänk
Medlem

Det är klart att ett highendkord som 480 ska dra mycket ström, men det som är intressant är ju hur pass mycket mer det drar än ATIs utan att vara i närheten av samma övertag i prestanda..

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Medlem

jag fick min 5970...för 550 kr mer än vad ett 480 kostar, den är fan i mig ljudlös och värmen är helt helt ok...plus 2 gpu...vilken dum jävel köper ett 480? jo kanske nån som bor i kiruna och behöver en extra värmekälla :D:D

Visa signatur

I7-3930K/ 16 g 1600 mhz/ ASUS RAMPAGE IV BLACK ED/2x 780 ti SLI/ XFX Proseries Black Edition 1250W PSU/ SAMSUNG SSD 840 EVO 1TB/
Jag spelar på en Panasonic vt65 :-)
Konsol / xboz1 ( forza5,ryse,Cod )
Ps4 ( Bf 4,Fifa 14, Ac Black flag, Killzone)

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Essin
Det är klart att ett highendkord som 480 ska dra mycket ström, men det som är intressant är ju hur pass mycket mer det drar än ATIs utan att vara i närheten av samma övertag i prestanda..

Tror gtx480 drog runt 100w mer än ati's toppmodell och då presterar det bara 5-10% bättre.
100w mer än alltså ca 30% mer än ati's mest strömtörstiga kort.
I jämförelse med ati så är det ett väldigt strömhungrigt kort, men som nvidia redan har sagt så finns det anledningar till detta, Då korten i fråga inte bara är till för gaming. för att inte nämna de nya teknikerna som fermi korten kommer med så måste dom helt enkelt dra mer ström för att kunna driva allt stabilt på ett säkert sätt.

Saxar ifrån nvidias sida:
"With millions of CUDA-enabled GPUs sold to date, software developers, scientists and researchers are finding broad-ranging uses for CUDA, including image and video processing, computational biology and chemistry, fluid dynamics simulation, CT image reconstruction, seismic analysis, ray tracing, and much more."

Allt handlar om vad man ska ha kortet till.
Det är till för så mycket mer än bara gaming. Det är viktigt att tänka på det när man kritiserar.
känns som gtx480 är mer inriktat för entusiaster som behöver de fördelar som det ger med o ha ett nvidia kort med fermi.

Ett tips för att förstå detta bättre så spana in den här länken:

http://www.nvidia.com/object/fermi_architecture.html

Där förklaras den nya CUDA - Fermi arkitekturen mer djupgående och förstående att allt handlar inte bara om gaming prestanda.

Men just nu är ATI ett givet val för en gamer, oavsett spel.
Själv sitter jag och hoppas på 32nm fermi, då dessa kommer utveckla betydligt mindre värme så finns det rum för fermi att visa vad det verkligen går för. Innan dess är jag mycket tveksam om man inte planerar att köra ett fermi kort med vattenkylning för extrem gaming, men då måste man ha deg i plånboken, vilket alla inte har.

Sen en till sak som jag glömde nämna tidigare är att gtx480 skalar tydligen extremt bra i SLI , vilket är ganska ovanligt då de flesta kort inte skalar speciellt bra.

Drömmen vore såklart ett 32nm GTX480X2 (dual GPU) med vattenkylning:D
Tankarna flödar

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av cratzky
men som nvidia redan har sagt så finns det anledningar till detta, då nvidia korten har cuda, physx och en massa andra tekniker

Du verkar inte veta det här, men PhysX är mjukvara skriven på CUDA, den tar inte upp någon plats på kiseln. Det gör iof inte CUDA heller. AMD har dessutom sin egen motsvarighet till CUDA - ATi Stream.

Däremot kan man med enkelhet säga att GF100 är stort för att Nvidia vill pracka in så många GPGPU-egenskaper som möjligt. För oss som spelar är detta helt värdelöst och leder bara till att grafikkorten blir dyrare, varmare och mer högljudda. Om du däremot är i HPC-marknaden så är detta mumma.

Du har rätt dålig koll, du.

GF100 är inte bara ett vanligt grafikkort, på gott och ont.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Valiumballong
Du verkar inte veta det här, men PhysX är mjukvara skriven på CUDA, den tar inte upp någon plats på kiseln. Det gör iof inte CUDA heller. AMD har dessutom sin egen motsvarighet till CUDA - ATi Stream.

Däremot kan man med enkelhet säga att GF100 är stort för att Nvidia vill pracka in så många GPGPU-egenskaper som möjligt. För oss som spelar är detta helt värdelöst och leder bara till att grafikkorten blir dyrare, varmare och mer högljudda. Om du däremot är i HPC-marknaden så är detta mumma.

Du har rätt dålig koll, du.

GF100 är inte bara ett vanligt grafikkort, på gott och ont.

Tack för att du uppmärksammade ett mitt fel i texten jag skrev, ska ändra detta nu.

Permalänk
Citat:

Ursprungligen inskrivet av bud_bundy
Ja men det är dit utvecklingen går, jag själv sitter med ett passivt kylt matroxkort (G450 dualhead) med bra bildkvalite och allt. Det fick bra beröm då det kom och konkurrenterna var inte så mycket mer högljuda de heller.

Jag tycker det är riktigt sjukt hur kylningen på grafikkorten har utvecklas, men marknaden värderar främst prestanda. Sedan är Fermi överdrivet hett, men jag tror det enbart är temporärt, då Nvida senare kommer göra svalare kort.

Tar vi pris så tycker jag det är samma där, en vanlig persondator blir allt billigare, men grafikkortet som var en "struntkomponent" har gått mot att blivit den viktigaste och kan vara den dyraste enskilda komponenten i hela datorn. När jag köpte min gamerdator för runt 13år sedan utan skärm för runt 10papp, så la jag enbart runt 1000kr på grafikkortet och ändå så var detta det mest optimala.

Så dyrare och mer strömslukande grafikkort är vad utvecklingen de senaste 15åren har gått mot, och jag är skeptisk till att marknaden just nu ska vända och börja gå tillbaka till svalare och billigare grafikkort.

ATT Fermi har tagit ett sådant stort steg framåt i strömförbrukning, beror som sagt på att gpun var tvungen att prestera bättre än AMD´s variant. Hade det bara presterat lika bra och varit svalare, så hade det fått mer kritik än det fick nu.

*edit*
Vi kanske diskuterar olika saker. Jag tror utvecklingen kommer gå mot allt mer strömslukande grafik-kort. Att däremot Fermi blev som det blev, beror på att Nvida blev tvingade då kortet var tvunget att prestera bättre än AMD´s.
Detta får sedan negativa effekter för både konsumenter och tillverkare, för tillverkaren så kostar kylningen och det kommer säkerligen resultera i mer fel. För konsumenten så högre strömförbrukning och oljud.

Det är ju dock inte dit utvecklingen är på väg... ATI:s HD3000 serie drog avsevärt mindre ström än HD2000 serien om jag inte kommer ihåg fel. HD5870 presterar strax bättre än ett HD4870X2 för det mesta och drar mindre än hälften. De har visat precis vart utvecklingen är på väg mot. 40nm innebär i teorin att kretsen borde dra mindre ström vid samma prestanda vilket är precis vad HD5870 har gjort fast med betydligt förbättrad prestanda. Att high-end kort slukar ström förstår nog de flesta men Fermi är ju grymmt bakåtsträvande i ett effektivitetssammanhäng då prestandavinsten jämfört med strömslukandat är exponentiellt sämre än vad som hade lovats.

Citat:

Ursprungligen inskrivet av jonathan82
Om du hänger upp dig på att jag tyckte en nvidia logo på skrivbordet var suspekt så tar jag tillbaka det.
Det relevanta var fortf att man skall göra test som återspeglar verkligheten.
Det gäller naturligtvis ALLA grafikkort.

Håller med dig angående chassit. Stacker 83x är gjort för att vara så öppet som möjligt. Det reflekterar inte hur mycket kortet skulle värma upp ett vanligt chassi som exempelvis Antec P182 som jag har. Har precis satt på en Arctic Cooling kylare på mitt HD4870X2. Kortet är nu helt ljudlöst (det var det i idle innan också visserligen) och idlar runt 40 grader. Smått katastrof med standardkylaren på mitt kort, men lite samma argument som många har för Fermi kylaren.

4870X2 fick mycket kritik för värmen och fläkten precis som Fermi. ATI hävdade som Nvidia att kretsen var byggd för att gå i 90 grader utan problem, och därför höll de fläkten på ett lågt varvtal i idle vilket funkade helt okej. Fermi ligger väl ungefär på 92 grader i load och många säger att "dra upp fläkten till 100% så går det inte alls varmt". Jag testade att dra upp fläkten på mitt kort till 100% och det gick inte över 50 grader under 3dmark Vantage. Problemet är att det låter som ett ånglok. Det är ju det folk vill undvika. Tacka Arctic Cooling vet jag som levererade en toppenkylare.

Citat:

Ursprungligen inskrivet av Durra_666
Fanboys, nvidia var snabbare än ati nu och så är de bara.
Börja inte gnälla på värme och energi bara för att försöka få erat (ATI) märke att verka bättre eller kanske få er själv att må bättre för att ni gick och köpte ett "söligare" kort.

LIKNELSE.

En Ferrari (som någon tog upp tidigare) blir jäääävligt varm och slukar soppa (energi).
En Volksvagen golf blue motion eco driving fuel saver går inte så varm och drar lite soppa (energi).

Dvs, va är man ute efter?? Åka billigt eller snabbt ?

ds. de gröna som blåser om er ati fanboys i innerkurvan är inte en golf eco driver.

Men Nvidia var ju inte snabbare... HD5970 är ju fortfarande det snabbaste kortet på marknaden. Fermi är snabbaste GPU:n på marknaden om än marginellt. Du gnäller på ATI-troll så fort du ser att någon har ATI i sin sig men du är ju likadan fast för andra laget.

Om Ferrarin med 500 hästar blir omkörd av en Lamborghini med 650 hästar (HD5970) som drar lika mycket soppa vad spelar en VW Golf för roll då?

Du behöver inte förlöjliga debatten ännu mer. GTX480 är absolut ett bra kort på många parametrar. Problemet är prissättningen. Hade de lagt kortet vid 3500 kronor så hade man fullständigt kunna skita i många av de missar som Nvidia har gjort men i dagsläget så lägger man nästan 35% mer än ett HD5870 för ett kort som presterar drygt 10% bättre i spel (vilket är anledningen att folk köper ett sådant här kort för det mesta), drar mellan 50% och 180% mer ström, och producerar mer värme i chassit (som andra komponenter mår dåligt av). Om man skall använda det till GPGPU så är det ett fantastiskt kort. Som Tesla-kort kommer det nog bli en smärre revolution men nu snackar vi den genomsnittliga GTX 480 konsumenten (dvs. gamer).

Citat:

Ursprungligen inskrivet av Durra_666
Hahaha kul att se att fok direkt börjar gnälla över "troll" när den här och hundra andra fermi trådar direkt invaderas av alla atitroll så fort de står ettt enda ord så är de ett ati troll där och gnäller över värme och över strömförbrukning.

Och dom har ALLTID ett ati kort sjävla som man direkt ser i deras tag.

Jag är själv en gammal gammal räv här på sweclockers och har inte skrivit utan bara läst för de har i alla år varit så vettiga poster på de här underbara forumet.
Men sakta men säkert har de vuxit fram så mycke troll så blir tvungen att yttra sig.

Är själv besviken på Nvidias nya serie men jag tror att dom kommer få till det på kommande modeller. Men Nvidia gjorde allt dom lovade iofs, dom levererade de snabbaste kortet punkt slut. Dom sa aldrig att dom skulle släppa de kallaste eller strömsnålaste.

Och för er alla ati fanboys som bara hoppas att nvidia ska gå i graven så kan jag ju bara säga att ni är så dumma för utan konkurans skulle inget av företagen försöka förbätttra sig lika mycke eller ha lika vettiga priser.

Konkurans är bra.

Inget märke är bäst på allt.

Make love not war !

Igen, vad är skillnaden på en Nvidia eller ATI-Fanboy/troll? Färgen på flaggan de bär. Bara för att jag har ATI betyder inte det att jag inte har erfarenhet av Nvidia, för det har jag. Kalla mig vad du vill, men jag köper det jag anser vara mest värt mina pengar, och det är många faktorer som spelar in på det men först och främst prestanda/krona inom highend segmentet. För två år sedan snart så innebar det HD4870X2. Är det kortet perfekt? Absolut inte, men jag har varit väldigt nöjd med det och ser ingen anledning att bli kallad namn för att jag tycker att jag är nöjd med en produkt som du inte äger.

Åter igen så har Nvidia inte släppt "de snabbaste kortet, punkt slut". HD5970 presterar fortfarande bättre. Det är den snabbaste GPU:n. Det kan ingen neka vare sig de har ATI eller Nvidia. Ingen kan heller neka att HD5970 fortfarande presterar bättre. Jag vet inte om du skriver fel eller inte, men sluta skriva felaktiga saker.

Konkurrens är jättebra. Det har du helt rätt i, men hela debatten har att göra med att Nvidia inte skapat någon konkurrens. Igen så är GTX480 ca. 35% dyrare (ca. 1300 kronor) och presterar drygt 10% bättre. Hade de skapat konkurrens, hade ATI inte gått ut innan Fermi-släppet och sagt att de inte skulle sänka priserna, utan tvärtom. I stället så sitter vi vid en död marknad, där ATI har kunnat höja priserna, och med all rätt med tanke på bristen på konkurrens. Ur en prestanda/krona synpunkt så finns det absolut ingen anledning över huvud taget att köpa ett GTX480 över ett HD5870 om man absolut inte måste ha de sista FPS:en, men då kan man ju klocka ett HD5870 så är man uppe i samma prestanda. Hade de däremot sålt GTX480 för 3600 kronor då hade ATI teoretiskt varit tvungna att sänka HD5870 till 3200 kronor och HD5970 till 4200 kronor och sedan följer prissänkning från Nvidia. Då har vi helt plötslig lite konkurrens på marknaden, och någonting som gynnar oss konsumenter.

Citat:

Ursprungligen inskrivet av Kilroy
5970?

Snabbaste GPUn.
Jag tycker dock det är skillnad på om ett kort har en eller två kärnor, microstuttering, dåligt stöd för vissa spel och andra små egenheter som SLI/Crossfire har jämfört med singel-gpu.
Har jag hört.

Singel-GPU har absolut sina fördelar och det är väl egentligen att föredra. Microstuttering är ett vida känt fenomen men det är ingenting man direkt märker av man har vettig FPS till att börja med, vilket tanken med dual-GPU kort för det mesta är. Det är dock helt rätt som du säger.

Citat:

Ursprungligen inskrivet av mr_krut
Den har inte snabbast GPU, de sitter två GPUer som motsvarar 5850, och acceptera de eller ej, men 5970 får stryk i vissa tester av 480, även om 5970 har övertag i dom flesta och just idag mest relativa testerna. Fermi är den snabbaste GPUn.

Han menade inte att HD5970 hade snabbast GPU. Han som skrev först skrev att GTX480 är snabbaste kortet och han rättade honom och skrev "snabbaste GPU:n". Jag skulle vilja se ett test där 5970 får "stryk" av 480. 480 är onekligen bättre vid tung tesselering men hur mycket återstår att se med tiden. Alien vs. Predator som använder rätt mycket tesselering var ju ingen vidare hit hos Nvidia. Metro 2033 likaså, ingen vidare hit hos ATI. Sedan så är GPU:erna på 5970 samma som 5870 fast med 5850:s klocks. Det har alltså samma mängd streamprocessorer, ROPs, och texturenheter men lägre klocks än två stycken 5870.

Citat:

Ursprungligen inskrivet av cratzky
Jag är mycket intresserad av o veta hur pass nuvarande fermi kort kommer prestera med nyare drivrutiner, de officiella drivrutinerna för fermi korten är inte lanserade än, och alla tester som gjorts med fermi kort har gjorts med 197.13 eller 197.17.
Ingen av dom 2 drivrutinerna har officiellt stöd för fermi kort..
Ska även bli intressant o se vad för temps och klocks man kan få ut ur ett 480 med vattenkylning och hur pass bra det skalar i prestandan i förhållande till värme utveckling

För övrigt tror jag det börjar bli dags att lansera high-end kort med vattenkylning från början för o slippa dessa högljudda små skit fläktar som kommer från början... Då kan tillverkarna pressa ut lite mer prestanda utan att oroa sig allt för mycket över tempen och en icke existerande ljudnivå.
Jahapp, nu blev man sugen på och skaffa vattenkylning då....

Sen måste jag passa på att säga till alla som sitter och gissar hej vilt här på forumet som påstår att nvidia haft 6mån på sig att utveckla drivrutiner till fermi och att det är dem som använts vid testerna.
Detta påstående stämmer inte, det finns massor med information på nätet att läsa om drivrutiner och fermi, som jag skrev tidigare så finns det inga officiella drivrutiner för fermi ännu.
Men! det betyder inte att dom inte redan sitter på mängder med data från den tiden dom arbetat med fermi korten som dom säkerligen planerar att implementera i den kommande fermi drivrutinen

Jag tycker vi låter nvidia och fermi vara, ge dom lite tid att utveckla detta vidare, jag tror det kommer bli riktigt häftigt inom det närmare året !

Vad är skillnaden mellan inofficiellt stöd och officiellt stöd i drivrutiner? Du kan inte mena allvar att du tror att Nvidia skickar ut kort till butiker och till tester utan en drivrutin som är utvecklad till kortet? Det finns någon beta drivrutin (vilket alla Nvidias drivrutiner är, tills de blir WHQL certifierade och det händer 2-4 gånger om året ungefär) som funkar precis som det ska med GTX480. Sedan så kommer det säkert förbättras med tiden men att säga att vi skall vända oss bort från Fermi och inte klaga på att Nvidia inte levererade de "minst 60% bättre prestanda än Cypress" bara för att drivrutinerna är bättre om ett år, är ju ren idioti.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Avstängd

[QUOTE]
Vad är skillnaden mellan inofficiellt stöd och officiellt stöd i drivrutiner? Du kan inte mena allvar att du tror att Nvidia skickar ut kort till butiker och till tester utan en drivrutin som är utvecklad till kortet? Det finns någon beta drivrutin (vilket alla Nvidias drivrutiner är, tills de blir WHQL certifierade och det händer 2-4 gånger om året ungefär) som funkar precis som det ska med GTX480. Sedan så kommer det säkert förbättras med tiden men att säga att vi skall vända oss bort från Fermi och inte klaga på att Nvidia inte levererade de "minst 60% bättre prestanda än Cypress" bara för att drivrutinerna är bättre om ett år, är ju ren idioti.
[/QUOTE]

Det är skillnad på drivrutinerna. Som vi sett förut i historiens gång så vad gällande nvidia och deras drivrutiner så har vi sett ganska stora prestanda ökningar. Speciellt för ny lanserade kort. Och utvecklingen går fort också...
För övrigt så hittar jag inte en enda butik som faktiskt har ett nvidia kort i lager, om du gör det så länka gärna...

Propagandan om "60% bättre än cypress" är bara marknadsföring. Det kan ha och göra med många olika faktorer.

ATI gjorde exakt samma sak när dom skulle lansera 5 serien och hävdade att dom minsann va dubbelt så snabba som 200serien. Vilket dom såklart inte var... Inte är det något som gjort att nvidia killarna har suttit och spammat ner varenda forum på hela internet om hur pass mycket dåligare cypress va än det va propagerat (syftar på deras "dubbelt så mkt prestanda" snack dom körde med. Jag har då inte sett några såna trådar eller inlägg...

Om vi nu tar ett gtx480 som exempel, det kortet presterar en lägre max fps än 5970, men en högre minfps än 5970 i väldigt många tester, om nu nvidia lyckas höja dom siffrorna med ytterliggare 10fps utöver de 10fps dom redan låg över 5970 med endast drivrutiner, så skulle det helt plötsligt vara 20fps snabbare i minfps än minfpsen hos ett 5970. Vilket i verkligheten är extremt mycket.

Speciellt vid stora tunga krävande applikationer och spel.

Det är väl endå minfpsen man vill åt när man köper ett prestanda kort , spelar ingen roll om man sitter med 200fps och sen droppas ner till 30fps vid krävande situationer, skulle man få ha ett grafikkort som ökar 10fps vid krävande situationer som gtx480 gör redan nu, och kanske även mer inom några månader, så skulle det va guld värt i mina ögon som en gamer.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av cratzky
[B]

Det är skillnad på drivrutinerna. Som vi sett förut i historiens gång så vad gällande nvidia och deras drivrutiner så har vi sett ganska stora prestanda ökningar. Speciellt för ny lanserade kort. Och utvecklingen går fort också...
För övrigt så hittar jag inte en enda butik som faktiskt har ett nvidia kort i lager, om du gör det så länka gärna...

Propagandan om "60% bättre än cypress" är bara marknadsföring. Det kan ha och göra med många olika faktorer.

ATI gjorde exakt samma sak när dom skulle lansera 5 serien och hävdade att dom minsann va dubbelt så snabba som 200serien. Vilket dom såklart inte var... Inte är det något som gjort att nvidia killarna har suttit och spammat ner varenda forum på hela internet om hur pass mycket dåligare cypress va än det va propagerat (syftar på deras "dubbelt så mkt prestanda" snack dom körde med. Jag har då inte sett några såna trådar eller inlägg...

Om vi nu tar ett gtx480 som exempel, det kortet presterar en lägre max fps än 5970, men en högre minfps än 5970 i väldigt många tester, om nu nvidia lyckas höja dom siffrorna med ytterliggare 10fps utöver de 10fps dom redan låg över 5970 med endast drivrutiner, så skulle det helt plötsligt vara 20fps snabbare i minfps än minfpsen hos ett 5970. Vilket i verkligheten är extremt mycket.

Speciellt vid stora tunga krävande applikationer och spel.

Det är väl endå minfpsen man vill åt när man köper ett prestanda kort , spelar ingen roll om man sitter med 200fps och sen droppas ner till 30fps vid krävande situationer, skulle man få ha ett grafikkort som ökar 10fps vid krävande situationer som gtx480 gör redan nu, och kanske även mer inom några månader, så skulle det va guld värt i mina ögon som en gamer.

5970 har väll ändå högre minfps en gtx 480 ? Iaf om man kollar på sweclockers tester.

Permalänk

En bra häst ska ha mycket mat

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av cratzky

ATI gjorde exakt samma sak när dom skulle lansera 5 serien och hävdade att dom minsann va dubbelt så snabba som 200serien. Vilket dom såklart inte var...

HD5870 ~ dubbelt så snabbt som ett HD4870
GTX260 ~ lika snabb som HD4870

Så man kan nog säga att Cypress är dubbelt så snabbt som GT200 om man jämför HD5870 med GTX260.

Citat:

Ursprungligen inskrivet av cratzky
[B]Det är väl endå minfpsen man vill åt när man köper ett prestanda kort , spelar ingen roll om man sitter med 200fps och sen droppas ner till 30fps vid krävande situationer, skulle man få ha ett grafikkort som ökar 10fps vid krävande situationer som gtx480 gör redan nu, och kanske även mer inom några månader, så skulle det va guld värt i mina ögon som en gamer.

Nja, jag vet inte riktigt. Saken är ju den att om dippen bara kommer någon enstaka gång och varar i en sekund så spelar det inte så stor roll, då har jag hellre ett högre average-värde. Det är klart att om en dipp händer oftare och average redan är rätt låg (~30) så är ju högre minimum trevligare.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Zeraphin
5970 har väll ändå högre minfps en gtx 480 ? Iaf om man kollar på sweclockers tester.

I vissa tester får gtx480 ca 10fps mer i minfps än vad 5970 får, annars är det väldigt lika mellan 5970 och 480 i minfps, i spel .

När vi kommer till program, det är där nya fermi glänser. Men det är helt klart ett bra gamer kort, men inte värt pengarna. Man får som sagt ett ATI kort med likvärdig prestanda för mindre pengar.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Valiumballong
HD5870 ~ dubbelt så snabbt som ett HD4870
GTX260 ~ lika snabb som HD4870

Så man kan nog säga att Cypress är dubbelt så snabbt som GT200 om man jämför HD5870 med GTX260.

Nja, jag vet inte riktigt. Saken är ju den att om dippen bara kommer någon enstaka gång och varar i en sekund så spelar det inte så stor roll, då har jag hellre ett högre average-värde. Det är klart att om en dipp händer oftare och average redan är rätt låg (~30) så är ju högre minimum trevligare.

Du jämförde nu ett 5870 som är ATI's snabbaste single gpu kort med ett gtx260 som är nvidias näst segaste kort efter gts250? hm.

Ska man jämföra, så ska det göras mellan de 2 olika företagens toppmodeller som fanns just då, så ett korrekt exempel på detta skulle va:

gtx285 mot HD5870.

Om vi tar 3dmark vantage score som exempel:

gtx285 :12100 i avg GPU score.
HD5870: 17500 i avg GPU score.

Sen blir marginalen betydligt mindre mellan gtx295 och HD5970 där gtx295 får en avg score på 19000 och HD5970 får en avg score på 24100.

Som vi kan se så stämmer inte deras "dubbelt så snabb" propaganda som dom hävdade innan korten kom till marknaden. Skillnaden i verkligheten är i själva verket inte alls så stor som man trodde... så kommer det alltid vara, och så har det alltid varit från både ATI och nvidia.

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av cratzky
Fermi är redan snabbare, men till en kostnad för en hel del mer ström, och mer värme utveckling än ATI, Vilket gör det dyrare att köpa, och att äga (i längden) i praktiken. (om man nu är petig med el-räkningarna)

Ifall du syftar på att få ett gtx480 snabbare än ett 5970 så tror jag att det är ganska hopplöst, vi lär inte se nvidia gå om 5970 på ett tag, iallafall inte i spel. Men i bildbehandlingsprogram som kräver raytracing, tesselering, dx11 rendering etc så är gtx480 ganska mycket snabbare tack vare den nya tekniken...

Vänta nu. Bildbehandlingsprogram som använder sig av Tesselering och RayTracing? Det enda jag kan tänka mig att ett bildbehandlingsprogram kan dra nytta av i Dx11 är DirectCompute.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Dinoman
Vänta nu. Bildbehandlingsprogram som använder sig av Tesselering och RayTracing? Det enda jag kan tänka mig att ett bildbehandlingsprogram kan dra nytta av i Dx11 är DirectCompute.

Varför börjar folk peta ut små fel i min text för? Du förstår mycket väl vad jag menar...

Raytracing:
"Optical ray tracing describes a method for producing visual images constructed in 3D computer graphics environments, with more photorealism than either ray casting or scanline rendering techniques. It works by tracing a path from an imaginary eye through each pixel in a virtual screen, and calculating the color of the object visible through it."

Tesselering:
"In the subject of computer graphics, tessellation techniques are often used to manage datasets of polygons and divide them into suitable structures for rendering. Normally, at least for real-time rendering, the data is tessellated into triangles, which is sometimes referred to as triangulation. Tessellation is a staple feature of DirectX 11 and OpenGL"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av cratzky
I vissa tester får gtx480 ca 10fps mer i minfps än vad 5970 får, annars är det väldigt lika mellan 5970 och 480 i minfps, i spel .
.

gtx 480 har högre minfps i ett av dom testade spelen, och det är i crysis på högsta upplösningen. Annars vinner 5970 i minfps i alla tester.

Jag räknar inte med Dirt 2, eftersom det är uppenbart att gtx480 körs i dx9 medans 5970 körs i dx11

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Zeraphin
gtx 480 har högre minfps i ett av dom testade spelen, och det är i crysis på högsta upplösningen. Annars vinner 5970 i minfps i alla tester.

Jag räknar inte med Dirt 2, eftersom det är uppenbart att gtx480 körs i dx9 medans 5970 körs i dx11

Men fortfarande så kan du se att 5970 inte vinner med några imponerande siffror direkt (1-3fps?)..

Det står klart och tydligt på sweclockers test att det är kört i dx11..

http://www.sweclockers.com/imagebank/plot/201003/BattlefieldB...
Känns inte som filens namn stämmer överens med bilden ??

http://www.sweclockers.com/imagebank/plot/201003/Dirt2001.png