Citat:
Ursprungligen inskrivet av bud_bundy
Ja men det är dit utvecklingen går, jag själv sitter med ett passivt kylt matroxkort (G450 dualhead) med bra bildkvalite och allt. Det fick bra beröm då det kom och konkurrenterna var inte så mycket mer högljuda de heller.
Jag tycker det är riktigt sjukt hur kylningen på grafikkorten har utvecklas, men marknaden värderar främst prestanda. Sedan är Fermi överdrivet hett, men jag tror det enbart är temporärt, då Nvida senare kommer göra svalare kort.
Tar vi pris så tycker jag det är samma där, en vanlig persondator blir allt billigare, men grafikkortet som var en "struntkomponent" har gått mot att blivit den viktigaste och kan vara den dyraste enskilda komponenten i hela datorn. När jag köpte min gamerdator för runt 13år sedan utan skärm för runt 10papp, så la jag enbart runt 1000kr på grafikkortet och ändå så var detta det mest optimala.
Så dyrare och mer strömslukande grafikkort är vad utvecklingen de senaste 15åren har gått mot, och jag är skeptisk till att marknaden just nu ska vända och börja gå tillbaka till svalare och billigare grafikkort.
ATT Fermi har tagit ett sådant stort steg framåt i strömförbrukning, beror som sagt på att gpun var tvungen att prestera bättre än AMD´s variant. Hade det bara presterat lika bra och varit svalare, så hade det fått mer kritik än det fick nu.
*edit*
Vi kanske diskuterar olika saker. Jag tror utvecklingen kommer gå mot allt mer strömslukande grafik-kort. Att däremot Fermi blev som det blev, beror på att Nvida blev tvingade då kortet var tvunget att prestera bättre än AMD´s.
Detta får sedan negativa effekter för både konsumenter och tillverkare, för tillverkaren så kostar kylningen och det kommer säkerligen resultera i mer fel. För konsumenten så högre strömförbrukning och oljud.
Det är ju dock inte dit utvecklingen är på väg... ATI:s HD3000 serie drog avsevärt mindre ström än HD2000 serien om jag inte kommer ihåg fel. HD5870 presterar strax bättre än ett HD4870X2 för det mesta och drar mindre än hälften. De har visat precis vart utvecklingen är på väg mot. 40nm innebär i teorin att kretsen borde dra mindre ström vid samma prestanda vilket är precis vad HD5870 har gjort fast med betydligt förbättrad prestanda. Att high-end kort slukar ström förstår nog de flesta men Fermi är ju grymmt bakåtsträvande i ett effektivitetssammanhäng då prestandavinsten jämfört med strömslukandat är exponentiellt sämre än vad som hade lovats.
Citat:
Ursprungligen inskrivet av jonathan82
Om du hänger upp dig på att jag tyckte en nvidia logo på skrivbordet var suspekt så tar jag tillbaka det.
Det relevanta var fortf att man skall göra test som återspeglar verkligheten.
Det gäller naturligtvis ALLA grafikkort.
Håller med dig angående chassit. Stacker 83x är gjort för att vara så öppet som möjligt. Det reflekterar inte hur mycket kortet skulle värma upp ett vanligt chassi som exempelvis Antec P182 som jag har. Har precis satt på en Arctic Cooling kylare på mitt HD4870X2. Kortet är nu helt ljudlöst (det var det i idle innan också visserligen) och idlar runt 40 grader. Smått katastrof med standardkylaren på mitt kort, men lite samma argument som många har för Fermi kylaren.
4870X2 fick mycket kritik för värmen och fläkten precis som Fermi. ATI hävdade som Nvidia att kretsen var byggd för att gå i 90 grader utan problem, och därför höll de fläkten på ett lågt varvtal i idle vilket funkade helt okej. Fermi ligger väl ungefär på 92 grader i load och många säger att "dra upp fläkten till 100% så går det inte alls varmt". Jag testade att dra upp fläkten på mitt kort till 100% och det gick inte över 50 grader under 3dmark Vantage. Problemet är att det låter som ett ånglok. Det är ju det folk vill undvika. Tacka Arctic Cooling vet jag som levererade en toppenkylare.
Citat:
Ursprungligen inskrivet av Durra_666
Fanboys, nvidia var snabbare än ati nu och så är de bara.
Börja inte gnälla på värme och energi bara för att försöka få erat (ATI) märke att verka bättre eller kanske få er själv att må bättre för att ni gick och köpte ett "söligare" kort.
LIKNELSE.
En Ferrari (som någon tog upp tidigare) blir jäääävligt varm och slukar soppa (energi).
En Volksvagen golf blue motion eco driving fuel saver går inte så varm och drar lite soppa (energi).
Dvs, va är man ute efter?? Åka billigt eller snabbt ?
ds. de gröna som blåser om er ati fanboys i innerkurvan är inte en golf eco driver.
Men Nvidia var ju inte snabbare... HD5970 är ju fortfarande det snabbaste kortet på marknaden. Fermi är snabbaste GPU:n på marknaden om än marginellt. Du gnäller på ATI-troll så fort du ser att någon har ATI i sin sig men du är ju likadan fast för andra laget.
Om Ferrarin med 500 hästar blir omkörd av en Lamborghini med 650 hästar (HD5970) som drar lika mycket soppa vad spelar en VW Golf för roll då?
Du behöver inte förlöjliga debatten ännu mer. GTX480 är absolut ett bra kort på många parametrar. Problemet är prissättningen. Hade de lagt kortet vid 3500 kronor så hade man fullständigt kunna skita i många av de missar som Nvidia har gjort men i dagsläget så lägger man nästan 35% mer än ett HD5870 för ett kort som presterar drygt 10% bättre i spel (vilket är anledningen att folk köper ett sådant här kort för det mesta), drar mellan 50% och 180% mer ström, och producerar mer värme i chassit (som andra komponenter mår dåligt av). Om man skall använda det till GPGPU så är det ett fantastiskt kort. Som Tesla-kort kommer det nog bli en smärre revolution men nu snackar vi den genomsnittliga GTX 480 konsumenten (dvs. gamer).
Citat:
Ursprungligen inskrivet av Durra_666
Hahaha kul att se att fok direkt börjar gnälla över "troll" när den här och hundra andra fermi trådar direkt invaderas av alla atitroll så fort de står ettt enda ord så är de ett ati troll där och gnäller över värme och över strömförbrukning.
Och dom har ALLTID ett ati kort sjävla som man direkt ser i deras tag.
Jag är själv en gammal gammal räv här på sweclockers och har inte skrivit utan bara läst för de har i alla år varit så vettiga poster på de här underbara forumet.
Men sakta men säkert har de vuxit fram så mycke troll så blir tvungen att yttra sig.
Är själv besviken på Nvidias nya serie men jag tror att dom kommer få till det på kommande modeller. Men Nvidia gjorde allt dom lovade iofs, dom levererade de snabbaste kortet punkt slut. Dom sa aldrig att dom skulle släppa de kallaste eller strömsnålaste.
Och för er alla ati fanboys som bara hoppas att nvidia ska gå i graven så kan jag ju bara säga att ni är så dumma för utan konkurans skulle inget av företagen försöka förbätttra sig lika mycke eller ha lika vettiga priser.
Konkurans är bra.
Inget märke är bäst på allt.
Make love not war !
Igen, vad är skillnaden på en Nvidia eller ATI-Fanboy/troll? Färgen på flaggan de bär. Bara för att jag har ATI betyder inte det att jag inte har erfarenhet av Nvidia, för det har jag. Kalla mig vad du vill, men jag köper det jag anser vara mest värt mina pengar, och det är många faktorer som spelar in på det men först och främst prestanda/krona inom highend segmentet. För två år sedan snart så innebar det HD4870X2. Är det kortet perfekt? Absolut inte, men jag har varit väldigt nöjd med det och ser ingen anledning att bli kallad namn för att jag tycker att jag är nöjd med en produkt som du inte äger.
Åter igen så har Nvidia inte släppt "de snabbaste kortet, punkt slut". HD5970 presterar fortfarande bättre. Det är den snabbaste GPU:n. Det kan ingen neka vare sig de har ATI eller Nvidia. Ingen kan heller neka att HD5970 fortfarande presterar bättre. Jag vet inte om du skriver fel eller inte, men sluta skriva felaktiga saker.
Konkurrens är jättebra. Det har du helt rätt i, men hela debatten har att göra med att Nvidia inte skapat någon konkurrens. Igen så är GTX480 ca. 35% dyrare (ca. 1300 kronor) och presterar drygt 10% bättre. Hade de skapat konkurrens, hade ATI inte gått ut innan Fermi-släppet och sagt att de inte skulle sänka priserna, utan tvärtom. I stället så sitter vi vid en död marknad, där ATI har kunnat höja priserna, och med all rätt med tanke på bristen på konkurrens. Ur en prestanda/krona synpunkt så finns det absolut ingen anledning över huvud taget att köpa ett GTX480 över ett HD5870 om man absolut inte måste ha de sista FPS:en, men då kan man ju klocka ett HD5870 så är man uppe i samma prestanda. Hade de däremot sålt GTX480 för 3600 kronor då hade ATI teoretiskt varit tvungna att sänka HD5870 till 3200 kronor och HD5970 till 4200 kronor och sedan följer prissänkning från Nvidia. Då har vi helt plötslig lite konkurrens på marknaden, och någonting som gynnar oss konsumenter.
Citat:
Ursprungligen inskrivet av Kilroy
5970?
Snabbaste GPUn.
Jag tycker dock det är skillnad på om ett kort har en eller två kärnor, microstuttering, dåligt stöd för vissa spel och andra små egenheter som SLI/Crossfire har jämfört med singel-gpu.
Har jag hört.
Singel-GPU har absolut sina fördelar och det är väl egentligen att föredra. Microstuttering är ett vida känt fenomen men det är ingenting man direkt märker av man har vettig FPS till att börja med, vilket tanken med dual-GPU kort för det mesta är. Det är dock helt rätt som du säger.
Citat:
Ursprungligen inskrivet av mr_krut
Den har inte snabbast GPU, de sitter två GPUer som motsvarar 5850, och acceptera de eller ej, men 5970 får stryk i vissa tester av 480, även om 5970 har övertag i dom flesta och just idag mest relativa testerna. Fermi är den snabbaste GPUn.
Han menade inte att HD5970 hade snabbast GPU. Han som skrev först skrev att GTX480 är snabbaste kortet och han rättade honom och skrev "snabbaste GPU:n". Jag skulle vilja se ett test där 5970 får "stryk" av 480. 480 är onekligen bättre vid tung tesselering men hur mycket återstår att se med tiden. Alien vs. Predator som använder rätt mycket tesselering var ju ingen vidare hit hos Nvidia. Metro 2033 likaså, ingen vidare hit hos ATI. Sedan så är GPU:erna på 5970 samma som 5870 fast med 5850:s klocks. Det har alltså samma mängd streamprocessorer, ROPs, och texturenheter men lägre klocks än två stycken 5870.
Citat:
Ursprungligen inskrivet av cratzky
Jag är mycket intresserad av o veta hur pass nuvarande fermi kort kommer prestera med nyare drivrutiner, de officiella drivrutinerna för fermi korten är inte lanserade än, och alla tester som gjorts med fermi kort har gjorts med 197.13 eller 197.17.
Ingen av dom 2 drivrutinerna har officiellt stöd för fermi kort..
Ska även bli intressant o se vad för temps och klocks man kan få ut ur ett 480 med vattenkylning och hur pass bra det skalar i prestandan i förhållande till värme utveckling
För övrigt tror jag det börjar bli dags att lansera high-end kort med vattenkylning från början för o slippa dessa högljudda små skit fläktar som kommer från början... Då kan tillverkarna pressa ut lite mer prestanda utan att oroa sig allt för mycket över tempen och en icke existerande ljudnivå.
Jahapp, nu blev man sugen på och skaffa vattenkylning då....
Sen måste jag passa på att säga till alla som sitter och gissar hej vilt här på forumet som påstår att nvidia haft 6mån på sig att utveckla drivrutiner till fermi och att det är dem som använts vid testerna.
Detta påstående stämmer inte, det finns massor med information på nätet att läsa om drivrutiner och fermi, som jag skrev tidigare så finns det inga officiella drivrutiner för fermi ännu.
Men! det betyder inte att dom inte redan sitter på mängder med data från den tiden dom arbetat med fermi korten som dom säkerligen planerar att implementera i den kommande fermi drivrutinen
Jag tycker vi låter nvidia och fermi vara, ge dom lite tid att utveckla detta vidare, jag tror det kommer bli riktigt häftigt inom det närmare året !
Vad är skillnaden mellan inofficiellt stöd och officiellt stöd i drivrutiner? Du kan inte mena allvar att du tror att Nvidia skickar ut kort till butiker och till tester utan en drivrutin som är utvecklad till kortet? Det finns någon beta drivrutin (vilket alla Nvidias drivrutiner är, tills de blir WHQL certifierade och det händer 2-4 gånger om året ungefär) som funkar precis som det ska med GTX480. Sedan så kommer det säkert förbättras med tiden men att säga att vi skall vända oss bort från Fermi och inte klaga på att Nvidia inte levererade de "minst 60% bättre prestanda än Cypress" bara för att drivrutinerna är bättre om ett år, är ju ren idioti.