Nvidia Geforce GTX 580

Permalänk
Medlem

Decibel är ett helt meningslöst mått på ojud från grafikkort, det är mycket viktigare hur det låter. Om det ena kortet avger ett skärande ljud och det andra ett vindsus så kommer vindsuset att vara mindre irriterande även om ljudstyrkan är lite högre.

Sen är det helt irrelevant om HD5970 är ett kretskort eller två, det har ändå samma nackdelar som en CF-setup om det internt använder CF för korten. Dvs, ett spel kan mycket väl ha dålig CF-prestanda och bara utnyttja en av GPUerna, eller i alla fall skala dåligt. Detta problem har man inte med ett single-GPU-kort.

Visst kommer man få nästan max prestanda i typiska benchmarktitlar som Crysis Warhead eftersom det är sådana tester som säljer grafikkorten. Men hur mycket bryr man sig om CF-profiler för spelen som inte används för prestandatester? Eller spel som är lite äldre?

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Medlem

Trevligt!

Angående lastbilschaufförer så har jag väääldigt(!) stor erfarenhet av dem! Det är lönlöst att diskutera med dem för de har alltid rätt och är alltid bäst! Så jag tycker vi alla ska lyssna på Blackbird..

Visa signatur

Asus Prime Z390-A - Intel I7 9700KF - Corsair Vengeance 2x8GB 3200Mhz CL16 - MSI GeForce RTX 2080 SUPER 8GB Ventus XS OC - Creative Sound Blaster Z (skäms) - Corsair AX 1200i Digital 1200W 80+ Platinum - Fractal Design R6 - Sennheiser GSP 600 - Acer Predator XB271HUA

Permalänk
Medlem

Ojoj, detta såg ju bra ut faktiskt. Speciellt att de fått ordning på kylaren så den blir tystare samt lite effektivare. Det jag undrar är vilka temperaturer ni fick med OC och ökad volt?

Med prislappen så är det ett "big no no" för min del nu, men om det blir lite av ett priskrig i framtiden så kan detta vara intressant faktiskt. Som det ser ut nu så är det ju billigare och bättre att köpa GTX 470 SLI.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Skrivet av Kristers bensin:

Nej 2 kort måste ha kompatibilitet med det moderkort som användaren äger/ska köpa.

Det är inte mitt fel ifall folk köper så kassa moderkort.

Så det du försöker säga är att för att vissa inte kan köra med 2 eller fler fysiska grafikkort pga. moderkortet så är en dubbelmacka det enda rätta för ALLA? Det intrycket ger du allafall eftersom du hyllar dubbelmackor så mycket.

Skrivet av Devrer:

Hd 5970 är ETT grafikkort, Gtx470 sli är två grafikkort och kräver betydligt dyrare moderkort och även betydligt dyrare nätagg. Tar man med det i beräkningen så är hd5970 mer värt. Man jämför grafikkort mot grafikkort, sen om tillverkaren vakt ätt slösa två gpuer eller en på det spelar ingen roll. Det är prestandan och priset som är intressant. Nu här inte NVIDIA någon möjlighet ätt göra en fermi-dubbelmacka, efter som den skulle dra långt över 300w (pci-e gränsen).

Enligt ditt synsätt kan man inte jämföra Gtx580 mot hd5870, eftersom Gtx580 här mer streamprocessorer och mer minne och högre frekvenser, det klart den presterar bättre och det blir ju orättvist? Spelar ingen roll hur tillverkaren väljer att göra kortet, det är prestanda och pris som spelar roll. Lyckas tillverkaren trycka in 2 gpuer och samtidigt hålla ned pris, värme och strömförbrukning så är ju det fenomenalt.

Enligt ditt synsätt kan kan inte heller jämföra en Ferrari mot en lambo, eftersom Ferrarin har mer cylindrar och större motor? Det spelar Uusmann ingen roll. Kostar de lika mycket väljer alla Ferrarin

Har du verkligen lyckats med att missa allt vad jag har sagt om microstuttering?
Jag skulle hålla med dig om mycket OM det inte vore för microstuttering.
Det vore som att hälla en hink med grus i Ferrari motorn.

Permalänk
Medlem

Tycker mest folk är bortskämda, 3D grafiken med ett Matrox kort eller en voodoo 2 funkade utmärkt, i början av 1998- 2000 talet. För att inte tala om 2D med Spectrum, Vic-64, Amiga och Atari.
Kommer ihåg mitt första PC grafikkort, Trident 128Mb 16 färger.:)
Men det kanske finns en logik att många hänger kvar vid 8800Gt och 1950pro kort fortfarande. Då grafiken inte har avancerat så mycket, att man inte kan motivera det om inte är en HW nörd. Det är väll samma faktor som att en fint klockad Q6600 inte är värd att byta ut. Då det finns nog ned prestanda.

Visa signatur

Min:ABIT NF7-S V2.0,Barton 2500+AQXEA XPMW@2,35Ghz,2x521Mb Adata Cas 2-3-3-6,Lt 6800LE 1,3v 16x1,6@440-930,SLK900A,Mustek A806 5:1 Dolby Digital Amp. Frugans:ESC K7-SEM,Duron1600,512Mb DDR. Antons:Aopen AK73(A)-V,512Mb Sdr,Xp1600+Parlomino AGOIA GREEN@1875Mhz@1.9v,Volcano7+Moddad@92mm,Gf 4200Ti@305-610 Zalman HP-80.

Permalänk
Medlem
Skrivet av Sgart:

Smiska ihop en gf100 dubbelmacka då. Om tempen klarar det.

Vart är alla Gf100 dubbelmackor? Vore det så enkelt att dra ihop en "bajsmacka" är det la bara för Nvidia att göra det? Har snackats mer än ett år om en gf100dubbelmackor. Vart är dom?

Vad kommer härnäst "kan inte jämföra har olika antal shaders och olika stort minne" Seriöst. Ett kort som tar upp en slot på moderkortet mot ett annat i samma prisklass. Ja då har du 2 konkurerande kort. Vad som finns inuti är totalt irrelevant.

Nvidia har ju precis bevisat att dom INTE behöver en bajsmacka som ATI, då deras single-gpu GTX580 är ungefär lika bra som en bajsmacka.

Visa signatur

Projektlogg: Vector Qlimax

X APEX, 8700K @ 5200MHz, Trident Z 16GB @ 4133MHz CL16, RTX 2080 Ti, 970 M.2 SSD, RM1000x, EK A240

Permalänk

Bajsmacka! Att jag inte kom på det tidigare. Ett perfekt namn för dual GPU kort.

Permalänk
Medlem
Skrivet av zhrooms:

Nvidia har ju precis bevisat att dom INTE behöver en bajsmacka som ATI, då deras single-gpu GTX580 är ungefär lika bra som en bajsmacka.

Du verkar ha lite svårt att förstå att det tog Nvidia över 1 år att slå ATi:s bajsmacka. Vad händer när Antilles släpps, tror du?

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD RX 580
Windows 10

Permalänk
Medlem

Allvarligt kan ni inte försöka hålla diskussionen på en hyfsat civiliserad nivå? Vill ni hålla på med pajkastning i sandlådan så finns det säkerligen platser för det men detta är ju mer eller mindre tragiskt.

Visa signatur

/havoc

Permalänk
Skrivet av Old KnotVillage:

Det står att det är sli ready så då måste det ju finnas 2x6 och 2x8 med.

Ok läste att det fanns 1x8 och 4x6+2. Då finns det med, kan väl inte göra mer än att testa. det är ju inget skit agg och enligt denna bild.

http://www.corsair.com/products/hx750/hx750-efficiency-chart....

så ger det ju 86% mot ingående effekt. Sen sitter man ju inte och loadar hela dagar. HX750 har ju inte fler kablar eller högre +12V. Det ger bara 840W iställer för 744.

Den grafen gäller bara hur mycket nätagget drar från väggutaget. Dvs för att 750w till systemet så behövs det 840w. Eftersom standard 10a säkring ger 2300w så inga problem. Frågan är klarar 12v linorna att leverera till grafikkortet. Kollade upp ditt agg på hemsidan och enligt spec så borde det klara det. Men sätt in ett överspännings skydd mot "smutsig" el från din el levrantör. Kostar 2-3 hundra och är en bra försäkring.

Visa signatur

Varje svensk medborgare borde ha minst 3 PC/pers där hemma !

Permalänk
Skrivet av Valiumballong:

Du verkar ha lite svårt att förstå att det tog Nvidia över 1 år att slå ATi:s bajsmacka. Vad händer när Antilles släpps, tror du?

480 var ju tänkt som konkurrent till 5970. tar man två 480 så vet du själv vad som händer. finns ingen chans i världen att 6990 kommer att slå 580sli. 6970CF kommer kanske i närheten.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Medlem
Skrivet av Blackbird_CaD_:

Bajsmacka! Att jag inte kom på det tidigare. Ett perfekt namn för dual GPU kort.

Ja om man är 3 år kanske.

Lustigt att siten Sweclockers blir proffsigare för varje år som går medans den genomsnittlige forumanvändaren blir blir mindre och mindre proffsig.

Tiden då Swecs forum var ett ställe för bra tips, seriös diskussion kring hårdvaras för och nackdelar är uppenbarligen förbi. Nu regerar trollen och fanboysen och seriösa inlägg försvinner i bruset eller sablas ned av rabiata horder med fanboys för att det innehöll kritik mot "deras" märke.

Alla trådar urartar i pajkastning, folk skiter i att använda rätt begrepp, särskrivningen härjar fritt. Det är som Kungarna av Tylösand i forumform. Underhållning på ett visst sätt kanske, men knappast någon kvalité.

Visa signatur

| Ryzen 5800X | ASUS X570 TUF | 32GB G.Skill Trident Z Neo 3600 CL16 | Asus RTX 3080 Strix OC | 2x Samsung 970 Evo 1TB M2 SSD | Seasonic 850W Focus Gold modulärt || Kylning: Corsair H115i PRO, 9x 140mm Be Quiet! Silent Wings 3 PWM || Skärm: ASUS MG279Q || Chassi: Fractal Design Meshify 2 Dark TG

Permalänk
Medlem

ska bli kul o se om AMD´s nya 6970 spöar gtx 580.:)

Visa signatur

-PC- HAF932 - i7 920d0 oc 3.8ghz - P6TDELUXE v2 - Asus 7950 3GB TOP - Samsung 830 128gb - 2xWD 1TB Black - Asus Xonar Essence STX - Logitech G400 - Sennheiser pc360G4me - Logitech Z5500 - S27a950d 120hz - 2233RZ 120hz
GAME | Dota2 | Age of Conan
Youtube: http://www.youtube.com/user/b4nto

Permalänk
Medlem

förbättring är det , hade varit något om det här hade varit GTX 480.
mycket trevlig skalning i sli dessutom , verkar som om sli och crossfire verkligen börjar stråla.

någon får ta och prova det här kortet i folding , intressant att se hur det presterar , samt hur strömförbrukningen och temperaturerna ligger , och om den här limitern slår till.

Skrivet av Bad Habit:

Jaha, det var ju inte så imponerande... Trodde det skulle slå 5970 i allt men det var ju inte fallet. Om vi säger att 6990 i princip är dubbelt upp från 5970 har ju 580 en chans :S. Aja, får se vad det blir för graffe när ATI kommer med svar, köper naturligtvis det snabbaste.

det är nog ganska svårt att fördubbla prestandan sådär när man fortfarande är på samma tillverkningsteknik.

Skrivet av Old KnotVillage:

skulle aldrig skaffa ett 5970 idag när det skiljer 700:- för ingen prestanda skillnad. Tur att det börjat snöa, då kan jag kasta ut kortet så slipper jag se det.

Nej, har börjat tröttna på de röda med sina drivrutiner. Dom kan inte bygga cpu och uppenbarligen inte gpu heller. typ 1fps bättre mot en gpu från de gröna.

blir intressant att se vad du har för komponenter i slutet av den här säsongen.

Skrivet av XHI:

Höll på att ramla av stolen av strömförbrukningen i furmark. Sen läste jag texten ^^

heeh samma här

Skrivet av havoc:

En viktig faktor är hur stor själva GF110 är, har Nvidia lyckats spara kretsarea och i sådana fall hur mycket? En mindre krets har generellt sett ett högre tillverkningsutbyte och man kan därför inte bara få ut fler kretsar ur en given waffer utan också få ut fler fungerande kretsar vilket direkt påverkar tillverkningskostnaderna och i förlängningen det pris som vi konsumenter får betala.
Och minst lika viktigt är hur duktiga AMD varit med sin cayman krets som av allt att döma kommer bli större än cypress men också bör prestera bättre.

har för mig att gf110 är 520 mm2

Skrivet av Oggyoc:

Mycket intressant, gtx 580 har helt klart bra värden i sli när det gäller prestanda/watt

fint helt klart , men dock endast 3dmark i denna jämförelse , ta och kika på techpowerups grafer lite.
NVIDIA GeForce GTX 580 1536 MB Review - Page 28/31 | techPowerUp

Skrivet av Cawanga:

Angående reducering av strömförbrukning i drivrutinerna. Kan inte speltillverkarna lägga in detta själva genom att lägga en cap på fps?

skulle ju krävas en jäkla massa förinställt då , lika många fps begränsningar som det totala antalet konfigurationsmöjligheter i varje spel.

Skrivet av Valiumballong:

Du verkar ha lite svårt att förstå att det tog Nvidia över 1 år att slå ATi:s bajsmacka. Vad händer när Antilles släpps, tror du?

ungefär på samma sätt så leder ju nvidia när det gäller kraftigaste kärna . dock är det ganska förståeligt.
om man tänker på att cypress ligger på 337 mm2 medans den samtida GF100 låg på 529 mm2 , och nu med GF110 520 mm2

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem
Skrivet av Old KnotVillage:

480 var ju tänkt som konkurrent till 5970. tar man två 480 så vet du själv vad som händer. finns ingen chans i världen att 6990 kommer att slå 580sli. 6970CF kommer kanske i närheten.

Förklarade jag inte det här med grafikkort några inlägg bak? Varken Nvidia eller AMD är intresserade av att marknadsföra en grafikkortslösning som innefattar 2 kort.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD RX 580
Windows 10

Permalänk

6970 kommer ge liknande prestanda som 580
580SLI kommer prestera bättre än 6970CF och bättre än 6990. 6990 kommer hamna runt 480SLI.

Där har ni min vision.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Medlem

Folk glömmer att när man har det bäst på marknaden så är det inte längre bara fps man skall räkna efter.
Det blir lite av en extra slant av att ha det bästa kortet(n) (subjektivt då ett 5970 är bättre än ett 580 men 3s 580 äger ju 3 st 5970 pga gpu-antalet).
För vill man ha den bästa uppsättningen och vara nr 1, då är det 580 som gäller, därför kan dem ta ut lite av ett överpris.
Vill man vara prisvärd så är det 470 eller 460 som gäller.

Visa signatur

[Tiger MP. 2xAMD Athlon MP 1.4GHz , 2x512MB ddr, ?350w PSU, 80GB HDD, Geforce4 ti 4600]
[i7 950, ASUS p6t, xfx 650w, 30GB SSD a-data, 3x2GB corsair xms3, 8800GT, ][i7 920, 3x4GB Vengeance, gtx 260] [i5 3570k, MSI twin frozr PE GTX 570, Corsair 4x2GB xms3]
[3930k, GA-X79-UD3, EVGA GTX 780SC ACX, Corsair Force 3 120GB, XFX 850w, Corsair Air 540, Corsair h100i, Corsair 4x4GB Vengeance]

Permalänk

Tänk om man hade vetat om att det här kortet skulle komma ut innan man köpte GTX 480. Vilken j*vla h*lvetes prestanda med tanke på att det bara är en kärna. Bara 500 marks efter 5850 Crossfire I 3DMark Vantage XD.

Visa signatur

Dator 1: Intel core i7 3930K @ 4,7Ghz, Asus P9X79 Deluxe. Crucial Ballistix Tactical Tracer DDR3 (32GB),Crossfire 2x MSI Radeon 7970 OC Edition 3GB, Tagan 800W NA, SanDisk 120GB systemdisk, EK 360 kit + 120mm extraradiator.
Dator 2: AMD FX 8350, Gigabyte 990FXA UD3, Crucial ballistix DDR3, Nvidia GTX 480, Corsair 650W, 2x OCZ Agility, Thermaltake bigwater 760 vattenkylning.

Permalänk
Medlem
Skrivet av Blackbird_CaD_:

Har du verkligen lyckats med att missa allt vad jag har sagt om microstuttering? Jag skulle hålla med dig om mycket OM det inte vore för microstuttering.
Det vore som att hälla en hink med grus i Ferrari motorn.

Jag har då inte märkt av det på något sätt med mitt 5970 - hur utmärker sig det? Har spelat CS 1.6 ganska seriöst och även spelat mycket BF BC2 utan några problem eller antydningar till microstuttering.

Så hur märker man det, har du ens testat att spela med ett 5970 som är den senaste dubbelmackan?

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk

HJÄLP! Jag som precis slog av dumburken för slippa dokusåpor. Och började läsa här!

Ett förslag: Vi gör en SweC såpa. Vi stänger in 5 från "the green gang" och 5 från "the red bunch" i en lägenhet.
Sen streamar vi ut när de spelar och käbblar mot varandra.

Och nu lite chockerande nyheter: Större delen av mänskligheten bryr inte om märket, utan vad som ger mest "pang" för pengarna.
Och där är 580 kortet ett steg framåt. Nu skall bara överpriset gå ner. Men det hoppas jag att AMD och januari fixar.

Visa signatur

Varje svensk medborgare borde ha minst 3 PC/pers där hemma !

Permalänk
Medlem

Trevligt att den skalar så bra i sli. Jag är sugen på att byta ut mitt 285 och det här verkar ju lovande. En displayport hade dock uppskattats så att jag kan köpa en apple 27".

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Permalänk
Medlem
Skrivet av Dance:

Japp, och det roligaste är att när 5870 lanserades var situationen precis den omvända. Nvidia fanboysen drog upp GTX295 och AMD fanboys klagade på att man inte kan jämföra 1 GPU vs 2 GPU

Läs och garva: http://www.sweclockers.com/forum/52-nyhetskommentarer/877689-...

haha, till och med liknelsen mellan äpplen och päron dök upp
Orkar inte läsa igenom hela, men jag är säker på att anti-ATI-argumentet "ingen kommer använda directX11 " dyker upp förr eller senare (att jämföra med anti-NVIDIA-arguentet"Det är ändå ingen som behöver tesselering)

tack för länken, det satte denna tråden i ett schysst perspektiv.

Permalänk
Hedersmedlem
Skrivet av Luxor ABC80:

HJÄLP! Jag som precis slog av dumburken för slippa dokusåpor. Och började läsa här!

Ett förslag: Vi gör en SweC såpa. Vi stänger in 5 från "the green gang" och 5 från "the red bunch" i en lägenhet.
Sen streamar vi ut när de spelar och käbblar mot varandra.

Och nu lite chockerande nyheter: Större delen av mänskligheten bryr inte om märket, utan vad som ger mest "pang" för pengarna.
Och där är 580 kortet ett steg framåt. Nu skall bara överpriset gå ner. Men det hoppas jag att AMD och januari fixar.

Det håller jag inte med om, varför säger hela tiden (har inbillat) mina kompisar att Nvidia och Intel är bäst?

Och angående microstuttering (hur det nu stavas), jag tyckte att alla grafikkorten i både sli och CF hade bra resultat i SweC's alla speltester, det var ingen konfiguration som avvek från den nedåtgående kurvan (bortsett från Call of Pripyat men det var antagligen att det krävs bra tesseleringskraft i grafikkorten eftersom det bara var AMD som gick ner).

Är det bara jag som har reagerat över att man bara kan köra tre st 580GTX? Det lär ju inte vara något trevligt för rekordsättningar i 3D Mark Vantage för mästerklockare så som Kinc, Elmor, Evil_AnAnAs m.fl.

En sak till, det är ju mkt bättre förbättring mot 480GTX det kan jag sannerligen hålla med om. 580 är vad 480 skulle varit. Men tänk om 580 hade varit 480, hur många av er skulle inte klagat på strömförbrukningen ändå?

Angående singelpcb med två gpuer eller you name it kommer jag inte kommentera eftersom jag tycker detta inte är något pajlagningsforum.

Edit: Just det, ni som klagar över priset att det är högt, det fanns inget 480GTX som låg under 5kkr när det lanserades.

Visa signatur

Nya Projektet!
Kontakta moderatorkåren via Kontaktformuläret om ni vill något.

Permalänk
Skrivet av Dance:

Ja om man är 3 år kanske.

Lustigt att siten Sweclockers blir proffsigare för varje år som går medans den genomsnittlige forumanvändaren blir blir mindre och mindre proffsig.

Tiden då Swecs forum var ett ställe för bra tips, seriös diskussion kring hårdvaras för och nackdelar är uppenbarligen förbi. Nu regerar trollen och fanboysen och seriösa inlägg försvinner i bruset eller sablas ned av rabiata horder med fanboys för att det innehöll kritik mot "deras" märke.

Alla trådar urartar i pajkastning, folk skiter i att använda rätt begrepp, särskrivningen härjar fritt. Det är som Kungarna av Tylösand i forumform. Underhållning på ett visst sätt kanske, men knappast någon kvalité.

precis, vet endast om XtremeSystems som behållit den klassen på användarna, med ett fåtal undantag.

Visa signatur

CPU: Intel i7 12700K Mem: 32GB DDR5 GPU: Nvidia RTX 4070
Storage: SN850 2x2TB + 3x2TB 860 EVO MB: ASUS Z690 Hero
Chassi: Phanteks P600S PSU: Corsair RM750x OS: Windows 11

Permalänk
Medlem

DET ÄR GRAFIKKORTS TILLVERKARE OCH INTE FOTBOLLSLAG!
Snacka om att ha dålig fantasi.

Visa signatur

Köp ny mus för 800:- JA, du kommer bli GRYM på cs och sätta huvudskott hela tiden. Du får heller ALDRIG ont i leder.
Eller är det bara så att e-pen*** förlängs om du har en dyrare mus?

Permalänk
Medlem

kul att dom kom ut med ett såpass trevligt kort med så kort varsel...hade man inte köpt ett 480 alldeles nyss så hade det inte varit något snack om saken

har lite frågor dock till folk i tråden.

någon påstod att Nvidia inte skött fler skärms lösning särskilt bra och det kan jag väl lite halvt hålla med om då du inte kan ha fler skärmar än 2 per gpu vilket är en nackdel om jag bara sitter vid desktop men ska jag köra 3skärmar i spel 1920x1080x3 och sen i 60Hz å blir det en jäkla massa pixlar att trycka ut för ett grafikkort om jag sedan vill ha 120hz skärmar så blir det dubbel så mycket pixlar att trycka ut. så Nvidias "tvång" att använda dubbla grafikort för att kunna köra 3 skärmar är en nödvändighet enligt mig.

2560x1600 (entusiast upplösningen)i 60Hz är 245760000 pixlar i sekunden

1920x1080 (mainstream/full HD) i 120Hz är 248832000 pixlar i sekunden

om man frågar vilken gamer/spel entusiast som helst som har spelat/spelar i 2560x1600 så säger dom att ett kort är för klent om man inte vill spela med låg fps vilket man inte gör om man har råd med en skärm med 2560x1600 upplösning.

sen att jämföra 5970 med 580 tycker jag inte är rättvist för 5970...visst ska man bara ha ett kort så skulle man ha köpt det i början av året men om du vill expandera så är det ganska tråkigt att lägga till ett till 5970 dels för 4gpu lösningar inte skalar särskilt bra så om vi säger att gtx 580 är 100% då är 5970 105% men lägger vi till ett till kort för båda lösningarna så kommer 580 komma ut före och i 580 lösningen så kan du lägga till ytterligare 2 kort även om dom skalar dåligt så kommer det bli en jordskreds seger över vilken 5970 lösning som helst. (detta har ingenting med prisvärdhet för en sådan diskussion för dessa kort är bara korkat)

bara lite tankar

Visa signatur

Stationär: Ryzen9 5900x | DDR4 3200MHz 2x16GB | Geforce GTX1080 | Asus x570-F | Samsung 980 pro 512GB | Samsung 70 pro 256GB | Corsair AX 1200W |
Server: Ryzen9 5950x | 128GB RAM |

Permalänk

Man börjar ju undra om grabbarna på Nvidia sover bra om kvällarna angående Furmark. Klockade inte ATI-kort ner sig när man startade furmark.exe förut? Högst oetiskt från båda sidor tycker jag. En hårdvarutillverkare ska väl inte över mitt huvud bestämma hur jag ska köra min mjukvara?

Visa signatur

Gammalt nick: Darkst@r
Intel Core i7 860 @ 3,6 GHz/Noctua NH-D14|Asus GTX 970 Strix|2x2 GB Corsair Dominator DDR3 1600 CL8|Asus P7P55D Deluxe|Intel X-25M G2 80GB|Samsung 850 Pro 256 GB|Samsung Spinpoint F3 1TB|Windows 7 Home Premium 64-bit|Nanoxia Deep Silence 1|Corsair VX550|

Permalänk
Medlem
Skrivet av Darkst@r:

Man börjar ju undra om grabbarna på Nvidia sover bra om kvällarna angående Furmark. Klockade inte ATI-kort ner sig när man startade furmark.exe förut? Högst oetiskt från båda sidor tycker jag. En hårdvarutillverkare ska väl inte över mitt huvud bestämma hur jag ska köra min mjukvara?

Går inte det här att ställa in i kontrolpanelen?

Visa signatur

Intel I7 950 @3.8GHz | Nvidia GTX570 | Asus Sabertooth X58 | 6gb Corsair PC3 @1600MHz | Samsung F3 1TB | CM 690 II Advanced | Corsair AX850

Permalänk
Avstängd

Ja det var ju synd att ati släppte en fix som förhindrade att korten gick för varma och brann upp:)
Jag tror säkert folk var jättemissnöjda att deras kort inte gick sönder av för mycket furmarkkörande:))

Visa signatur

Asus Commando Q6600@3,6GHZ Coolermaster Gemini2 8GB Corsair Dominator Intel X25-V 40GB Samsung 250gb Gainward GTX295(på garantibyte) Win 7 Home Premium X64.......

Permalänk
Entusiast
Skrivet av McVit:

kul att dom kom ut med ett såpass trevligt kort med så kort varsel...hade man inte köpt ett 480 alldeles nyss så hade det inte varit något snack om saken

har lite frågor dock till folk i tråden.

någon påstod att Nvidia inte skött fler skärms lösning särskilt bra och det kan jag väl lite halvt hålla med om då du inte kan ha fler skärmar än 2 per gpu vilket är en nackdel om jag bara sitter vid desktop men ska jag köra 3skärmar i spel 1920x1080x3 och sen i 60Hz å blir det en jäkla massa pixlar att trycka ut för ett grafikkort om jag sedan vill ha 120hz skärmar så blir det dubbel så mycket pixlar att trycka ut. så Nvidias "tvång" att använda dubbla grafikort för att kunna köra 3 skärmar är en nödvändighet enligt mig.

2560x1600 (entusiast upplösningen)i 60Hz är 245760000 pixlar i sekunden

1920x1080 (mainstream/full HD) i 120Hz är 248832000 pixlar i sekunden

om man frågar vilken gamer/spel entusiast som helst som har spelat/spelar i 2560x1600 så säger dom att ett kort är för klent om man inte vill spela med låg fps vilket man inte gör om man har råd med en skärm med 2560x1600 upplösning.

sen att jämföra 5970 med 580 tycker jag inte är rättvist för 5970...visst ska man bara ha ett kort så skulle man ha köpt det i början av året men om du vill expandera så är det ganska tråkigt att lägga till ett till 5970 dels för 4gpu lösningar inte skalar särskilt bra så om vi säger att gtx 580 är 100% då är 5970 105% men lägger vi till ett till kort för båda lösningarna så kommer 580 komma ut före och i 580 lösningen så kan du lägga till ytterligare 2 kort även om dom skalar dåligt så kommer det bli en jordskreds seger över vilken 5970 lösning som helst. (detta har ingenting med prisvärdhet för en sådan diskussion för dessa kort är bara korkat)

bara lite tankar

Fast det är rätt få av de som kör 3 skärmar som faktiskt spelar på alla tre skärmar. Det är långt vanligare att man vill ha flera skärmar för att köra multitasking av olika anledningar. På jobbet kör de 3 skärmar per burk till exempel och det är inga tunga grejer som ska visas. Det ska snart uppgraderas till 6 skärmar per burk. Då är AMDs kort en klar fördel för det är nog inte många kontorsdatorer som har plats för 4 grafikkort plus har stöd för SLI.

Jag har kört dubbla skärmar ett tag nu och aldrig någonsin spelar på mer än en skärm i taget.

Bara en tanke.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24