Geforce GTX 580 i Furmark – utan spärrar

Permalänk
Hjälpsam
Skrivet av emildooooo:

hmm... har jag förstått detta fel eller borde man få bättre resultat från 580 utan denna spärr?

Nej du får inte bättre resultat, det är bara Furmark och OCCT som påverkas.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av andyboy88:

Okej, det var bara att Metro 2033 har DX11 och visar lite konstiga resultat men, det kanske är något i Metro 2033 och inte med GTX580...

Man skall slå av DOF och MSAA på Metro 2033 för att få flyt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av DeluxXxe:

Jag tycker det är ett väldigt fult sätt att försöka se bättre ut i tester...

De som kör Furmark håller förmodligen ändå koll på tempen och dessutom så kom det ju "endast" upp i 88C.

Det finns risk att andra komponenter i datorn smäller också, vilket är desto allvarligare. Om man jämför SLI mot singelkort så kan man lite löst räkna fram att ett kort slukar skillnaden på 328W, när 8+6 pin + PCIe bara är specificerat att leverera 300W som max. Har du ett klent nätagg eller billigt moderkort kan det mycket väl brinna. Att hålla kortet under 300W är inte fult, utan nödvändigt.

Permalänk
Medlem

Man får väl ändå säga att samma effektförbrukning + lägre tempratur + lägre ljudnivå + högre prestanda = win. Kanske inte några enorma framsteg, men flera stycken bra i rätt riktning.

Visa signatur

// Jay-C
CPU: i7 2600K @ 4.5GHz 1.35V (load) w/ H80i v2 | GPU: GTX 1660 GAMING
SSD: MX500 500GB | MB: P8Z68-V Pro | RAM: 2x8GB G.Skill 2133 MHz CL11
APU: X-Fi Titanium Pro | PSU: AX850
Samla alla dina betalkort, gratis valutaväxling, Google Pay m.m. med Curve. £5 bonus med länken: https://www.curve.app/join#EAVGZ56E

Permalänk
Medlem

Om man antar att det övriga systemet drar lika mycket ström oavsett ifall det är ett eller två grafikkort inkopplade, kan man räkna ut att ett 580 drar 328 W, och resten av systemet 163 W

Har inte jag tänkt på förut i alla fall

Visa signatur

Phenom II x4 955, Radeon 4870 1 GB, 4GB DDR3 1333MHz, Corsair VX 550W

Permalänk
Skrivet av emildooooo:

hmm... har jag förstått detta fel eller borde man få bättre resultat från 580 utan denna spärr?

Det är bara i furmark som kortet clockas ner, i 3Dmark så går det för fullt. Ska bli så jävla kul att köra sli på detta kort och se 5970 ätas upp.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Medlem

damn.. om jag skulle skaffa två såna kort så är det nätt å jämt att mitt nätagg klarar det

Permalänk
Skäggig legend

Jag vet faktiskt inte vad jag ska säga om detta. Det som gör mig mållös är just att det är identiska watt värden oO

Visa signatur

Tråden om Skägg!
My cave...
Ryzen 5 3600@4,3Ghz - 16GB CL16 - RTX 3070 - Kingston Fury M.2 2TB
🎧Schiit Hel + DT-770 PRO - NAD C316 - B&W 685 - LG 65" OLED B6
 Watch Series 5 4G - Macbook Pro 13" 2015 - iPhone 11 PRO 256GB 

Permalänk
Avstängd

Nu är väll iof TDP värdet på 250w till för kylar designen men att kortet faktiskt kan dra 328w styck är ju faktiskt inte bra, men visst är det ett scenario som troligen inte kommer hända i vanliga spel.
Så spärren dom lagt in är bra men sammtidigt så undrar man vad som händer i ett väldigt bra optimerat spel med väldigt bra drivrutiner kommer då kortet kunna komma att klockas ner för att hålla sig under 300w?

Visa signatur

Chassi: Antec 300 ][ CPU: AMD FX 8320 4,2Ghz ][ Kylning: Zalman CNPS14X ][ Ram:8,00 Gb DDR3 1600 ][
Moderkort: ASUS M5A99 ][ Skärm: ASUS MX279H ][ Grafik: ______ ][ Psu: Corsair CX600M ][
SSD:OCZ Vertex plus 120gb

Permalänk
Medlem
Skrivet av Aster:

Så spärren dom lagt in är bra men sammtidigt så undrar man vad som händer i ett väldigt bra optimerat spel med väldigt bra drivrutiner kommer då kortet kunna komma att klockas ner för att hålla sig under 300w?

Gissningsvis är spärren lag per app. så om spelet inte finns på "listan" så går det för fullt

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Avstängd
Skrivet av frankof:

Gissningsvis är spärren lag per app. så om spelet inte finns på "listan" så går det för fullt

Det är jag medveten om men menade bara att om nvidia lyckas optimera så väl att kortet används till 95% eller mer så kommer ev. 300w överstigas, kommer då nvidia spärra där eller låta kortet ånga på som det är tänkt ?

Nu är iof inte GTX480+580 de första korten som faktiskt kliver över gränsen för PCI-E standarden utan även 4870X2 var över där tidigare.
Även fast alla dessa kort har ett TDP lägre än 300w så vet vi att korten faktiskt kan dra mer.

Visa signatur

Chassi: Antec 300 ][ CPU: AMD FX 8320 4,2Ghz ][ Kylning: Zalman CNPS14X ][ Ram:8,00 Gb DDR3 1600 ][
Moderkort: ASUS M5A99 ][ Skärm: ASUS MX279H ][ Grafik: ______ ][ Psu: Corsair CX600M ][
SSD:OCZ Vertex plus 120gb

Permalänk
Medlem

Effekten är sannolikt mätt vid vägguttaget, glöm inte förlusterna i nätagget.
ex 328W x 0,85 = 279W

Fo3

Visa signatur

“There will be people that are burdened by only having the capacity to see what has always been instead of what can be.
But don’t you let that burden you.”

Permalänk
Avstängd

Så sant, var jag som tänkte klantigt

Visa signatur

Chassi: Antec 300 ][ CPU: AMD FX 8320 4,2Ghz ][ Kylning: Zalman CNPS14X ][ Ram:8,00 Gb DDR3 1600 ][
Moderkort: ASUS M5A99 ][ Skärm: ASUS MX279H ][ Grafik: ______ ][ Psu: Corsair CX600M ][
SSD:OCZ Vertex plus 120gb

Permalänk
Skrivet av Pathway:

damn.. om jag skulle skaffa två såna kort så är det nätt å jämt att mitt nätagg klarar det

Är du seriös, du klara dig på 750 W. Du skulle kunna driva 4st 480 utan problem.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Skrivet av Old KnotVillage:

Är du seriös, du klara dig på 750 W. Du skulle kunna driva 4st 480 utan problem.

Inte av grafen att döma. >800 watt för 2 stycken inklusive resten av systemet. Två till sådana kort och dessutom hamna under 1000 watt med god marginal blir svårt.

Visa signatur

Citera, tack!
Har du läst tråden om strandhögtalare och andra musiklådor?

Permalänk
Skrivet av andyboy88:

Kan det vara så att i spel som Tex Metro 2033 att kortet skyddar sig själv och där av likadan prestanda som GTX480 med samma clocks.
http://www.sweclockers.com/artikel/13029-geforce-gtx-580-mot-...

Så som Crysis 2 är sjukt krävande finns det KANSKE en risk att kortet kommer att skydda sig själv? bara en ide...

Vad var dessutom oddsen att de skulle hamna på exakt samma watt i SLI och singel.

Hur tänkte du nu? Om det hade varit fallet så skulle man fått noll och ingen förbättring i prestanda med överklockat kort, eftersom kortet ändå hade klockat ned sig. Så är inte fallet, alltså faller din teori platt.

Visa signatur

~Pelle~

Permalänk
Skrivet av Pathway:

damn.. om jag skulle skaffa två såna kort så är det nätt å jämt att mitt nätagg klarar det

Hur får du det till det?
De mäter på primärsidan, på sekundärsidan av aggregatet, där komponenterna drar sin kraft, så dras ungefär 0,9x819=737W. Jag tror knappast att din prolle (och extra diskar) gör att ditt system drar mer än 260W mer än testsystemet.

Visa signatur

~Pelle~

Permalänk
Hjälpsam
Skrivet av andyboy88:

Kan det vara så att i spel som Tex Metro 2033 att kortet skyddar sig själv och där av likadan prestanda som GTX480 med samma clocks.
http://www.sweclockers.com/artikel/13029-geforce-gtx-580-mot-...

Så som Crysis 2 är sjukt krävande finns det KANSKE en risk att kortet kommer att skydda sig själv? bara en ide...

Vad var dessutom oddsen att de skulle hamna på exakt samma watt i SLI och singel.

Kan helt enkelt vara så att spelet i de inställningar som det testas i är minnesberoende, minnesprestanda är identisk i samma frekvenser.
Kan också bero på något annat tex ROP:s eller TMU:r, hur som helst är det inte shaderprestanda som är den begränsande faktorn.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Aster:

Nu är väll iof TDP värdet på 250w till för kylar designen men att kortet faktiskt kan dra 328w styck är ju faktiskt inte bra, men visst är det ett scenario som troligen inte kommer hända i vanliga spel.
Så spärren dom lagt in är bra men sammtidigt så undrar man vad som händer i ett väldigt bra optimerat spel med väldigt bra drivrutiner kommer då kortet kunna komma att klockas ner för att hålla sig under 300w?

Det finns verkliga scenarion som t ex spelmenyer (brukar renderas med spelmotorn) och vissa GPGPU-projekt som kan nå väldigt nära maximal belastning - t ex i mitt fall är spelmenyn till Just Cause 2, OCCT's GPU-test, DNETC, och Milkyway ungefär lika illa som, eller värre än, furmark.

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Skrivet av WrongTarget:

Hur tänkte du nu? Om det hade varit fallet så skulle man fått noll och ingen förbättring i prestanda med överklockat kort, eftersom kortet ändå hade klockat ned sig. Så är inte fallet, alltså faller din teori platt.

OC skulle väl fungera bra så länge man inte belastade kortet med sjukt mycket load. Furmark är det värsta som finns men, många DX11 benchmarks i framtiden eller Heaven med extrem mode @ 2560 kan kanske nå den nivån att kortet går in i skyddat läge.

Vore nice om Sweclockers kunde testa VRM tempsen och se om det är någon stor skillnad där eftersom GPU tempsen inte säger allt.

Visa signatur

2600K @ 4.5 Ghz , Asrock extreme 6, 16GB 1600mhz Kingston, XFX R9 290X@1100/1300 (Arctic cooler 3) ,Corsair 550D ,
Noctua D14, 1TB WD Black, Samsung 830 RAID0, Windows 7.

Permalänk
Medlem

Jag tänkte på det som Sweclockers skrev:

Citat:

Siffrorna är givetvis intressanta, men det bör nämnas att Furmark är ett specialskrivet testprogram vars enda syfte är att framkalla så hög strömförbrukning som bara möjligt. SweClockers har ännu inte stött på ett riktigt spel eller applikation som ger lika höga siffror under realistiska förutsättningar.

Förutom att det är skapat för att framkalla maximal strömförsörjning,(vilket jag inte är säker på) så är
det ett utmärkt verktyg för att kolla om kortet är stabilt i överklockning. Furmark och MSI-kombuster går egentligen inte att använda till det. Visst, du kan se de stora felen exempelvis att bilden fryser eller att kortet inte pallar och windows pratar om problem med drivrutinen. I OCCT ser man ju minsta fel ganska fort. Och man behöver inte stirra på något bild för att se det. Man kan köra timvis i kombuster eller Furmark utan att man ser något fel. Visst man kan säkert se något under den tiden om man stirrar på skärmen HELA tiden. Det jag försöker säga är att OCCT avslöjar väldigt fort om något inte är perfekt.
Om man är petig så är 1 fel på 15 minuter ett bevis på att kortet inte är komfortabelt med just den klockfrekvensen. Att testet sedan kan knäcka kortet är ju en helt annan sak.

Jag är rätt säker på att om ditt grafikkort klarar 30min i OCCT utan fel (överklockat) så kommer det garanterat aldrig beskymra dig i några spel.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk

Jag fattar inte riktigt hur jag ska stressa 580 utan spärrar. Ska jag bara köra cpu-z i bakgrunden?

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Hjälpsam
Skrivet av Old KnotVillage:

Jag fattar inte riktigt hur jag ska stressa 580 utan spärrar. Ska jag bara köra cpu-z i bakgrunden?

Du startar GPU-Z , med ett argument som nämns i artikeln och låter det ligga i bakgrunden.
Men jag fattar inte varför, Nvidia har lagt in spärren av en anledning och det är för att skydda korten.
Vill du verkligen riskera två grafikkort för nästan 5000kr styck, bara för att köra ett jäkla test?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

Vill ju kolla om datorn dör vid maximal belastning. Om nätagget klara det. vad är argumentet? ska jag bara skriva GTX580CP efter gpu-z.exe?

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Hjälpsam

Riskerar ju också att knäcka nätagget och det kan knäcka resten av datorn om man har otur, hoppas verkligen att du vet vad du gör.
Kopiera senasta gpu z till c:\
Starta ett kommandofönster med adminprivilegier.
skriv c:
skriv cd \
skriv GPUZ.exe /GTX580OCP

Det är helt på din egen risk.

Såg den här tråden.
#10561506
Testa att klocka ned prollen, om inte annat drar en normalklockad prolle mindre ström och det ger mer till grafikkorten.

edit Du behöver inte testa ditt nätagg kommer inte att orka.

Disable GeForce GTX 580 Power Throttling using GPU-Z | techPowerUp

Räcker 100W till resten av systemet? No way.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

Hm, då blir det ett besök till Alina. HX1000W. Dom rekommenderade HX850. men det konstiga är att vantage funkar inte fast jag bara kör med ett kort.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Hjälpsam

Har du testat att köra utan klockning på prollen?
Plockade du ut det andra kortet när du körde Vantage?
Just Vantage verkar man kunna få problem med, även om allt annat fungerar.
http://www.sweclockers.com/forum/125-geforce/968977-gtx-580-p...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

Kör på stock på prollen nu och det verkar funka. Ska det göra så PSU inte orkar med. Från 1.2 volt till 1.325.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk

Ett 850w corsair agg kommer alltså inte räcka till gtx580 SLI?

Visa signatur

Burk: Asus Maximus XI z390, i7 9900ks @5100mhz, cache 4800mhz, Corsair Platinum ddr4 3600mhz @4400mhz quad 16gig (18-22-22-44 2t), 1st Asus Strix 1080ti + EK @2070/12000mhz, Samsung 840 pro 240 gig x2 raid0, 1 tb 2.5" WD Red, Skärm: Acer x34p, TJ07 custom water, Ljud: HiFiman X v2 + EONE MK2 Muses

Permalänk
Hjälpsam
Skrivet av Old KnotVillage:

Kör på stock på prollen nu och det verkar funka. Ska det göra så PSU inte orkar med. Från 1.2 volt till 1.325.

Kanske har med att Prollen tar lite mindre kräm, kan också ha med annat att göra, drivrutinerna till grafikkortet körs ju tex av CPU:n inte GPU:n.
Ibland är det här med datorer lite av något slags Voodoo, man fattar inte riktigt varför vissa saker funkar och andra inte.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |