Premiär! Fyndchans i SweClockers Månadens Drop

Nvidia Geforce GTX 570

Permalänk
Medlem
Skrivet av emilakered:

Det är en väldigt bra fråga, måste ha blivit någon miss i mitt fina Excelark. Åtgärdar imorgon när vi är tillbaka på kontoret!

Skulle uppskatta om ni också tog med GTX 460 1 GB, kortet borde finnas med eftersom AMD 5850 finns med.
Sedan kunde ni belasta kortet med GPU-Z växeln /GTX580OCP som även ska fungera med GTX 570, annars en mycket bra recension!

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32 GB DDR5-6000 | 4,5 TB SSD | RTX 4070 12 GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16 GB DDR4-2933 | 1,5 TB SSD | RTX 3070 8 GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 16 GB DDR4-2400 | 756 GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk
Medlem

Häftigt att nvidia lyckas slå amds-dubbelgpukort med en gpu, såg det först nu!. Hoppas amd radeon hd6990 ändrar på det dock, för så kan vi ju inte ha det:)

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg

Permalänk
Medlem
Skrivet av Encho5:

Nej, Dom spöar inte 5970.
Men ha i åtanke att 5970 är dual gpu! Alltså så kan man säga att det är två grafikkort under samma skal.

Jo fast det spelar mindre roll då nästan alla spel stödjer det nuförtiden, det är typ som att köpa en singelcore cpu och säga att den är snabbare per kärna

Skrivet av Cawanga:

Konstigt att ett 3400kronorskort inte spöar ett 5200kronorskort?
Dessutom är även 580 billigare än ett 5970.

Om man har plats för CF eller SLI är 570 dålig "value" men om du bara har en kortplats och behöver ett singelkort så är det inte helt dumt.

Jo men nVidias strategi är ju att sälja feta singelkort, då måste dom ju ha singelkort som spöar AMDs värstingar, även om det är dubbelkärniga. Dessutom är 5970 runt ett år gammalt (om jag inte missminner mig) och det har kostat ungefär lika mycket hela tiden, det har ett högt pris eftersom inget annat kort spöar det och då kan dom ta "vad dom vill" så det säger ju inte så mycket. Själva poängen är att nVidia inte kan spöa ett gammalt kort med nya kort.

Visa signatur

If you're havin' girl problems i feel bad for you son
I got 99 problems but a bitch ain't one

Permalänk
Medlem

580 GTX SLI 480 W, känns lite? GTX 570 drar 560 W.

Visa signatur

Intel i7 860 @ 3,8 GHz | Asus P7P55D | Corsair XMS3 (4x2 GB) 8-8-8-24 @ 1600MHz | Seagate 7200.8/11/12 - 2 TB | MSI Hydrogen GTX 480 | Corsair HX 750W | Creative Soundblaster X-fi ExtremeMusic | Silverstone LC 17 (HTPC)
Vattenkylning: Biloljekyl: 52x35x5,5 cm | Grunfos cirkulationspump för hus | EK Supreme HF Nickel för CPU | Galleri: http://sweclockers.com/album/?id=2053 Uppdaterat: 10-11-23

Permalänk
Medlem
Skrivet av Xaves:

Fel, dubbla 6850's är det i nulägest bästa pris/prestanda du kan skaffa.. Ohotat!

Okej, så om man bara har en PCI-E port, ska jag ha det andra kortet i garderoben? Hur hjälper det mig om jag inte kan använda CF?
Så, i slutändan blir det fortfarande att hd5970 är det bättre valet utav vad som erbjuds både från nvidia och ati. 4% snabbare än gtx580 average.

Visa signatur

Sometimes autocorrect makes me say things I don't Nintendo.

Permalänk
Skrivet av EoZ:

580 GTX SLI 480 W, känns lite? GTX 570 drar 560 W.

"Precis som vid temperaturavläsningarna under körning av Furmark så klockar Geforce GTX 500-serien ned sig själv när drivrutinen upptäcker att programmet körs. Vi hänvisar därför till nästkommande sida där 3DMark Vantage används för belastning."

/S

Visa signatur

Louqe Raw S1,||H2O||, AMD R5 7600, ASUS B650E-I, 32GB DDR5 6000MHz, AMD 5700 XT EKWB vattenblock, Corsair SF600, WD Black SN850 1TB, Crucial MX500 1TB, Win 11 Pro 64bit, Gigabyte G34WQC, Sennheiser HD650, Objective 2.

Permalänk
Medlem
Skrivet av Devrer:

Häftigt att nvidia lyckas slå amds-dubbelgpukort med en gpu, såg det först nu!. Hoppas amd radeon hd6990 ändrar på det dock, för så kan vi ju inte ha det:)

Vad menar du? Var på bilden ser du det?
http://www.sweclockers.com/image/diagram/1970?k=2f29fbaae1fc8...

Permalänk
Medlem

Kommer vi få se en uppdatering där 3Dmark 11 ingår eller? Har ju släppts nu

Visa signatur

- - - - S.T.A.L.K.E.R FAN - - - -

Permalänk
Antielefant
Skrivet av hakuni:

Nja, jag tror fortfarande att AMD har större marginaler i och med mindre kretsar, så Nvidia hade nog dött ännu mer

...och ironiskt nog går NVidia med rejäl vinst, medan AMD Radeon återigen visar fetstilta röda siffror.

Pust. Varför pratar folk alltid om att AMD har bättre marginaler på sina kretsar när de aldrig lyckas gå med vinst på dem?

Trots att skillnaden i marknadsandel är marginell, om än till NVidias fördel (56/44),
Trots att NVidias kretsar kostar mer att tillverka än AMD's dito,
Trots att NVidia betalar massor av miljoner för TWIMTBP,
Trots att NVidia lägger miljoner på att utveckla "cheese"-funktioner (3DVision, PhysX, CUDA osv),

Fakta - NVidia Graphics går med vinst.
Fakta - AMD Radeon går med förlust.

Skrivet av ParanoiaX:

ATI kretsar är mycket mindre än nVidias, så det kostar dom mindre att tillverka.

Sant, men partnertillverkarna betalar också betydligt mindre för dem, vilket gör att AMD fortfarande inte tjänar lika mycket per såld krets som NVidia gör.

Skrivet av Cawanga:

Prestandaskillnaden är så marginell att 5970 får anses överspelat. 580 är både billigare, tystare och stabilare i de spel (finns faktiskt en hel hög) som inte gillar dubbelkort.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Avstängd
Skrivet av jioop:

Okej, så om man bara har en PCI-E port, ska jag ha det andra kortet i garderoben? Hur hjälper det mig om jag inte kan använda CF?
Så, i slutändan blir det fortfarande att hd5970 är det bättre valet utav vad som erbjuds både från nvidia och ati. 4% snabbare än gtx580 average.

En smart man köper ett moderkort med mer än 1 PCI-e plats.. För just sådana här situationer, sen kan man köpa ett mobo för 1000:- med 2 PCI-e platser och två 6850's för 3200:- (4200 total) och fortfarande spöa både dubbla 460's, gtx 580 och 5970!

Visa signatur

https://mega.nz/#!xNBjAJKA!OQctTR0tY5EK1Dk68MV0loIyCD3ftwL_KI...
(DX-11 DLL-fil till SweetFX/Reshade som är kompatibel med GTA 5)

Permalänk

Hade önskat att man kunde jämföra i någon tabell mot äldre grafikkort. Som jag, jag sitter med 2 x 4850 i CF, för mig blir det ganska ointressant när jag inte kan se skillnaden mot det jag har..

Visa signatur

Gigabyte EX38 DS4 :: Intel Core 2 Duo E8400 3GHz :: Reaper PC8500 2x2GB :: Gigabyte Crossfire ATI Radeon HD4850 :: 1,35TB HDD :: Soundblaster Audigy 2 ZS

Permalänk
Medlem
Skrivet av Zcenicx:

...och ironiskt nog går NVidia med rejäl vinst, medan AMD Radeon återigen visar fetstilta röda siffror.

Pust. Varför pratar folk alltid om att AMD har bättre marginaler på sina kretsar när de aldrig lyckas gå med vinst på dem?

Trots att skillnaden i marknadsandel är marginell, om än till NVidias fördel (56/44),
Trots att NVidias kretsar kostar mer att tillverka än AMD's dito,
Trots att NVidia betalar massor av miljoner för TWIMTBP,
Trots att NVidia lägger miljoner på att utveckla "cheese"-funktioner (3DVision, PhysX, CUDA osv),

Fakta - NVidia Graphics går med vinst.
Fakta - AMD Radeon går med förlust.

Sant, men partnertillverkarna betalar också betydligt mindre för dem, vilket gör att AMD fortfarande inte tjänar lika mycket per såld krets som NVidia gör.

Prestandaskillnaden är så marginell att 5970 får anses överspelat. 580 är både billigare, tystare och stabilare i de spel (finns faktiskt en hel hög) som inte gillar dubbelkort.

Du har väl hört om bokföring? Mistänker att Nvidia och Amd har helt olika strategier. För de pengar ett företag går på vinst med måste man betala skatt (är väl ca 30% vinstskatt i USA). Det betyder att man istället kan ge utdelning på aktier, skriva av egendom eller skaffa ny egendom för att minska på vinsten så att man istället för att betala höga summor i skatt håller pengarna inom företag eller ger pengarna direkt åt ägarna.

Har väldigt svårt att tro att AMD skulle gå på minus varje kvartal utan att använda kreativ bokföring.

Permalänk
Medlem
Skrivet av Xaves:

Momsen är inte dum kära du.. Det är därför vi har gratis skolor, gratis sjukvård, reducerade priser på tandläkare etc.. Plus vägar, skolor och en j*vla massa finansieras tack vare skatt och moms
Jämför i USA t.ex, då blir det svinigt dyrt om du gör illa dig/fakkar upp tänderna och inte har dyr försäkring.

Finns inget som är gratis. Du betalar kalaset med världens högsta skatter och när det gäller tänder så får du dessutom stå för kalaset själv likförbannat. Har en fd arbetskamrat som inte skött om sina gaddar och han fick ta en stort lån för att få dom fixade. Över 100k gick hans räkning på. När det gäller olycksfall så täcker vanliga försäkringar det bra over there, däremot kroniska tillstånd är det värre med.

När det gäller skolan så är den i fritt fall och när en stor del av eleverna går ut skolan med dåliga läskunskaper så får fråga oss om alla dessa resurser som satsas inte är pengar i sjön. Det är inte mer resurser som krävs.
Svensk skola är inte bäst i klassen - rapport | svt.se

Testet var helt ok även om jag tycker det inte var nått uppseendeväckande med kortet, fortfarande rätt strömhungrigt och inte prestanda i paritet med det.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk
Avstängd

Suck, om ni ändå ska försöka göra ett 5/5 poängar test där ni har med SLI så kan ni väl för fan oxå ha med 5970?

Synd att se att ni oxå fortfarande är fast i stenåldern där man MÅSTE göra skillnad på kort med en kärna / två kärnor.

Priset avgör, inget annat.

3/5.

Tiv

Visa signatur
Permalänk
Hjälpsam
Skrivet av Zcenicx:

...och ironiskt nog går NVidia med rejäl vinst, medan AMD Radeon återigen visar fetstilta röda siffror.

Pust. Varför pratar folk alltid om att AMD har bättre marginaler på sina kretsar när de aldrig lyckas gå med vinst på dem?

Trots att skillnaden i marknadsandel är marginell, om än till NVidias fördel (56/44),
Trots att NVidias kretsar kostar mer att tillverka än AMD's dito,
Trots att NVidia betalar massor av miljoner för TWIMTBP,
Trots att NVidia lägger miljoner på att utveckla "cheese"-funktioner (3DVision, PhysX, CUDA osv),

Fakta - NVidia Graphics går med vinst.
Fakta - AMD Radeon går med förlust.

Sant, men partnertillverkarna betalar också betydligt mindre för dem, vilket gör att AMD fortfarande inte tjänar lika mycket per såld krets som NVidia gör.

Prestandaskillnaden är så marginell att 5970 får anses överspelat. 580 är både billigare, tystare och stabilare i de spel (finns faktiskt en hel hög) som inte gillar dubbelkort.

Du vet väl att AMD även gör Processorer?
Bra att även Nvidia går vinst på sin grafikdel, vi behöver minst två GPU-tillverkare.
Vore kul om AMD lyckas med Bulldozer, så dom börjar gå vinst även där.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Antielefant
Skrivet av Ratatosk:

Du vet väl att AMD även gör Processorer?
Bra att även Nvidia går vinst på sin grafikdel, vi behöver minst två GPU-tillverkare.
Vore kul om AMD lyckas med Bulldozer, så dom börjar gå vinst även där.

Förutom att (hittills i år)
AMD Computing Solutions (där AMD Microprocessors ingår): plus $438M.
AMD Microprocessors: plus $168M
AMD Graphics (där AMD Radeon ingår): plus $81M
AMD Radeon: minus $15M

Dessutom har AMD Computing Solutions en omsättning som är knappt 3 ggr högre än AMD Graphics ($3600M vs $1300M)

Jag rekommenderar dig att läsa kvartalsrapporter lite mer detaljerat, allt står i dem.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Hjälpsam
Skrivet av Zcenicx:

Förutom att AMD Microprocessors gick plus 160 MUSD?

Det visste jag inte, kanske AMD börjar repa sig.
Går alltid att flytta pengar mellan företagen, genom trick, ena får köpa billigt och sälja dyrt till det andra.
Jag tror att det var därför Saab aldrig gick plus under GM:s ledning.

edit Ids inte läsa kvartalsraporter noga, en sak vet jag, dom är skrivna av halvskurkar.
Det går att plocka in fodringar tidigt och sälja av för att fixa vinsten under ett kvartal, vad som är betydelsefullt händer nog under längre sikt.
Men missförstå mig inte, jag tycker att nuvarande 50%-50% är perfekt för oss som skall köpa korten.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Antielefant
Skrivet av Ratatosk:

Det visste jag inte, kanske AMD börjar repa sig.
Går alltid att flytta pengar mellan företagen, genom trick, ena får köpa billigt och sälja dyrt till det andra.
Jag tror att det var därför Saab aldrig gick plus under GM:s ledning.

AMD Computing Solutions har det faktiskt gått bra för rätt länge.

Att dotterbolaget sedan aldrig visar nettovinst beror på att moderbolaget (dvs AMD Inc.) får pengarna efter avskrivningar - men de har fortfarande en försäljningsvinst som går till dotterbolaget självt.

I fallet AMD som helhet går de ju fortfarande med förlust, men dotterbolagen Computing Solutions och Graphics står ekonomiskt stadigt.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Hjälpsam

Hm AMD är väl fortfarande rätt stora på chiptillverkning, kanske inte går så bra där nu?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Antielefant
Skrivet av Ratatosk:

Hm AMD är väl fortfarande rätt stora på chiptillverkning, kanske inte går så bra där nu?

De sålde bort sin tillverkningskapacitet till Globalfoundries, så de har noll egen tillverkning kvar.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Inaktiv

Detta kort går även det bort för min del då två kort krävs för att köra tre skärmar. När får vi se Nvidia-kort som klarar flera skärmar tro?

Kortet ser trevligt ut för användare med normalbehov dock.

Permalänk
Antielefant
Skrivet av anders190:

Detta kort går även det bort för min del då två kort krävs för att köra tre skärmar. När får vi se Nvidia-kort som klarar flera skärmar tro?

Kortet ser trevligt ut för användare med normalbehov dock.

Har funnits rätt länge, dock ej för spelande. Heter Quadro CX, kostar inte speciellt mycket heller.

Ska man spela över tre skärmar behövs ju ändå dubbla grafikkort för att få acceptabel framerate, så jag ser inte problemet.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Inaktiv
Skrivet av Zcenicx:

Har funnits rätt länge, dock ej för spelande. Heter Quadro CX, kostar inte speciellt mycket heller.

Ska man spela över tre skärmar behövs ju ändå dubbla grafikkort för att få acceptabel framerate, så jag ser inte problemet.

Nvidias kort uppfyller inte mina behov men tack för tipset iallafall.

Går rätt okej med mitt HD5850 så jag ser inte att det bör bli något jätteproblem med ett HD6970 eller motsvarande.

Permalänk
Medlem
Skrivet av Zcenicx:

Har funnits rätt länge, dock ej för spelande. Heter Quadro CX, kostar inte speciellt mycket heller.

Ska man spela över tre skärmar behövs ju ändå dubbla grafikkort för att få acceptabel framerate, så jag ser inte problemet.

Du kan ju spela på en skärm och vilja ha tre skärmar för arbete tex eller så spelar man inte crysis, alla spel har inte lika sjuka krav på prestanda så det går utmärkt att köra på 3 skärmar iaf.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk

Är det bara jag som dampar loss över det faktum att de har ställt in drivrutiner på att förfalska resultaten i reviews?

Att den klockar ner sig själv till 80-talets grafikkort när den körs i furmark känns ju helt förjävligt.

Kul sideffekt för oss som överklockar grafikkorten att när vi kör i furmark så ser allt ok ut, så kör vi igång en video på youtube och hela j*vla datorn brinner upp.

Minus 50 dkp för Nvidia.

Visa signatur

Vill ni ha svar, så citera!

Permalänk

Jag måste bara säga att jag älskar att effektåtgången anges både vid Furmark (absolut maxbelastning som man aldrig någonsin kommer upp i vid normalanvändning) och dessutom 3DMarkVantage, som mer är en normal (om än tung) spelbelastning.
Blir så matt på de som tittar på MAX effektåtgång i Furmark (vilket är vad som visas) och sedan anser att man behöver ha ett nätaggregat som har dubbla märkeffekten, för att vara säker på att driva burken. Halllååå, man skall alltså ha ett aggregat som klarar av att driva dubbelt så mycket effekt som ett värsta fall som aldrig kommer att uppstå under normalanvändning. Hur tänker man då? Går samma kille omkring med cykelhjälm när han promenerar på sta'n en sommardag, för att i vintras så ramlade det minsann ned is från taket när de skottade där!

Visa signatur

~Pelle~

Permalänk
Skrivet av Lösbonde:

Är det bara jag som dampar loss över det faktum att de har ställt in drivrutiner på att förfalska resultaten i reviews?

Att den klockar ner sig själv till 80-talets grafikkort när den körs i furmark känns ju helt förjävligt.

Kul sideffekt för oss som överklockar grafikkorten att när vi kör i furmark så ser allt ok ut, så kör vi igång en video på youtube och hela j*vla datorn brinner upp.

Minus 50 dkp för Nvidia.

Nja, de borde ange tydligare att kortet styrs ned om det belastas med ett program som kan tänkas skada kortet och ange vilka program som det gäller. Men annars är det väl bättre att kortet styrs ned än att det brinner när du skall testa din överklockning i Furmark. Bäst vore iofs att de byggde kort som i alla lägen klarar av även orealistiska belastningar som Furmark (åtminstone i originalklock).

Är lite kluven till Furmark över huvud taget, då det känns som det belastar korten lite för bra. Redan HD5870 styrdes ju ned viqa drivrutinerna för att inte kortet skulle skadas, så det verkar ju som om grafikkortstillverkarna inte dimensionerar de mer effektslukande korten för att klara en absolut maxbelastning. Man kan i så fall tycka att grafikkortstillverkarna själva skulle släppa en bra stabilitetstestare, som belastar mer än spel, men som inte kan vara skadlig för korten. (vad som är skadligt för korten beror iofs även på om användare har överklockat och övervoltat korten med för klen kylning också, men jag tänker mer på i originalklock).

Visa signatur

~Pelle~

Permalänk

Furmark är ju till för att hitta gränserna för ett kort, att de medvetet gör att programmet visar felaktiga siffror går ju inte att rättfärdiga.

Det är ju ungefär som att installera drivrutiner som känner av 3dmark 11 och justerar poängen med 2.0 multiplier.

Kan tänka mig att anledningen är primärt att försöka försvåra jämförelsen mot 2 billigare CF/Sli kort.

Hade det rört sig om någonting annat hade de ju självklart haft med ett alternativ att stänga av den automatiska nedklockningen vid uppstart av furmark.

Visa signatur

Vill ni ha svar, så citera!

Permalänk
Skrivet av WrongTarget:

Jag måste bara säga att jag älskar att effektåtgången anges både vid Furmark (absolut maxbelastning som man aldrig någonsin kommer upp i vid normalanvändning) och dessutom 3DMarkVantage, som mer är en normal (om än tung) spelbelastning.

Ju fler test ju bättre

Personligen saknar jag nästan alltid test med 2 olika setups, en med värsting CPU och en med budget.

Speciellt i spel benchmarks är det intressant hur stor skillnaden GPU'n gör om cpu'n flaskhalsar, annars är det relativt populärt här på forumet att köpa värsting GPU och resten av datorn budget.

Visa signatur

Vill ni ha svar, så citera!

Permalänk

Är detta kort allmänt bättre än gtx 480 iaf man skippar videominnet?