Inofficiella prestandatester på R600

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av vkn
Sicket skitsnack om att dom inte kan posta bilder, fake enligt mig!
Varför posta dessa spekulationer som nyheter?

Oväntat att den kommentaren kom från dig.. Bara läsa din signatur så förstår man ju att du blir sur... "[XFX 8800GTX]" Klart man blir sur när man köper ett grafikkort för typ 6000kr som snart kommer bli överkört om artikeln stämmer

Permalänk

ska bli spännande och se vad ATI har att ge med R600

Visa signatur

-[ {AMD X4 955} {Crosshair III} {6870 2gb} {Corsiar 4Gb DDR3} ]-

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av vkn
Sicket skitsnack om att dom inte kan posta bilder, fake enligt mig!
Varför posta dessa spekulationer som nyheter?

Exakt min tanke. De skrev om att de inte ville posta bilder eftersom det fanns hemliga tags på kortet. Hört talas om Photoshop liksom? Blurra bort känslig info då och posta bild ffs!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av slusk
Oväntat att den kommentaren kom från dig.. Bara läsa din signatur så förstår man ju att du blir sur... "[XFX 8800GTX]" Klart man blir sur när man köper ett grafikkort för typ 6000kr som snart kommer bli överkört om artikeln stämmer

Oväntat är det inte direkt. Kan bara hålla med hans slutledning. Verkar konstigt att en sådan pass okänd sida skulle komma över ett kort utan att publicera bilderna

Permalänk
Medlem

Ni som inte bryr er, tjaa gör det inte då
låt oss andra hålla tummarna för r600 verkar bli riktigt lovande

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem

Jag håller med alla som tycker att det är lite konstigt att en i princip okänd site är först att få ett testkort.. o andra sidan får de som skrivit artikeln vara duktiga på att hitta på om det inte är äkta.
skiter i vilket egentligen..väntar till fler tester kommer och köper det kort som ger mest för pengarna, att favorisera ett märke är bara galet.

Visa signatur

WS: ASUS TUF X470-PG | Ryzen 3700X | 64GB DDR4 | MSI RTX 3070Ti | 2x 960 EVO 250GB | Fractal Design 750W | Define R7 Compact | Noctua NH-D15
LT: MacBook Pro 14" 16/512
Min fotosida

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av slusk
Oväntat att den kommentaren kom från dig.. Bara läsa din signatur så förstår man ju att du blir sur... "[XFX 8800GTX]" Klart man blir sur när man köper ett grafikkort för typ 6000kr som snart kommer bli överkört om artikeln stämmer

Herregud, jag är definitivt inget fanboy.
Syftar på artikeln och sidans äkthet.

Dessutom kostade mitt kort 6500kr^^...en piss i havet om man jagar prestanda enligt mig.

EDIT:dessutom skulle jag bli glad om ATI ägde upp nvidia, vilket jag iofs tvivlar på, eftersom det skulle göra att jag får mer prestanda om jag köper ett R600^^

Visa signatur

Studio Artcore Tattoo
[i7 9700k@5.3ghz - MSI OC 2080ti - Vive Pro - SRD rig - NLv3 - Fanatec CSW2.5]

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Ackelind
Inga tester på effektförbrukning? 5% ökad prestanda till priset av 20% ökning i effektförbrukning är ju snarare en miss. Effektförbrukning ökar ju linjärt med klockfrekvens, så i så fall kan man ju lika gärna klocka upp t.ex. ett 8800GTX motsvarande.

Det är dags att de börjar göra något revolutionerande gällande grafikkorten, det här börjar likna klockningskriget som Intel drog igång.

Nu är det ju inte fråga om några futtiga 5% prestandaökning. Men om du ska få upp klocken 20% så får du också räkna med ett spänningspåslag som ger en kraftig effektförbrukning. Effektförbrukning tenderar alltid att öka i högre takt än frekvenser och prestanda.

Och om du nu vill ha svala kort så se då till att köpa ett svalt kort, eller ett snabbt kort och göra det svalare genom att klocka ner det. Men nu är det så att alla vill ha högsta prestandan och samtidigt ha det svalt. Ni fattar inte att ni får kompromissa. ATI kan inte göra lika snabba kort fast svalare. Skulle dom göra svala kort istället skulle nVidia vara snabbare och ATI förlora kunder på det.
Det är upp till dig, och dig enbart om du vill ha svalt grafikkort. Det är vi kunder som trissat upp prestandakriget genom att acceptera vad som helst för att ha hög prestanda. Och det är också vi som kan välja svala kort. ATI och nVidia har bara gett oss valmöjligheten.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-
Nu är det ju inte fråga om några futtiga 5% prestandaökning. Men om du ska få upp klocken 20% så får du också räkna med ett spänningspåslag som ger en kraftig effektförbrukning. Effektförbrukning tenderar alltid att öka i högre takt än frekvenser och prestanda.

Och om du nu vill ha svala kort så se då till att köpa ett svalt kort, eller ett snabbt kort och göra det svalare genom att klocka ner det. Men nu är det så att alla vill ha högsta prestandan och samtidigt ha det svalt. Ni fattar inte att ni får kompromissa. ATI kan inte göra lika snabba kort fast svalare. Skulle dom göra svala kort istället skulle nVidia vara snabbare och ATI förlora kunder på det.
Det är upp till dig, och dig enbart om du vill ha svalt grafikkort. Det är vi kunder som trissat upp prestandakriget genom att acceptera vad som helst för att ha hög prestanda. Och det är också vi som kan välja svala kort. ATI och nVidia har bara gett oss valmöjligheten.

Hur länge kan vi fortsätta att öka prestanda och samtidigt öka effektförbrukningen tror du?

Snart presterar korten 200% bättre men drar då säkert 100% mer ström. Hur kyler du ett 300W grafikkort, eller två stycken sådana?

Någon gång måste ju trenden vända. Just nu ökar alltid prestandan - och effektförbrukningen. Senast jag såg någon form av trendbrytning var med 7900GT. Det drog ungefär lika mycket som ett 6600GT. 8800GTS drar fortfarande rejält mycket mer än så tyvärr.

Visa signatur

Min dator äger mig. True story.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Ackelind
Hur länge kan vi fortsätta att öka prestanda och samtidigt öka effektförbrukningen tror du?

Snart presterar korten 200% bättre men drar då säkert 100% mer ström. Hur kyler du ett 300W grafikkort, eller två stycken sådana?

Någon gång måste ju trenden vända. Just nu ökar alltid prestandan - och effektförbrukningen. Senast jag såg någon form av trendbrytning var med 7900GT. Det drog ungefär lika mycket som ett 6600GT. 8800GTS drar fortfarande rejält mycket mer än så tyvärr.

7900Gt var inget trendbrott, trenden har varit oavbruten. Att 7900GT var svalare var bara naturligt eftersom dom krympt en kärna. För att det ska vara trendbrott så ska dom göra en helt ny familj svalare. Inte bara en uppdatering av en redan existerande familj.

Och det kommer bli varmare ända tills det blir för varmt för dom att komma på praktiska lösningar för normala konsumenter.
Men vi ska inte klaga. För vi vill ha prestandan. Och prestandakriget har faktiskt gett oss möjligheten att få snabba svala kort också genom att klocka ner eller köpa svalare varianter av korten.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ackelind

Snart presterar korten 200% bättre men drar då säkert 100% mer ström. Hur kyler du ett 300W grafikkort, eller två stycken sådana?

Ja, dom borde koncentrera sig på att göra de nya kretsarna strömsnåla...

Fortsätter denna trenden, så kommer snart hörselkåpor ingå i en dators standard utrustning, lika självklart som mus o tgtbord...

Effektförbrukning = Värme = högljud dator = Skit.

Visa signatur

Don´t do this, don´t do that. Do this and think that.
Serious, do you really think I give a shit?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bogey
Ja, dom borde koncentrera sig på att göra de nya kretsarna strömsnåla...

Fortsätter denna trenden, så kommer snart hörselkåpor ingå i en dators standard utrustning, lika självklart som mus o tgtbord...

Effektförbrukning = Värme = högljud dator = Skit.

Det är ingen som tvingar oss att köpa deras nya energislukande produkter. Det finns svala kort till salu också.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Bogey
Ja, dom borde koncentrera sig på att göra de nya kretsarna strömsnåla...

Fortsätter denna trenden, så kommer snart hörselkåpor ingå i en dators standard utrustning, lika självklart som mus o tgtbord...

Effektförbrukning = Värme = högljud dator = Skit.

Det borde dom inte alls. För den som satsar på att göra en ny generation strömsnål istället för snabb förlorar väldigt mycket marknadsandelar. Och att följa den vägen mer än någon generation sätter dom snart på samma nivå som matrox.
Du kan välja själv att göra ditt kort strömsnålt genom att klocka ner det. Men många gör inte det eftersom dom förlorar prestanda, samtidigt säger dom att grafikföretagen ska göra precis det. Göra långsammare men svalare kort. Klart ingen köper dom.
Klocka ner ditt kort istället för att klaga på företagen som gett dig valmöjligheten att välja mellan snabb och sval.

Felet är den att folk vill ha både snabba och svala kort. Ni får lära er att det funkar inte så.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -Boris-

Felet är den att folk vill ha både snabba och svala kort. Ni får lära er att det funkar inte så.

Felet är att de som skapar kärnorna/korten inte försöker ordentligt.

Min personliga åsikt/tro är att en Cpu tex Core 2 duo är markant mer komplicerad...men att de har nått längre teknikmässigt med dessa..

F ö tror jag själv avgör vad jag vill "lära" mig.
Verkar som Nvidia med sina 7900 xxx kort kommit en hel del längre än andra...

Visa signatur

Don´t do this, don´t do that. Do this and think that.
Serious, do you really think I give a shit?

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Bogey
Felet är att de som skapar kärnorna/korten inte försöker ordentligt.

Min personliga åsikt/tro är att en Cpu tex Core 2 duo är markant mer komplicerad...men att de har nått längre teknikmässigt med dessa..

F ö tror jag själv avgör vad jag vill "lära" mig.
Verkar som Nvidia med sina 7900 xxx kort kommit en hel del längre än andra...

Dom försöker så gott dom kan ska du se. Men det handlar också om att kunna få ut ett kort med rätt prestanda, gärna rätt år också. Får du ut kortet ett år senare för att du ville göra det svalare så är du konkurs.

Och 7900 serien är bara en vanlig krympning av 7800. Alltså ett varmt kort som blir svalare allt eftersom tillverkningsprocessen blir bättre. Men hade dom väntat tills dom kunde tillverka 7900 och inte gjort 7800 så hade dom förlorat för mycket.
Det är vi konsumenter som väljer hur varma korten blir.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bogey
Felet är att de som skapar kärnorna/korten inte försöker ordentligt.

Min personliga åsikt/tro är att en Cpu tex Core 2 duo är markant mer komplicerad...men att de har nått längre teknikmässigt med dessa..

F ö tror jag själv avgör vad jag vill "lära" mig.
Verkar som Nvidia med sina 7900 xxx kort kommit en hel del längre än andra...

Bra åsikt, Bogey!

Håller med dig, när det gäller Intels senaste krets...

Visa signatur

.: iPad :: iPhone 4 :: iFan :.

Permalänk
Medlem

Core 2 Duo är en 65nm krets så självklart är den mer "effektiv" än en 90nm G80 eller en 80nm R600.

Problemet är att ATI och Nvidia inte har egna produktionslinor och Intel leder utvecklingen av halvlledartillverkning av större kretsar med IBM(AMD) strax efter och tredjepartstillverkare som TSMC, UMC, Charter mm strax därefter.

Nu tror många att ATI skall kunna dra nytta av AMDs tillverkning men det kommer att dröja ett bra tag då AMD inte ens kan tillverka tillräckligt med processorer som det är och de har precis släppt sina första 65nm processorer.

Minnestillverkares produktionslinor är intrimmade för en mycket specialiserad krets, så Samsung kan tex inte bara slänga in lite processorer eller gpu:er i sin tillverkning.

Det är inte alltid så lätt att gå över till en ny mindre oprövad tillverkning heller, ATI's försenade R520 är ett bra exempel, de hoppade på en ny process med nya kretsbibliotek som innehöll flera små fel i kretsar som sedan upprepades på många ställen och var mycket svåra att hitta, därför behövde de upp till 6 respins innan produkten blev färdig och förlorade ett halvår och mycket pengar, troligtvis fick de skadestånd av ASICS-bibliotekleverantören men sådant brukar hållas hemligt.

Visserligen ger en väl intrimmad process effektivare och svalare kretsar (lägre drivspänning), som man kan se just nu då AMDs nya 65nm prollar drar mer än ee-prollar tillverkade med den gamla större processen, men efter ett par revisioner och förbättringar av själva tillverkningen ge ännu mer energisnålare prollar. AMDs gamla EE-prollar (Energy Efficient) ger bättre prestanda/Watt än en Core 2 Duo som är erkänt effektiv och gjord med en nyare process.

Visa signatur

[AMD X2 5600+ @ 3GHz][8800 GTS 640MB @640/900][Creative X-FI Xtreme Music][1.5 TB Storage][24" LCD]

Permalänk
Medlem

Släpper ATI/AMD ett kort som inte spöar 8800 GTX ska jag fan bränna ner deras fabriker.

Det vore nice om de kan göra det utan en vulgär kylare dock.

Och sen kommer NV med G81, som givetvis är snabbare än R600..blablabla!

The never ending war. Man börjar bli trött på det här tjatet nu. Dags att hitta en ny hobby.

Supa ihjäl sig blir bra. Skål och god fortsättning.

Permalänk
Citat:

Ursprungligen inskrivet av -Boris-

Klocka ner ditt kort istället för att klaga på företagen som gett dig valmöjligheten att välja mellan snabb och sval.

ATI (DAAMIT) ger inte såna valmöjligheter, deras kort är snabba, men knappast svala. Och att klocka ner sitt kort kommer inte sänka strömförbrukning så värst mycket. Det finns inga genvägar, allt som krävs är en effektiv kärna.

Och självklar kommer R600 vara snabbare än 8800GTX. Det skulle vara pinsamt om den inte var. Men frågan är till vilket pris.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

Och enligt dom så kommer inte GDDR4 versionen förrän i Mars! GDDR3 vill man inte ha, när det finns 4 Hoppas båda versionerna kommer samtidigt!

Jobbigt och vänta, speciellt när man inte har Shader Model 3 på mitt X850...

På den positiva sidan så kan ni ju stänga av ett par element om det nu drar 230W som sidan hävdar

Visa signatur

E-penis:
i9 9900k @ 5hz | Aorus Master Z390 | 2x16GB Corsair 3200 LPX | ASUS ROG STRIX GeForce RTX 3080 10GB | Phateks Evolv X | EVGA SuperNOVA G2 750W | Corsair H115i PRO | 6TB HDD | Asus MG279Q 27" | Asus Claymore Core | Logitech G403/G35 | Windows 10 Pro x64

Permalänk
Medlem

bara o köpa det som ger mest för pengarna. själv funderar ja på R600 men inte allra värsta versionen för med min dator får jag ändå inte ut all effekt. får inte ens ut de me 8800GTX.

sen att grafikkorten tar mycke ström är ju en sak men grafikkorten är mycke starkare än processorerna idag, så varför inte göra 4 cores grafikkort som har allt? vore ju nåt

Visa signatur

PC1: Ryzen 7 2700X / Noctua NH-D15 / GTX 1080 / 16GB 3200MHz DDR4 / Win 10 / Asus Rog Strix X470-F / 500GB SSD / Define C
PC2: i7 7700k / Cryorig C7 / GTX 1060 6GB / 32GB 3200MHz DDR4 / Win 10 / Asus Strix Z270F / 500GB SSD / In-Win 904
PC3: i5 3570k / Be Quiet pure rock / GTX 960 / 8GB 1600MHz DDR3 / Win 10 / ASRock P67 Extreme4 / 80GB SSD / AeroCool Shard TG

Permalänk
Medlem

Skönt att det enda som hostas på deras webserver är reviewn, inte skumt alls inte.

Visa signatur

Data Center Operator

Permalänk
Citat:

Ursprungligen inskrivet av Bogey
Felet är att de som skapar kärnorna/korten inte försöker ordentligt.

Min personliga åsikt/tro är att en Cpu tex Core 2 duo är markant mer komplicerad...men att de har nått längre teknikmässigt med dessa..

F ö tror jag själv avgör vad jag vill "lära" mig.
Verkar som Nvidia med sina 7900 xxx kort kommit en hel del längre än andra...

Du är inte så smart va? Grejjen är den att ribban för en "ok" värmeutvecklning/energiförbrukning redan är satt. Tar de fram en kärna som är mycket strömsnålare kommer de ändå aldrig släppa en som drar 50W utan istället trycka dit tre gånger så mycket kärna för att få den maximala prestandan. Kanske kommer det ett budgetkort som bara drar 50W, men då kommer folk bara tycka det är för dålig prestanda.

Visst trenden är att varje ny grafikkortsserie drar mer ström, men om man jämför med ett kort som är ett par tre generationer gammalt så har inte värmeutveckligen ökat lika mycket som prestandan, så alltså har de ju lyckats med att tillverka effektivare kärnor. Precis som Boris säger är det ju vi konsumenter som väljer om vi vill ha det kort med fetaste prestandan eller det som drar minst ström.

-Boris-:

Jag förstår inte vad du syftar på, är det "fusk" om man "bara" krymper kärnan? Hur tycker du man ska göra då? Trolla? Klart som fan att det är godkänt att använda alla medel för att få det strömsnålare men behålla prestandan.

Visa signatur

i7 930 @ 3.8 | P6X58D-E | 6GB Corsair XMS3 | 2x R9280X | Intel SSD|
Dell UltraSharp 2707WFP | Logitech Z5500 | Logitech Illuminated | MIONIX Saiph 1800 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Klargplutte
LOL haha , själv väntar jag nog till lite DX10 benchar (och bra priser) innan jag bestämmer mig för G80 lr R600.

Jag säger det samma.Vad har X9 prectandand med val av vilket kort man ska köpa?Är väl X10 som är framtiden?Eller ska man sitta spela cod2 och liknande till i evighet?Såfall kan man lika gärna köpa mellan klass kort av X9.

Visa signatur

Magnus AMD

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av )ExecutoR(
Jag förstår inte vad du syftar på, är det "fusk" om man "bara" krymper kärnan? Hur tycker du man ska göra då? Trolla? Klart som fan att det är godkänt att använda alla medel för att få det strömsnålare men behålla prestandan.

Näemn klart det är bra att minska kärnan, men det är inget trendbrott där dom valt att gå mot svalare kärnor. Att dom gör en existerande serie svalare genom att uppdatera den är naturligt, sånt gör dom så ofta dom får chansen. Så det vore fel att kalla det ett trendbrott som går mot svalare kärnor.

Permalänk

Om man nu är så orolig över strömkonsumtionen så varför sitta och gnälla på det värsta av det senaste , köp en mellanmodell istället som alltid drar bra mycket mindre ström än sina storebröder och forfarande ger en fullt tillräcklig upplevelse i dom senaste spelen , vill man ha det bästa så får man betala för det , är man inte intresserad av priset , ström konsumtionen , ljudet så funkar det näst lr nästnäst bästa alldeles utmärkt.

Visa signatur

[X570 Aorus Elite][5800X3d][32gb ram][RTX3080][500gb 970 Evo plus M.2+ 2Tb 980pro M.2 ][Corsair AX850][Obsidian 800D][LG 27GL83A ][W10]

Permalänk
Medlem

Men ett grafikkort, hur kraftfullt det än är, borde inte dra mer och mer ström för varje generation när du kör 2d, men så är det tyvärr. Om jag ska surfa eller skriva i Word, inte vill jag att datorn ska dra 200 watt. Sitter jag på ett x1300 går det alldeles utmärkt att surfa till betydligt lägra wattantal än om jag kör ett 8800 GTX. Sen att grafikkortet drar mycket ström vid full load är helt ok för mig. Förstår inte hur grafikkortstillverkarna tänker!!

Permalänk

tycker det inte är överdrivet intressant hur R600 står sig mot G80 i dx9, är väl ganska väntat att R600 slår G80 i dx9 men för mig börjar det nu bli mer intressant vem som piskar vem i dx10.

Visa signatur

Antec P280, Intel core i5-2500k, Corsair H80, Corsair Vengeance 8GB 1600MHz CL9, Asus P8Z68-V Pro/Gen 3, MSI GTX 680, Corsair Force Series GT SDD 120GB, Western Digital Caviar Green 2TB, Asus Xonar DX, Corsair AX 750W.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Klargplutte
Om man nu är så orolig över strömkonsumtionen så varför sitta och gnälla på det värsta av det senaste , köp en mellanmodell istället som alltid drar bra mycket mindre ström än sina storebröder och forfarande ger en fullt tillräcklig upplevelse i dom senaste spelen , vill man ha det bästa så får man betala för det , är man inte intresserad av priset , ström konsumtionen , ljudet så funkar det näst lr nästnäst bästa alldeles utmärkt.

Problemet är att även mellanmodellerna drar mer och mer för varje generation.

Visa signatur

Min dator äger mig. True story.

Permalänk
Avstängd

R600 såg verkligen intressant ut, men då är frågan hur mycket de låter och hur mycket ström de slukar, ser vi tillbaka till förra generationen så var ju Geforce bättre på båda, sen så väntar jag nog till de kommer officiella drivrutiner och tester.

Visa signatur

You stink. Bender's great. Deal with it