ATI Radeon HD 3870 X2 avslöjad på webben

Permalänk
Medlem

Dojjan... Crossfire funkar bättre än SLi idag, i världen, i realiteten och just nu. Om du tror tester är fake eller inte är ganska ointressant. Men för att få en komplett jämförelse måste vi ha två identiskt presterande kort, vilket vi inte har till hands. Det handlar inte om att två HD3870 skulle utprestera två 8800GT, men marginalerna ställs närmare varann, vilket är hela tanken. Samtidigt sparar man upp till 700kr på två HD3870 i jämförelse med 8800GT beroende på modell och inköptsställe då man hitter '70 för runt 1895kr och 8800GT på 2095kr+ varav det senaste är ovanligt lågt pris.

Allting tyder för att HD3870X2 blir marginellt snabbare än GX2 då Nvidia kastrerat ena kärnan för att inte rulla över sin egen 9800GTX som ändå inte blir särskilt mycket snabbare än dagens 8800Ultra. Det ser idag ut som GX2 blir 30-35% snabbare än Ultra, i förhållande till hur Crossfire HD3870 står sig mot Ultran vet jag inte men jag har som sagt svårt att tänka mig en större ledning från varken heller.

Permalänk
Citat:

Ursprungligen inskrivet av Mr.Borka
... Det handlar inte om att två HD3870 skulle utprestera två 8800GT, men marginalerna ställs närmare varann, vilket är hela tanken. ...

Varför tror du de ställs närmare varann ? Jo, kan det möjligtvis vara så att testet blir mer flaskhalsad av processorn ?

Visa signatur

e6600@3.2GHz@1.35v + P5B deluxe + corsair 2gb pc6400 + HD4350 m.m.

Permalänk
Inaktiv

Släng på en sådan här:

Permalänk

Fighten började väl att 8xxx var bättre med sedan slutade med en SLI vs Crossfide dispyt?

Jag håller med Dojjans åsikt då 8800GT och 3870 mer eller mindre ska vara varandras jämlikar.

Oavsett om CF är en lite bättre teknik i förhållande till SLI så spelar det ju ingen roll, jämför du korten som jämlikar så åker den ena parten på storstryk, där den ena som singelkort ibland är jämlikt den andra i CF..

Och där har Dojjan sin poäng och prestanda är väl det som räknas i en sann SweCares ögon?

Visa signatur

Antec P180B SPCR, Asus P5B Deluxe WIFI, C2D E6600/Scythe Ninja @ 3.2, 2Gb Corsair Twin2xPRO-800, Tagan 530 Easycon, 250 gb Seagate 7200.10, Sapphire X1900XT @ XTX flash

FJ Xi 1546 2.0Ghz C2D, 2 Gb Ram, 240Gb Raid 0, Nvidia 7600.

Permalänk

Som jag nämnt tidigare så ska man jämföra teknkinerna SLI vs. CrossFire ska man göra det med med 2 ungefär lika presterande kort. Skulle vara intressant att klocka ner ett 8800gt rejält och sen köra två sånna mot två hd3870, isf. skulle man kunna yttra sig lite mer om vilken teknik är bättre.

Att jämföra hd3870 crossfire mot 8800gt sli är litegrann som att jämföra ökningen från 512mb->1024mb ram mot ökningen 1024mb->2048mb ram och säga att den förstnämnda ökningen skalar mycket bättre.

Visa signatur

e6600@3.2GHz@1.35v + P5B deluxe + corsair 2gb pc6400 + HD4350 m.m.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bergstrom
Fighten började väl att 8xxx var bättre med sedan slutade med en SLI vs Crossfide dispyt?

Jag håller med Dojjans åsikt då 8800GT och 3870 mer eller mindre ska vara varandras jämlikar.

Oavsett om CF är en lite bättre teknik i förhållande till SLI så spelar det ju ingen roll, jämför du korten som jämlikar så åker den ena parten på storstryk, där den ena som singelkort ibland är jämlikt den andra i CF..

Och där har Dojjan sin poäng och prestanda är väl det som räknas i en sann SweCares ögon?

Beror väll hur man se på saken. tanken från ATI var att 3870 skulle vara jämnlika med nvidia's motsvarighet, men det är det inte. Den har också ett lägre utgångspris än GT.

Jag håller sl2wm-rocks. Klocka ner ett GT så att det ligger på samma prestanda som 3870 (ungefär) och lägg till ytterligare ett GT med samma klock, sedan jämnför du SLI vs Crossfire. Det är enda rättvisa mätningen man kan göra.

Visa signatur

Vem orkar uppdatera den här signaturen egentligen? Kommer ju ny teknik hela tiden :(

Permalänk
Medlem

Det är väl ändå prismässigt likadana kort oavsett om dom har 1 feting gpu eller 7 små gpuer man skall jämföra med.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5700X3D, LPX 64GB 3600, RTX4060

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av sl2wm-rocks
Varför tror du de ställs närmare varann ? Jo, kan det möjligtvis vara så att testet blir mer flaskhalsad av processorn ?

Crossfire skalar bättre. Tester tidigare visade här hade tydligen inga problem med SLi 8800GT mot respektive processor i testerna.

Permalänk
Medlem

Finns ju redan som ett labbkort alltså som ett "profosionell" grafikkort.

Nu får vi alla hoppas på att HD 3870 X2 ger nvidia en match och att ATi får upp självförtroendet igen.

Visa signatur

[ Intel Core I7 930 4.2GHz HT på ] - [ Corsair Dominator GT 12GB DDR III 2000Mhz CL9-10-0-27 2N ] - [ ASUS P6DX58 Premium ] - [ MSI Gaming 4G GTX 970 - [ Creative SB X-FI Fatal1ty Pro ] - [ 1TB-750-500-Intel 80 G2 SSD] - [ Corsiar AX860 ] - [ Logitech Z530 ] - [ Antec P182SE ] - [ ASUS PA246Q ] - [ LG Blu-Ray Burner ] - [ Windows 7 64 Ultimate Swe ] - [Acer Aspire 8920G]

Permalänk
Citat:

Ursprungligen inskrivet av Finkelzvin
Hur kommer det sig?

För att diskussionen handlar om 9800X2, x2 vs x2.

Citat:

Ursprungligen inskrivet av Mr.Borka
Dojjan, vad länkar du egentligen? Det har inget med saken att göra, du visar ju inte ens någon SLi-motsvarighet utan visar bara hur dåligt Crossfire funkar mot optimerade Nvidia-partners på enkel-GPU delen. Lost Planet är inget att jobba upp sig på, det är ett konsollspel som stressats in på PC som optimerats för Nvidia-kretsar än sålänge då Capcom då ignorerat AMD:s shaderAntiAliasing och liknande.

Varför hänger du upp dig på Lost Planet för? Det fanns väl två andra spel också right? Eller de är också Nvidia optimerade? Ja, 90 procent av marknadens spel till PC står det "Nvidia.. the way its ment to be played" men det spelar ingen roll i praktiken.

Citat:

Du visade även ett test där HD3870 hoppade från 55FPS till 95FPS i Crossfire, alltså nästan ett hopp på 85-90% vilket är jävligt bra. Kom ihåg att det handlade om SLi mot Crossfire, där den senare parten faktiskt funkar väsentligt mycket bättre i JÄMFÖRELSE med SLi. Sedan visar resultaten i övrigt något felaktiga resultat då tidigare 2900PRO i Crossfire oftast kom över en 8800Ultra.

Angående fungera bra eller ej så tror jag de flesta inom området är överrens om att SLI i princip alltid har fungerat bättre än Crossfire då SLI som jag skrev tidigare är ett mer genomarbetat koncept och har körts i skarpt läge under en längre tid jämfört med Crossfire. Om det är tackvare 3Dfx vet jag ej och finner ointressant.
Hur det är just idag, Onsdag 9 Januari 2008 har jag ingen aning om men nedan kommer lite tester om du läser dig dit.

HD3850 512@Crossfire tar sig knappt förbi ett 8800GTS 512, matter in fact så tar det sig inte förbi ett 8800GTS 512 överlag. 8800GTS 512 presterar som ett 8800GTX, ibland bättre och ibland sämre och få gånger mycket sämre tackvare den lägre minnesbussen. Hur vill du då att HD2900PRO@CF ska prestera bättre än 8800Ultra överlag? Det gör det inte idag utan åker på spö, ordentligt med spö enligt endel tester med AA/AF aktiverat för som du vet har inte R600 inte speciellt mycket att komma med så fort man aktiverar AA/AF tackvare den dåliga hanteringen av AA i Shader processorerna. R600 arkitekturen blev en flopp helt enkelt, arkitekturen till största del var riktigt bra men de gissade fel helt enkelt. Vissa delar är riktigt bra och andra delar floppade helt enkelt. Glöm inte att HD3870 bygger på samma arkitektur.

När man mäter ett grafikkort mot ett annat grafikkort så måste man mäta det som faktiskt belastar grafikkortet mest, med andra ord AA/AF och höga upplösningar. Håller du inte med? Det låter mest logiskt i mina öron och är givetvis det optimala för att stressa ett grafikkort, är du med mig?
Bra, då tar vi och läser lite tester:

http://www.hothardware.com/articles/NVIDIA_GeForce_8800_GTS_R...
http://www.tweaktown.com/articles/1246/4/page_4_benchmarks_ha...
http://www.sweclockers.com/articles_show.php?id=6003&page=7
http://www.sweclockers.com/articles_show.php?id=6003&page=10
http://www.bit-tech.net/hardware/2007/11/30/rv670_amd_ati_rad...

Det ser inte så tjusigt ut för HD3870 här.

Citat:

Låt mig börja såhär, vad vet du om GTX? Antaligen ingenting. Allting talar för att Nvidia kastrerat sin nya serie genom att lansera en för stark G92-krets för tidigt, skillnaden mellan G92 och G90 kommer bli förhållandevis marginell med tanke på alla blanka spekulationer det finns. Två R670-kretsar kommer vara snabbare än en G90, eller åtminstonne bara marginellt långsammare.
HD3870X2 kommer bli en kanonbra lösning, speciellt mot GX2 som verkar riktigt usel med tanke på att en 9-GTX ska funka 5 procentenheter snabbare än dubbelvarianten. Det enda problemet just nu det är ju fläkten och längden på kortet, men det kommer de säkert ordna fram till lanseringen.

Jag förstår inte varför du drar in 9800GTX i det hela? Jag skriver om 9800GX2 inte om 9800GTX.

Jag skriver inte att du har fel eller rätt kring 9800GX2 kärnorna men alla rykten menar på att de är två ihopklistrade 8800GT kärnor, G92 kärnor med andra ord.

Att HD3870X2 blir en suverän lösning har jag aldrig tvekat på men att HD3870X2 skulle prestera bättre än 9800GX2 är det ingen som vet och att det skulle skala bättre är det ingen som vet heller.
Vem som skalar bäst är ointressant. Om HD3870X2 presterar bättre än 9800GX2 är det bra men om HD3870X2 skalar mycket bättre jämfört med 9800GX2 men ändå får spö är skalning totalt ointressant eller hur?

[U]Jag[/U] började svara i tråden om att det inte finns något varken på papper eller i praktiken som visar på att HD3870X2 skulle skala bättre än 9800GX2 som hockexx skrev och trodde, vilket det heller inte finns. För ingen av oss har väl båda korten i handen?

Att HD3870X2 skulle prestera bättre än 9800GX2 är det ingen som vet och är fullt möjligt liksom tvärtom. Men om ryktena stämmer om att 9800GX2 är två ihopklistrade 8800GT så är chansen större att 9800GX2 presterar bättre än HD3870X2 såvida Nvidia inte gör en 7950GX2 historia, mindre lyckad historia även om 7950GX2 presterade bäst på marknaden efter ordnande med drivrutiner.

Citat:

Ursprungligen inskrivet av Mr.Borka
Dojjan... Crossfire funkar bättre än SLi idag, i världen, i realiteten och just nu. Om du tror tester är fake eller inte är ganska ointressant. Men för att få en komplett jämförelse måste vi ha två identiskt presterande kort, vilket vi inte har till hands. Det handlar inte om att två HD3870 skulle utprestera två 8800GT, men marginalerna ställs närmare varann, vilket är hela tanken. Samtidigt sparar man upp till 700kr på två HD3870 i jämförelse med 8800GT beroende på modell och inköptsställe då man hitter '70 för runt 1895kr och 8800GT på 2095kr+ varav det senaste är ovanligt lågt pris.

Men okej, vi leker med tanken att Crossfire fungerar bättre än SLI även om det är så eller ej. Vad spelar det för roll då när ATi i så fall inte kan göra tillräckligt bra grafikkort och konkurrera med Nvidia så att vi får se lite mer priskrig istället för dominans? Då är det totalt ointressant vilken teknik som är bäst eftersom den ena parten har ett bättre prestandakort för spel vilket är det som är intressant för dig och mig.

Yes, jag var lite feg nu men vad handlar Crossfire och SLI om? Det handlar om prestanda eller har jag missat något? Men för att landa lite så länkade jag ovan kring Crossfire/SLi prestanda bara för att jämföra HD3870@CF och 8800GT@SLI. Du kan läsa från vårt egna Sweclockerstest också och läsa de två spelen World In Conflict samt Fear tror jag det var om hur bra Crossfire presterar där.

Jag skrev tidigare att om man ska jämföra vilken teknik mellan Crossfire och SLI som är bäst behöver man kort som fungerar i arkitekturen identisk med identisk prestanda som även fungerar identiskt både i CF och SLI. Men det har vi inte och kommer aldrig hända och vi kan därför inte utgå från vilken teknik som i praktiken är bäst men du fortsätter att skriva att Crossfire är bättre eller läste jag fel någonstans?

Crossfire vet jag på pappret (teorin) ska vara så kallad bättre och ser bättre ut men har mindre ofta än mer visat det i praktiken.

Citat:

Allting tyder för att HD3870X2 blir marginellt snabbare än GX2 då Nvidia kastrerat ena kärnan för att inte rulla över sin egen 9800GTX som ändå inte blir särskilt mycket snabbare än dagens 8800Ultra. Det ser idag ut som GX2 blir 30-35% snabbare än Ultra, i förhållande till hur Crossfire HD3870 står sig mot Ultran vet jag inte men jag har som sagt svårt att tänka mig en större ledning från varken heller.

Nja, du har nog fel här faktiskt. 9800GX2 ryktas om att prestera cirka 30% bättre än ett 8800Ultra. Vi vet att två stycken HD3870 har svårt att komma förbi ett 8800Ultra?
Det är en fråga du kan fundera på tycker jag.

Om HD3870X2 ska prestera bättre än 9800GX2 innebär det att varje kärna av HD3870X2 ska prestera 16% bättre än 8800GT (9800GX2 baseras på 8800GT enligt rykten) kärnan vilket inte stämmer.

Ett 8800GT idag presterar cirka 20% bättre än ett HD3870 512. HD3870 512 kommer oftast inte i närheten av 8800Ultra 1vs1 och har svårt att följa med 8800GT i form av prestanda också. Så då är frågan hur och varför HD3870X2 skulle prestera bättre än 9800GX2 som enligt rykten kommer att prestera 30% bättre än 8800Ultra. Med andra ord tyder ingenting på att HD3870X2 skulle varken fungera eller prestera bättre om ryktena stämmer kring 9800GX2.

Det som säger emot sig självt faktamässigt är att 9800GX2 baseras på 8800GT och alla vet att två 8800GT presterar bättre än ett 8800Ultra. Men samtidigt ska 9800GX2 prestera cirka 30% bättre än ett 8800Ultra. Men jag utgår bara från ryktena, ända vi kan göra.

Jag personligen hoppas på att Nvidia får en spark mellan benen så att jag kan inhandla mig två sådana kort förutsatt att de fungerar bra i Ubuntu. Jag har ett Crossfire moderkort och har ingen idé om att byta till SLI, finns knappt några heller. Jag hade hoppats på R700 men den serien kommer vi förmodligen inte se förns i slutet på året eller i början av 2009 enligt AMD's roadmap.

Hojta till om det är något du/ni inte förstår så får jag formulera mig bättre.

Mvh Albin

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av A.N'doja
---Text---
När man mäter ett grafikkort mot ett annat grafikkort så måste man mäta det som faktiskt belastar grafikkortet mest, med andra ord AA/AF och höga upplösningar. Håller du inte med? Det låter mest logiskt i mina öron och är givetvis det optimala för att stressa ett grafikkort, är du med mig?

Håller inte riktigt med, jag tycker man skall titta på de inställningar man använder sig av.
Det är känt att ATI tappar något mer än Nvidia i AA, men eftersom jag alldrig kör och alldrig har kört full AA minskar skillnaden mot 8800GT för mig.
Givetvis skall man mäta alla inställningar, men att säga att det är endast den tuffaste som avgör skillnaden stämmer inte.
Om jag vill jämföra två kort som presterar någorlunda lika tittar jag på prestanda med de inställningar som ger en vettig fps.
Om sen det ena presterar 13 fps i Crysis maxat och det andra 16 fps är för mig helt ointressant, båda är ospelbara där.

Edit: Fan vad klantig jag blivit på att citera!

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Citat:

Ursprungligen inskrivet av Ratatosk
Håller inte riktigt med, jag tycker man skall titta på de inställningar man använder sig av.
Det är känt att ATI tappar något mer än Nvidia i AA, men eftersom jag alldrig kör och alldrig har kört full AA minskar skillnaden mot 8800GT för mig.
Givetvis skall man mäta alla inställningar, men att säga att det är endast den tuffaste som avgör skillnaden stämmer inte.
Om jag vill jämföra två kort som presterar någorlunda lika tittar jag på prestanda med de inställningar som ger en vettig fps.
Om sen det ena presterar 13 fps i Crysis maxat och det andra 16 fps är för mig helt ointressant, båda är ospelbara där.

Det sista du skrev håller jag med om. Men okej, är det på sådana villkor så kan man heller inte avgöra vilket kort som presterar bäst, alltså bäst, most power, kind of performance. Då får man i så fall skriva eller utgå från "bäst med/utan X och Y" right? Dock vinner Nvidia den ronden också som det ser ut idag.

raekan:
De såg maffiga ut, dock lär de låta illa!

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

Doja...

Ett par saker jag inte håller med om. Om Crossfire skalar bättre än SLI betyder det att tekniken är bättre. Att det ligger under SLI beror på att korten i sig inte är ritkigt like utvecklade.

9800gx2 är inte två stycken 8800gt i och med att stream processor värdena stämmer inte ihop. Något nedslimmad version av 8800gt verkar det som. 30% bättre än Ultra gäller bara när SLI drivrutinerna funkar vilket betyder att du kan glömma att köra Crysis i DX10 något bättre än i dagsläget. Crysis är i princip det enda spelet som kräver bättre kort än vad som finns idag. Då ett av de två korten är en nedslimmad version av 8800gt som det nu verkar lär ju inte ett av de två kunna prestera som ett Ultra själv och det känns stadigare med Atis försök att utveckla något nytt när nvidias nödlösning är gammal "än så länge mislyckad teknik." Om drivrutinerna strular som med 7950gx2 så lär det inte bli någon hit. Som tur är, lär inte kortet kosta $800 som 7950gx2 gjorde en gång i tiden.

Där är skillnaden mellan 3870x2 och 9800gx2 då 9800gx2 är samma arkitektur som 7950gx2 som (kolla in lite crossfire vs. sli tester från 2-3 år sedan) presterade sämmre än både 7950gt och ati x1950xtx i sli respektive corssfire och ändå kostade ett sådant kort lika mycket som två av dessa modellerna. 3870x2 är dock ett "dual-core" gfx kort där kärnorna inte sitter på en die. Samma sak som Intel gör med sina quads (två dual cores som inte sitter på samma die).

I dagsläget ser det lovande ut när 3870x2 får nästan 10k i 3dmark i 2560*1600 för det får inte två stycken 3870 i xfire. Än så länge återstår det att se hur detta kort hanterar AA men Ati har lagt till en ny slags AA motor verkar det som, och det har lagts upp en video av ett enda 3870x2 som kör CoD4 i 2560*1600 i full grafik+full AA med en mer än spelbar FPS, på Gamespot.

Men du har helt rätt i det att vi inte har en aning om hur det kommer se ut i slutändan. Vi får helt enkelt vänta. Alla dessa argument spelar ingen roll över huvud taget, och jag kommer köpa det som presterar bäst helt enkelt i Februari/Mars när jag skall köpa ny dator. Hade dock inte förväntat mig den här prestandan från 3870x2, så det blir intressant hur Nvidia löser det här. Skulle va kul om Ati hade övertaget ett tag så att priserna pressas lite.

Förresten så spelar det ganska stor roll vilket grafikkortsbolag som ett spel är utvecklat för. Om ett spel är optimerat för Nvidia så betyder det att utvecklarna har lagt ner mycket mer tid på att få det att funka på Nvidia kort, vilket kan ge ett mer än marginellt övertag för vi vet ju alla hur stor skillnad en ny drivrutin kan göra i prestanda, till exempel. Kolla på Half-Life 2 som är optimerat för ATI. I dagsläget spelar ju inte det så stor roll då alla spel ur Geforce 8000 serien och Ati HD2000+3000 serierna kan spela detta spel i maxgrafik med långt över 100 fps. Men för några år sedan när det släpptes så blev det bättre prestanda med Ati kort.

Ha det gött, hoppas det här hjälper lite

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk

Re: Doja...

Citat:

Ursprungligen inskrivet av oscarstegland
Ett par saker jag inte håller med om. Om Crossfire skalar bättre än SLI betyder det att tekniken är bättre. Att det ligger under SLI beror på att korten i sig inte är ritkigt like utvecklade.

Precis det jag skrev ovan. Kan vara så att Crossfire är bättre men att ATis kort inte är procentuellt lika bra i prestanda i spel.

Citat:

9800gx2 är inte två stycken 8800gt i och med att stream processor värdena stämmer inte ihop. Något nedslimmad version av 8800gt verkar det som. 30% bättre än Ultra gäller bara när SLI drivrutinerna funkar vilket betyder att du kan glömma att köra Crysis i DX10 något bättre än i dagsläget. Crysis är i princip det enda spelet som kräver bättre kort än vad som finns idag. Då ett av de två korten är en nedslimmad version av 8800gt som det nu verkar lär ju inte ett av de två kunna prestera som ett Ultra själv och det känns stadigare med Atis försök att utveckla något nytt när nvidias nödlösning är gammal "än så länge mislyckad teknik." Om drivrutinerna strular som med 7950gx2 så lär det inte bli någon hit. Som tur är, lär inte kortet kosta $800 som 7950gx2 gjorde en gång i tiden.

Kan du backa upp med källa att 9800GX2 inte består av två stycken grafikprocessorer från 8800GT när de flesta ryktena säger tvärtom?

Som jag även skrev tidigare (det echar) så blir det en 7950GX2 så blir det förmodligen en flopp.

Citat:

Där är skillnaden mellan 3870x2 och 9800gx2 då 9800gx2 är samma arkitektur som 7950gx2 som (kolla in lite crossfire vs. sli tester från 2-3 år sedan) presterade sämmre än både 7950gt och ati x1950xtx i sli respektive corssfire och ändå kostade ett sådant kort lika mycket som två av dessa modellerna. 3870x2 är dock ett "dual-core" gfx kort där kärnorna inte sitter på en die. Samma sak som Intel gör med sina quads (två dual cores som inte sitter på samma die).

Jag hoppas du förstår hur fel du skrev eller så är du inte medveten om att du har fel.

9800GX2 och 7950GX2 består INTE av samma arkitektur. 8800GTS 320/512/640Mb, GTX samt Ultra består av samma arkitektur, inte 7950GX2. Att grafikkorten fysiskt som kort skulle vara uppbyggda (två ihoplimmade) kort är en annan femma.

3870GX2 är inte uppbyggt som en dual core, då skulle det existera 4 kärnor på grafikkortet vilket det inte gör utan 1 kärna under varje GPU.
Core är lika med kärna, GPU är lika med Graphics Processing Unit, tänk på det.

Citat:

I dagsläget ser det lovande ut när 3870x2 får nästan 10k i 3dmark i 2560*1600 för det får inte två stycken 3870 i xfire. Än så länge återstår det att se hur detta kort hanterar AA men Ati har lagt till en ny slags AA motor verkar det som, och det har lagts upp en video av ett enda 3870x2 som kör CoD4 i 2560*1600 i full grafik+full AA med en mer än spelbar FPS, på Gamespot.

Men du har helt rätt i det att vi inte har en aning om hur det kommer se ut i slutändan. Vi får helt enkelt vänta. Alla dessa argument spelar ingen roll över huvud taget, och jag kommer köpa det som presterar bäst helt enkelt i Februari/Mars när jag skall köpa ny dator. Hade dock inte förväntat mig den här prestandan från 3870x2, så det blir intressant hur Nvidia löser det här. Skulle va kul om Ati hade övertaget ett tag så att priserna pressas lite.

3dmark? Absolut, riktigt bra poäng men din poäng faller också med tanke på att 3dmark säger väldigt lite om hur ett grafikkort spelar i spel. Och som större delen av oss här inne redan vet så har ATi fördel i både 3dmark 2005 och 2006, känt sedan länge.

Men för att återgå till 3dmark06:

8xAA/16xAF är nog mer ansträngande för grafikkortet att driva 3dmark06 jämfört med en upplösning om 2560*1600 utan AA och AF. Det är jag helt övertygad om.

Så här ser det ut i 1280*1024 med 8xAA och 16xAF:

Notera CPU poängen och en sådan processor hade de inte på den bilden jag la uppom i en upplösning om 2560*1600. Där hade de endast en E6600 @ 2.4Ghz, alltså en ganska klen processor för 3dmark så min teori tror jag stämmer ganska bra. En upplösning om 2560*1600 med identiska komponenter och du får mer poäng jämfört med med full AA och AF. Med andra ord så presterar HD3870 @ Crossfire ungefär som HD3870X2, som de flesta har tänkt sig med andra ord.

Vår medlem Kinc kan nog bäst svara på vilket som är tyngst att köra i.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

Re: Doja...

Citat:

Ursprungligen inskrivet av oscarstegland
Ett par saker jag inte håller med om. Om Crossfire skalar bättre än SLI betyder det att tekniken är bättre. Att det ligger under SLI beror på att korten i sig inte är ritkigt like utvecklade.

Precis det jag skrev ovan. Kan vara så att Crossfire är bättre men att ATis kort inte är procentuellt lika bra i prestanda i spel.

Citat:

9800gx2 är inte två stycken 8800gt i och med att stream processor värdena stämmer inte ihop. Något nedslimmad version av 8800gt verkar det som. 30% bättre än Ultra gäller bara när SLI drivrutinerna funkar vilket betyder att du kan glömma att köra Crysis i DX10 något bättre än i dagsläget. Crysis är i princip det enda spelet som kräver bättre kort än vad som finns idag. Då ett av de två korten är en nedslimmad version av 8800gt som det nu verkar lär ju inte ett av de två kunna prestera som ett Ultra själv och det känns stadigare med Atis försök att utveckla något nytt när nvidias nödlösning är gammal "än så länge mislyckad teknik." Om drivrutinerna strular som med 7950gx2 så lär det inte bli någon hit. Som tur är, lär inte kortet kosta $800 som 7950gx2 gjorde en gång i tiden.

Kan du backa upp med källa att 9800GX2 inte består av två stycken grafikprocessorer från 8800GT när de flesta ryktena säger tvärtom?

Som jag även skrev tidigare. Om det blir en 7950GX2 historia så blir det förmodligen en flopp.

Citat:

Där är skillnaden mellan 3870x2 och 9800gx2 då 9800gx2 är samma arkitektur som 7950gx2 som (kolla in lite crossfire vs. sli tester från 2-3 år sedan) presterade sämmre än både 7950gt och ati x1950xtx i sli respektive corssfire och ändå kostade ett sådant kort lika mycket som två av dessa modellerna. 3870x2 är dock ett "dual-core" gfx kort där kärnorna inte sitter på en die. Samma sak som Intel gör med sina quads (två dual cores som inte sitter på samma die).

Jag hoppas du förstår hur fel du skrev eller så är du inte medveten om att du har fel.

9800GX2 och 7950GX2 består INTE av samma arkitektur. 8800GTS 320/512/640Mb, GTX samt Ultra består av samma arkitektur, inte 7950GX2. Att grafikkorten fysiskt som kort skulle vara uppbyggda (två ihoplimmade) kort är en annan femma.

3870GX2 är inte uppbyggt som en dual core, då skulle det existera 4 kärnor på grafikkortet vilket det inte gör utan 1 kärna under varje GPU.
Core är lika med kärna, GPU är lika med Graphics Processing Unit, tänk på det.

Citat:

I dagsläget ser det lovande ut när 3870x2 får nästan 10k i 3dmark i 2560*1600 för det får inte två stycken 3870 i xfire. Än så länge återstår det att se hur detta kort hanterar AA men Ati har lagt till en ny slags AA motor verkar det som, och det har lagts upp en video av ett enda 3870x2 som kör CoD4 i 2560*1600 i full grafik+full AA med en mer än spelbar FPS, på Gamespot.

Men du har helt rätt i det att vi inte har en aning om hur det kommer se ut i slutändan. Vi får helt enkelt vänta. Alla dessa argument spelar ingen roll över huvud taget, och jag kommer köpa det som presterar bäst helt enkelt i Februari/Mars när jag skall köpa ny dator. Hade dock inte förväntat mig den här prestandan från 3870x2, så det blir intressant hur Nvidia löser det här. Skulle va kul om Ati hade övertaget ett tag så att priserna pressas lite.

3dmark? Absolut, riktigt bra poäng men din poäng faller också med tanke på att 3dmark säger väldigt lite om hur ett grafikkort spelar i spel. Och som större delen av oss här inne redan vet så har ATi fördel i både 3dmark 2005 och 2006, känt sedan länge.

Men för att återgå till 3dmark06:

8xAA/16xAF är nog mer ansträngande för grafikkortet att driva 3dmark06 jämfört med en upplösning om 2560*1600 utan AA och AF. Det är jag helt övertygad om.

Så här ser det ut i 1280*1024 med 8xAA och 16xAF:

Notera CPU poängen och en sådan processor hade de inte på den bilden jag la uppom i en upplösning om 2560*1600. Där hade de endast en E6600 @ 2.4Ghz, alltså en ganska klen processor för 3dmark så min teori tror jag stämmer ganska bra. En upplösning om 2560*1600 med identiska komponenter och du får mer poäng jämfört med med full AA och AF. Med andra ord så presterar HD3870 @ Crossfire ungefär som HD3870X2, som de flesta har tänkt sig med andra ord.

Vår medlem Kinc kan nog bäst svara på vilket som är tyngst att köra i.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av A.N'doja
Det sista du skrev håller jag med om. Men okej, är det på sådana villkor så kan man heller inte avgöra vilket kort som presterar bäst, alltså bäst, most power, kind of performance. Då får man i så fall skriva eller utgå från "bäst med/utan X och Y" right? Dock vinner Nvidia den ronden också som det ser ut idag.

raekan:
De såg maffiga ut, dock lär de låta illa!

Ah! precis vad jag tycker.
En testsait eller en tidning är lite desperata när det gäller att hitta något som är "bäst i test", men det borde inte gälla oss.
Vad som är bäst styrs ju helt av våra olika behov och som köpare skall jag titta efter vad som är viktigt för just mig tex. pris, tillgång, kvalité, garantier olika prestanda och ljudnivå.
Därför tycker jag att den här debatten om vilket som är bäst 8800GT eller HD3870 är ganska ointressant, eftersom vad som är bäst avgörs av olika människor behov.
Vad som är viktigt är om kortet är bra och jag tycker att vi borde kunna enas om att både 8800GT och HD3870 är mycket bra kort, tycke smak och olika prioriteringar avgör resten.
Edit: Med det menar jag förstås inte, att vi inte kan diskutera tekniska detaljer.

Edit: fick citeringen att funka den här gången iaf.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Avstängd
Citat:

Då är det totalt ointressant vilken teknik som är bäst eftersom den ena parten har ett bättre prestandakort för spel vilket är det som är intressant för dig och mig.

Lägg till per krona så kan jag hålla med dig. Det är många av oss mer normala användare som inte skulle lägga 2000kr eller mer på ett grafikkort. Och vad får vi? ATI och en trots allt bra produkt. Spelar oftast ingen roll om det finns ett grafikkort för dubbla pengen som är 3x så snabbt.

Permalänk

Ryktet runt internet är att 9800gx2 kommer ha 256 (128+128) stream processors. Jag hade fel...det är snarare ett aningen uppgraderat 8800gt om något i och med att de flest 8800gt kommer med 96 stream processors men att man kan låsa up ytterligare 16 stycken så att det blir 112. My bad.

Nej jag använde fel ord. Det är inte samma arkitektur någonstans, snarare upplägget av korten eller slags kort är detsamma som 7950gx2 i och med att det helt enkelt är två kort som är ihopkopplade rätt ur boxen och tar två utbyggsplatser precis som till exempel 3870x2, 3870, eller 8800gtx.

Ett äkta dual core kort hade haft två kärnor i en die och en gpu precis som en äkta quadcore processor hade haft 4 kärnor i en die (intels quads är väsentligen 2 dual core dies "ihopklistrade"). Det var därför jag skrev "dual-core" inom citationstecken. Men om det hade varit ett äkta dual core och dual gpu hade det varit två kärnor på varje gpu som du sade.

Visserligen är det mycket krävande att köra 8AA/16AF men att få 10k i 3dmark06 under 2560*1600 är ändå helt enastående. Jag förstår argumentet men jag tror ändå att 3870x2 kommer prestera bättre än 2 stycken 3870 i och med att det är en helt annan slags teknik. Dels är det ju delat minne för de båda gpu:erna vilket betyder att man slipper att rita up på båda minnerna, och på så sätt få bättre samarbete. Jag kollade upp lite 3870 tester och där körde dom ET: Quake Wars. genom att gå från 1920*1200 till 2560*1600 tappade dom ca 22 fps och genom att lägga till 4AA/16AF till upplösningen 1900*1200 tappade dom ca 25 fps så det är ganska lika i spelvärksamhet. Å andra sidan så snackar du om 8AA vilket är ytterligare krävande men jag tvivlar starkt på att två stycken 3870 kan åstadkomma så höga poäng på den upplösning. Det är min mening, du får gärna ha din egna åsikt.

3Dmark har inte mycket vikt vid själva spelprestandan men det är inte vinklat åt det ena eller det andra märket vilket gör det ett riktigt bra sätt att mäta prestandan på ändå. Spel är alltid vinklade när det gäller support för det ena eller det andra märket.

Ha det gött...Kul att ha lite intelligent debatt för en gångs skull

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem

För att undvika att göra över forumet helt med diverse citat:
Dojjan - här har du ett gammalt 2900XT Crossfire test mot Ultran:
http://www.tweaktown.com/articles/1131/10/page_10_benchmarks_...
Desto högre upplösning, desto mer drar XT:an ifrån.
Tajtare marginaler under AA/AF i applikationer:
http://www.tweaktown.com/articles/1131/12/page_12_benchmarks_...
Även i Prey, men GTX:an drar iväg under standardupplösningar:
http://www.tweaktown.com/articles/1131/8/page_8_benchmarks_pr...

Där har du resultat där 2900XT drar iväg, eller stannar intill, Ultran. HD3870 har en tendens att antingen få samma poäng under default som 2900XT eller i allmänhet högre under GPU-intensiva applikationer. Alltså talar allting för att HD3870X2 prsterar bättre än 8800Ultra med upp till 30% åtminstonne under tyngsta upplösningar eller i genomsnitt 10-15% under tunga AA/AF förhållanden. I standardupplösningar står vi visserligen 1:1, men det finns inte mycket utrymme för utbyggnad där.

Kommer Nvidia inte att kasterera en kärna på sin GX2:a kommer vi i vilket fall som helst se för stor prislapp för att stå sig alls intressant mot identiskt presterande GTX, och effekten blir övervägande intensiv. Som jag förstår det är GX2:an också "limmad" på olika fysiska plattor ungefär som vid 7950GX2, alltså något som blir dyrare då det krävs något mer material för att göra detta medan AMD kompenserar med att göra kortet lika långt som Nvidias tidigare GTX och har de två kretsarna på samma kort, vilket blir billigare. Sedan råder det inga tvivel om att AMDs X2:a kommer klocka väl, åtminstonne om vi ser till den versionen med Zalman-liknande kylning, för ingenjörsexemplaret med 2900XTX:s gamla prototyp-design och XT:ans gamla fläkt är ju inte optimal.

Permalänk
Medlem

Vilket jävla tjafs det ska vara från båda sidor.... Chilla ner lite och invänta korten istället för att munhuggas som ni har en doktors examen på området.

Bara tiden kommer att utvisa vilket av korten som är bäst!

peace

Permalänk
Citat:

Ursprungligen inskrivet av Ratatosk
Ah! precis vad jag tycker.
En testsait eller en tidning är lite desperata när det gäller att hitta något som är "bäst i test", men det borde inte gälla oss.
Vad som är bäst styrs ju helt av våra olika behov och som köpare skall jag titta efter vad som är viktigt för just mig tex. pris, tillgång, kvalité, garantier olika prestanda och ljudnivå.
Därför tycker jag att den här debatten om vilket som är bäst 8800GT eller HD3870 är ganska ointressant, eftersom vad som är bäst avgörs av olika människor behov.
Vad som är viktigt är om kortet är bra och jag tycker att vi borde kunna enas om att både 8800GT och HD3870 är mycket bra kort, tycke smak och olika prioriteringar avgör resten.
Edit: Med det menar jag förstås inte, att vi inte kan diskutera tekniska detaljer.

Edit: fick citeringen att funka den här gången iaf.

Håller med, men här diskuterade vi ändå prestanda.

Citat:

Ursprungligen inskrivet av Damodred
Lägg till per krona så kan jag hålla med dig. Det är många av oss mer normala användare som inte skulle lägga 2000kr eller mer på ett grafikkort. Och vad får vi? ATI och en trots allt bra produkt. Spelar oftast ingen roll om det finns ett grafikkort för dubbla pengen som är 3x så snabbt.

Du hittar 8800GT för under 2000kr idag. Men jag förstår vad du menar.

Citat:

Ursprungligen inskrivet av Mr.Borka
För att undvika att göra över forumet helt med diverse citat:
Dojjan - här har du ett gammalt 2900XT Crossfire test mot Ultran:
http://www.tweaktown.com/articles/1131/10/page_10_benchmarks_...
Desto högre upplösning, desto mer drar XT:an ifrån.
Tajtare marginaler under AA/AF i applikationer:
http://www.tweaktown.com/articles/1131/12/page_12_benchmarks_...
Även i Prey, men GTX:an drar iväg under standardupplösningar:
http://www.tweaktown.com/articles/1131/8/page_8_benchmarks_pr...

Där har du resultat där 2900XT drar iväg, eller stannar intill, Ultran. HD3870 har en tendens att antingen få samma poäng under default som 2900XT eller i allmänhet högre under GPU-intensiva applikationer. Alltså talar allting för att HD3870X2 prsterar bättre än 8800Ultra med upp till 30% åtminstonne under tyngsta upplösningar eller i genomsnitt 10-15% under tunga AA/AF förhållanden. I standardupplösningar står vi visserligen 1:1, men det finns inte mycket utrymme för utbyggnad där.

Kommer Nvidia inte att kasterera en kärna på sin GX2:a kommer vi i vilket fall som helst se för stor prislapp för att stå sig alls intressant mot identiskt presterande GTX, och effekten blir övervägande intensiv. Som jag förstår det är GX2:an också "limmad" på olika fysiska plattor ungefär som vid 7950GX2, alltså något som blir dyrare då det krävs något mer material för att göra detta medan AMD kompenserar med att göra kortet lika långt som Nvidias tidigare GTX och har de två kretsarna på samma kort, vilket blir billigare. Sedan råder det inga tvivel om att AMDs X2:a kommer klocka väl, åtminstonne om vi ser till den versionen med Zalman-liknande kylning, för ingenjörsexemplaret med 2900XTX:s gamla prototyp-design och XT:ans gamla fläkt är ju inte optimal.

Okej, Borka. Om du sitter på information som vi andra 99% inte gör, kan du inte länka detta eller berätta för oss hur du vet att X kommer att göra Y och så vidare. Det blir lite tjatigt när du tråd efter tråd alltid kommer med påståenden, framförallt irriterande när du många gånger vet vad du talar om. Vart får du din information från? Känner du någon på AMD och Nvidia? Kan du inte dela med dig av din information?

Men, för att vi skall få slut på HD2900 vs 8800Ultra diskussionen så länkar jag härmed ett test som är nyare än ditt, senare drivrutiner än ditt och bättre prestandatestat än testet du länkade som för övrigt var helt ok, men alldeles to old. Jag tycker till och med vi drar med Crossfire prestandan när vi ändå är på G här inne:
http://www.xbitlabs.com/articles/video/display/diamond-viper-...

Så, kan vi få slut på diskussionen nu Borka?

Om hur 9800GX2 och HD3870X2 ser ut så tycker jag givetvis att HD3870X2 är det bättre byggda kortet.

EDIT: För övrigt så struntade du att svara på de andra jag har skrivit.

Citat:

Ursprungligen inskrivet av oscarstegland
Ryktet runt internet är att 9800gx2 kommer ha 256 (128+128) stream processors. Jag hade fel...det är snarare ett aningen uppgraderat 8800gt om något i och med att de flest 8800gt kommer med 96 stream processors men att man kan låsa up ytterligare 16 stycken så att det blir 112. My bad.

Nej jag använde fel ord. Det är inte samma arkitektur någonstans, snarare upplägget av korten eller slags kort är detsamma som 7950gx2 i och med att det helt enkelt är två kort som är ihopkopplade rätt ur boxen och tar två utbyggsplatser precis som till exempel 3870x2, 3870, eller 8800gtx.

Ett äkta dual core kort hade haft två kärnor i en die och en gpu precis som en äkta quadcore processor hade haft 4 kärnor i en die (intels quads är väsentligen 2 dual core dies "ihopklistrade"). Det var därför jag skrev "dual-core" inom citationstecken. Men om det hade varit ett äkta dual core och dual gpu hade det varit två kärnor på varje gpu som du sade.

Visserligen är det mycket krävande att köra 8AA/16AF men att få 10k i 3dmark06 under 2560*1600 är ändå helt enastående. Jag förstår argumentet men jag tror ändå att 3870x2 kommer prestera bättre än 2 stycken 3870 i och med att det är en helt annan slags teknik. Dels är det ju delat minne för de båda gpu:erna vilket betyder att man slipper att rita up på båda minnerna, och på så sätt få bättre samarbete. Jag kollade upp lite 3870 tester och där körde dom ET: Quake Wars. genom att gå från 1920*1200 till 2560*1600 tappade dom ca 22 fps och genom att lägga till 4AA/16AF till upplösningen 1900*1200 tappade dom ca 25 fps så det är ganska lika i spelvärksamhet. Å andra sidan så snackar du om 8AA vilket är ytterligare krävande men jag tvivlar starkt på att två stycken 3870 kan åstadkomma så höga poäng på den upplösning. Det är min mening, du får gärna ha din egna åsikt.

3Dmark har inte mycket vikt vid själva spelprestandan men det är inte vinklat åt det ena eller det andra märket vilket gör det ett riktigt bra sätt att mäta prestandan på ändå. Spel är alltid vinklade när det gäller support för det ena eller det andra märket.

Ha det gött...Kul att ha lite intelligent debatt för en gångs skull

Okej. Kan du länka fram några källor som stödjer det du skriver här i forumet? En sak du kan tänka på som ny medlem är att när man skriver att X kommer vara bättre än Y och innehåller det och det så är det alltid bra att dra fram källor på det. Annars så betyder din text inte speciellt mycket när man diskuterar saker som inte lanserats än. Texten fyller bara upp tråden med spekulationer som man inte kan ta som en starkare fakta.

Länka lite så är du bussig.

Angående tekniken med att ha två GPU'r på samma PCB eller två fysiska olika kort så är skillnaden prestandamässigt väldigt liten av den anledningen att HD3870 många gånger redan idag skalar nästan 100%. Om det är identiska GPU'r på samma PCB fast av två kan ingenting annat som sitter fastlödat på PCB'n påverka GPU'ns prestanda förutom minnena. Så tekniken bakom ATis X2 har ingenting med prestandan för GPU'n från HD3870 att göra.

Jag har frågat runt lite och de som svarat menar på att 8xAA och 16xAF påverkar FPS mer än vad upplösningen 2560*1600 gör. Logiskt nog borde det givetvis vara så men som jag skrev tidigare, jag är inte helt säker och Kinc eller någon annan på detta forum är nog mer rätt person att avgöra en sådan sak. Eller får jag ta och prova själv och lägga upp lite bilder.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

Tufft 2900Xt crossfire spankade ett Ultra rätt så hårt får man säga. Tittar givetvis bara på Xp då Vista var ännu sämre på den tiden.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg

Permalänk
Citat:

Ursprungligen inskrivet av Nyarlathotep
Tufft 2900Xt crossfire spankade ett Ultra rätt så hårt får man säga. Tittar givetvis bara på Xp då Vista var ännu sämre på den tiden.

Om du refererar till testet jag länkade så är det tvärt om men jag antar att du inte läste hela testet innan du började skriva.
8800Ultra spankade två stycken HD2900XT 1GB väldigt hårt överlag. I vissa spel och i vissa upplösningar så presterade HD2900XT @ CF bra men oftast fick de storstryk.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Xiano
Vilket jävla tjafs det ska vara från båda sidor.... Chilla ner lite och invänta korten istället för att munhuggas som ni har en doktors examen på området.

Bara tiden kommer att utvisa vilket av korten som är bäst!

peace

Jag håller med. En del tror dom vet allt men i sjävla verket kan dom nog inte ett skit.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
För att diskussionen handlar om 9800X2, x2 vs x2.
Mvh Albin

Så då är det lika rimligt att jämföra 3870X2 mot 7950GX2 då? Eller?

Om det ska jämföras två kort är det väl andra parametrar än hur kortet är byggt som spelar roll? Pris kanske? Eller strömåtgång?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Om du refererar till testet jag länkade så är det tvärt om men jag antar att du inte läste hela testet innan du började skriva.
8800Ultra spankade två stycken HD2900XT 1GB väldigt hårt överlag. I vissa spel och i vissa upplösningar så presterade HD2900XT @ CF bra men oftast fick de storstryk.

Storstryk? Knappast, i allmänhet briljerade XT i Crossfire under tyngsta upplösningarna med goda marginaler och där AMD-maskinerna funkar så mycket sämre som de gör så beror detta på utvecklingsstödet och drivrutiner då mycket "launch-and-forget" spel benchades såsom Splinter Cell och andra små spel direkt portade från konsoll till PC för att möta en så stor marknad som möjligt utan att vilja spendera mer tid än nödvändigt på optimering. Om t.ex. Ultran har 60FPS och 2900XT 11FPS och Crossfire 20FPS så talar det just för detta. Fortfarande, dessa gäller ju fortfarande som benchmark:s men jag är inte alls orolig. Sedan får XT:an dåliga poäng under 3dMark06 vilket är ett tecken på deras gamla drivrutiner som är från samma tid som Tweaktowns recension, Catalyst 7.7 BETA. Alltså inte en dag fräschare än Tweaktowns recension. Vid 7.10 eller 7.11 såg vi bättre Crossfire-stöd i t.ex. Battlefield 2142 och andra spel som benchades så känn dig inte allt för nöjd nu.

Jag referar till länken från Xbitlabs du skrev tidigare.

Permalänk
Medlem

Jag tror i.a.f. HD3870 X2 @ Xfire slår 9800 @ sli

Visa signatur

Byt namn på Nvidia till NvidAI

Permalänk
Avstängd

Re: Re: Doja...

Citat:

Ursprungligen inskrivet av A.N'doja
Precis det jag skrev ovan. Kan vara så att Crossfire är bättre men att ATis kort inte är procentuellt lika bra i prestanda i spel.

Kan du backa upp med källa att 9800GX2 inte består av två stycken grafikprocessorer från 8800GT när de flesta ryktena säger tvärtom?

Som jag även skrev tidigare. Om det blir en 7950GX2 historia så blir det förmodligen en flopp.

Jag hoppas du förstår hur fel du skrev eller så är du inte medveten om att du har fel.

9800GX2 och 7950GX2 består INTE av samma arkitektur. 8800GTS 320/512/640Mb, GTX samt Ultra består av samma arkitektur, inte 7950GX2. Att grafikkorten fysiskt som kort skulle vara uppbyggda (två ihoplimmade) kort är en annan femma.

3870GX2 är inte uppbyggt som en dual core, då skulle det existera 4 kärnor på grafikkortet vilket det inte gör utan 1 kärna under varje GPU.
Core är lika med kärna, GPU är lika med Graphics Processing Unit, tänk på det.

3dmark? Absolut, riktigt bra poäng men din poäng faller också med tanke på att 3dmark säger väldigt lite om hur ett grafikkort spelar i spel. Och som större delen av oss här inne redan vet så har ATi fördel i både 3dmark 2005 och 2006, känt sedan länge.

Men för att återgå till 3dmark06:

8xAA/16xAF är nog mer ansträngande för grafikkortet att driva 3dmark06 jämfört med en upplösning om 2560*1600 utan AA och AF. Det är jag helt övertygad om.

Så här ser det ut i 1280*1024 med 8xAA och 16xAF:
http://www.iax-tech.com/video/3870/3870stockcf8aa16af.PNG

Notera CPU poängen och en sådan processor hade de inte på den bilden jag la uppom i en upplösning om 2560*1600. Där hade de endast en E6600 @ 2.4Ghz, alltså en ganska klen processor för 3dmark så min teori tror jag stämmer ganska bra. En upplösning om 2560*1600 med identiska komponenter och du får mer poäng jämfört med med full AA och AF. Med andra ord så presterar HD3870 @ Crossfire ungefär som HD3870X2, som de flesta har tänkt sig med andra ord.

Vår medlem Kinc kan nog bäst svara på vilket som är tyngst att köra i.

9800GX2 består defintivt inte av 2 8800GT om man ska tro specifikationer. Snarare 2 8800GTS 512Mb

Amgående ditt 3Dmark resultat. Så är det på en 4GHz C2Q. Jämfört med ATI testet som körs på en 2.4GHz C2D. Enorm skillnad i CPU-prestanda med andra ord. Och på så kraftiga kort kan CPU-prestanda bli ganska avgörande.

Jag säger inte att det betyder att ATIs kort är bättre. Men att testen är för olika för att kunna jämföras över huvud taget.

Permalänk
Medlem

*Eating popcorn* Så mycket som är galet fel i tråden, men denna gång tittar jag bara

Visa signatur

[ AMD 9800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Linux EndeavourOS ][ LG 34GN850 ]

Permalänk
Citat:

Ursprungligen inskrivet av Finkelzvin
Så då är det lika rimligt att jämföra 3870X2 mot 7950GX2 då? Eller?

Om det ska jämföras två kort är det väl andra parametrar än hur kortet är byggt som spelar roll? Pris kanske? Eller strömåtgång?

Jag tror du har missuppfattat mig. En annan i tråden skrev att han trodde HD3870X2 presterar bättre än 9800GTX. Jag refererade då till att HD3870X2 ska jämföras med 9800GX2 eftersom det är de som ska prestera ut varandra.

Citat:

Ursprungligen inskrivet av -Boris-
9800GX2 består defintivt inte av 2 8800GT om man ska tro specifikationer. Snarare 2 8800GTS 512Mb

Amgående ditt 3Dmark resultat. Så är det på en 4GHz C2Q. Jämfört med ATI testet som körs på en 2.4GHz C2D. Enorm skillnad i CPU-prestanda med andra ord. Och på så kraftiga kort kan CPU-prestanda bli ganska avgörande.

Jag säger inte att det betyder att ATIs kort är bättre. Men att testen är för olika för att kunna jämföras över huvud taget.

Hm, okej. Mer olyckligt för mig och AMD då.
Jag har dock bara sett rykten kring 8800GT och 9600GT kärnor i 9800GX2.

Nja angående 3dmark06 resultaten så menade jag på att 16xAA & 16xAF är nog mer tungdrivet i 1280*1024 än vad 3dmark06 i 2560*1600 utan AA och AF är, eller?

Citat:

Ursprungligen inskrivet av Mr.Borka
Storstryk? Knappast, i allmänhet briljerade XT i Crossfire under tyngsta upplösningarna med goda marginaler och där AMD-maskinerna funkar så mycket sämre som de gör så beror detta på utvecklingsstödet och drivrutiner då mycket "launch-and-forget" spel benchades såsom Splinter Cell och andra små spel direkt portade från konsoll till PC för att möta en så stor marknad som möjligt utan att vilja spendera mer tid än nödvändigt på optimering. Om t.ex. Ultran har 60FPS och 2900XT 11FPS och Crossfire 20FPS så talar det just för detta. Fortfarande, dessa gäller ju fortfarande som benchmark:s men jag är inte alls orolig. Sedan får XT:an dåliga poäng under 3dMark06 vilket är ett tecken på deras gamla drivrutiner som är från samma tid som Tweaktowns recension, Catalyst 7.7 BETA. Alltså inte en dag fräschare än Tweaktowns recension. Vid 7.10 eller 7.11 såg vi bättre Crossfire-stöd i t.ex. Battlefield 2142 och andra spel som benchades så känn dig inte allt för nöjd nu.

Jag referar till länken från Xbitlabs du skrev tidigare.

BF: 1-0 till Ati
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

CoJ DX9: 2-0 till ATi
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

CoJ DX10: 2-1 till ATi
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Far Cry: 3-1 till Ati
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Fear: 3-2 till ATi
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

GRAW: 4-2 till ATi
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

HL2: 5-2 till ATi
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Prey: 6-2 till ATI
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Stalker: 6-3 till ATi
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Hitman BM: 6-4 till ATI
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Tomb rider L: 6-5 till ATI:
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

SC DA: 6-6 lika
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Gothic 3: 7-6 till Nv:
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

NN 2: 8-6 till Nv:
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Oblivion: 8-7 till Nv:
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

X3 Reunion: 9-7 till Nv:
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Supreme C: 10-7 till Nv:
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

CoH: 11-7 till Nv:
http://www.xbitlabs.com/images/video/diamond-viper-hd2900xt-1...

Så, kan du ge dig nu Borka och sluta upp med dina teorier om varför HD2900XT får spö med Crossfire mot ett 8800Ultra? Kan du inte bara erkänna att du har fel? Men okej, vi plockar bort spelet Splinter cell double agent, 10-7 till Nv. Nvidia använde sig av ett kort och Ati använde sig av två kort med 1Gb minne dessutom.

Kalla detta vad du vill men jo, detta är att verkligen ge någon stor stryk i prestanda. Ett kort versus 2 kort och de två korten åker på stryk. 11-7 till nv men eftersom vi plockar bort ett spel som enligt din teori inte ska testas så blir poängen 10-7 istället till Nvidias fördel.

Jag ser att R600 arkitekturen här skalar riktigt bra i de spel kortet presterar bra i. Men tyvärr räcker inte detta för HD2900 korten.

Tweaktowns test är äldre drivrutinerna från tweaktown presterar inte lika bra i Crossfire som Xbitstest och dess drivrutiner. Kan du referera till andra test så kan jag säkerligen också referera till andra test.

När två stycken HD3870 knappt tar sig förbi ett 8800Ultra måste du väl förstå att HD2900XT 512PRO som du påstod sig prestera oftast över Ultra inte stämmer visst? HD3870 ger HD2900 på fingrarna oftast däremot men det är en helt annan historia.
HD3870 presterar bättre än HD2900XT men får spö av ett 8800GT, cirka 20%. Det vet vi alla.
8800GT får spö av ett 8800Ultra. 2bad4u helt enkelt. Hurvida HD3870X2 kommer att prestera har jag ingen aning om men du gav dig in i leken HD2900.

Sorry för OFF-T

Mvh Albin

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.