Nya Radeon tar upp kampen mot Geforce 8800 Ultra

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Benkaboy
OK! nu är frågan:

2st http://www.datorbutiken.com/se/default.aspx?Product=SAPHD3870...

ELLER

1st https://www.datorbutiken.com/se/default.aspx?Product=PCRHD387...

Ett X2 verkar prestera lite jämnare och lite bättre än 3870@CF men är det värt 400:- i mellanskillnad? Kommer CF påverkas bättre oxå ifall bättre drivare släpps för detta kort, eftersom det i slutänden är det som det handlar om?

Det där 3870-kortet såg inget vidare ut, ett 3870 med 3850 kylning på...

Visa signatur

Riggen:ASRock X570M Pro4 - AMD Ryzen 7 3700X - Corsair 32GB DDR4 3200MHz - Corsair MP510 960Gb NVME - EVGA 1080ti SC2 - 3x Samsung 840 500GB - EVGA SuperNOVA G1+ 650W - Fractal Design Meshify C Mini Dark TG
NAS: FreeNAS @ HP Proliant MicroServer Gen 8 - Xeon E3-1230 V2 - 16Gb Kingston ECC RAM - Intel 530 120Gb - IBM m1015/LSI 9220-8i - 4x WD Red 3Tb

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Aka_The_Barf
dual gpu är INTE framtiden, jag vill inte se halvmeter långa kort med 5 gpuer i min låda inte.
det som är framtiden är dualcores och quad cores fast GPUer då!

vad är allt tjafs om att alla ati kort släps med sunkiga drivrutiner och kommer få en boost i framtiden på 50% av nya drivrutiner, har varken sett boost eller mirakel drivrutiner komma från ati, varför skulle dom släppa dåliga drivers till sina kort med flit?
när 2900xt släpptes så var prestandan inte den bästa MEN alla sa att snart kommer nya drivrutiner och då jäklar ska ni se en boost på 50% i många spel mm, hände inget på den fronten heller.
så sluta med drivrutins tjafset.

nu får du ju också tänka på att tekniken som förbättras även gör att grafikprocessorernas storlek minskar, eller har jag fel ? från 95nm till 55nm, säger det dig något ? låt oss låtsas spå in i framtiden då dem tillverkar ett grafikkort på 30nm och som består av 4gpus. sammankoppla 2 sånna kort och du får 8gpus vare sig det är sli eller crossfire, sen låtsas vi att längden på det är 26.5cm totalt. säger detta dig något då ?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av skogsvilden
Det där 3870-kortet såg inget vidare ut, ett 3870 med 3850 kylning på...

Enda skillnaden är att du har annan kylare, som sägs kyla bra, och att man inte får med nåt spel, därav priset. Annars samma kort.

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av A.N'doja
Okej? 8800GT är också mellan segment kort och ett 8800GT presterar överlag cirka 20-60% bättre än ett HD3870. Det kan du inte minst se här i Xbitlabs senaste test från och med Fredags förra veckan:
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-...

Nu tog du allt i, finns andra tester som visar en betydligt mindre skillnad.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Bra ati! mera grafikkort som är presterar bra i förhållande till priset!

Visa signatur

Ursprungligen inskrivet av Galna_Dvärgen ... i begynnelsen skapade inet fri frakt för sweclockersmedlemmar och såg att det var gott.

Permalänk
Medlem

Har sökt lite på detta kort om mera fakta, och förstår mera och mera vitsen med att de har 2st processorer på ett kort istället för 2 kärnor i en processor...just nu är det en övergång tills dess att dessa kommer...men skitsamma.....

Jag undrar lite om varför detta kort har en Memory Clock Speed 1,8 Ghz, då klockan orginal är på 2,25 Ghz....Har hittat lite info om det...men det är blörigt ändå..... att den går med 32 texture units och att den ligger på 1+ terra flopps som inget annat kort har gjort förut så tycker man att den borde ha mer i clock speed...borde igentligen vara högre.......

Någon som kan förklara det för mig vore snällt.....

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Aka_The_Barf
dual gpu är INTE framtiden, jag vill inte se halvmeter långa kort med 5 gpuer i min låda inte.
det som är framtiden är dualcores och quad cores fast GPUer då!

vad är allt tjafs om att alla ati kort släps med sunkiga drivrutiner och kommer få en boost i framtiden på 50% av nya drivrutiner, har varken sett boost eller mirakel drivrutiner komma från ati, varför skulle dom släppa dåliga drivers till sina kort med flit?
när 2900xt släpptes så var prestandan inte den bästa MEN alla sa att snart kommer nya drivrutiner och då jäklar ska ni se en boost på 50% i många spel mm, hände inget på den fronten heller.
så sluta med drivrutins tjafset.

Drivrutiner på detta kort kan göra att prestandan kan öka.
Iom att dom kan öka scalningen och cf stödet för spelen.

Permalänk
Citat:

Ursprungligen inskrivet av Ratatosk
Nu tog du allt i, finns andra tester som visar en betydligt mindre skillnad.

Skall jag ifråga sätta Xbitlabs som _alltid_ brukar få liknande resultat som Anandtech, Hexus, Bjorn3d?

Möjligt de har gjort superfel.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av ZereCool
Drivrutiner på detta kort kan göra att prestandan kan öka.
Iom att dom kan öka scalningen och cf stödet för spelen.

Att lita på att ATI ska släppa mirakel drivrutiner är bara fjant, köp ett grafikkort som fungerar som du vill från början... allt utöver det du har köpt är plus, hur som helst räkna inte med plusset innan det existerar.

Visa signatur

| eVGA 790i Ultra | E8400@4ghz | Peltier/Vatten-hybrid CPU kylning (ST=20°) | 9800GX2(X2) | 2GB Cellshock DDR3@2ghz | Modded-P190 | 150gb Raptor (2 sectors) | Vista Ultimate x64+XP Pro x86 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Swedishbanshee
Att lita på att ATI ska släppa mirakel drivrutiner är bara fjant, köp ett grafikkort som fungerar som du vill från början... allt utöver det du har köpt är plus, hur som helst räkna inte med plusset innan det existerar.

det här låter så rätt efter att ha läst testerna idag

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av A.N'doja
Skall jag ifråga sätta Xbitlabs som _alltid_ brukar få liknande resultat som Anandtech, Hexus, Bjorn3d?

Möjligt de har gjort superfel.

Nu tog du allt i.
Jag tvivlar inte på att dom är seriösa, vad jag menade är att resulteten beror på hur man testar och vad man testar.
Finns som sagt andra tester där skillnaden är mindre, man får väga samman deras resultat med andras.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Bara jag som har den här "Dual Core - Do more" känslan från processortiden. Det känns ju lite som att man gör ett dåligt köp om man köper ett grafikkort med 1 GPU. Vilket trots allt inte är fallet...

Annars tycker jag det är kul att AMD kör på lite, man kan i alla fall säga att de bättrat sig på lanseringsfronten!

Andoja: (Och några andra)
Lugna ner er lite nu. Efter att ha läst dina inlägg Andoja, så tänker man "WOW, denna kille gillar Nvidia". Försök vara lite mer opartisk, spec när du skriver så mycket...

HD3870 X2 kanske inte är prestandamonstret alla har väntat på MEN det sätter press på Nvidia och skapar lite konkurrens DET är bra.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Swedishbanshee
Att lita på att ATI ska släppa mirakel drivrutiner är bara fjant, köp ett grafikkort som fungerar som du vill från början... allt utöver det du har köpt är plus, hur som helst räkna inte med plusset innan det existerar.

Ska inte köpa nått kort.
Säger bara att det har större chans att bli mer prestanda med nya drivrutiner på x2 kortet och cf än med en singel kort.
Sen om det blir det är en annan sak.

Permalänk
Medlem

Är de värt o köpa ett nytt 8800GTS 512mb o byta kylare eller ska man ge liten slant till för nya ati kortet eller bara vänta te R700/9800GTX??? Känner att mitt på 320mb inte räcker till i dagens spel med AA osv aktiverat.

On topic: Kul att se flera kärnor men tycker dom kan börja göra som på processorerna idag, alltså ha flera under samma skal o inte fläska på åt alla håll. ATI med sitt bredda ut kortet, Nvidia med sitt fläska på 2 bredvid varandra. För får dom in tex 4 GPU cores under 1 så kan dom ju spara en hel del plats på korten, o kortstorleken men lär iofs bli ganska varmt o kräva värre kylare.

Visa signatur

PC1: Ryzen 7 2700X / Noctua NH-D15 / GTX 1080 / 16GB 3200MHz DDR4 / Win 10 / Asus Rog Strix X470-F / 500GB SSD / Define C
PC2: i7 7700k / Cryorig C7 / GTX 1060 6GB / 32GB 3200MHz DDR4 / Win 10 / Asus Strix Z270F / 500GB SSD / In-Win 904
PC3: i5 3570k / Be Quiet pure rock / GTX 960 / 8GB 1600MHz DDR3 / Win 10 / ASRock P67 Extreme4 / 80GB SSD / AeroCool Shard TG

Permalänk
Medlem

Om jag har förstått allt rätt kommer man väl kunna köra HD 3870 X2 i Crossfire? Finns det några tester med två sånna här kort och hur presterar det då?

Jag tycker i alla fall att det ser lovande ut. Förstår inte heller NVIDIA-fanboys som säger "Men Nvidias nästa kort kommer ju piska skiten ur detta"?

Finns ju inget som talar för det? För det första rör det väl sig om ett "sandwich"-kort, man klämmer ihop två grafikkort som kommer ta mer plats än ett HD 3870 X2? Lär väl också dra mer ström, utveckla mer värme och låta mer? Samtidigt som det kommer kosta mycket mer än HD 3870 X2?

Bra jobbat ATI! Med lite överklockning, bättre drivrutiner och spelutvecklare som anpassar spelen mer efter tekniken kan man nog dra ifrån Nvidia till slut.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja

Jag skrev aldrig att jag rekommenderade 420watt, läs om och läs rätt. Men om det agget hade klarat av att leverera 35-40 Ampere på 12volts linorna och om agget är ett kvalitéts nätagg? Absolut!

Effekten är väldigt lite intressant i form av Watt då väldigt få system kommer upp i det wattantal du angav min vän:
http://www.sweclockers.com/articles_show.php?id=6003&page=5

Läs och njut och återknyt via PM om du undrar något mer.

Men käre lille A.N'doja! Är det inte du som skrev detta?? :

"För HD3870X2 skulle jag rekommendera 35A för att fungera korrekt och även ha rum för överklockning."

Då rekomenderar du ju 420 Watt!! 12x35=420

Så sluta snacka en massa skit!

Permalänk

Jösses vad det krigas (fortsätt gärna, det är underhållande om inte annat)

Jag blev iaf positivt överraskad av prestandan, främst vid högre upplösningar. Så nu är ett beställt och ska ersätta mitt gamla x1950xtx som inte riktigt räcker till längre i 1920x1200.

Permalänk
Medlem

Att jämföra 3870X2 med en SLI-lösning är fel då 3870X2 fungerar på samtliga moderkort.

Citat:

Ursprungligen inskrivet av A.N'doja
Nu är watten i och för sig ganska ointressant än så länge utan det är Ampere på 12 volts kablarna som kopplas in till grafikkorten som är väsentliga, det vill säga hur många ampere de klarar av att leverera.

Effekten (Watt) har ett linjärt samband med strömmen (Ampere).
35A på 12 volts-linorna är alltid 420W, hur du än vrider och vänder på det.
P (watt)=U (volt) *I (ampere).
Det enda intressanta är om effekten finns på 12V-linan eller 3,3V/5V.

Citat:

Ursprungligen inskrivet av Aka_The_Barf

det som är framtiden är dualcores och quad cores fast GPUer då!

I praktiken introducerades dualcore GPU med nVidia TNT för en väldans massa år sedan. nVidia är nu uppe i 128 cores och ATI i 320 cores.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Swedishbanshee
Att lita på att ATI ska släppa mirakel drivrutiner är bara fjant, köp ett grafikkort som fungerar som du vill från början... allt utöver det du har köpt är plus, hur som helst räkna inte med plusset innan det existerar.

Hade inte ATI nån teknologi i sina gpuer som dom inte fått funka eller stöd för ännu? Kommer inte ihåg vad den hette =/

Permalänk
Hedersmedlem

Om tre-fyra år kanske det bästa Nvidia och ATI kan producera faktiskt kan köra Crysis...:up:

"Kejsarens nya kläder"

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Avstängd

Fattar inte varför de går så dåligt för ATI när de gäller FPS. Tar de två GPU's från ATI's nextgen kort för att spöa Nvidias nuvarande värsting som har en GPU? Och snart kommer ju Geforce 9 som lär spöa skiten ur ATI's kort samt pressa ner priset på 8800 Ultra. Dark times for ATI Det enda som ATI kan vinna på är väl att dom är lite billigare, och de tackar vi för.

Visa signatur

You stink. Bender's great. Deal with it

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Hampe10
Bara jag som har den här "Dual Core - Do more" känslan från processortiden. Det känns ju lite som att man gör ett dåligt köp om man köper ett grafikkort med 1 GPU. Vilket trots allt inte är fallet...

Annars tycker jag det är kul att AMD kör på lite, man kan i alla fall säga att de bättrat sig på lanseringsfronten!

Andoja: (Och några andra)
Lugna ner er lite nu. Efter att ha läst dina inlägg Andoja, så tänker man "WOW, denna kille gillar Nvidia". Försök vara lite mer opartisk, spec när du skriver så mycket...

HD3870 X2 kanske inte är prestandamonstret alla har väntat på MEN det sätter press på Nvidia och skapar lite konkurrens DET är bra.

Word.

Dojjan påstår sig vara opartisk men han/du är det inte i mina ögon.

Skitbra med knivskarp konkurrens men folk mest bara gnäller.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd

Bra jobbat ATI/AMD. Som jag ser det så finns det ingen anledning att köpa ett Ultra längre. Detta kortet drar ytterst lite mer ström (ca. 10W), presterar minst lika bra, är lika tyst som en 3870 och är billigare...

Skönt med lite konkurens i high end segmentet!

Att de använder två gpuer kan kvitta. Det är resultaten som räknas. Klagar man på det så ska man klaga på dual-core och quad-core processorer.

Sen vad som kommer komma är också oväsentligt. Konkurensen gör att utveckligen går framåt samtidigt som priserna pressas. Nvdia är välkommen med sin x2 version när den väl är klar men det lär ju dröja lite till...

Visa signatur

Mmmarabou

Permalänk
Medlem

Varför har vissa sådana enorma förväntningar på det här kortet? Har ni totalt missat det Eson redan sagt i denna tråd? Det tål att repetera eftersom så många verkar ha missat det.

ATI ligger inte en generation efter, det här handlar inte om någon ny generations krets (och inte var 3870 det heller, det var en refresh av X2900) utan ett kort med två mellansegments-gpu:er vars prestanda vi redan vet om. Hur kan ni då förvänta er att den skall totalt krossa Ultran (trots att den är gammal)?

Personligen tycker jag X2 verkar väldigt intressant. Jag har alltid varit emot SLI/CF men ATI har löst detta på ett mycket elegant sätt. För att citera HardOCP:

Citat:

One thing we really like is the transparent nature of the onboard CrossFire with the Radeon HD 3870 X2. CrossFire is hardwired to be enabled. When we installed the video card there was no CrossFire tab present in Catalyst Control Center. We found CrossFire performance to work out-of-the-box with absolutely no issues! CrossFire on the 3870 X2 is truly transparent. If you are using this card and not aware that it is a dual GPU CrossFire configuration, you likely never will. This is the way it really should be, and we must give kudos to AMD for making this work so well.

Permalänk
Avstängd

R700 kommer äta upp det mesta

- 45nm (40% mindre)
- Ny memory controller
etc.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Citat:

Ursprungligen inskrivet av blade80
Jag undrar hur det blir med eftermarknadskylare till HD3870X2.

Två HR-03or! Wee-hee!

Edit:
Där kom första R700. "Vänta bara!"
- And so it begins, again...

Visa signatur

That's just my opinion, I could be wrong...
> C2Q Q6700 > 8GB PC6400 > Gigabyte 965P-DQ6 > HD4870X2 & HD4650
> Lian Li PC-201B > Corsair HX620 > 10.46TB > HP LP3065 & 2x HP LP2065

Permalänk
Medlem

Max FPS såg ju bra ut för CoD 4 men Min FPS (21fps) var ju inte alls imponerande? Kortet var avsevärt sämre än 8800Ultra (33fps). Och för mig är Min FPS betydligt viktigare än Max.

Det är bättre än 3870 i crossfire men då crossfire suger säger det inte så mycket.

Samma i Unreal 3 - MIN FPS: 8800U = 41, 3870 Crossfire = 40, 3870 X2 = 28. Sämre än dåliga Crossfire?

I vissa andra spel såg det åtminstonde lite bättre ut. Men imponerad? Knappast.

Visa signatur

Kunskap är en personlig upplevelse. Allt annat är bara information. /A. Einstein

Permalänk
Avstängd

Alltid kul med nya kort! önskar att nån dag dom gör kort med 1920*1200 som grund dvs. att spelen flyter fint i den upplösningen och uppåt!

Visa signatur

WS:/ASUS M4A78-E/Phenom 940BE/OCZ Reaper DDR2 PC8500 6Gb/CF Ati 4870 1GB//Server: AMD Phenom 9550/MSI K9A2 CF-F/OCZ Reaper PC8500 2Gb/XFX GTS 250 Nvidia
"En enskild människas död är en tragedi, en miljon döda är statistik" -Josef Stalin

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av d0nnie
Bra jobbat ATI/AMD. Som jag ser det så finns det ingen anledning att köpa ett Ultra längre. Detta kortet drar ytterst lite mer ström (ca. 10W), presterar minst lika bra, är lika tyst som en 3870 och är billigare...

Skönt med lite konkurens i high end segmentet!

Att de använder två gpuer kan kvitta. Det är resultaten som räknas. Klagar man på det så ska man klaga på dual-core och quad-core processorer.

Sen vad som kommer komma är också oväsentligt. Konkurensen gör att utveckligen går framåt samtidigt som priserna pressas. Nvdia är välkommen med sin x2 version när den väl är klar men det lär ju dröja lite till...

Jag ser inte heller någon anledning att köpa Ultra längre. 8800GTS G92 är det som presterar och klockar bäst av Highend-korten och till ett mycket bra pris också, samtidigt som kylaren är mycket bra. Det finns ingen anledning att köpa ett HD3870X2 för tusenlappen mer när man inte får någon nämnvärt bättre prestanda. Men Ultran är ju ännu mer onödig. Åter igen, det är bra att HD3870X2 har kommit men själv ser jag ingen anledning att köpa ett HD3870X2 när 8800 GTS G92 finns. Hade prisskillnaden varit 100-200kr kanske jag hade övervägt att köpa ett HD3870X2, men inte nu. Hoppas att vi får se en prissänkning snabbt.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem

Jag hoppas det stämmer att R700 är tidigarelagt som det har ryktast om ett tag nu, för X2:an lockar inte alls.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|