Radeon HD 3870 X2 fotograferad

Permalänk
Medlem

Jamendåså:) framtiden var bestämd. Känns bra

Visa signatur

AMD tuf B550M | RYZEN 3950x | 64GB 3200Mhz | Zotac 3090

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Okej, dual GPU is here.

Undra hur strömförbrukningen på detta kort hamnar på.

Det lär väl bli ungefär som ett HD2900XT efter de staplar och tester som jag har läst på diverse sidor. Ett HD 3870 förbrukar ju ungefär hälften så mycket watt som ett HD 2900XT tydligen så då borde ju ett HD 3870 X2 förbruka ungefär som ett HD 2900XT, eller hur?!

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av blade80
Det lär väl bli ungefär som ett HD2900XT efter de staplar och tester som jag har läst på diverse sidor. Ett HD 3870 förbrukar ju ungefär hälften så mycket watt som ett HD 2900XT tydligen så då borde ju ett HD 3870 X2 förbruka ungefär som ett HD 2900XT, eller hur?!

Låter mycket rimligt. HD3870 kräver endast en 6-pin kontakt medan HD3870x2 (/HD3890) kräver en 6-pin och en 8-pin - samtidigt som på pappret borde HD3890 äta som en 2900XT då den senarenämnda har en stor processyta medan HD3890 har två något mindre kärnor, mer minne och energisparfunktioner som kompenserar den ökade mängden transistorer och annat roligt.

Permalänk
Medlem

Oj, oj så fräckt! Undrar vad det kommer att kosta?

Visa signatur

Desktop: Arch Linux - i7 3770 - 16GB DDR3 - R9 290X 4GB - 1TB M2 SSD - 1TB SATA SSD - AOC U32PWQU 4K
Dell Latitude 7400 2-in-1 - Arch Linux - i5 8265u

Permalänk

Ett riktigt till synes intressant kort, speciellt i Crossfire...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Fire_Ice
Oj, oj s%-1 fr%-1ckt!%-5 Undrar vad dt kommer att kosta?%-4

Om vi har två olika versioner kan jag ge min idé (mina personliga åsikter och inte någon fakta för andra att ta allt för seriöst på)
HD3870x2 (~HD3890) 1GB = 4200-4600kr
HD3890 512MB = 3795kr

Mindre minne = Mindre yta att täcka. Om man ser det rent produktionsmässigt är det ju billigare att producera ett HD3870x2 än två HD3870 då de två kärnorna delar på samma platform och tar upp bara snäppet mer plats för diverse minnesmoduler, därmed blir det nog ganska mycket billigare med 512MB (2x256mb) än 1GB versionen som jag är helt säker på, kommer.
Dock tror jag säkert att HD3870x2 blir en del dyrare än Crossfire HD3870 just av den anledningen att den kan komma till ett namn såsom HD3890 som väcker större intresse.

Detta är min uppfattning, men att tänka på är ju att HD3870x2/HD3890 är tänkt att pressa på 8800GTX/Ultra och/eller den nya 8800GTS fram tills Nvidia lanserar sin G90-krets. Först efter det kommer ju ATis riktiga storsatsning, R700. Om R680 blir en hit kan vi nog se R700 i Quad-GPU på ett kort.

Permalänk
Medlem

Åhfan!....typ über pwr performance?

Har inte kollat så noga på dessa kort då jag köpt ett 2900XT och tappat lite intresset för grafikkortsmarknaden så är inte så på hugget..MEN
Borde inte detta kortet prestera en hel del bättre än 8800GTX Ultra ?

Permalänk
Avstängd

Alla kommer väl ihåg hur bra 7950Gx2 presterade? Vet inte riktigt om det motiverade prislappen på 6000:-, men det var ett riktigt höjdarkort för den med pengar.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem

Vad är det som gör att SLI/CF inte går 100%??
Om det har att göra med moderkort och tekniken på det genom pci-e så borde väl två GPU på ett kort lätt fixa detta?

Btw.. Om vi säger att dagens SLI/CF ger 80%
Vad gav då voodoo2 och dom andra voodookorten???

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: GTX 1080ti - Accelero Xtreme III @2 st 120mm cf-v12hp hydro dynamic.
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Optix MAG274R 27" MONITOR:2 Samsung 2693HM 25,5" MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Och AMD som skrytit med sin "äkta quad-code" kommer nu med en Intel-lösning på grafikkort

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av ajp_anton
Och AMD som skrytit med sin "äkta quad-code" kommer nu med en Intel-lösning på grafikkort

hahaha xD Kanske mer av en "Nvidia"-lösning

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ajp_anton
Och AMD som skrytit med sin "äkta quad-code" kommer nu med en Intel-lösning på grafikkort

Rätt stor skillnad på att bygga grafikkort och processorer... faktiskt.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Mr.Borka
Om vi har två olika versioner kan jag ge min idé (mina personliga åsikter och inte någon fakta för andra att ta allt för seriöst på)
HD3870x2 (~HD3890) 1GB = 4200-4600kr
HD3890 512MB = 3795kr

För det första ska HD3870 x2 kosta max 3200:-
För det andra, detta kortet ÄR bättre än 8800GTX

Visa signatur

Knowledge is not achieved until shared.

Permalänk

och kommer sitta så fint i X-fire.. om man köper ett vanligt 3870 nu..

Visa signatur

vad gör man inte för massorna med en
"riktigt stor digital penis"

Permalänk
Medlem

Detta verkar bli intressant, kan det bli en framtida Ultra-dödare? Det får vi verkligen hoppas, lyckas dom inte nu så kan dom lika gärna ge upp high-end segmentet tycker man, nVidia har stått ohotad på tronen bra länge nu..

Visa signatur

Spel/Multimediaburk: Antec P182b | Gigabyte EX58-UD5 | Core i7 920 | 3x1GB Kingston HyperX 1600mhz | Asus 9600GT Silent | 3x500gb Spinpoint | Corsair VX450 | XP Pro x86 | iPhone 3GS 16gb

Permalänk
Medlem

måste säga att jag är en riktig nvidia nerd.. men dom här korten ser otroligt snygga ut.. hoppas ATi drar om nvidia snart så det blir lite mer kamp

Permalänk
Medlem

Många som spekulerar om prestanda och pris. Jag hoppas för min del att det presterar betydligt bättre än gtx annars får de nog sälja dem ganska billigt. jag skulle välja ett gtx framför detta 7 dagar i veckan om prestandan var likvärdig justa av den anledning att man vet att den kommer prestera i spelen. Crossfire och Sli har ju inte fullt stöd för alla spel. Kul att köpa ett kort som presterar som gtx för samma pris ett år senare än gtx släpptes för att sedan se att man bara har stöd för 50% av spelen.
Vi får väl hoppas att de lyckas få dessa att prestera bra då det behövs något nytt att dreggla över.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av ajp_anton
Och AMD som skrytit med sin "äkta quad-code" kommer nu med en Intel-lösning på grafikkort

Hur då Intel?

3Dfx kanske som kom först med SLI, och flertal Grafikchip på en kort.. 4st på Voodoo5 6000 om jag minns rätt.

Ah, nu fattar jag, sno iden som intel gjort.. förstår

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Citat:

Ursprungligen inskrivet av Dibbqwaz
Det blir dyrare då lika bra att använda 2st av de man redan producerar ist för att sätta ihop en helt ny gpu =D

Plus att man förmodligen får svårare att göra av med dubbel värme på nästan samma yta kanske? Fast det primära är säkert det Dibb skrev, säljs ju inte så många extremkort vilket säkert inte motiverar en ny konstruktion...

Visa signatur

Q6600 G0 @ 3,0 GHz| 4 Gb OCZ PC6400 | Gigabyte P35-DS3 | Inno3D 8800GT OC | Hitachi Deskstar 500 GB | Arctic Cooling Freezer 7 PRO| Corsair 450VX | Aerocool Extremengine 3T

Permalänk
Citat:

Ursprungligen inskrivet av A.N'doja
Okej, dual GPU is here.
Hoppas nu att det presterar nu. Detta ska vara AMD's highend och _ska_ prestera bättre än GTX. Hoppas det i alla fall.

Ser väldigt stort ut. Många har ju struntat i GTX dels för längden. Skulle man köpa låda för att få plats med ett GTX så skulle allt bli dyrare. Detta kort ser ju ut att bli 29cm.

Undra hur strömförbrukningen på detta kort hamnar på.

Bra att de kommer med något high end i alla fall.

Som andra har skrivit så dubbleras inte minnet för att du kör Crossfire eller SLI. 512+512 = 512 när det gäller grafikkort. Sedan att kortet har varsitt 512 är en annan sak men bara 512 används.
----------------------------------------------------------
För övrigt så kan Crossfire/Sli prestera 100% många gånger beroende på spel och upplösning. Men generellt så är det oftast kring 60% boost med Crossfire/SLI som ni andra skriver.
----------------------------------------------------------

Med 99,99% säkerhet så kommer detta kort vara snabbare än GTX.

Det är enkel matematik. Förstår inte varför folk krånglar till det.
*2 st HD 3870 = 1 st HD 3870X2.
*HD 3870X2 är inte dubbelt så snabbt som HD 3870.

Detta kort kommer nog dra runt 350-400 W enligt mina beräkningar.
(tagit bort lite pga att det bara är ett kort)

Citat:

Ursprungligen inskrivet av bomber3
Hur då Intel?

3Dfx kanske som kom först med SLI, och flertal Grafikchip på en kort.. 4st på Voodoo5 6000 om jag minns rätt.

Ah, nu fattar jag, sno iden som intel gjort.. förstår

Jag tvivlar på att du fatta.
Han menade nog att ATi kör den enkla vägen, precis som Intel gjorde med sin Quad Core. Alltså kör två processorer istället för en.

Visa signatur

|| Gigabyte GA-MA790X-UD3P || AMD Phenom II X4 955 @ 3,8 GHz || 2*2 GB Kingston HyperX PC8500 || Asus Radeon HD 5850|| Zalman ZM600-HP600W || Windows 7 64-bit ||

Permalänk
Medlem

Dubbla GPU är gammalt, hade 3Dfx för längesen.

Tycker kortet är dumt urformat. Om man gör ett så långt kort, varför inte gå hela vägen ut till fulllängd? (Så man får stöd och inluft på andra sidan)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av minibite3
Med 99,99% säkerhet så kommer detta kort vara snabbare än GTX.

Det är enkel matematik. Förstår inte varför folk krånglar till det.
*2 st HD 3870 = 1 st HD 3870X2.
*HD 3870X2 är inte dubbelt så snabbt som HD 3870.

Detta kort kommer nog dra runt 350-400 W enligt mina beräkningar.
(tagit bort lite pga att det bara är ett kort)

http://resources.vr-zone.com/Firefox/Radeon%20HD3000/pc.gif

Jag tvivlar på att du fatta.
Han menade nog att ATi kör den enkla vägen, precis som Intel gjorde med sin Quad Core. Alltså kör två processorer istället för en.

Mjaa... att kortet äter dubbelt som den enkelkärniga lösningen låter inte riktigt korrekt även det skulle kunna se ut så på pappret. Den HD3870X2 (/HD3890) vi ser idag är ju baserad på 256x2 MB minne i GDDR4 - därmed har vi totalt samma mängd V-ram som på HD3870 men uppdelat på två kärnor - skulle kortet äta dubbelt så mycket ström så krävs det ett koret innehåller dubbla antalet av egentligen allting då kärnorna i sig självt inte är det som konsumerar all ström - men kanske +75% skulle bli rimligt, på sin höjd.

Permalänk
Medlem

nej usch detta är ju hemskt.. längre kort än ett moderkort är brett är bara så fel. Jag trodde framtidens grafikkort skulle vara små och strömsnåla. Dom glesta elektroniska saker har blivit mindre fysiskt sett men grafikkort är ett undantag. kolla bara tex tv eller mobiltelefon

Visa signatur
Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av minibite3
Med 99,99% säkerhet så kommer detta kort vara snabbare än GTX.

Det är enkel matematik. Förstår inte varför folk krånglar till det.
*2 st HD 3870 = 1 st HD 3870X2.
*HD 3870X2 är inte dubbelt så snabbt som HD 3870.

Detta kort kommer nog dra runt 350-400 W enligt mina beräkningar.
(tagit bort lite pga att det bara är ett kort)

http://resources.vr-zone.com/Firefox/Radeon%20HD3000/pc.gif

Det där är väl hela datorn de testar där?
Man får inte dubbelt så många hårddiskar, nätdelar, processorer, moderkort och minnen bara för att man köper ett HD3870 X2. Så då dubblas nog inte strömförbrukningen heller.

Permalänk
Medlem

Undrar om man kommer kunna köra detta i cf med ett vanlig 3870.
Om det går så vore det mumma.

Permalänk
Citat:

Ursprungligen inskrivet av Mr.Borka
Mjaa... att kortet äter dubbelt som den enkelkärniga lösningen låter inte riktigt korrekt även det skulle kunna se ut så på pappret. Den HD3870X2 (/HD3890) vi ser idag är ju baserad på 256x2 MB minne i GDDR4 - därmed har vi totalt samma mängd V-ram som på HD3870 men uppdelat på två kärnor - skulle kortet äta dubbelt så mycket ström så krävs det ett koret innehåller dubbla antalet av egentligen allting då kärnorna i sig självt inte är det som konsumerar all ström - men kanske +75% skulle bli rimligt, på sin höjd.

Du säger emot dig själv.
217.2*1.75=380.1

Citat:

Ursprungligen inskrivet av -Boris-
Det där är väl hela datorn de testar där?
Man får inte dubbelt så många hårddiskar, nätdelar, processorer, moderkort och minnen bara för att man köper ett HD3870 X2. Så då dubblas nog inte strömförbrukningen heller.

Man ska få plats med alla nya spel och sånt får du tänka på också.
Hehe. Jag vet faktisk inte om de testar hela datorn eller om det bara är grafikkortet. Ska försöka hitta ett bättre test.

EDIT:
Här kan vi se att HD 3870 drar 116W i load (268-152)

Då kan vi alltså anta att HD 3870X2 kommer dra 203 W (116*1.75)
Vilket tom är mindre än vad 2900XT drar.

Källa:http://enthusiast.hardocp.com/article.html?art=MTQxOSw4LCxoZW...

Visa signatur

|| Gigabyte GA-MA790X-UD3P || AMD Phenom II X4 955 @ 3,8 GHz || 2*2 GB Kingston HyperX PC8500 || Asus Radeon HD 5850|| Zalman ZM600-HP600W || Windows 7 64-bit ||

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av moreempty
och kommer sitta så fint i X-fire.. om man köper ett vanligt 3870 nu..

Jo, blir ju 3st 3870 då. Ska nog göra så

Visa signatur

All datorprestanda kan jämföras i kronor och ören (kr/poäng). Exempel: Prestanda/krona på grafikkort | www.intrnet.se

Permalänk
Medlem

När vi får ser grafikkort som klarar av att dela minnet mellan gpuerna så har det skett en stor revolution på området. I alla fall för mig

Det krävs granterat en helt anna gpu än i dagsläget då man endast klistrar på ytterligare en gpu och mer minne på samma PCB.

Detta kortet hade varit intressant för mig om det hade haft mer minne, precis som 3870. Dags att lämna 512MB minne och 256bit buss. Detta är tredje generationens grafikkort som har haft detta.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Visa signatur

ASUS K7M, AMD Athlon 1000 MHz Slot A, 3dfx Voodoo5 5500 64 MB AGP, 512 MB SDRAM @ CL 2-2-2-5, Cooler Master ATC-100-SX Aluminum Mid Tower.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Delerium
"AMD shows off Radeon HD 3870 X2"

http://www.theinquirer.net/gb/inquirer/news/2007/11/17/amd-sh...

Mumma de där

Men varför pcie-strömkontakter. Räcker inte det med pcie 2.0 kontakterna?
Skulle inte detta ge korten mer ström direkt genom moderkortet?

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.