Radeon 4800-serien – specifikationer och pris

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Stalked
det känns som att 4870 kommer äta Nvidia:)

Det ska vi komma ihåg.
Vi får se!

Visa signatur

Cherry MX Brown:Compaq MX 11800, Cherry MX Blue: Razer Blackwidow, Cherry MY: Schneider g81, Black ALPS : Delll AT102W Black, Buckling Spring: IBM Model M, IBM Model N2, Rubber Dome: Keytronic ErgoForce....Senast aktiv Idag

Permalänk
Citat:

Ursprungligen inskrivet av OMG
Fint med 4870 Blir nog de när de kommer.

Någon som vet om det går att köra Crossfire med 1 3870 & 1 4870 till exempel?

finns X antal trådar och X antal svar angående detta redan.

Visa signatur

Stackars Albin
Citera eller skicka PM, övervakar inte.
Använd ordet "dem" med måtta eller smaka på mitt vrede.

Permalänk
Avstängd

nice kort, kanske hamnar i dator :2: ^^, ska snart bygga en AMD dator ^^, å en Intel dator

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk
Medlem

Kom ju upp lite ny info om nVidias nya idag. Q3 (Juli) för GT200-korten (GF9900 GTX och GTS), 9800 GTS läggs ner.
http://vr-zone.com/articles/Nvidia_Upcoming_GPUs_Line-Up_For_...

Visa signatur

WS: Asus X570-E, Ryzen 5900x, 2x16GB Ballistix E-die, EVGA 3080 FTW3 Ultra
FS: Asus X370-F, Ryzen 3600, 4x8GB G.Skill Flare, GT710, CM Stacker
HTPC: Asus F2A85-M, A10-5800K, 2x4GB G.Skill 2133MHz

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av kirkunit
Kom ju upp lite ny info om nVidias nya idag. Q3 (Juli) för GT200-korten (GF9900 GTX och GTS), 9800 GTS läggs ner.
http://vr-zone.com/articles/Nvidia_Upcoming_GPUs_Line-Up_For_...

Haha nu blev det stressigt..

Måste dock påstå att nVidias launch känns väldigt ointressant, för tillfället. Äntligen känns det som om det kommer "nya" grafikkort så att säga.

Bara att hålla tummarna och hoppas att dem här korten verkligen kan handskas med spel som Crysis.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman

Måste dock påstå att nVidias launch känns väldigt ointressant, för tillfället. Äntligen känns det som om det kommer "nya" grafikkort så att säga.

Vad menar du med ointressant?

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

Hur tror ni 4870 kommer ställa sig emot värstingen GX2?

Lite halvt OT;
Kan det bli kompatibilitets problem med en processor från Intel och ett grafikkort från AMD?

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
Vad menar du med ointressant?

Jo att deras launch än så länge enbart innehåller high end-kort, vilket i säg inte är ointressant så sätt, och inte några intressanta kort i middle end och low end. Utan i de segmenten så är det krymp på nuvarande G92 som gäller (65nm till 55nm). Alltså är det inte några större strukturella skillnader i kärnan. Så som jag har uppfattat informationen i alla fall.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av kirkunit
Kom ju upp lite ny info om nVidias nya idag. Q3 (Juli) för GT200-korten (GF9900 GTX och GTS), 9800 GTS läggs ner.
http://vr-zone.com/articles/Nvidia_Upcoming_GPUs_Line-Up_For_...

Hm, citerar

Citat:

For the high-end enthusiasts segment., Nvidia will launch GeForce 9900 GTX and 9900 GTS in July to replace the 9800 GX2 and GTX

Redan här verkar det som ATi får problem om det stämmer för 9800GX2 presterar väldigt bra och skall 9900GTX ersätta 9800GX2 presterar det kortet riktigt bra. Men och andra sidan är det ingen som har sagt att ATi sattsar på high end längre. Borde dom? Ja tycker det även om pengarna inte finns där.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ozbaab
Hur tror ni 4870 kommer ställa sig emot värstingen GX2?

Lite halvt OT;
Kan det bli kompatibilitets problem med en processor från Intel och ett grafikkort från AMD?

Många resultat på 3Dmark topplistan är en kombination av intel och ati.
Det finns till och med intelmoderkort med ati-grafik i chipsettet.
Intels chipset stödjer Crossfire. P45 stödjer crossfireX.

Amd hävdar såklart att ati fungerar mycket bättre tillsammans med deras processorer och chipset. Men det är nog mest ett försäljningsargument.
Rätta mig någon bättre vetande om jag har fel

Visa signatur

mobo Asus M4A88TD-M EVO/USB3 cpu 1100T kylare Noctua NH-D14
gpu RX 460 passive ram 16GB DDR3 1600MHz ssd Samsung 850 EVO 250GB
psu Corsair AX 850 skärmar 3 * 40" NEC P401

Permalänk
Citat:

Ursprungligen inskrivet av Andre_H
Men det är nog mest ett försäljningsargument.
Rätta mig någon bättre vetande om jag har fel

Helt rätt och Nvidia gör/gjorde likadant tidigare och det är/var samma sak nu/då.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Mercus666
alla gnäller över ati/amd kolla vad som ligger i top eller kolla vad som dom använder mest

http://www.ripping.org/benchmarks.php?act=graphicscores&graph...

rätt sakt! bara att inse nvidia fanboys..

Visa signatur

Fractal Design Define R5 , I7 4790K@4800mhz ,Corsair vengeance 2400Mhz@2600 CL 11 16GB ,Cooler master V850 , Fury X ,MSI Z97 Gaming 9 AC , Samsung 840 Evo 500GB +1tb hdd , Corsair H100i.
Asus vn247h

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AlbinNdoja
Hm, citerar

Redan här verkar det som ATi får problem om det stämmer för 9800GX2 presterar väldigt bra och skall 9900GTX ersätta 9800GX2 presterar det kortet riktigt bra. Men och andra sidan är det ingen som har sagt att ATi sattsar på high end längre. Borde dom? Ja tycker det även om pengarna inte finns där.

HD4870X2.

Permalänk
Trollfabrik 🫶🏻
Citat:

Ursprungligen inskrivet av ///////////M
rätt sakt! bara att inse nvidia fanboys..

3Dmark visar ingenting på prestandan över huvudtaget.

Sedan kan folk bara ge upp. Nån som skickade länkar på där HD3870X2 faktiskt presterar bättre än 9800GX2, men i dom allra flesta fallen så presterar 9800GX2 mycket bättre, men i sällsynta fall och spel har HD3870X2 varit bättre.

Så kan folk sluta posta handplockade tester som visar att "Jag har rätt och du har fel haha" ?

Tråden var så bra innan folk skulle börja jämför ATI vs. Nvidia för då blir det bara bråk och ett försök till penis förlängning från Fanboys på båda parter.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av FullOner
En sak jag inte riktigt kan komma över är tillverkarnas envishet att hålla sig till 256-bits minnesbuss, vi hade ju 384-bit med 8800GTX/Ultra, varför ta ett steg tillbaka i utvecklingen?

Om ATi verkligen vill bräcka sin konkurrent så får dom komma med något extra, en futtig 256-bits buss är inte mycket att skryta med, särskilt inte om "värstingen" HD4870 förses med 1gb minne då skiten inte ens klarar att utnyttja allt med den feg-bussen..

Är det så dyrt/krångligt att implentera 512-bits minnesbuss på korten att prestandavinsten det ger inte är värt det i långa loppet? För jag förstår då inte hur varken ATi eller nVidia resonerar kring detta, att 9800GTX mest är en rebadgead 8800GT med smalare minnesbuss än 8800GTX är skrattretande, och att ATi gör samma snedsteg är inte mindre komiskt och enerverande, skärp er för h-e och ge oss ordentliga doningar!

minnesbusen påverkar minnesbandbreden precis lika mycket som hastigheten på minnena. Eftersom de har valt att använda GDDR5 som är sjuk snabba minnen så behövs det inte mer än 256 bus för att uppnå en rejäl minnesbandbredd. Självklart så kan de lägga på en 512 bus också men då flyger också priset iväg.

På sidan 4 så skrev jag ut uträkningen på hur man räknar fram minnesbandbredden. Titta där så förstår du det bättre.

Man kan säga att GDDR3+512 bus ger ungefär detsamma som GDDR5+256 bus.

Visa signatur

Mmmarabou

Permalänk
Citat:

Ursprungligen inskrivet av lincoln
... det beror nog också rätt mycket på nvidias 'the way it's meant to be played'-samarbete med spelkonstruktörerna. På papperet har ATIs kort varit starkare hela tiden, men finns det ingen som programmerar 'på rätt sätt' för att utnyttja den styrkan, så blir det som det blir.

Litet som 'cell' i PS3 mot XBox 360. På papperet är 'cell' väääldigt mycket starkare (betydligt större skillnad än mellan 3870 och 8800), men ändå är spelen ganska jämförbara, för 360:n är enklare att programmera för... (Iofs. trots att Sony har plöjt ner X pengar för att folk ska programmera cell på 'rätt' sätt...)

Jag trodde det fanns en poäng där, men jag kanske hade fel...

Det finns definitivt en poäng där. Det var det som var felet med R6xx serien. För lite TMUs och ROPs och en shaderarkitektur som spelutvecklare hade svårt att använda på rätt sätt. Men nu har ju ATI dubblat antalet TMUs, och enligt rykten dumpat shaderarkitekturen och kört på individuella shader processorer i stället. Om nu antalet ROPs inte är en lika stor flaskhals som vissa påstår, så har vi en eventuell prestandakung. Men jag är lite besviken över 256-bit buss och det fortfarande låga antalet TMUs och ROPs. Allting annat ser fullständigt lysande ut!

Citat:

Ursprungligen inskrivet av DataNusse
Som du säger själv så har nVidia trappat upp sin design på sina referenskylningar. Allt började igentligen med 8800Ultra, och fortsatte med 8800GT, GTS (nya), 9600GT och nu med GX2 och GTX. Hur de presterar kan vi låta osakt men en sak som kan sägas att dessa kylningar har ett gemensam "språk", och utryck. Denna utryck är tilltalande och ger en känsla av kvalite. Och det får tom oss att nästan vilja ta ut den och titta på den. Det är sjukt igentligen, men det vissar hur mycket vi styrs av det visuella och vilken kraft den har. Hela våran konsumtionssamhälle styrt av det visuella, på ett eller annat sätt.

Självklart ger det väl något slags intryck. Tidigare har jag dock alltid tyckt bättre om ATI's design. Men jag tycker det är ett mer eller mindre dåligt argument att klaga på kvaliten när det gäller originalkylare då alla vet att dessa står för i princip raka motsatsen. Vill man ha kvalitet så satsar man på en icke-referenskylare. Men som du sa, e det nog mest det visuella intrycket, och där har Nvidia lyckats på sistone

Citat:

Ursprungligen inskrivet av zaman
Personligen så litar jag mest på anadthech och xbitlabs tester då de verkar "trovärdiga" och bra mycket genomförliga. Får väl hoppas att vi ser lite tester och bilder på de korten även om de inte känns så trovärdiga så vi har en aning hur de kommer stå sig mot 9800GX2 och 9800GTX.

Anandtech och Xbitlabs är riktigt bra, men det finns massor av testsidor som du kan lita på. Nordichardware, Bjorn3D, Overclockers Club, Tweaktown, Tom's Hardware. Det är ju snarare bättre att kolla på så många sidor som möjligt och försöka få ett helhetsintryck.

Citat:

Ursprungligen inskrivet av NukeHenk
Förrästen vad är det nvidia kallar sin "nya" generation, är det G100 som ska möta R700 ?? Lite osäker när alla skriver antagligen samma sak men med en massa olika namn.

G100 är samma som GT200 som är den kärnan som skall möta HD4xxx serien i prestandasegmentet medan G92B är en krympning av G92 till 55nm som också kommer möta HD4xxx serien i mid-high end. Personligen tror jag dock inte att GT200 kommer ut i sommar och att G92B kommer stå för alla "refreshments" i 9xxx serien. Jag kan mycket väl ha fel dock, i och med att i princip allt runt Nvidias kommande kort förutom 9800gt och 9600gso är rykten.

Citat:

Ursprungligen inskrivet av Chris_Kadaver
jag skulle vara nöjd om det lyckas prestera som ett 9800gtx eller eventuellt snäppet bättre... mycket mer tror jag inte det presterar. Men som sagt, det är bara en vild gissning. Ingen har någon som helst aning om hur den nya gpun presterar så man får väl nästan utgå ifrån prissättningen när man gissar. Hur som helst är det posivtivt om man kan få samma eller bättre prestanda som nvidias sli med en crossfire konfiguration. Då kan man bojkotta nvidia tills de släpper sli till andra chipsets än deras egna sketna chipset som kostar multum. Tror och hoppas att kombinationen Intel P45 och Radeon 4800 serien kommer bli en nöt som nvidia kommer ha svårt att knäcka. Men som sagt, ingenting är säkert så det är väl dumt att spekulera. Vi får vänta och se

Jag hoppas personligen att det slår 9800gtx och är närmre 9800gx2 för att kunna ha någon slags chans mot GT200 när det kommer ut. Problemet med P45 är att det bara stödjer Crossfire vid två stycken 8x PCIe 2.0 bussar. Det stödjer en 16x buss tror jag men vid Crossfire blir det bara 8x, så vill man satsa på Crossfire är X48 mycket bättre och det finns redan X48 kort för under 2000 sek.

Citat:

Ursprungligen inskrivet av AlbinNdoja
Jo fast det är inte så super intressant tyvärr, hur många GB/s kortet klarar av. Jag menar HD3870 har lika hög bandbredd som 9800GTX har men ändå är HD3870 långt ifrån att prestera i närheten så bra som 9800GTX. Men du vet redan detta.

Å andra sidan så är ju HD3870 inte alls samma slags kort som 9800gtx heller. Minnesbandbredden är ju inte särskilt viktig om du inte har en bra GPU som kan göra arbetet. Och på samma sätt går ju det åt båda hållen. Att kunna ha 4 ghz GDDR5 är ju imponerande vare sig det är 256-bit buss eller 512-bit buss och förhoppningsvis blir den här kärnan bättre än de tidigare. Men det känns ändå lite surt att dom inte kan köra 512-bit buss på HD4870 i alla fall. Det ryktas ju om att HD4870X2 skall ha både delat minne och 512-bit buss (om det är delat minne så blir det ju dubbla bandbredden gentemot HD4870 i så fall) så det blir nästan att vänta på ett sånt kort.

Citat:

Ursprungligen inskrivet av AlbinNdoja
Som Delerium skriver gjorde inte 512bitar så mycket. Det kostar bara mycker mer men med GDDR5 kanske det blir annorlunda om man jämför 256bitars buss eller 512 i praktiken, svårt att säga.

Faktum är ju också att PCIe porten kanske bromsar? Jag vet inte hur mycket PCIe 1.1 klarade av att hantera och vad PCIe 2.0 klarar av att hantera men det kanske någon vet?

PCIe 1.1 16x har en överföringshastighet på 8 Gb/s åt båda hållen medan PCIe 2.0 16x har en överföringshastighet på 16 Gb/s åt båda hållen. Det kan göra rätt mycket skillnad i vissa spel i höga upplösningar.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Smartidiot89
3Dmark visar ingenting på prestandan över huvudtaget.

Sedan kan folk bara ge upp. Nån som skickade länkar på där HD3870X2 faktiskt presterar bättre än 9800GX2, men i dom allra flesta fallen så presterar 9800GX2 mycket bättre, men i sällsynta fall och spel har HD3870X2 varit bättre.

Så kan folk sluta posta handplockade tester som visar att "Jag har rätt och du har fel haha" ?

Tråden var så bra innan folk skulle börja jämför ATI vs. Nvidia för då blir det bara bråk och ett försök till penis förlängning från Fanboys på båda parter.

Det krävs extremt mycket processorkraft för att 9800GX2 ska få ett riktigt övertag. Alltså känns det som väldigt mycket snack. Både Sweclockers egna test samt diverse tester hos Tweaktown visar ju ett minimalt övertag med en överklockad Q6600 för GX2-ans del. Även om 9800GX2 är starkare så understryks aldrig processorkraven.

3DMark visar prestandan, men realtidsapplikationer skiljer sig från render-videos. Alltså appliceras inte prestandaprofilen i applikationer mer än under sällsynta fall, men man kan få en generell idé om hur tekniken funkar samt att se hur pass väl teknik skalar och dylikt.

Permalänk
Citat:

Ursprungligen inskrivet av Mr.Borka
HD4870X2.

Oh sorry, menade en riktig high end GPU.

Citat:

Ursprungligen inskrivet av oscarstegland
A andra sidan så är ju HD3870 inte alls samma slags kort som 9800gtx heller. Minnesbandbredden är ju inte särskilt viktig om du inte har en bra GPU som kan göra arbetet. Och på samma sätt går ju det åt båda hållen. Att kunna ha 4 ghz GDDR5 är ju imponerande vare sig det är 256-bit buss eller 512-bit buss och förhoppningsvis blir den här kärnan bättre än de tidigare. Men det känns ändå lite surt att dom inte kan köra 512-bit buss på HD4870 i alla fall. Det ryktas ju om att HD4870X2 skall ha både delat minne och 512-bit buss (om det är delat minne så blir det ju dubbla bandbredden gentemot HD4870 i så fall) så det blir nästan att vänta på ett sånt kort.

PCIe 1.1 16x har en överföringshastighet på 8 Gb/s åt båda hållen medan PCIe 2.0 16x har en överföringshastighet på 16 Gb/s åt båda hållen. Det kan göra rätt mycket skillnad i vissa spel i höga upplösningar.

Helt rätt. Det är inte samma kort och går därför inte att jämföra.

Jo det borde bli betydligt mycket bättre än föregående serie i alla fall!

Angående PCIe 1.1/2.0 så är jag nog ute och cyklar. Jag trodde bandbredden som vi snackar om (256bitar/512bitar) internt (interface) hade med vad porten klarade av men jag hade kanske fel då.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Trollfabrik 🫶🏻
Citat:

Ursprungligen inskrivet av Mr.Borka
Det krävs extremt mycket processorkraft för att 9800GX2 ska få ett riktigt övertag. Alltså känns det som väldigt mycket snack. Både Sweclockers egna test samt diverse tester hos Tweaktown visar ju ett minimalt övertag med en överklockad Q6600 för GX2-ans del. Även om 9800GX2 är starkare så understryks aldrig processorkraven.

3DMark visar prestandan, men realtidsapplikationer skiljer sig från render-videos. Alltså appliceras inte prestandaprofilen i applikationer mer än under sällsynta fall, men man kan få en generell idé om hur tekniken funkar samt att se hur pass väl teknik skalar och dylikt.

Ja men 3Dmark är inget att lita på vad gäller faktisk prestanda i spel.

Sen det här med PCI-E 2.0, är nog ett måste för framtida kort nu. Tror att PCI-E 1.1 x16 kommer att börja flaska snart om det inte redan gör det.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Angående PCIe 1.1/2.0 så är jag nog ute och cyklar. Jag trodde bandbredden som vi snackar om (256bitar/512bitar) internt (interface) hade med vad porten klarade av men jag hade kanske fel då.

Tänkte också på det. Jag visste att PCIe hade si och så många GB/s men att det skiljer sig så mycket från minnesbandbredden på själva kortet hade jag ju ingen aning, hade jag aldrig tänkt på. Men med tanke på att minnesbandbredden bara egentligen används i kombination av GPUn och minnet som sitter på grafikkortet kanske inte PCIe hastigheten har någon effekt på hur minnet behandlas i sig. Med tanke på att det är en så stor skillnad tror jag inte de kan ha så stor korrelation.

Som Smartidiot89 sade nedan
Hur som helst så börjar ju PCIe 1.1 x16 redan flaska i höga upplösningar. Det är inte mycket men kollar man på kort som stöder PCIe 2.0 och kör dem först i PCIe 1.1 och sedan i PCIe 2.0 så blir det en liten skillnad.

Citat:

Ursprungligen inskrivet av Smartidiot89
Sen det här med PCI-E 2.0, är nog ett måste för framtida kort nu. Tror att PCI-E 1.1 x16 kommer att börja flaska snart om det inte redan gör det.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Smartidiot89
Ja men 3Dmark är inget att lita på vad gäller faktisk prestanda i spel.

Sen det här med PCI-E 2.0, är nog ett måste för framtida kort nu. Tror att PCI-E 1.1 x16 kommer att börja flaska snart om det inte redan gör det.

Jag säger inte att 3dMark visar den riktiga prestandaprofilen i spel just eftersom 3dMark bara är en rendervideo. Men 3dMark kan visa vad kortet i fråga kan göra rent tekniskt. Många skulle säga emot detta just för att R600-serien har diverse världsrekord inom just 3dMark och inte allt för ofta utanför - men det finns förklaringar för detta som stödjs av den teknik R600 är byggd på som lämpar sig väl för just renders med sin exceptionella kalkylationsprestanda och dylikt.

PCIE2.0 är ju standard bland nya produkter nu. Som du säger så kommer det ju bli bandbreddsproblem om PCIE1.0 skulle fortsätta förbli industristandard. Allt eftersom kretsar och kompletta produkter blir starkare så krävs ju högre bandbredd - med PCIE2.0 behöver man ju aldrig oroa sig över att det senarnämnda faktiskt skulle bli något problem då man får ett väldigt högt tak som inte lär flaska något på ett tag.

Permalänk
Citat:

Ursprungligen inskrivet av oscarstegland
Tänkte också på det. Jag visste att PCIe hade si och så många GB/s men att det skiljer sig så mycket från minnesbandbredden på själva kortet hade jag ju ingen aning, hade jag aldrig tänkt på. Men med tanke på att minnesbandbredden bara egentligen används i kombination av GPUn och minnet som sitter på grafikkortet kanske inte PCIe hastigheten har någon effekt på hur minnet behandlas i sig. Med tanke på att det är en så stor skillnad tror jag inte de kan ha så stor korrelation.

Som Smartidiot89 sade nedan
Hur som helst så börjar ju PCIe 1.1 x16 redan flaska i höga upplösningar. Det är inte mycket men kollar man på kort som stöder PCIe 2.0 och kör dem först i PCIe 1.1 och sedan i PCIe 2.0 så blir det en liten skillnad.

Det är precis som du skriver melan videominne och GPU och har ingenting med PCIe porten att göra. Så nu är det avklurat.

Jo, det är skillnad mellan 1.1 och 2.0 men inte speciellt mycket idag. Det var ju snack om detta för ett tag sedan och jag har sett några ganska detaljerade och bra tester som visar just skillnaden mellan 1.1 och 2.0 och det skiljer marginalt till 2.0's fördel självklart.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Det är precis som du skriver melan videominne och GPU och har ingenting med PCIe porten att göra. Så nu är det avklurat.

Jo, det är skillnad mellan 1.1 och 2.0 men inte speciellt mycket idag. Det var ju snack om detta för ett tag sedan och jag har sett några ganska detaljerade och bra tester som visar just skillnaden mellan 1.1 och 2.0 och det skiljer marginalt till 2.0's fördel självklart.

Jo jag kollade just upp Tom's Hardware recension på PCIe 2.0 men de använde i princip bara två grafikkrävande spel: Crysis och Flight Simulator X. Nu kördes Crysis i Trilinear Filtering så det blev inte så jätt tunga texturer. Men i FSX som är ett väldigt texturtungt spel så skiljde det nästan 20% på både 9800gx2 och HD3850 så det är olika i olika spel. Sedan testade de nästan bara i 1600*1200. Kör man med 1920*1200 eller 2560*1600 så kan ju PCIe 2.0 göra rätt märkbar skillnad speciellt i den högre upplösningen. Tur att det nu har blivit lite av en standard vid det här laget

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk

Priserna verkar ju alldeles för höga. :/
20 dollar mer än för ett 8800GTS? 4850 alltså. Näe, känns inte som ett smart drag

Visa signatur

««« »»»

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Knappast min vän..
http://enthusiast.hardocp.com/article.html?art=MTQ3NSwxLCxoZW...
http://www.pcper.com/article.php?aid=535&type=expert&pid=2
http://www.bit-tech.net/hardware/2008/03/18/xfx_geforce_9800_...
http://www.hothardware.com/Articles/NVIDIA_QuadSLI_with_the_A...

I alla länkar så presterar 9800GX2 bättre än 3870X2 i höga uppslösningar och med höga AA/AF (1920x1200 / 2560x1600 med 0-4x AA/8-16x AF).

Så jag motsätter mig ditt påstående om att 3780X2 skulle dräpa GX2 och säger att den är felaktig. Och droppa attityden är du snäll, att apa dig hjälper inte med din argumentation.

Ingen vet säkert. Det råder allmän osäkerhet på vad nästan nVidia kort kommer heta, gpu benämning. Men det verkar som det kommer vara 9900-serien som kommer mötta AMD(ATI)'s HD4xxx kort.

Attityden var ett svar på att du kallade mig idiot. Det är fel att kalla någon idiot när dom har fel, men om möjligt ännu mer fel när någon har rätt. Öga för öga tand för tand.

Det handlade aldrig om Gx2 hade 50% bättre prestanda, det vet vi redan. Det handlade om att det fanns sällsynta exempel där 3870x2 presterar bättre. Extremt sällsynta men de finns. De finns även flera där det är relativt jämnt oftast på grund av Gx2 512x2 mb minne. Men äldre spel med lite shader krav passar även de 3870x2 rätt bra.

Med hög AA menas 8xA+, visa mig gärna tester där det motsägs. Testerna som länkats till säger inget om det inte har dessa spel med eller extrem AA i extrem upplösning.

Testerna bör även vara aktuella inte från i början av Mars då dessa inte är speciellt intressanta.

Kul att du länkar till två testersom stödjer mig

Bit-tech och pcper har båda benchmarks där x2 tar en knapp seger i vissa upplösningar.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg

Permalänk

Enligt nyheter på Nordichardware så skulle de nya korten vara runt 50% snabbare än sina motsvarigheter i 3000-serien, har ni sett helt andra uppskattningar eller?

50% är iofs bra, men räcker väl inte för att ge 8800GTS och 9800 någon större match?
Ett 4850 som kostar något mer än 8800GTS och är marginellt snabbare? känns inte som något att hetsa upp sig över.

Visa signatur

««« »»»

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Jonte[YoT]
Enligt nyheter på Nordichardware så skulle de nya korten vara runt 50% snabbare än sina motsvarigheter i 3000-serien, har ni sett helt andra uppskattningar eller?

50% är iofs bra, men räcker väl inte för att ge 8800GTS och 9800 någon större match?
Ett 4850 som kostar något mer än 8800GTS och är marginellt snabbare? känns inte som något att hetsa upp sig över.

Räknade lite snabbt på anandtechs benchmarks av 3870 mot 8800GT och kom fram till att ett 3870 presterar ungefär 84% av ett 8800GT så om ett 4870 generellt presterar 50% bättre än 3870 så kommer det prestera ungefär 26% bättre än 8800GT vilket kanske blir typ 10% bättre än 8800GTS.

Ärligt talat tror jag att 4870 kommer prestera mycket bättre än så. ATi har tänkt om med individuell shader clock och har arbetet mer åt en liknande struktur som nVidia har. Dessutom kommer värstingvarianten med 1 Gb GDDR5 i 4GHz(!?) att vara ett monster. Förhoppningsvis.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Räknade lite snabbt på anandtechs benchmarks av 3870 mot 8800GT och kom fram till att ett 3870 presterar ungefär 84% av ett 8800GT så om ett 4870 generellt presterar 50% bättre än 3870 så kommer det prestera ungefär 26% bättre än 8800GT vilket kanske blir typ 10% bättre än 8800GTS.

Ärligt talat tror jag att 4870 kommer prestera mycket bättre än så. ATi har tänkt om med individuell shader clock och har arbetet mer åt en liknande struktur som nVidia har. Dessutom kommer värstingvarianten med 1 Gb GDDR5 i 4GHz(!?) att vara ett monster. Förhoppningsvis.

Absolut. Man får hoppas att HD4870 som standard är en handfull starkare än 8800GTS 512MB direkt vid lanseringen - vilket allting tyder åt. Detta utan att ha en orealistisk prestandabild uppmålad.
Jag är väldigt intresserad av att se AMDs kylare - om det blir ett gammalt ihopkok eller en ny konstruktion. Själv vill jag se en uppdaterad 3870-kylare som kanske även är "pimpad" på det ena eller andra sättet för att få de bittra med sig som annars inte gillar rött (?).

Tror även prisbilden kommer se rimlig ut. Om jag räknade priset rätt direkt från dollar till svenska kronor (om dollarn är 6,5SEK, jag har ingen riktig koll på kursen) hamnade jag runt 2300kr - så i svenska butiker ramlar den under 3000kr. Kanske inte låter så fantastiskt - men likaså kommer priserna eventuellt falla relativt snabbt beroende på hur prestandan faktiskt ligger.

Permalänk
Medlem

dollar ligger typ på 5.92 iaf i förr går:)

Visa signatur

CPU 1700@4GHZ | MB MSI x370 Gaming Pro Carbon | GPU AMD Vega 64 | RAM G.skill FlareX DDR4 @3466MHZ 16GB PSU Corsair AX1200i | SSD Samsung 960 EVO 512GB | | Monitor Acer Predator XZ321QU| Mouse Razer deathadder | Keyboard Corsair Gaming K70 RGB | Headset Sennheiser game one.

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
ATi har tänkt om med individuell shader clock.

Japp detta är verkligen dag och natt jämfört med befintlig shader hantering. Detta har ATi gjort bra, synd att de beslutade sig för sent med det men bättre sent än aldrig.

ATi kommer nog lyckas bra med sin 4000 serie men är ganska övertygad om att om specifikationerna stämmer för Nvidias 99xx serie får ATi problem i prestanda segmentet men jag tror faktiskt inte detta spelar någon större roll. Sätter de ett bra pris kan detta leda till bra försäljning och det är precis vad Ati behöver!

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.