Nvidia snabblanserar Geforce 9800 GTX+

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av FredrikMH
Intressant och som du skrev senare så verkar Expreview tycka likadant, vilket också är en sida jag litar på.

Kanske beror på olika drivrutiner (orkar inte kolla) eller något annat som är galet. Känns inte som man drar ihop en review och ljuger om resultatet (jag vet att det finns sidor som gör, men inte legitreviews?)

Ja 4870 X2 kommer nog bli en riktig killer för dessutom en rimlig peng. Problemet är att jag tror inte uppföljaren till 9800GX2 ligger långt efter när den väl kommer.

Där finns bara en sak som oroar mig med länken du angav ovan och det är temperaturen under load. 87 grader på 4850. Nu sitter där iofs en ganska klen kylare men hoppas den sjunker märkvärt med en större custom-kylare. Annars bådar det inte bra för 4870X2...

Notera att Legitreviews använder sig av ett 9800GTX+ i sin jämförelse som är en krympt och högre klockad variant av 9800GTX. Alltså är det inte alls märkligt att de får så olika resultat. Men notera att HD4850 hänger med bra i hasorna på ett 9800GTX+ också till och med vinner i Tomb Raider Anniversary, World in Conflict och Call of Duty 4.

Lägg där till att bytare man ut den fruktansvärt sugiga kylaren till en Accelero S1 så kan man helt utan problem komma upp i 700Mhz från 625Mhz. Så HD4850 går också att klocka, sen när Rivatuner så smånginom stödjer det kortet lär man komma ännu högre.

Ett 9800GTX+ kostar mer än vad HD4850 gör och vanliga 9800GTX är satt på samma pris som HD4850.

HD4870 har en dual slotkylare och R700 lär få en liknande den på HD3870x2, så kylningen är nog mest ett problem på HD4850.

Svårt att inte bli imponerad enligt min mening.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av tEan
Är det något jag missat??. Skulle Havoc vara bättre(ha mera stöd) än PhysX??...För övrigt är det kinder garten här med så många små "fanbärare" här för båda företagen...väx upp!!

Hoppas verkligen Ati/Amd lyckas bra o säljer utav h..vete så dom tar igen lite marknads delar och får kapital till cpu satsningar!!

Havok har betydligt större stöd än PhysX. Havok motorn används i mer än 150 spel och skall implementeras med hårdvaruacceleration antagligen med HD4000 serien. Här är Nvidias egna lista på vilka spel som drar nytta av tekniken: http://www.nzone.com/object/nzone_physxgames_home.html

Av alla dessa spel så har det bara bevisats att Ghost Recon Advanced Warfighter 2 och Unreal Tournament III faktiskt visar skillnad jämfört med till exempel en Core 2 Duo E6400, och Ghost Recon kan man ändra lite inställningar i för att få liknande effekter på enbart cpu. De flesta av de spelen använder sig inte ens av PhysX motorn utan har "stöd" på samma sätt som spel har "stöd" för quad-core; dvs. att de funkar med en quad-core processor men använder sig bara av två kärnor. Havok har dock redan ett enormt stort mjukvarustöd, så integrerar de sedan hårdvaruacceleration på ATI:s så är det bara att släppa SDK till spelutvecklare som redan använder motorn för att integrera det i en patch.

Citat:

Ursprungligen inskrivet av Buio
Det är lätt att bara slänga ur sig siffror utan att ha något på fötterna.

Test av Catalyst 8.3, 8.4 och 8.5:
http://en.hardspell.com/doc/showcont.asp?news_id=3445

Ett fåtal jämförelser mellan 8.4 och 8.5:
http://forums.techpowerup.com/showthread.php?t=60827

Om du har något som backar upp dina 30% och 10-15% får du gärna posta det. Eftersom du inte skrev att det var i vissa specifika fall så vill jag se +30% prestanda överlag som du påstod i ditt inlägg.

Ps. Inga interna ATI powerpoint grafer.

Jag gjorde fel i att jag använde mig av ATI:s egna nummer, men i vissa spel framförallt World In Conflict blev det stora förbättringar. HD3870 ligger ju närmre 8800gt nu än vad det gjorde när korten släpptes.

Citat:

Ursprungligen inskrivet av FredrikMH
Jo men nu får vi hålla oss till informationen vi har i handen och inte filosofera hur framtiden ser ut. Förmodligen kommer HD4850 klocka bättre än 9800GTX+ men hur mycket vet vi inte. Sen är en märkbar skillnad 10-20% bättre i vissa spel. I andra spel presterar de likvärt.

Men som jag skrev ovan här, jag kriterserar inte AMDs kort eller försöker förgylla Nvidias. Jag reagerar på hur positva alla är mot AMD när testerna visar att deras nya single-gpu-kort är sämre än 9800GTX. Visst där finns ett bättre single-gpu-kort kvar, men det kommer inte vara så extremt mycket bättre.

Precis som vid lanseringen av 3k-serien med deras 320 stream-processorer så hypades det vilt om hur mycket bättre de skulle vara eftersom Nvidia bara hade 128. Men så blev inte fallet. Nu har de ökat till 800, men även Nvidia har ökat på sina. AMD har varit bäst på papret ett bra tag, men det är tyvärr inte allt.

------

Men visst 4k-serien är en bra och prisvärd serie (och jag funderar själv på byta från Nvidia till 2x4870), men den kommer inte vara det bästa alternativet om man jagar prestanda. Och det kanske kommer finnas andra prisvärda alternativ i Nvidias serie med.

Prestandan är svår att ändra på i efterhand, priset är desto lättare att justera.

Folk är väldigt positiva mot ATI för de har lyckats komma på fötter igen efter en rad sämre kort. Har inte sett något pålitligt test där 9800gtx+ får 10% skillnad. Väntar på Anandtech (enligt dem var HD4850 en klar vinnare mot 9800gtx, och de har ändå varit väldigt positivt inställda mot Nvidias kort i G92 arkitekturen), Techreport, Extremetech, eller dylikt. Som sagt, det testet där 9800gtx+ slog HD4850 med "mycket" så slog enligt dem 9800gtx också HD4850 vilket enligt de största och mest pålitliga hårdvarusajterna är ett falskt uttalande i 95% av spelen.

Kom ihåg åter igen att HD4850 är menat att det skall tävla mot 8800gt men i vissa fall presterar det bättre än GTX260 och i vissa spel är det väldigt nära GTX280 (Bioshock och Assassin's Creed om man nyttjar DX10.1). Därför är många positivt inställda till kortet. När det gäller prestanda så kommer det inte finnas mycket som kan slå 2 stycken HD4870 då 2 stycken HD4850 i överlag redan presterar bättre än GTX280 och nästan lika bra som 9800GX2.

PS: ATI såg inte bättre ut med 320 stream processorer om man hade orkat kolla klocksen. Det är som att säga att Johan har 320 vindruvor och Nicklas har 128 meloner. Inte fan har Johan mer fruktkött för det Ha det

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av joeghurt
Testresultaten gjorde mig faktiskt lite besviken. Enligt de första förhandsvisningarna så gav ju HD48-serien långt mycket bättre resultat i 3Dmark06 än i dessa tester. HD4870 ska ju tydligen prestera 21 000p men när man sett det här tror jag snarare att det hamnar runt 15 000p.

Hmm, nä det låter ju inte så imponerande... Jag har 14409p som rekord i 3DMark06 och jag ett liknande system som du har (se nedan). De poängen var dessutom i XP-32 med 2 gb RAM. Jag har inte testat i Vista-64 ännu.

Visa signatur

Lead 3D Artist, Sweden
Xeon Gold 6246R, 2x Nvidia RTX A5000 24 GB + NVLink, 384 GB ECC RAM

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av korda
Snabblösning? Ja, just det. De lade in sina 65nm-gpus i sin krympningsmaskin när de såg vad RV770 gick för...eller?

Du menar alltså att man inte gör en die-shrink precis så som när man tvättar sina yllekläder i 60 grader?

Jag tycker att när den första haussen har lagt sig över 4850 så är det ju faktiskt inte en jätteskillnad på ett 8800GT som hängt med ett bra tag nu.
Om priset på 9800GTX sänks till samma nivå som ett 4850 så har ju ett GTX en mycket mera påkostad kylare. Ett lätt val om någon frågar mig, det blir ett 9800GTX om man skulle köpa nytt med de premisserna.

Men just nu så är ju 4850 jäkligt attraktivt om man ser till priset/prestandan.

Permalänk
Trollfabrik 🫶🏻
Citat:

Ursprungligen inskrivet av IcedEarth
Lite sköna bilder på 4870.

http://en.expreview.com/2008/06/23/autopsy-ati-radeon-hd-4870...

//rillo

Snygg konstruktion på kylningen ^^ Hoppas inte kortet blir allt för varmt så det går att klocka lite

Datanusse: Nej tänker inte kortsiktigt. Men 9800GTX+ kommer ha svårt att slå ett klockat HD4850 sen med 55nm på GTX260/280 blir dom säkert bättre men hur dom står sig mot HD4850X2/HD4870X2 ska bli roligt att se

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Har de problem med det då, kortet är markant högre klockat? Missade om det fanns någon äpple-äpple jämförelse.

Ynka 65MHz (9.6%) högre klock på core. Inget på minnet. PC Perspective anger +9W i idle och +7W i load.

Sweclockers egen test där MSIs fabriksöverklockade 9800GTX (720MHz core, std mem) ingick, visade +1W i idle resp load jämfört med Leadtek 9800GTX i standardfrekvens.

Det står helt klart att nVidia inte sänkt strömförbrukningen med en krympning till 55nm.

9800GTX-korten kunde dessutom klockades till 799MHz, 818MHz resp 842MHz, så nVidia behöver inte G92b för 9800GTX+.

En krympning av tillverkningsprocessen sker för att
*få ut fler cores per wafer och därmed sänkt produktionskostnad
*sänka strömförbrukningen
*ökad klockfrekvens

Hittills har nVidia endast lyckats med den första.

Citat:

Ursprungligen inskrivet av Buio

Dessutom, är det inte effektförbrukningen som ökat eller tänker jag fel?

Ingen strömförbrukning ingen effektutveckling. Strömförbrukningen är proportionell med effektutvecklingen, så vilket man talar om har ingen större betydelse i det här fallet, innebörden blir densamma.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av m0rk
Jävlar, alla Ati fanboys som har hållit sig gömda under snart två års tid har äntligen vågat titta ut ur sina grottor. Konstigt nog var inte någon av dem kritiska till Ati skitlansering efter skitlansering. Nåja, de är väl inte lätt att vara fanboy.

mjo håller med, i och med den kommande lanseringen så spamas Sweclockers av: go go ati blabla, det är bara skit o.s.v.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

baaah måste ha grafikkort foort... lider med mitt FX5200! jalla med prissänkningar och releaser!!! fan att man skulle ge sig på att försöka voltmodda

Visa signatur

MacBook Pro 15" i5 520M 8GB GT330M 750GB

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av joelh
mjo håller med, i och med den kommande lanseringen så spamas Sweclockers av: go go ati blabla, det är bara skit o.s.v.

Samma sak blir det när nVidia får til ldet efter att ha legat under. Folk blir alltid glada att det skiftar lite för det gynnar konsumenter. Just nu är dessutom ATI ganska litet jämfört med nVidia så det är naturligt att många hoppas att ATi går bättre.

Dessutom så är det få som blivit besvikna på HD4850. GTX 280 var en rejäl besvikelse för för nVidias fans.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av joelh
mjo håller med, i och med den kommande lanseringen så spamas Sweclockers av: go go ati blabla, det är bara skit o.s.v.

Säger han med Nvidia-loggan som avatar. Hyckleri på hög nivå, förstår inte problemet i att ATi släppt en produkt som gjort att Nvidia varit tvungna att pressa ner sitt 9800GTX till samma nivå kring 199$.

Hur kan ni förneka att det är en imponerande produkt. Med dem tomma lanseringarna som har varit en tid med riktigt dåliga prestandahopp så ser jag detta som en positiv sådan.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Hardware guy
Ingen strömförbrukning ingen effektutveckling. Strömförbrukningen är proportionell med effektutvecklingen, så vilket man talar om har ingen större betydelse i det här fallet, innebörden blir densamma.

Är det inte mer logiskt att tala om effekt? Tillverkarna amvänder TDP, och alla tester jag sett visar jämförelser i watt. Men självklart hänger de ihop, verkar bara lite motströms att tala om strömförbrukning. (hehe)

Permalänk
Medlem
Visa signatur

ASUS K7M, AMD Athlon 1000 MHz Slot A, 3dfx Voodoo5 5500 64 MB AGP, 512 MB SDRAM @ CL 2-2-2-5, Cooler Master ATC-100-SX Aluminum Mid Tower.

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Delerium
http://www.anandtech.com/video/showdoc.aspx?i=3340&p=1

Så här skriver dom i slutorden.

"In a little over 12 hours we'll be able to complete the story with a full look at AMD's RV770 GPU and the Radeon HD 4870"

Fler intressanta tester verkar alltså vara på gång.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |