Geforce 9800 GX2 överklockas och testas

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman

Kan säga att han har både rätt och fel.

Du har rätt.
AMD (ATI) är tillbaka med att ge ett kort som har en väldigt bra pris/prestanda ratio i top-segmenten. Vilket man inte ser ofta, eller nästan aldrig. Men det är tack vare dual GPU lösningen och bra skalning av CF.

Men ekonomiskt och marknadsmässigt har AMD (ATI) väldigt mycke mark att ta tillbaka.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem

ref.Vart tog den söta lilla Dojan vägen? X 3
Ingen som vet, ingen som vet
Vart tog den söta lilla Dojan vägen? X 3
Ingen som vet, ingen som vet

Haha var bara tvungen

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AlbinNdoja
Jo fast nu är detta i 3DMark och inte i spel. 22% över Ultra i 3DMark med de inställningarna innebär minst 22% över Ultra i spel och det är minst 10% bättre än HD3870X2 vad vi vet än så länge, såvida de inte floppar med drivrutiner.

Först en överkörning.

Sedan måttliga 20%.

Nu minst 10% bättre än 3870x2 med reservation om att drivrutinerna måste fungera.

Håller du på att förlora tron på nVidia?

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Hardware guy
Först en överkörning.

Sedan måttliga 20%.

Nu minst 10% bättre än 3870x2 med reservation om att drivrutinerna måste fungera.

Håller du på att förlora tron på nVidia?

Han borde få ha titeln "Dubbelmoral spetsat med nvidia" istället för "Medlem"
Skämt åsido, alla måste få ha sin åsikt samt hålla ett märke kärt utan att bli mobbad. Däremot måste man ju också kunna argumentera för det vilket inte alla alltid klarar av, så ha nu lite överseende

Permalänk
Avstängd

Sluta gnälla nu grabbar och vänta till riktiga speltest kommer,och gärna i fler spel än crysis då också.

Visa signatur

Fractal Design Refine R2 Asus Commando(1901) Q6600@3600mhz@Vattenkylning Corsair HX620W 4Gb 2x2 dominator 8500 Powercolor HD4870X2 Ikari Laser WD MyBook 500Gb@E-Sata 3dmark06@20436+/-
Win xp sp3/win 7 ultimate

Permalänk
Citat:

Ursprungligen inskrivet av ReQuaker
AlbinNdoja, du är lika mycket nvidia-fanboy som jorden är rund. Samtidigt som jag se någon sorts sanning i ditt inlägg.. trots att jag känner ATi långt in i mitt hjärta, hur än vädret tryter.

Huh? Det jag skrev ovan är ju fakta ju så vad är ditt problem? Innan du motargumenterar mig är det bra om du läser på först så sparar vi både tid och energi, dont you think?

Citat:

Ursprungligen inskrivet av ReQuaker
Säger ju emot dig själv.. 3DMARK stämde ju nyss inte alls..

Nej, helt rätt. 3DMark säger väldigt lite i spel, men när man jämför grafikkort inom samma serie som i detta fallet ger det mer en korrekt bild om hur dessa grafikkorten beteer sig i spel procentuellt. Sedan vet jag att CPU spelar väldigt mycket roll i 3DMark men är ganska ointressant om man tittar till procentuella skillnaden mellan två grafikkort ifrån samma serie byggt på samma arkitektur.

Citat:

Ursprungligen inskrivet av Caylon
Mnja det behöver inte bli 22% bättre i spel, men det är mycket möjligt samt tror jag även att det kan vara bättre/sämre än dem 22%. Allt hittils kan bara vara spekulationer, förstår inte varför de inte passade på att testa i spel också?
Tror dock det här kortet inte kommer bli jättesuccé då det kostar alldelles för mycket. Bäst pris/prestanda kmr nog 88GT fortfarande ha

Nej det behöver det inte, helt rätt. Det var väl lite hastigt skrivet av mig.

Jo, det är ju spelen testerna de flesta är intresserade av.

Citat:

Ursprungligen inskrivet av gosh
*host* Hur bra PR är det om man inte försäkrat sig om innan att kortet presterar bra för spelet att placera loggan där?

När det gäller marknadsföring så är det en hel vetenskap samt det kostar gräs. Många företag spenderar mycket mer på marknadsföring än utveckling. Var enda grej ett företag gör inom marknadsföring är noga uträknat. Dessutom spenderar man inte pengar i onödan.

Det kanske är därför Nvidia har majoriteten av spelen eftersom Nvidia fungerar bra i majoriteten av spelen, ATi också. Men både du vet liksom jag och de flesta andra här inne att Nvidia fungerar bra i nästan alla spel liksom ATi. Att ett annat grafikkort med annat märke presterar bättre i vissa spel har ingenting med konkurrenten alls att göra och inte behöver man optimera för något märke heller. Det handlar oftast om vem som byggde den bättre arkitekturen för den tidens spel som då finns ute med väldigt mycket gissning. Sedan handlar det om vem som har mest pengar att hosta upp och Nvidia har haft mer pengar att hosta upp än tidigare ATi.

Citat:

Ursprungligen inskrivet av Bazooka91
Om man nu ska spinna vidare på din linje: Hur tror det kommer sig att Nvidia har bättre drivrutiner ATi? Om nu Nvidia har ett samarbete med spelutvecklarna som är med i "TWIMTBP" borde inte det innebära att Nvidia får mer insyn i utvecklingen och därmed bättre förutsättningar för att skapa bra drivrutiner? Det är en rätt stor del av dagens spel som har TWIMTBP-loggan på sig om man ser till AAA-titlar som t.ex. Crysis och Unreal Tournament 3.

Säger inte att det jag eller du säger är sant utan detta är bara jag som tänker högt.

Varför blev G80's arkitektur bättre än R600's? Varför är (var) Nvidias drivrutiner _alltid_ bättre i Linux jämfört med ATis? Varför är Nvidias kontrollpanel bättre än ATi's CCC? Varför är Ferrari F40 snabbare än Volvo S40?

Tror du Nvidia samarbetar med hela världen eller medans ATI (AMD) inte gör det? Vad är det då för mening att mäta två stycken grafikkort, ett från Nv och ett från ATi?

Citat:

Ursprungligen inskrivet av lazzve
4000 serien från AMD kommer bli fin. Nvidia har inget att komma med än sina upptrimmade kort. Patetiskt!

Nej, förmodligen inte. R700 korten kommer förmodligen prestera underbart, men du tror väl inte att Nvidia slutar tillverka grafikkort nästa månad?

Det håller ju alltid på såhär, ena bättre, andra bättre and so on.

Citat:

Ursprungligen inskrivet av lazzve
WORD!

Citat:

Ursprungligen inskrivet av lazzve
Edit: Tyst det blev på Dojan nu;)

Citat:

Ursprungligen inskrivet av lazzve
ref.Vart tog den söta lilla Dojan vägen? X 3
Ingen som vet, ingen som vet
Vart tog den söta lilla Dojan vägen? X 3
Ingen som vet, ingen som vet

Haha var bara tvungen

lazzve; Jag vill att du läser de tre enkla frågorna nedan och tänker efter och svarar med egna ord. Skriv helst inget till mig förns du har svarat på frågorna, okej?

Jag ser helst att ingen annan i tråden svarar på frågorna utan Lazzve har bevisat tillräckligt för mig att han själv skall kunna svara på dom.

Citat:

1. Varför tror du Nvidia sätter ett pris om 5000 kronor plus för ett 9800GX2?

2. Varför kan den inte kosta 3800kr, bara 400kr mer än ATis HD3870X2?

3. Spelar det någon roll PR mässigt, trots att 9800GX2 kommer kosta mycket mer än HD3870X2, att 9800GX2 presterar 5, 10 eller 20 procent bättre än HD3870X2? I så fall varför?

Citat:

Ursprungligen inskrivet av Hardware guy
Först en överkörning.

Sedan måttliga 20%.

Nu minst 10% bättre än 3870x2 med reservation om att drivrutinerna måste fungera.

Håller du på att förlora tron på nVidia?

Dubbla 8800GTS 512 presterar generellt cirka 20-25% bättre än ett HD3870X2. Om Nvidia inte floppar med drivrutinerna borde ju logiskt sätt 9800GX2 prestera 20% bättre än HD3870X2 eller hur? Men och andra sidan, presterar 9800GX2 cirka 20% bättre i spel än 8800Ultra om vi leker med tanken har vi i alla fall minst 10% bättre prestanda för ett 9800GX2 mot ett HD3870X2.
Jag struntar i 9800GX2 då det inte håller den prestandan jag är ute efter, ser hellre fram mot R700 eller Nvidias kommande.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Nu känns det inte som vi behöver nya grafikkort, utan fler Unreal 3 spel att spela på. En solid kombination mellan tidvis snygg och ibland grymt snygg grafik med mer än solid prestanda på samtliga platformar.
Om man får skoja till det lite. Det är ju alltid trevligt med en marknad i rörelse efter att ha haft ett ganska trist 2007.

Roligt att Nvidia gör samma misstag som sin butt-buddy Crytek - släng ut en produkt som är för tung/dyr för att någon ska bry sig allt för mycket och predika om hur bra det är för att starta en hype som vid lanseringen får i kras.

Nu svamlar jag om saker som inte hör till - jag skyller på att jag ätit för mycket bullar.

Citerar Dojjan manuellt pga. allt extrajobb med en halv roman till inlägg:
"1. Varför tror du Nvidia sätter ett pris om 5000 kronor plus för ett 9800GX2?

2. Varför kan den inte kosta 3800kr, bara 400kr mer än ATis HD3870X2?

3. Spelar det någon roll PR mässigt, trots att 9800GX2 kommer kosta mycket mer än HD3870X2, att 9800GX2 presterar 5, 10 eller 20 procent bättre än HD3870X2? I så fall varför?"

Snälla lilla Dojjan. Du skrev faktiskt ganska bra tidigare i inlägget men detta är faktiskt ganska dumt. Gissa varför GX2 kostar som den gör? Den är dyr att producera, förhållandevis excessiv kupa/kylare, dedikerad HDMI-utgång, samtliga andra portar som därav kräver en del extra moduler på grafikkretsen, etc. De sätter 5000+ knappast för att de anser det vara resonabelt för prestandan.

2. Samma som tidigare: GX2 är D-Y-R-A-R-E att producera än X2. Gör matten själv, vad är billigast:
2st 55nm-kretsar, en PCB, två DVI varav både kan konverteras till HDMI, billigare per-krets-kostnad pågrund av dess teknik.
-Eller-
2st 65nm-kretsar, två PCB, Två DVI, en dedikerad HDMI-utgång, dyrare per-krets kostnad pågrund av dyrare teknik. Bara för att nämna några egenskaper som gör G92 och den totala GX2-platformen dyrare än R680/RV670x2 för X2:an.

3. Jag tror knappast en människa på jorden är villig att betala +1500kr för +5-15% extra prestanda, om nu denna skillnaden ens finns trots att det inte finns bekräftat någonstans.

Permalänk
Medlem

1. Varför tror du Nvidia sätter ett pris om 5000 kronor plus för ett 9800GX2?

Därför att det är 2 kort i ett. AMD/ATI har allting på en PCB tror jag det heter. Vilket gör det billigare att tillverka.

2. Varför kan den inte kosta 3800kr, bara 400kr mer än ATis HD3870X2?

Samma som ovan

3. Spelar det någon roll PR mässigt, trots att 9800GX2 kommer kosta mycket mer än HD3870X2, att 9800GX2 presterar 5, 10 eller 20 procent bättre än HD3870X2? I så fall varför?

Har ingen anning jag köper efter pris och prestanda.

MVH Lazzve

Edit: Dojan nudå?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Benkaboy
Hmmmmmmmmm!

% hit och % dit! Då tar vi och räknar lite igen! (Sök 9800gx2 på prisjakt bara för skojs skull! xD)

Hur som, "köra över 3870x2" har jag läst en hel del den senaste tiden. Det vore väl f** om inte 9800gx2 tar sig förbi 3870x2.. -_- men köra över? get real !!

Läste i en annan tråd där det länkades till prisjakt och pris på kortet, 5700 var det då, låter inte helt orimligt. Räknade ut snittpriset på 3870x2 med hjälp av prisjakt vilket hamnade på dryga 3500:-. Nu till de 20% som vissa "vetare" här på forumet spår att kortet ska slå 3870x2 med. Ska kortet kosta närmare 6k och bara prestera 20% bättre över lag i spel?! Kretsar gjorda i guld?

3500*1.2=4200:-. Kortet ska presterta över 50% bättre för att det ska vara ekonomiskt försvarbart att köpa det. Presterar det bara 20% bättre för mellan 5500 och 6000 så kan det gå och gräva ner sig!

Nvidia= Utsugare ATI= Svaret tills oss konsumenter!

Visa signatur

CPU 1700@4GHZ | MB MSI x370 Gaming Pro Carbon | GPU AMD Vega 64 | RAM G.skill FlareX DDR4 @3466MHZ 16GB PSU Corsair AX1200i | SSD Samsung 960 EVO 512GB | | Monitor Acer Predator XZ321QU| Mouse Razer deathadder | Keyboard Corsair Gaming K70 RGB | Headset Sennheiser game one.

Permalänk
Citat:

Ursprungligen inskrivet av Mr.Borka
Snälla lilla Dojjan.

Gullig du är. Jag är 23 och du är 16 men jag är den lille av oss?

Citat:

Du skrev faktiskt ganska bra tidigare i inlägget men detta är faktiskt ganska dumt. Gissa varför GX2 kostar som den gör? Den är dyr att producera, förhållandevis excessiv kupa/kylare, dedikerad HDMI-utgång, samtliga andra portar som därav kräver en del extra moduler på grafikkretsen, etc. De sätter 5000+ knappast för att de anser det vara resonabelt för prestandan.

2. Samma som tidigare: GX2 är D-Y-R-A-R-E att producera än X2. Gör matten själv, vad är billigast:
2st 55nm-kretsar, en PCB, två DVI varav både kan konverteras till HDMI, billigare per-krets-kostnad pågrund av dess teknik.
-Eller-
2st 65nm-kretsar, två PCB, Två DVI, en dedikerad HDMI-utgång, dyrare per-krets kostnad pågrund av dyrare teknik. Bara för att nämna några egenskaper som gör G92 och den totala GX2-platformen dyrare än R680/RV670x2 för X2:an.

3. Jag tror knappast en människa på jorden är villig att betala +1500kr för +5-15% extra prestanda, om nu denna skillnaden ens finns trots att det inte finns bekräftat någonstans.

Läs nedan:

Citat:

Ursprungligen inskrivet av lazzve
1. Varför tror du Nvidia sätter ett pris om 5000 kronor plus för ett 9800GX2?

Därför att det är 2 kort i ett. AMD/ATI har allting på en PCB tror jag det heter. Vilket gör det billigare att tillverka.

2. Varför kan den inte kosta 3800kr, bara 400kr mer än ATis HD3870X2?

Samma som ovan

3. Spelar det någon roll PR mässigt, trots att 9800GX2 kommer kosta mycket mer än HD3870X2, att 9800GX2 presterar 5, 10 eller 20 procent bättre än HD3870X2? I så fall varför?

Har ingen anning jag köper efter pris och prestanda.

MVH Lazzve

Du har delvis rätt.

Självklart är det dyrare med dubbla PCB, högre tillverkningsteknik och anslutningar and so on på det men inte sätter Nvidia ett så högt pris bara för dens sakens skull, eller hur? Du förstår att om X presterar bättre än Y kan företaget X ta ut en högre summa. Vill man ha det bästa får man hosta upp med pengarna också. Titta bara på processor marknaden där kan det från 2.66Ghz till 3Ghz skilja 4000kr (tittar på äldre prismodeller). Varför tror du de värsta processorerna kostade så mycket mer? Kanske även en processor med upplåst multiplier men det är inget som kostar AMD eller Intel speciellt mycket pengar (förmodligen ingenting, kostar nog mer att låsa, inte säker).
Det är just oftast att de presterar bättre övriga seriens processorer eller konkurrentens processorer. Det samma gäller företag som utvecklar grafikkort.

Tror du inte Nvidia hade haft råd att ta 4000kr för ett 9800GX2? Vad tror du inköps priset för ett 9800GX2 är? Någon här jobbar säkert i en butik som kan tala om vad inköps priset för ett 9800GX2 är eller kommer att bli, men inte är det så mycket dyrare att man måste ta mellan 5 och 6 tusen kronor (närmare 6) för ett grafikkort på grund av dubbla PCB och anslutningar, utan det är för att grafikkortet presterar bäst på marknaden och företaget, Nvidia i detta fallet vet om det och kan därför ta detta pris som de gör. Skulle det vara så att 9800GX2 skulle floppa ordentligt och prestera sämre än HD3870X2 för att leka med tanken kan du ganska snabbt se att priset för 9800GX2 sjunker markant.

Så, nu gav jag dig någonting vettigt att svara på istället för att spela Allan i forumet.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Inaktiv

Edit; SweC.com är slött som satan, men insåg också att det tydligen inte gick att länka till dom.

Så länken till källan; http://www.anandtech.com/tradeshows/showdoc.aspx?i=3250&p=2

Permalänk

Bara jag som inte ser något? :S

EDIT: Kollade hemsidan:
http://www.anandtech.com/weblog/showpost.aspx?i=404

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av Fin_sliparn
Ja men det är väl bara att konstatera att varken 3870 X 2 eller 9800 GX 2 är något att hänga upp i julgranen. Visst, de presterar bäst just nu, men då är de ju långa som en Silja Line och garanterat törstiga något fruktansvärt. Nu har jag inga mått men med tanke på Nvidias "dubbel-design" är väl kortet möjligen lite kortare än ATI:s motsvarighet? En gissning där, rätta mig om jag har fel!

Dock ger jag pluspoäng till ATI:s CF där man kan använda olika modeller samt att jag inte tror på designen hos 9800 GX 2. Känns lite som att hålla värmen inne i en kapsel, typ som när man enris-röker fisk inlindat i aluminumfolie. Idiotiskt? Jag tror på den vanliga designen + en vision där man fläskar på med koppar/aluminium åt alla håll och kanter.

Jag vet inte... hur ser det ut framöver? ATI har ju något ess i skjortärmen.. när kommer nya 4000-serien? Vad har Nvidia för motsvarigheter på gång? När är det release-party för dessa? Nää... jag är inte imponerad, jag väntar tills nästa generation finns tillgänglig.

ATI's HD3870x2 är inte längre än ett 8800gtx då det är en PCB medan 9800gx2 är ca. 2-3 cm längre än ett 8800gtx då fläkten sitter huvudsakligen bakom PCBerna. Jävligt osmidigt. Frågan är om inte Nvidia snart kommer börja tillverka chassin och gör så att deras chassin är de enda som är tillräckligt stora/kompatibla med deras kort. More money ftw!

Citat:

Ursprungligen inskrivet av had0c
Ni gnällde om att betala 7tusen för en 20% uppgradering från 7xxx modellerna när 8xxx kom *gtx*...

och nu gnäller ni att få 2st graffekort i ett dvs så nära SLI man kan komma på ett kort med samma prestanda som *rätta mig om jag har fel* 2st GT8800 för ett pris av 1,000 - 2,000 kr mindre än det "bästa" 8xxx serie kortet

iofs så blir ju 2st GT billigare men då med 512 mindre minne och ännu mera platts och ljud i datorn..

Sluta gnälla på varenda liten detalj för ni kommer ändå att köpa detta kort förr eller senare.. om inte så köper ni GT9800 i SLI för samma pris som GTX x2 ^^

Jag kommer verkligen inte köpa detta kort? Får jag fråga hur du tänker egentligen? När två kort (8800GT) kostar ca 2000 styck (1024 mb versionen då så att det blir 1024 mb effektivt) så kan man då alltså köra dessa i SLI för ca. 4000. Nvidia tycker då att det är rimligt att sätta ihop två av dessa, klocka lite, sätta ihop i en redan bevisat sjukt dålig konstruktion med dåliga kylningsmöjligheter (vilket i slutändan innebär dåliga klockningsmöjligheter vilket är väldigt populärt bland folk som köper kort i just prestandasegmentet) för ca. 5500. Vem fan skulle vilja köpa ett sådant kort? 7000 serien till 8000 serien var ju en ny arkitektur och presterade mer än 20% bättre (om jag inte har helt fel) med en GPU. Detta är två gamla kort som är ihopklistrade.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Bara jag som inte ser något? :S

EDIT: Kollade hemsidan:
http://www.anandtech.com/weblog/showpost.aspx?i=404

Nej de ser ganska vitt ut.

Fin Novell över också (Y)

Visa signatur

Stackars Albin
Citera eller skicka PM, övervakar inte.
Använd ordet "dem" med måtta eller smaka på mitt vrede.

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av AlbinNdoja
Bara jag som inte ser något? :S

EDIT: Kollade hemsidan:
http://www.anandtech.com/weblog/showpost.aspx?i=404

http://www.anandtech.com/tradeshows/showdoc.aspx?i=3250&p=2

Syftade på 9800GX2-bilderna några sidor framåt. :B

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Varför blev G80's arkitektur bättre än R600's? Varför är (var) Nvidias drivrutiner _alltid_ bättre i Linux jämfört med ATis? Varför är Nvidias kontrollpanel bättre än ATi's CCC? Varför är Ferrari F40 snabbare än Volvo S40?

1. Jag skrev klart och tydligt att jag inte menade att det jag eller magnus72 var sant.

2. Dina frågor är mer eller mindre irrelevanta till vad jag skrev. Jag vet mycket väl svaren på samtliga och de har inte ett jota att göra med TWIMTBP.

Citat:

Tror du Nvidia samarbetar med hela världen eller medans ATI (AMD) inte gör det? Vad är det då för mening att mäta två stycken grafikkort, ett från Nv och ett från ATi?

Grova överdrifter är din specialitet ser jag ...

Det undrar jag också, dock föutsätter ju det att det som påståtts tidigare(att Nvidia har ett försprång prestandamässigt därför att de har ett större samarbete med utvecklare än ATi) är sant vilket jag inte alls påstått.

Dock pekar mycket av det jag sett och hört på att det faktiskt stämmer med tanke på det som sagts både i intervjuer med Nvidia själva och berörda utvecklare.

Jag tycker att texten på Wikipedia om TWIMTBP talar ganska bra för detta:

Citat:

The Way It's Meant To Be Played (TWIMTBP) is a program that helps game developers to optimize and incorporate exclusive features in their games and applications exclusively for NVIDIA's graphics cards. The deal also adds a splash screen to "the way it's meant to be played" games as well as branding within the game; this is widely considered as a promotion campaign for NVIDIA. This program was launched 2003 by NVIDIA, a graphics card producer. The program aims at providing the best experience possible for users of NVIDIA GeForce graphics cards, and more particularly provides extensive guidelines on game performance optimizations for the GeForce graphics cards.

http://en.wikipedia.org/wiki/The_Way_It's_Meant_to_be_Played

----------------------------------------------------------------------------------------------------

Detta står även på sidan angående ATi:s motsvarighet:

Citat:

When Doom 3 was released, unsurprisingly Nvidia held a large performance lead. ATI analysed the code, and found shader calculations were being performed manually through a look up table, to compensate for the relatively poor performance of the FX series in this respect. Through application recognition, on the x800 card ATI reportedly found a 30% speed gain[citation needed], just by moving shader calculations to hardware. To this extent, the question of who has the best graphics architecture, is becoming ever harder to answer, as with the increasing complexity of GPUs, performance becomes ever more optimisation specific.

http://en.wikipedia.org/wiki/Get_in_the_game

Detta visar på att det utan tvekan förekommer mygel inom braschen. Jag säger inte att det händer i nuläget, men detta visar ju onekligen på att Nvidia inte skyr några medel för att få ett övertag eller hur?

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

borde dom inte fått nå böter för de dära?

Visa signatur

CPU 1700@4GHZ | MB MSI x370 Gaming Pro Carbon | GPU AMD Vega 64 | RAM G.skill FlareX DDR4 @3466MHZ 16GB PSU Corsair AX1200i | SSD Samsung 960 EVO 512GB | | Monitor Acer Predator XZ321QU| Mouse Razer deathadder | Keyboard Corsair Gaming K70 RGB | Headset Sennheiser game one.

Permalänk
Citat:

Ursprungligen inskrivet av Jays_swe
borde dom inte fått nå böter för de dära?

troligen inte...

Visa signatur

Återfinns under en sten 1.6mil ut på landet.
100/100 Mbit Fiber | Cisco EA4500 N900 Smart Router
Acer Aspire 6930G | ASUS K55VJ

Permalänk
Trollfabrik

Även fast jag är lite AMD/ATI fanboy är jag lite besviken på resultatet trodde det skulle vara bättre... Kan ju vara drivers som ATI också har problem med antar ja med dom nya dubbel-gpu korten...

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Mr.Borka

3. Jag tror knappast en människa på jorden är villig att betala +1500kr för +5-15% extra prestanda, om nu denna skillnaden ens finns trots att det inte finns bekräftat någonstans.

Det gör ju många entusiaster hela tiden när det kommer en ny datorprodukt ut på marknaden, priset är av underordnad betydelse då. Så där håller jag inte med dig alls faktiskt.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AlbinNdoja

Tror du inte Nvidia hade haft råd att ta 4000kr för ett 9800GX2?

Tror du inte AMD skulle haft råd att ta 2995kr för ett HD3870X2?
Det är skillnad med att bli av med produkterna, och gå med vinst på dem.
Det är inte så att Nvidia kommer att sälja sina produkter under de priserna där de kan göra några vinster på det, hur mycket pengar de än har till hands.

(ska lära mig citera i andra-hand propert inom kort)

Citat:

Det gör ju många entusiaster hela tiden när det kommer en ny datorprodukt ut på marknaden, priset är av underordnad betydelse då. Så där håller jag inte med dig alls faktiskt.

Jag vet att jag drog till med något jag själv vet var felaktigt. Men om vi ser på en stor skala, av alla som är redo att investera i ett grafikkort tror jag knappast särskilt många väljer det dyraste "bara för att". Men visst, enthusiastsegmentet drar lätt till sig just den målgruppen, så där finns det mycket pengar att spendera per komponent, men knappast något övertygande för de flesta som kan tänka sig spendera, men spendera rätt.
Skriver antagligen ganska sluddrigt, är trött.

Permalänk
Moderator, Testpilot

Kan vi inte alla bara lunga oss lite tills det har kommit vettiga speltester från de stora sajterna innan vi börjar kasta pajerna?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Bazooka91
1. Jag skrev klart och tydligt att jag inte menade att det jag eller magnus72 var sant.

2. Dina frågor är mer eller mindre irrelevanta till vad jag skrev. Jag vet mycket väl svaren på samtliga och de har inte ett jota att göra med TWIMTBP.

Grova överdrifter är din specialitet ser jag ...

Det undrar jag också, dock föutsätter ju det att det som påståtts tidigare(att Nvidia har ett försprång prestandamässigt därför att de har ett större samarbete med utvecklare än ATi) är sant vilket jag inte alls påstått.

Dock pekar mycket av det jag sett och hört på att det faktiskt stämmer med tanke på det som sagts både i intervjuer med Nvidia själva och berörda utvecklare.

Jag tycker att texten på Wikipedia om TWIMTBP talar ganska bra för detta:

http://en.wikipedia.org/wiki/The_Way_It's_Meant_to_be_Played

----------------------------------------------------------------------------------------------------

Detta står även på sidan angående ATi:s motsvarighet:

http://en.wikipedia.org/wiki/Get_in_the_game

Detta visar på att det utan tvekan förekommer mygel inom braschen. Jag säger inte att det händer i nuläget, men detta visar ju onekligen på att Nvidia inte skyr några medel för att få ett övertag eller hur?

Givetvis sker det mygel inom dessa bransher, kommer jag aldrig sticka under stolen med för gör man det är man ganska blind tror jag. Nvidia är inte några änglar men inte AMD heller. Det finns ingen här som är bättre eller sämre, snarare att ha en affärsidé om att tjäna pengar och vara bäst på någonting, gäller samma sak både för AMD och Nvidia.

Jag ställde mest följd frågor till dina frågor, men givetvis påverkar det prestandan i spel när man samarbetar, ingenting konstigt och ingenting olagligt. Men det är knappast det som avgör den totala prestandan när retail av spelet lanseras när man testar grafikkort X och Y (beroende på, fortsätt läs). Jag vet att du inte påstått detta bara så du inte tror att jag hoppar på dig. Nedan text är mycket generell information.

Ta Nvidias G80 arkitektur till exempel. Den började utvecklas för cirka 5 år sedan, lite mer och då visste man väldigt lite om hur spel idag skulle bete sig med ett 8800GTX till exempel. Detta innebar att man chansade väldigt mycket om vad spelen 4 år fram utnyttjar och arbetar intensivt- bäst med. Är det shader intensiva spel framöver eller är det textur intensiva spel till exempel? Älskar, älskar inte ungefär.
Nvidia med sin G80 arkitektur satsade på mer textur enheter medans ATi med sin R600 arkitektur satsade på shader enheter. Nu råkade det vara så att under 2007 och fram till idag lanserades spel som var mer textur intensiva bland annat. Sedan om Nvidia loggan eller ATi loggan finns med i spelet säger ingenting annat än att någon faktiskt har betalat för att använda sitt märke för PR. Men för att ta ett väldigt textur intensivt spel skulle ATi kunna lägga ut 10 stycken ingenjörer för optimering av spelet Jaffar and the newborn som lanseras imorgon bara för att leka med tanken, för ett X antal kronor men spelet Jaffar är ett textur intensivt spel. Detta blir omedelbart ett svårt och krångligt projekt både för spelutvecklarna och folket bakom drivrutinerna att optimera för att göra en markant nytta. Arkitekturen är redan byggt så den har man varken tid eller pengar att modifiera som man vill. Detsamma gäller för uppbyggnaden av fysikmotorn i ett spel SÅVIDA inte dessa två partners har vart med från början, som i fallet med Nvidia och Crysis till exempel.

Nu vet jag att det finns vissa spel där Nvidia och ATi har lyckats optimera väldigt bra och mycket procentuellt jämfört med från realise dagen av spelet. Inte minst i spelet Far Cry från ATi's sida bland annat. Men detta tar tid och vad händer med de andra 340 spelen år 2007? Självklart sattsar man på de större spelen eftersom det är de större spelen som prestanda testas och efterlängtas tackvare hype och allt detta är återigen PR.
Svaret är ja, man kan optimera i högre utstreckning, låter som om jag säger emot mig själv men det är inte omöjligt. Man kan hitta vägar att effektivisera men detta tar otroligt lång tid om man skall vara up to date med alla spel, framförallt alla stora spel. Tid behövs och tid är pengar och ibland räcker inte arkitekturen till helt enkelt.

För två år sedan hade Nvidia marknaden finansiellt men ATi hade prestandatronen _trots_ bland annat the way its ment to be played (TWIMTBP- för er som inte vet), trots alla Nvidia loggor i större delen av spelen på marknaden med en logga i. Samma sak här som Nvidia från och med 2006 gissade ATi mer rätt under utvecklingen av arkitekturen för 19xx serien än vad Nvidia gjorde med 79xx serien, om vad spel framöver skulle arbeta intensivt med. Detta resulterade till att ATi hade prestandatronen då de hade en bättre arkitektur helt enkelt, både med bild och FPS kvalité.

Allt handlar om att tjäna pengar. Den som har djupast ficka är det bolag som oftast vinner loppet i dessa branscher när det gäller loggor i spel och optimeringar för spel och grafikkorts serier, men det säger egentligen väldigt lite om slut prestandan såvida de inte vart med från början under spelutvecklingen tillsammans med arkitektur utvecklarna för en grafikkorts serie eller spelutvecklarna för ett spel. Skulle det vara så enkelt i form av tid och pengar hade vi sett mer konkurrens i spelen men det kostar alldeles för mycket och blir alldeles för avancerat för de som utvecklar fysikmotorn att bygga upp spelen på annat sätt än det De hade tänkt sig från början. Då skulle Nvidia eller Ati lika gärna kunnat köpa upp utvecklingsbolaget och starta ett nytt spelbolag.

Hehe, jag misstänker att jag skrev samma sak så där 4 gånger.

Citat:

Ursprungligen inskrivet av Mr.Borka
Tror du inte AMD skulle haft råd att ta 2995kr för ett HD3870X2?
Det är skillnad med att bli av med produkterna, och gå med vinst på dem.
Det är inte så att Nvidia kommer att sälja sina produkter under de priserna där de kan göra några vinster på det, hur mycket pengar de än har till hands.

(ska lära mig citera i andra-hand propert inom kort)

Nu är det väl lite skillnad att hoppa från nästan 6000 kronor ner till 4000 kronor för 9800GX2 och från 3400 kronor och ner till 2995 kronor för HD3870X2 eller hur? Säg HD3870X2 för 2400kronor så gör vi det enkelt och svar på den frågan är jag vet inte men det skulle vara ganska korkat i AMD's possition just nu då de inte får in några större intäckter än vad vi vet tanke på hur dåligt det har gått för AMD på processor & grafikkorts marknaden. Det ser man inte minst på senaste rapporteringen om man använder allas bästa vän Google.

Nvidia skulle inte bli av med produkten om de sålde 9800GX2 för 4000 kronor och det är jag övertygad om att du redan vet. 8800GTS 512 kostar idag 2500kr och 2500kr * 2 = 5000kr. Nvidia går plus för varje 8800GTS 512 som säljs (kan någon kolla upp exakt vad inköpspriset för 8800GTS 512 är lite mer exakt?) och konsumenterna blir nöjda. 9800GX2 är och kommer bli betydligt mycket billigare än två separata 8800GTS 512 för Nvidia vilket är fullt logiskt.

Man vet idag varför HD3870X2 kostar 3400kronor och inte 4400 kronor och det beror på Nvidias 9600GT/8800GT/8800GTS 512 samt 8800GTX som dels har PR för sina kort och märket Nvidia har sagt sitt sedan över ett år tillbaka och som dels har prestand/per krona. Detsamma gäller för HD3850 & HD3870 mot 9600GT och 8800GT. HD3870X2 kunde lika gärna ha kostat 4400kronor tanke på att det kortet presterar bättre än alla andra kort idag på marknaden om än marginalt men det spelar ingen roll, de hade kunnat ta det priset liksom alla andra gör med allting. Det bästa kostar men på grund av ovan problem kostar inte Hd3870X2 till exempel 4400 kr utan 3400kr och kommer förmodligen att sänkas ännu mer.

Det är inte AMD som idag bestämmer priserna på deras grafikkort utan det är Nvidia som bestämmer deras priser tyvärr. AMD går förhoppningsvis aldrig minus riktigt men de går nog samtidigt inte speciellt mycket plus, vet ej riktigt men de hade säkert vilja höja alla grafikkort med 400kr utan att överdriva men det går ej på grund av Nvidia just nu.
Detta beror på att Nvidia har fler grafikkort än vad AMD kan konkurrera med. Man skulle kunna säga att Nvidia konkurrerar mer mot sig själva än mot AMD för tillfälligt. AMD kan inte göra så mycket till det de släpper en refresh och hoppas på det bästa för stunden fram till det att AMD lanserar R700.
Personligen tror jag R700 kommer slå Nvidia på fingarna och vilket R700 borde med dagens Nvidia kort och med nya 9xxx serien, annars har vi konsumenter problem tror jag.

Lång text va? Och ja jag vet, skrev säkert samma sak massor med gånger men ha överseende med att klockan är mycket.

Mvh Albin

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AlbinNdoja

9800GX2 är och kommer bli betydligt mycket billigare än två separata 8800GTS 512 för Nvidia vilket är fullt logiskt.

Har inte tid att läsa allting du skrev, nu på morgonkvisten, återkommer senare.
Men för den citerade kommentaren... Så att 9800GX2 kommer bli billigare, om inte mycket billigare, än sin lillebror med enkel-GPU "bara för att"? Tänk på att det går åt praktiskt taget lika mycket material på en GX2:a som på två 8800GTs 512MB. Hur kan de då få ned priserna?
Alltså säger du ju att HD3870X2 borde bli vansinnigt mycket billigare att bygga än två HD3870, eftersom det används mindre material.
HD3870X2: 3500kr-4200kr
HD3870: 1699kr (observera den närliggande prissänkningen).

Den absolut billigaste HD3870X2 du får tag på är fortfarande dyrare att köpa en två 3870. Hur skulle då 9800GX2 kunna bli billigare än just två 8800GTS 512MB?

- Anledningen till varför jag drar in X2:an är pågrund av dess liknande, men priseffektivare koncept.

Permalänk
Citat:

Ursprungligen inskrivet av Mr.Borka
Har inte tid att läsa allting du skrev, nu på morgonkvisten, återkommer senare.
Men för den citerade kommentaren... Så att 9800GX2 kommer bli billigare, om inte mycket billigare, än sin lillebror med enkel-GPU "bara för att"? Tänk på att det går åt praktiskt taget lika mycket material på en GX2:a som på två 8800GTs 512MB. Hur kan de då få ned priserna?
Alltså säger du ju att HD3870X2 borde bli vansinnigt mycket billigare att bygga än två HD3870, eftersom det används mindre material.
HD3870X2: 3500kr-4200kr
HD3870: 1699kr (observera den närliggande prissänkningen).

Den absolut billigaste HD3870X2 du får tag på är fortfarande dyrare att köpa en två 3870. Hur skulle då 9800GX2 kunna bli billigare än just två 8800GTS 512MB?

- Anledningen till varför jag drar in X2:an är pågrund av dess liknande, men priseffektivare koncept.

DVI anslutningar, metall, plast. Jag tänker på kylaren med fläkt till exempel. Jag vet inte hur det är med kondensatorer och andra pålödade komponenter men det ser vi väl senare.

Jag jobbar inte på AMD och kan ej säga med säkerhet men jag är helt övertygad om att om inte AMD vore stoppad som de är på grund av alla Nvidias kort hade ett HD3870X2 kostat 4000+ och det låter enligt mig väldit logiskt. Alla vill ju tjäna pengar.

HD3870X2 är billigare att utveckla än 9800GX2, helt klart men frågan är hur mycket billigare? Jag skulle gissa runt 400-600 kronor, mycket mer tror jag inte det är, om ens det.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

fram med chipsen ikväll framför denna paj och personliga påhopps tråden blir inte mkt bättre än såhär!

jag har dock svaret för alla: när nya drivrutiner släpps till båda korten så kommer båda korten se en ökning på höga 1011%, så frukta ikke, det kommer från en säker källa!

lite siffror på de nya drivrutinerna

3dmark 06: 76034 poäng

crysis med allt på max som går i dags läget och högsta möjliga upplösning + aa och AF på absolut max: 968 fps minimum, AVG 1099 fps, max 1388fps.

OBS: övriga systemet var en kraftig flaskhals: e8500@7.64ghz, 4gig ram, samt lite vanligt stuff!
drivrutinen som passar båda korten släpps första april i år!

tror faktiskt att nvidia tar ut mkt pengar för kortet för att det är bäst, sen om det är 1% eller 999% bättre än atis motsvarighet spelar ingen roll eftersom det är bättre och finns dom som tycker att 1500kr är värt det.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Citat:

Ursprungligen inskrivet av Aka_The_Barf
tror faktiskt att nvidia tar ut mkt pengar för kortet för att det är bäst, sen om det är 1% eller 999% bättre än atis motsvarighet spelar ingen roll eftersom det är bättre och finns dom som tycker att 1500kr är värt det.

Exakt.

Över 5000 st (återkommer med siffran längre ned och räknar lågt) personer kommer att köpa 9800GX2 inom loppet av 1 vecka efter det att 9800GX2 har lanserats.

Jag kom ihåg att Ultra hade något offantlig hög siffra, betydligt högre än 5000 st, jag tror vi talade om cirka 30.000 st har jag för mig, på sålda 8800Ultra under första veckan efter realise dagen (inte lika mycket som de andra korten) tanke på hur dyrt det var.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Gnälliga människor som sitter och gnäller över Nvidias generations byte (8xxx till 9xxx) och tycker att det är fulspel och blablabla... OCh så sitter ni och prisar samma sak som ATI gjorde (2xxx till 3xxx)... Skäms på er!

Permalänk

Ärligt talat. Folk förväntar sig för mycket nu för tiden.

Visa signatur

That's just my opinion, I could be wrong...
> C2Q Q6700 > 8GB PC6400 > Gigabyte 965P-DQ6 > HD4870X2 & HD4650
> Lian Li PC-201B > Corsair HX620 > 10.46TB > HP LP3065 & 2x HP LP2065

Permalänk
Citat:

Ursprungligen inskrivet av Tobbe Nukem
Ärligt talat. Folk förväntar sig för mycket nu för tiden.

Fast jag förväntar mig endel av Nvidia då de gick ut officiellt och sa att varje år vid jul kommer "vi" att lansera en ny arkitektur och nej, stämmer inte alls. Det ända de har släppt är några refresh's av G80 arkitekturen och 9xxx serien är fortfarande byggt på G80 arkitekturen så jag förväntar mig av så stora företag att de håller vad de säger officiellt.

Men om 9xxx generellt med tanke på vad vi vet kan man inte förvänta sig något speciellt förutom att 9800GTX förmodligen är 8800GTS 512 med högre klock och eventuellt någonting modifierat, 9800GTS är 8800GT and so on.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.