AMD ser ingen framtid för stora grafikprocessorer

Permalänk
Cyberman

AMD ser ingen framtid för stora grafikprocessorer

Nvidia har precis lanserat sin nya grafikkortserie Geforce GTX 200 och AMD kommer snart att lansera sin konkurrerande serie Radeon HD 4800. De två grafikkortstillverkarna har dock skilda meningar om hur värstinggrafikkorten bör designas. Nu kommenterar AMD att Geforce GTX 200-serien förmodligen kommer vara den sista i sitt slag.

Läs nyheten

Permalänk

Kan nog ligga nåt i det, flerkärniga processorer är ju redan standard så grafik bör väl gå samma väg.

Permalänk
Moderator, Testpilot

Inget nytt. Det här uttalandet gjorde AMD långt innan releasen av GT200.

Jag är övertygad om att han har rätt dessutom, känns som att GT200 är på bristningsgränsen av vad som går att klämma ner i en kärna.

http://www.theinquirer.net/gb/inquirer/news/2006/11/17/big-gp...

Permalänk
Medlem

AMD är nog inne på rätt spår. Det blir mycket billigare att använda 2 GPUer eftersom man då enkelt kan använda samma GPU för både mid och high-end segmentet. Mid-end korten får 1 GPU medan high-end får 2 eller fler. Då blir tillverkningskostnaden mycket mindre eftersom man bara behöver tillverka en typ av GPU.

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av Happen
AMD är nog inne på rätt spår. Det blir mycket billigare att använda 2 GPUer eftersom man då enkelt kan använda samma GPU för både mid och high-end segmentet. Mid-end korten får 1 GPU medan high-end får 2 eller fler. Då blir tillverkningskostnaden mycket mindre eftersom man bara behöver tillverka en typ av GPU.

Exakt och kan använda de felaktiga exemplaren till budgetvarianter med delar av kärnan avstängda.

Permalänk
Medlem

Ungefär lika oväntat "uttalande" som att nVidia anser att Direct X 10.1 är onödigt.

Permalänk
Medlem

Var det inte Nvidia som "började" med dubbelkort? 7900GX2

Permalänk
Medlem

9800GX2 visar ju att AMD har rätt. Det är ungefär lika kraftfullt som GTX280 och kostar mindre. Är ju solklart att grafikkorten kommer måsta gå samma väg som processorerna. Snart släpper väl Nvidia ett nytt Geforce FX5800. GTX280 känns ju nästan som ett sådant då ljudnivån har rusat upp igen, även fast prestandan på GTX280 givetvis är extremt bra.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av The_blueflame
Var det inte Nvidia som "började" med dubbelkort? 7900GX2

Jag skulle nog säga att 3DFX var en hel del år före.

Permalänk
Avstängd

tycker det beror på priset , ett Nvidia GTX280 kommer att ligga på 5500kr ca och frågan är då va kommer amds 4870X2 hamna på är den billigare o presterar nästan lika bra som nvidias GTX280 kort ja då kan jag gott o väl välja AMD o ATI. tycker detta har blitt ett gippo med nya grafikkor var annat kvartal ,och jag kommer nog att sitta kvar på mitt n8800gt 512 klarar o spela dom flesta spel i allfall, och har inte direkt heller en skärm som klarar mer en 1280*1024

Permalänk
Medlem

Det här gör ju nvidias uttalande om att dubbla processorer på en PCB är värdelöst lite kul. Dom insisterar ju på att det är bättre att sätta ihop två kort, än att köra AMDs 2-in-1 lösning.

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av Maximo
Ungefär lika oväntat "uttalande" som att nVidia anser att Direct X 10.1 är onödigt.

Med den stora skillnaden att ATi gjorde detta uttalandet redan för längesedan. Så visst är det PR samtidigt som det faktiskt är en sanning i sig, enligt min mening.

Permalänk
Medlem

2 GPUs på 1 PCB i dubbelmacka. Sen 4 sådana i crossfire/SLI. 16GPUs totalt och förmodligen en halv hårddisk i minne och 5 siffrig prislapp. Kommer väl Q3 2009 eller något sånt.

Permalänk
Medlem

"Nvidia har visserligen provat på dubbla GPU:er med Geforce 9800 GX2, men har övergett den designen till förmån för den större och kraftfullare grafikprocessorn GT200 i Geforce GTX 200-modellerna."

Vadå övergett den designen? Hade GT200 varit mindre och inte drog så mycket ström skulle man säkert vilja göra kort med dubbla gpus. Nu går det ju knappast men kanske kommer sån kort när man börjar tillverka GT200B.

Man har inte heller "provat" dubbla gpu:s iom 9800 GX2 då man hade liknande kort i 7900-serien med.

På tal om dubbla gpu:s

Voodoo2 korten hade väll också egentligen dubbla gpu:s? En texturenhet samt två grafikchipset med egna minnen?

Permalänk
Medlem

Jag tror att marknaden för diskreta grafikkort är ganska dödsdömd, jag tror att vi kommer att få se 1-2 dedikerade GPU:er på samma kiselplatta som CPU:n. Att man exempelvis släpper en 6 kärnig processor med 4CPU kärnor och 2 GPU kärnor.

Permalänk
Medlem

Finns det några prisuppgifter på vad AMD/ATi - korten kommer att kosta då? Det antyds ju att de skulle bli både billigare och bättre men vi får väl se...

Själv är jag jättenöjd med mitt nvidia 9600GT och känner än så länge inget behov av något bättre grafikkort än så.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Rhino
Jag skulle nog säga att 3DFX var en hel del år före.

Precis, Voodoo5 6000 var ju ett riktigt monster med 4 st GPU:er. Fast det släpptes iofs. inte, så det kanske inte räknas. Men de hade ju en del kort med två GPU:er i alla fall.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av The_blueflame
Var det inte Nvidia som "började" med dubbelkort? 7900GX2

Dom började väll med att sätta ihop 2 kort som bryggas och sedan tar upp en plats, men jag TROR ATi var först med 2 GPUs på ett kort, nämnligen med sitt Rage fury maxx. Har inte sett nått annat kort med den där lösningen iallafall än från ATi.

Permalänk
Avstängd

Någon som vet hur mycket GTX280-kärnor som TSMC slänger?

Permalänk
Medlem

Har ni alla glömt ATI Rage Fury Maxx???

Permalänk
Medlem

GTX 200 kommer ju snart i en mindre version, sen kommer säkerligen ett dubbelkort med den nya GPU från Nvidia också.
Själv kommer jag uppgradera till hösten skulle jag tro, då den nya GPU finns, samt 4870, vilken det blir för mig då får pris/prestanda avgöra

Permalänk
Medlem

Hej!

Det känns som det är helt rätt tid för en "uppföljare" till GeForce FX5950XT!

Mvh Johan

Permalänk
Moderator, Testpilot
Citat:

Ursprungligen inskrivet av Thallid
Någon som vet hur mycket GTX280-kärnor som TSMC slänger?

Läste någonstans att "yeild" var ungefär 40%. Dessutom läste jag på TheInq. att Nvidia får ut 97st GT200 per 300mm wafer.

Så (97x0.4=~39) 39st GTX 280 per 300mm wafer. Sedan hur många av de defekta GTX 280-kärnorna man kan använda som GTX 260 känner jag inte till men gissningsvis slänger man väl säkert en tredjedel.

Permalänk
Medlem

För ett tag sedan hade jag inte hållt med men crossfire och SLI tekniken går frammåt och kan mycket väl komma att bli framtiden. Med tanke på att GTX 280 ger ungefär samma resultat som det billigare 9800 GX2 så har nog AMD en poäng.

Permalänk
Medlem

Det hade väl varit en sak om den nya kärnan bara var stor till storleken, hade man gjort ett dubbelmackekort kunde man säkert fått plats med två, men med den strömförbrukningen kommer det inte vara möjligt att kyla.

Permalänk
Avstängd

Först med dubbla gpu'er var 3dfx med Voodoo 2 (dock SLI), sedan kom ATI Rage Fury MAXX som var första kortet med flera gpu'er på samma pcb.

Därefter kom 3dfx med sitt Voodoo 5 5500 och det var synd att ATI's radeon 256 MAXX inte kom ut, tydligen för de höga kostnaderna.

Fler kort:
Volari Duo V8 Ultra
Evans & Sutherland ATI RADEON 9700
Så har vi ju Gemini-modellerna från gecube(1,2,3)

etc.

Permalänk
Medlem

Förhoppningsvis är GTX260 samt GTX280 sista i sitt slag, då annars Nvidia insisterar på att floppa ännu en gång. Deras nya produkt är ju ett dåligt skämt - dyr, dålig prestanda, effektslukande och i allmänhet ypperligt... kass.

AMD har ju rätt på det sättet att billigare lösningar vinner ju alltid, kanske inte alla gånger i enthusiasternas ögon men den stora marknaden vill ju inte ha dyra grafikkort om dyra komponenter i övrigt. Får hoppas på att AMD kan få till något riktigt fränt för priset med 4850 samt 4870, för jag kommer sitta och refresh:a tills dess att det kommit tester på den.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av dragonball
Kan nog ligga nåt i det, flerkärniga processorer är ju redan standard så grafik bör väl gå samma väg.

Inte alls samma sak.Flerkärniga processorer bygger man snarast för att man har yta över att bygga på. GPUer är redan fyllda med hundratals processorer och där använder man fler chip när ytan tar slut istället.

Citat:

Ursprungligen inskrivet av ArtMan
Vadå övergett den designen? Hade GT200 varit mindre och inte drog så mycket ström skulle man säkert vilja göra kort med dubbla gpus. Nu går det ju knappast men kanske kommer sån kort när man börjar tillverka GT200B.

Fast det är ju ett val de gjort, inte så att när de utvecklat GT200 färdigt så insåg den att den blev stor och varm, det visste de ju innan. De har helt enkelt valt att göra ett stort chip, och de var tvungna. De hade redan spelat ut alla sina andra kort och därmed ätit upp sin framtid. Skulle de satsa på ett kort med dubbla GPUer skulle de inte kunna biffa upp sitt chip mycket mer över G92 alls. Den nuvarande uppbiffningen blev ju bara runt 45% på shaderprestandan. Skulle de välja 2 GPUer kanske de fått nöja sig med max 10%. Och det skulle vara en ganska ovärdig uppföljare till G92. Folk skulle klaga på att "tre" generationer i rad mer eller mindre var lika starka och likadana. Så nu släpper de en stor luns för att man måste visa att man går framåt i prestanda, men just det är det som håller dem tillbaka.

Citat:

Ursprungligen inskrivet av Dinoman
Läste någonstans att "yeild" var ungefär 40%. Dessutom läste jag på TheInq. att Nvidia får ut 97st GT200 per 300mm wafer.

Så (97x0.4=~39) 39st GTX 280 per 300mm wafer. Sedan hur många av de defekta GTX 280-kärnorna man kan använda som GTX 260 känner jag inte till men gissningsvis slänger man väl säkert en tredjedel.

Och så har vi ATi som får ut över 200 chip per wafer. De har mycket goda yields, och haft det ända sedans de första RV770 chippen.

Inte så svårt att lista ut vad som är bäst. ATi skulle kunna sätta 5 chip på kort till samma chipkostnad som nVidia sätter ett chip.

Permalänk
Medlem
Permalänk
Medlem

Ingen annan som reagerade på "Rick Bergman, som är vice president på AMD" ?
Det tycker åtminstone jag borde lyda vice VD och inget annat.

men ontopic: Helt klart rätt väg att gå för AMD! Även nVidia borde förstå att det inte är rimligt att producera overkill-processorer till såna höga kostnader när det är billigare (och effektivare) att kombinera billigare processorer. Se bara på superdatorerna - de har arbetat med det konceptet sedan allt började.