AMD ser ingen framtid för stora grafikprocessorer

Permalänk
Medlem

återstår och see vad 4870 och X2 presterar

Permalänk
Medlem

Tycker det känns väldigt mystiskt att nvidia, företaget som i flera år försökt övertyga oss om att sli till absurda priser är värt pengarna, hellre satsar på kort med en enda gpu...

Men det kanske bara är jag?

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Medlem

Kanske har att göra med micro-stuttering.
Exempel: http://www.pcgameshardware.de/?article_id=631668

Det problemet kanske är svårare att lösa än vad man först trodde.

Visa signatur

Test

Permalänk
Medlem

Jag tror AMD har helt rätt, jag kan tänka mig en helt generation grafikkort där alla modeller är baserade på samma kärna men med varierande antal kärnor och minnesmängd. Det skulle verkligen underlätta tillverkningsprocessen jämfört med dagens kort.

Visa signatur

- In the beginning the Universe was created. This has made a lot of people very angry and has been widely regarded as a bad move
- The Guide is definitive. Reality is frequently inaccurate.
Douglas Adams

Permalänk
Avstängd

Tror Nvidia kommer fortsätta med sina mastodontchip ett par vändor till. De gick ju själva ut och sa:

"If you take two chips and put them together, you then have to add a bridge chip that allows the two chips to talk to each other. And you can’t gang the memory together. So when you add it all up, you now have the power of two GPUs, the power of the bridge chip, and the power that all of that additional memory consumes. That is why it’s too simplistic of an argument to say that two smaller chips is always more efficient"

Jag tror inte de kommer gå ut och säga att de haft fel, inte än på ett tag.

Källa: http://www.sweclockers.com/nyhet/7769-ati_och_nvidia_forsvara...

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem

Vi får väl se vad AMD kommer upp med, de behöver verkligen nått bra så de kan vända siffrorna om de ska finnas kvar. Deras CPU division behöver nått som håller dem ovan ytan. Tungt läge o jobba emot Intel på en front o Nvidia på den andra som båda är stabila jättar.

Dessutom så tror jag att kommer AMD att komma med ett kort som är en värdig motståndare så sänker Nvidia priset. Yielden är alltid kass vid produktionsstarten, såfort nvida kommit förbi den så har de säkert alla möjligheter att pressa priserna. Om så behövs kanske bör tilläggas, de finns fortfarande massa folk med för mycket pengar

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Gamblor
Kanske har att göra med micro-stuttering.
Exempel: http://www.pcgameshardware.de/?article_id=631668

Det problemet kanske är svårare att lösa än vad man först trodde.

Micro struttering är en av orsakerna som Nvidia påstår vara orsaken till att man undviker fler GPU:er.

Saken är den att micro struttering främst är ett problem vid lägre "frame rates" runt 30 FPS och lägre. Ju fler frames desto mindre blir problemet eftersom då inte ögat hinner uppfatta att "frame" #3 hamnade 1ms efter #2 istället för 0,5ms.

ATi påstår att R700 inte kommer lida av micro struttering eftersom kommunikationen mellan kärnorna kommer ske i minnet. Alltså kommer minnet att ta emot alla "frames" innan dem skickas till skärmen. Detta kommer ju onekligen göra att R700 kommer kräva mycket minne men som det spekuleras så kommer det vara bestyckat med 1GB GDDR5 vilket nog får anses som nog.

Kontentan är alltså att R700, troligtvis, inte kommer behöva ett kommunikations-chipp a la det som sitter på HD3870x2.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

HD 4850 CF > 280 GTX

Permalänk

Både ATI och nVidia har bra poäng. ATI's utalande försvarar deras strategi, och nVidia sitt.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Hedersmedlem

Ang. Microstuttering. AMD's förklaring till detta (åtminstone en del, kanske finns fler anlendningar) var att deras strömsparningsteknik har varit alldelse för aggressiv. När CPU'n är den begränsade faktorn så har GPU'erna svultit en liten tid vilket gjort att de har trott att det inte finns någon anlending att köra för fullt och börjat klocka ner GPU'erna. När sedan de fått jobb igen så har det tagit en liten tid att gå upp igen till full fart.

Det "bör" vara fixat med de nya korten med lite nya tekniker (kan inte säga mer nu tyvärr) men det återstår naturligtvis att se.

/B

Visa signatur

-----------------------------------------------------
Ägare/grundare: www.bjorn3d.com

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av SwedBear
Ang. Microstuttering. AMD's förklaring till detta (åtminstone en del, kanske finns fler anlendningar) var att deras strömsparningsteknik har varit alldelse för aggressiv. När CPU'n är den begränsade faktorn så har GPU'erna svultit en liten tid vilket gjort att de har trott att det inte finns någon anlending att köra för fullt och börjat klocka ner GPU'erna. När sedan de fått jobb igen så har det tagit en liten tid att gå upp igen till full fart.

Det "bör" vara fixat med de nya korten med lite nya tekniker (kan inte säga mer nu tyvärr) men det återstår naturligtvis att se.

/B

Se så ut med språket.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av heande
Jag tror att marknaden för diskreta grafikkort är ganska dödsdömd, jag tror att vi kommer att få se 1-2 dedikerade GPU:er på samma kiselplatta som CPU:n. Att man exempelvis släpper en 6 kärnig processor med 4CPU kärnor och 2 GPU kärnor.

ja vore smidigt med en socket till på moderkortet som man kan installera sin gpu på!

Visa signatur

WS:/ASUS M4A78-E/Phenom 940BE/OCZ Reaper DDR2 PC8500 6Gb/CF Ati 4870 1GB//Server: AMD Phenom 9550/MSI K9A2 CF-F/OCZ Reaper PC8500 2Gb/XFX GTS 250 Nvidia
"En enskild människas död är en tragedi, en miljon döda är statistik" -Josef Stalin

Permalänk
Medlem

När Nvidia får se vad Radeon HD 4870 X2 kommer att gå för lär de tänka om,

riktigt skön kommentar

Visa signatur

Fractal Design Define R5 , I7 4790K@4800mhz ,Corsair vengeance 2400Mhz@2600 CL 11 16GB ,Cooler master V850 , Fury X ,MSI Z97 Gaming 9 AC , Samsung 840 Evo 500GB +1tb hdd , Corsair H100i.
Asus vn247h

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av judge
ja vore smidigt med en socket till på moderkortet som man kan installera sin gpu på!

jag menade snarare att GPU kärnorna ska sitta på samma kiselplatta som CPU kärnorna, alltså bara en socket.

Visa signatur

| Errare humanum est |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
Tror Nvidia kommer fortsätta med sina mastodontchip ett par vändor till. De gick ju själva ut och sa:

"If you take two chips and put them together, you then have to add a bridge chip that allows the two chips to talk to each other. And you can’t gang the memory together. So when you add it all up, you now have the power of two GPUs, the power of the bridge chip, and the power that all of that additional memory consumes. That is why it’s too simplistic of an argument to say that two smaller chips is always more efficient"

Jag tror inte de kommer gå ut och säga att de haft fel, inte än på ett tag.

Källa: http://www.sweclockers.com/nyhet/7769-ati_och_nvidia_forsvara...

Det där PR uttalandet tror jag inte är värt något alls. Det där säger man bara för att sälja kort, idag. Imorgon är det en ny dag och då kan man säga att det är idiotiskt med bara en GPU per kort. Ingen kommer ihåg det gamla ändå (förutom möjligen vi).
Intel + 64 bitar någon?

Hoppas verkligen ATi/AMD kan få tillbaka en del marknadsandelar och kapital nu.

Permalänk
Medlem

jag tror att HD 48xx serien och bulldozer gör så att AMD komemr att ligga på topp nu i några år

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
Tror Nvidia kommer fortsätta med sina mastodontchip ett par vändor till. De gick ju själva ut och sa:

"If you take two chips and put them together, you then have to add a bridge chip that allows the two chips to talk to each other. And you can’t gang the memory together. So when you add it all up, you now have the power of two GPUs, the power of the bridge chip, and the power that all of that additional memory consumes. That is why it’s too simplistic of an argument to say that two smaller chips is always more efficient"

Jag tror inte de kommer gå ut och säga att de haft fel, inte än på ett tag.

Källa: http://www.sweclockers.com/nyhet/7769-ati_och_nvidia_forsvara...

Ja så ser det kanske ut i dag men vem säger att GPU:er msåte se ut så nästa generation?

En GPU är en processor precis som en CPU bara tt vi kallar det GPU (grapich) pga sin specefika roll. recis som huvud processorn heter CPU (Central).

Oavset så har ju traditonela processorer körst översamma buss med delat minne. Dock nackdelen att dom får dela på banbredden men dom har ju so msagt tillgång till samma data och behöver igen form av speglad minnes model.

Sedan detta med brygg chip är väl lite av en temporär lösning då chipsen i sig inte primärt var avsedda för multi GPU lösningar. Men framtid chips kan ju ha hela interfacen för att tala med varan inbyggt precis som en del processorer har i dag så som AMD:s egna hyper transport buss. Då skulle man ju slippa add on chips. Då rör det sig bara om lite lednigsbanor på PCB:n.

Sedan skulle ju båda GPU:erna kunna dela samma minne. Den ena kan accessa minnet via den gemensama läken mella gpu:erna och via den GPU som är ansluten mot minnena. Fungerar ju utmärkt på opteron processore tex där bara en CPU har minne anslutit till sig. Så borde ju gå att implementera även på GPU:er.

Så det är nog inga tekniksa omöjligheter eller svårigheter. Är väl mäst så att efterfrågan och kostanden för det inte var försvabar.

Den extra I/O logik som behövs komer ju ta plats så det går åt mer kisel så för att få det lönsamt så får ju många av GPU:Erna som säljs vara för multi GPU kort.

Men jag personligen ser itne varför dom inte skulle kuna intergrera allt detta i en GPU och på så vis slippa att ha sepparat minne till varge GPU och bryg chips.

Permalänk
Medlem

Det enda jag känner är att en ensam grafikprocessor presterar väldigt jämlikt över allt. Man kan alltså förvänta/garantera sig en viss prestanda. Medan grafikkort som kör på multipla kärnor har en ojämn prestanda. Allt från att utnyttja alla kärnor fullt ut till att endast en av kärnorna klarar av att göra jobbet.

Paralella beräkningar verkar inte alltid vara så lätt att optimera.

Så om en grafikprocessor kan ge mig det resultatet jag behöver, så köper inte jag dubbla för att riskera ojämn prestanda. Det är så jag resonerar när jag köper grafikkort idag.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk

När det gäller extrem prestanda segmentet så är det kraftiga singelkort som gäller. X2 korten körs redan i Xfire/sli så när ytterligare kort läggs till ger det ytterst lite. Inget kommer att komma nära Gx280 Sli prestanda.

Det lär dröja många år innan ett tredje eller fjärde kort närmar sig vettig prestanda. Just nu är det ju ett skämt. Men för 99.999998% av oss spelar det ingen roll.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av FredrikMH
Det enda jag känner är att en ensam grafikprocessor presterar väldigt jämlikt över allt. Man kan alltså förvänta/garantera sig en viss prestanda. Medan grafikkort som kör på multipla kärnor har en ojämn prestanda. Allt från att utnyttja alla kärnor fullt ut till att endast en av kärnorna klarar av att göra jobbet.

Paralella beräkningar verkar inte alltid vara så lätt att optimera.

Så om en grafikprocessor kan ge mig det resultatet jag behöver, så köper inte jag dubbla för att riskera ojämn prestanda. Det är så jag resonerar när jag köper grafikkort idag.

Citat:

Ursprungligen inskrivet av Nyarlathotep
När det gäller extrem prestanda segmentet så är det kraftiga singelkort som gäller. X2 korten körs redan i Xfire/sli så när ytterligare kort läggs till ger det ytterst lite. Inget kommer att komma nära Gx280 Sli prestanda.

Det lär dröja många år innan ett tredje eller fjärde kort närmar sig vettig prestanda. Just nu är det ju ett skämt. Men för 99.999998% av oss spelar det ingen roll.

Der ät precis de problemen som ATi ska undvika genom att X2-korten, troligtvis, kommer att ha en gemensam "frame buffer" som det heter. Alltså kommer inte de normala skalningsproblemen med Crossfire att uppstå.

Detta i sin tur gör att två stycken X2:or kommer inte att lida av skalningsproblemen vid fyra stycken kärnor utan kommer att lida av de problemen som finns vid två kärnor idag. Vilket i praktiken är få.

Så, troligtvis, kommer två stycken X2:or vara bland det värsta på marknaden så småningom.

Notera att detta är rätt vida spekulationer men det finns många rykten som talar för det.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

" Nu kommenterar AMD att Geforce GTX 200-serien ", nu kanske jag är virrig eller nån kankse har nämnt det redan, men äre verkligen amd som tillverkar geforce?

Visa signatur

Speed kills, but you get there faster!
Apple Macbook Dual Core 2 Ghz, 2 Gb ram, 80+400 gb hårddisk, superdrive

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av jens
" Nu kommenterar AMD att Geforce GTX 200-serien ", nu kanske jag är virrig eller nån kankse har nämnt det redan, men äre verkligen amd som tillverkar geforce?

AMD kommenterar konkurenten nvidias Geforce 200-serie.

Permalänk
Medlem

Oo smutskastning ifrån AMD.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Micro struttering är en av orsakerna som Nvidia påstår vara orsaken till att man undviker fler GPU:er.

Saken är den att micro struttering främst är ett problem vid lägre "frame rates" runt 30 FPS och lägre. Ju fler frames desto mindre blir problemet eftersom då inte ögat hinner uppfatta att "frame" #3 hamnade 1ms efter #2 istället för 0,5ms.

ATi påstår att R700 inte kommer lida av micro struttering eftersom kommunikationen mellan kärnorna kommer ske i minnet. Alltså kommer minnet att ta emot alla "frames" innan dem skickas till skärmen. Detta kommer ju onekligen göra att R700 kommer kräva mycket minne men som det spekuleras så kommer det vara bestyckat med 1GB GDDR5 vilket nog får anses som nog.

Kontentan är alltså att R700, troligtvis, inte kommer behöva ett kommunikations-chipp a la det som sitter på HD3870x2.

Vill bara tillägga att problemet med microstuttering har blåst upp något fruktansvärt av personer som inte verkar ha provat på MGPU själva. Enda tillfällena jag märkt av fenomenet är i vissa racingspel. I alla andra tillfällen har det fungerat klanderfritt.

Citat:

Ursprungligen inskrivet av SwedBear
Ang. Microstuttering. AMD's förklaring till detta (åtminstone en del, kanske finns fler anlendningar) var att deras strömsparningsteknik har varit alldelse för aggressiv. När CPU'n är den begränsade faktorn så har GPU'erna svultit en liten tid vilket gjort att de har trott att det inte finns någon anlending att köra för fullt och börjat klocka ner GPU'erna. När sedan de fått jobb igen så har det tagit en liten tid att gå upp igen till full fart.

Det "bör" vara fixat med de nya korten med lite nya tekniker (kan inte säga mer nu tyvärr) men det återstår naturligtvis att se.

/B

Jag tror att du missuppfattat vad microsuttering egentligen är. Den såkallade "Powerplay"-funktionen har ingenting med detta fenomen att göra utan microstuittering är istället en bieffekt av AFR (alternate frame rendering) och har att göra med hur timingen mellan bildrutor renderade av de olika GPU:erna är.

Citat:

Ursprungligen inskrivet av joelh
Oo smutskastning ifrån AMD.

Vad jag kan se har AMD bara lagt fram sin ståndpunkt och kommenterat konkurrentens senaste tillskott. Någon smutskastning är det knappast tal om.

Fortfarande ljusår från den dynga Nvidia sprutmålat marknaden med det senaste halvåret. Har du inget vettigt att tillföra till diskussionen (vilket du sällan verkar ha vad jag kan se) så ber jag dig vänligen, men bestämt, att avstå från inlägg liknande detta.

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av joelh
Oo smutskastning ifrån AMD.

Som jag skrivit två gånger tidigare i denna tråden så är detta ett uttalande som AMD/ATi gjorde långt tidigare när man var i kast med att släppa R600. Så detta är knappast en strategi som ATi har kommit på dem senaste dagarna, men visst ATi har ju en del skit att ta igen om man säger så. Nvidia hånar ju utan att blinka men har sällan bellägg.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av heande
jag menade snarare att GPU kärnorna ska sitta på samma kiselplatta som CPU kärnorna, alltså bara en socket.

Det skulle förutsätta att man uppgraderar allt samtidigt.
Själv uppgraderar jag grafikkortet oftare än processorn eftersom det som regel är grafikkortet som är flaskhalsen. 1 år till 1,5 år så är det nytt grafikkort som gäller.
vad skulle inte ett lösning med inbyggda gpus kosta i handeln?
Valfriheten att kombinera en något billigare cpu med en dyrare gpu försvinner.
Risken finns att enda sättet att få tag på den värsta gpun är genom att köpa den värsta cpun. Liknande extreme modeller där man betalar lite för mycket jämfört med vad man får.

Ska man i det läget använda vanligt ram-minne till grafiken eller ska vi placera extra minnesplatser med snabbare grafikminne? Ska det vara uppgraderingsbart?

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Citat:

Ursprungligen inskrivet av Mr.Borka
då annars Nvidia insisterar på att floppa ännu en gång.

Borka lilla är i farten..... igen. Nvidia har inte floppat än så länge. Vi trodde att GTX 2xx kunde vara floppen men så blev det inte. Sedan om ATi lyckas bättre är en annan femma.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av heande
jag menade snarare att GPU kärnorna ska sitta på samma kiselplatta som CPU kärnorna, alltså bara en socket.

Om det skulle hända så kommer nog amd eller intel vara först!

Citat:

Ursprungligen inskrivet av joelh
Oo smutskastning ifrån AMD.

Dom försöker!

Citat:

Ursprungligen inskrivet av mortifer666
Det skulle förutsätta att man uppgraderar allt samtidigt.
Själv uppgraderar jag grafikkortet oftare än processorn eftersom det som regel är grafikkortet som är flaskhalsen. 1 år till 1,5 år så är det nytt grafikkort som gäller.
vad skulle inte ett lösning med inbyggda gpus kosta i handeln?
Valfriheten att kombinera en något billigare cpu med en dyrare gpu försvinner.
Risken finns att enda sättet att få tag på den värsta gpun är genom att köpa den värsta cpun. Liknande extreme modeller där man betalar lite för mycket jämfört med vad man får.

Ska man i det läget använda vanligt ram-minne till grafiken eller ska vi placera extra minnesplatser med snabbare grafikminne? Ska det vara uppgraderingsbart?

Det har du rätt i!

Visa signatur

WS:/ASUS M4A78-E/Phenom 940BE/OCZ Reaper DDR2 PC8500 6Gb/CF Ati 4870 1GB//Server: AMD Phenom 9550/MSI K9A2 CF-F/OCZ Reaper PC8500 2Gb/XFX GTS 250 Nvidia
"En enskild människas död är en tragedi, en miljon döda är statistik" -Josef Stalin

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av judge
ja vore smidigt med en socket till på moderkortet som man kan installera sin gpu på!

Håller med, då hade GPUn kunnat bli en riktig Co-processor istället för att endast användas till grafik, den hade även kunnat snacka direkt med minnet istället för att behöva gå via PCI-e. En mycket vettigare lösning imho.

Nu gör den ju iofs inte det förrutom i nödfall när videoramet tar slut, men med lite snabbare vanligt ram så hade det nog passat till både CPU och GPU, och så hade man sluppit att kopiera över alla texturer över till grafikkortet etc.. Jämför med tex xbox360 där dom har unified memory architecture där både CPU och GPU kan komma åt RAM.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Rhino
Jag skulle nog säga att 3DFX var en hel del år före.

Hellt rätt, dom hadde ju 4x GPU på sitt 6000 serie!
hadde dom funnits idag så hadde vi sätt 48x Grafikkort! LOL

Visa signatur

:D