ATI och Nvidia försvarar sina strategier

Permalänk
Citat:

Ursprungligen inskrivet av Pellias
Haha, du läste nog lite slarvigt.

Jovisst menade man GT200-kärnan när man sa att "9800 GTX blir 3 ggr snabbare än 8800GTX". Detta var ju innan Nvidia kom med uppfräschade G80-or som man döpte till 9000-serien, och på den tiden trodde alla såklart att GT200 skulle få heta 9800GTX.

Det var inte klock-jämförelser jag gjorde, utan på Gigaflops, dvs den totala kapaciteten för flyttalsberäkningar hos ett grafikkort. F.ö. påpekade jag ju att detta är ett dåligt sätt att jämföra prestanda (precis som Mhz-jämförelser är).

Prestandan på kommande generations grafikkort hänger mycket på vart flaskhalsen ligger just nu. Ligger den på shaderprestandan ("GLOPS") eller ligger på TMU:er (eller ROP:erna också för den delen, även om det låter osannolikt)?

Mycket av det jag sett tyder på att den ligger hos shaderprestandan när det gäller Nvidias kort medan ATi:s diton är begränsade av sin dåliga textureringsprestanda. Med tanke på att 8800Ultra presterar ungefär likadant som ett 9800GTX och att den senare har en rätt mycket högre textureringsprestanda så kan man då dra slutsatsen att textureringprestandan inte är ett hinder när den är över de nivåer som 8800Ultra ligger på.

Kommande HD4870 ska tydligen ligga på 27200Mtexels/s. Om man jämför med 8800Ultra ligger detta kort på 19584Mtexels/s så borde då ett HD4870 prestera väldigt bra. Frågan är bara hur länge textureringsprestandan inte begränsar kortet. 280 GTX har 80st TMU:er och detta betyder att det kortet kommer att utklassa HD4870 när det gäller textureringprestanda.

Förstår ni vart jag försöker komma?

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

Hmmpf, språkfel i artikeln? Hade vart lite smått revolutionerande om nVidia lyckats hitta ett sätt för en GPU att producera ström bara sådär! "Just energieffektiviteten verkar bli ett problem för Nvidias kommande produkter som enligt uppgift skall generera mer än 200 Watt vid hög belastning"

Visa signatur

i5 4790K, 8 GB XMS3 1600 Mhz, RX 5700XT, Gigabyte G1.Sniper M5

Permalänk
Citat:

Ursprungligen inskrivet av Sgt. Stinger
Hmmpf, språkfel i artikeln? Hade vart lite smått revolutionerande om nVidia lyckats hitta ett sätt för en GPU att producera ström bara sådär! "Just energieffektiviteten verkar bli ett problem för Nvidias kommande produkter som enligt uppgift skall generera mer än 200 Watt vid hög belastning"

Värmeenergi isåfall

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

fortfarande så att kortet inte genererar energi...

Visa signatur

i5 4790K, 8 GB XMS3 1600 Mhz, RX 5700XT, Gigabyte G1.Sniper M5

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Pellias
Hmm... hur kommer du fram till att 260 GTX bara skulle ha "drygt 10%" bättre teoretisk prestanda än 9800GTX?

Mycket långsammare shaders kompenserar upp ganska bra för att de är fler.
http://www.fudzilla.com/index.php?option=com_content&task=vie...

Därmed har det endas 715Gflops mot 9800GTX 649. Och som sagt, teoretiskt, vi vet inte hur effektiva de är mot den teoretiska prestandan men hittils har det inte funnits något som pekat på att de höjt effektiviteten på något vis.

Citat:

Ursprungligen inskrivet av Pellias
Jag förstår inte jämförelsen, GT200 är ju en ny arkitektur. Det är ju som äpplen och päron. Jag skulle förstå motsvarande uträkningar om det gällde 4870 jämfört 3870 då AMD valt att bara göra "tweaks" med förra generationens kärna (dvs ökat klocken, antalet steam processorer, TMUs osv). Fast t.om i ATI-fallet så snackas det väl om att R700:ans steams ska vara effektivare än R600:ans, right?

Fast vad vet du om GT280, känner du till några arkitekurella skillnader utöver att de ändrat antalet beräkningsenheter? Kan du anta att de har gjort några andra förrändringar om vi inte har något som pekar på det ännu?

Lite inte på ryktet om 50% effektivare shaders, ursprungskällan till påståendet lyder:

"2nd gen. Unified architecture delivers %50 more gaming performance over 1st generation through 240 sp."

Med andra ord, andra generationens grafikkort med unified shaders kommer med sina 240 shaders vara 50% procent snabbare än tidigare generationens grafikkort med unified shaders.
Folk har missat ordet "architecture" vilket syftar på GPUn som helhet. Dessutom har de missat ordet "through" vilket säger att det är med hjälp av sitt stora antal som man når denna prestandavinst.

Med andra ord, inget som pekar på ökad prestanda nere på shadernivå.

Citat:

Ursprungligen inskrivet av Pellias

Att GTX 260 bara skulle vara drygt 10% snabbare än 9800GTX tror jag inte på. Detta skulle ju innebära att GTX 280, som är max 30% snabbare än lillebror, bara är 40% snabbare än 9800GTX. Föga imponerande.

Officiella avrundade Gflop siffror säger att det är 44% snabbare. Låter inte som de höjt prestandan i sina shaders va? Isåfall avspeglar det sig inte i deras information.
Sen har vi 11% ökad Texturprestanda, inget revolutionerande.

Citat:

Ursprungligen inskrivet av Pellias

Angående hype av GTX 280 så håller jag nog inte med. Det är inte bara här på Sweclockers forum som många tror att ATI med Radeon 4870 kommer vara den stora överraskningen. Klart man minns de absurda ryktena om att 9800 GTX skulle vara 3 gånger så snabbt som 8800GTX, men det är ju länge sedan nu... I dagsläget har jag inte sett någon som tror att GTX 280 ska vara dubbelt så snabbt som 9800GTX. Eller?

Det finns de som fortfarande hävdar prestanda likt dubbla GX2, mer än dubbla av 9800GTX, och till och med de som säger att G80/G92 kommer framstå som integrerade kretsar i jämförelse.
Tycker definitivt att det låter som en hype då vi faktiskt inte fått se något som antyder att de nått högre prestandaökning än den vi kan se i det teoretiska.
Observera att jag säger inte att de inte har några sånna trick, bara att vi inte sett några spår av dem och därför inte bör anta något.

Citat:

Ursprungligen inskrivet av Pellias

(GTX280 vs 9800GTX) 933/649 är förresten bara 1,44. Jag tror dock att prestandaskillnaden mellan GTX280 och 9800GTX är betydligt större än så... 75% kanske (just för att det är äpplen och päron, dvs ny arktitektur).

Här har vi hypen.
Nä men andra saker kan ju påverka, t.ex. minnesbandbredd, men det borde inte göra något revolutionerande, det är mer en anpassning till de ökade kraven från GPUn. Men ny arktiektur? Visa gärna en källa på att det är en ny och inte bara en upphottning, hittils tycker jag det ser ut som den gamla, de är identiska så när som på att de är olika modeller av samma arktiektur.

Citat:

Ursprungligen inskrivet av Pellias
(HD4870 vs 3870) 1008/496=2.0. Om Hd4870 är dubbelt så snabb som föregångaren, hoppas hoppas , så har du i alla fall en poäng - att AMD nog knappar in en hel del på Nvidia denna generation.

103% bättre shaderprestanda och 119% bättre texturprestanda tyder på en ordentlig prestandaökning, frågan är om ROPs eller något annat begränsar, med andra ord ska vi vara försiktiga där med.
Däremot är det ingen som förutspått en helt ny era inom spelgrafik med HD4870, så det är mycket mindre hypande att argumentera mot på den sidan om du undrar varför jag inte angriper någon där.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Sgt. Stinger
fortfarande så att kortet inte genererar energi...

Jodå, tekniken är så avanserad att den försörjer sig själv med ström
Energikrisen är löst:D

Har alltid vetat att datorföretagen en dag skulle frälsa oss alla:)

Permalänk
Hjälpsam
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk

http://www.hardware-infos.com/news.php?news=2107

hehe, det blir kul å se hur det går för nVidia med detta. intressant.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Citat:

Ursprungligen inskrivet av ettis
Jag tror det är du som har missuppfattat allting, läs om en gång till.

Förklara gärna för jag fattar inte logiken i att Nvidia skulle vara bättre för att deras stream processors är på samma die, vilket är fallet för ATI:s GPU:er också. Jämför du GPU mot GPU (dvs. inte kort mot kort) så är det inte någon skillnad på vart stream processorerna sitter.

Sedan kan man ju vinkla det också. Phenom hade ju alla kärnor på en die och vi vet ju allihopa hur bra de presterade jämfört med Intels "fake" quad-cores.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av oscarstegland
Sedan kan man ju vinkla det också. Phenom hade ju alla kärnor på en die och vi vet ju allihopa hur bra de presterade jämfört med Intels "fake" quad-cores.

För stora chip är helt enkelt för svåra att få upp farten på. Därför tycker jag AMD skulle satsat på dubbla dies redan för ett och ett halvt år sedan. Då hade de haft en snabbare, billigare och svalare Quad, ett helt år i förväg.