Tråden som skvallrar om Polaris.

Permalänk
Medlem
Skrivet av Caesar:

Ja, alltså det verkar ju som att nvidia hävdar att de fixat fram betydligt mer beräkningskraft per core.
Kan ha något med hur deras nya boostfrekvens funkar att göra:
"One of the new exciting features that Nvidia is debuting with the GTX 1080 and GTX 1070 is GPU Boost 3.0. The feature builds on GPU Boost 2.0 but is cleverer and more granular. The frequency curve is now dynamic and follows per voltage points as opposed to a fixed margin. The result is higher clock speeds and better voltage utilization which translates to superior performance per watt. And what it means is that while the GTX 1080’s boost clock is rated at around 1.7Ghz the card will on average boost to nearly 1.9Ghz. And the GTX 1070 will be no different, despite its lower boost clock of 1.6Ghz we should see a similar 200mhz uplift in average clocks while gaming."
Från: http://wccftech.com/gtx-1070-1920-cuda-cores/#ixzz48znMG7LS

Men 6.5 TFLOPS är nvidias officiella siffra:
http://images.nvidia.com/geforce-com/international/images/050...

Den där hade jag inte sett, om det stämmer att Polaris 10 ligger i paritet med Fury X så låter det nästan för bra för att vara sant (så jag är fortfarande lite skeptisk just därför).

6.5TFLOPS var deras officiella siffra. Du hittar inte den nu när de spikat antal kärnor. Så det kan vara så att de backat från det.
Och nä, det är nog inte relaterat till hur de räknar boost. I så fall skulle vi få se betydligt högre beräkningskapacitet på GTX 1080. De anger beräkningskapaciteten på 1080 vid basfrekvens. Eftersom 1070 har en basfrekvens under 1.7GHz så är dess beräkningskapacitet under 6.5 TFLOPS.

Permalänk
Medlem
Skrivet av Aleshi:

6.5TFLOPS var deras officiella siffra. Du hittar inte den nu när de spikat antal kärnor. Så det kan vara så att de backat från det.
Och nä, det är nog inte relaterat till hur de räknar boost. I så fall skulle vi få se betydligt högre beräkningskapacitet på GTX 1080. De anger beräkningskapaciteten på 1080 vid basfrekvens. Eftersom 1070 har en basfrekvens under 1.7GHz så är dess beräkningskapacitet under 6.5 TFLOPS.

Enligt alla sidor som jag hittar där det överhuvudtaget nämns TFLOPS så verka 6.5 vara den "äldre" siffran och den uppdaterade 6.75.
6.75 nämns t.ex. här i en nyhet från igår: https://www.techpowerup.com/222537/nvidia-geforce-gtx-1070-sp...
Bilden jag länkade med 6.5 var från nvidias egen sida, så om de inte längre står för den informationen borde de verkligen uppdatera sidan...

Edit: Du får gärna förklara hur man beräknar TFLOPS för nvidias senaste arkitekturer. Alla formler jag hittar involverar bara äldre kärnor eller ATI där man verkar räkna på ett annat sätt...

Permalänk
Medlem
Skrivet av Caesar:

Enligt alla sidor som jag hittar där det överhuvudtaget nämns TFLOPS så verka 6.5 vara den "äldre" siffran och den uppdaterade 6.75.
6.75 nämns t.ex. här i en nyhet från igår: https://www.techpowerup.com/222537/nvidia-geforce-gtx-1070-sp...
Bilden jag länkade med 6.5 var från nvidias egen sida, så om de inte längre står för den informationen borde de verkligen uppdatera sidan...

Edit: Du får gärna förklara hur man beräknar TFLOPS för nvidias senaste arkitekturer. Alla formler jag hittar involverar bara äldre kärnor eller ATI där man verkar räkna på ett annat sätt...

Ja men är den siffran från nVidia? Det är ingen skillnad på att räkna mellan olika generationer eller för den delen mellan AMD och nVidia. 2 operationer per kärna och klockcykel räknar man. 6,75 GFLOPS skulle med andra ord innebära 1,75GHz basfrekvens. Vilket går rätt emot officiella siffror på 1,6GHz i boost. Alltså kan vi fastställa att 6,75 GFLOPS vid basfrekvens är helt felaktigt. Om det är samma förhållande mellan bas och boost på 1070 som det är på 1080 så är basfrekvensen på 1070 1483MHz, ja även förutsatt att den exakta boosten är 1,6GHz. Men då är vi faktiskt väldigt snälla i vårt antagande, för ända sedan nVidia införde boost-frekvenser så har alltid den fulla versionen av varje kärna inte bara haft högre frekvens, utan även mindre glapp mellan boost- och basfrekvens. Så om nVidia inte bryter sitt eget mönster så kommer basfrekvensen för GTX 1070 givet informationen vi har idag vara lägre än 1483MHz. Vilket ger maximalt 5,7 GFLOPS.

Det hela är dock ganska irrelevant i denna tråden. För något som faktiskt spelar roll mellan olika arkitekturer är hur väl detta översätts till spelprestanda. Vilket styrs av en mängd andra flaskhalsar i allt från ROPs, TMUs till drivrutiner och API.
nVidia har traditionellt sett högre prestanda i spel än motsvarande AMD-kort sett till GFLOPS. Och omvänt har AMD högre teoretisk beräkningskapacitet när man jämför med kort jämnsnabba i spel. Dessutom så ska ju mycket av grejen med Polaris vara effektiviseringar där de röjer undan flaskhalsar så vi kan verkligen inte säga något om detta förhållandet på AMDs nya kärnor heller innan vi sett dem i aktion.

Permalänk
Medlem

Såg att denna länkades på något forum.
Polaris?
http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efd...

256-bit, 7.6ghz, 1266mhz, 36CU (står ddr3 men det är nog bara något fel)

Permalänk
Permalänk
Medlem

faktist så e det helt ok specs. så länge den inte kostar mer än gtx1070.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Medlem

Polaris är inget för mig. Väntar på mer information om Vega innan jag bestämmer om jag ska köpa ett 1080.

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Medlem

Om inte specsen blir betydligt högre så hoppas jag verkligen att Vega kommer innan oktober, har varit ute efter dubbla prestandakort i flera år nu. Men men, de har ju inte lovat high end/enthusiast förrns 2017.

Permalänk
Medlem

RedGamingTech nämner lite om Polaris i denna video (som egentligen handlar om GTX 1070):

https://www.youtube.com/watch?v=sS7_mx0k1KY

Vart kommer rykte om att Polaris skulle kunna vara 10-15% snabbare än 1070? Vore ju grymt bra om det var så, men det senaste jag hörde var att Polaris 10 skulle ligga kring samma prestanda som 390X men dra betydligt mindre ström..

Jaja..man får väl vänta till 1 juni. Hoppas alla kort släpps snart så man vet vilket man ska välja. Jag måste ju ha ett!

Visa signatur

Dator 1: Meshify S2 Vit | RM750x | B550-E | 5700X | 32Gb Lpx 3600 | 3060Ti Gaming X Trio | 970 Evo Plus 1TB + 850 Evo 500GB|
Dator 2: FD Define R5 Vit | RM750x | B550-F Wifi | 3800X | 32Gb Lpx 3200 | SN850 1TB+850 Evo 500GB+Sandisk Plus 960GB | 1070 Gaming Z - Playstation 5 | Wii U | Nintendo Switch

Permalänk
Avstängd

AMD Fury X - 8.6 TFLOPS
Nvidia GTX 980Ti - 5.6 TFLOPS

Vad är det som gör att Fury'n med sina 8.6 TFLOPS är så dålig om man jämför den med Nvidia's 980Ti 5.6 TFLOPS, (det skiljer ju 3 TFLOPPS).. ?
Hur kan det flaska så mycket, vart tar all POWER vägen... jävligt lurigt detta... 8.6 TFLOPS men ändå sämre går inte ihop?
Nvidia sa att 970 körde med 4GB men de ljög... Vad ljuger AMD om då (FLOPP), undrar man?

MVH

Permalänk
Medlem

@RaBlack amd e la ett bättre beräkningskort teoretiskt sett, därav kan få ut en massa mer teraflops i sånt. I spel så verkar amds design val av deras shaders inte ge samma höga flyttalspresanda i spel.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Avstängd

@DST: Jo jag vet det du svarade men tänkte se om någon kan förklara var dessa flopps tar vägen mer djupt.. eller var 980Ti's starka flopps kommer från?

Tycker det är fult sätt att jämföra med TFLOPS från olika grafiktillverkare då realiteten ser annorlunda ut.

MVH

Permalänk
Avstängd

Sedan vill jag också ta upp frågan om GTX 1070 (6.5 TFLOPS) med sin nya "Pascal" arkitektur... Varför tror många att den inte kommer prestera bättre än Titan X/980Ti om den med sina 6.5 TFLOPS förmodligen kommer piska Fury'n (8.6 TFLOPS) enklare än 980 Ti (5.6 TFLOPS)?

MVH

Permalänk
Skrivet av Gruarn:

Det ryktet känns inte logiskt!

Vi tror oss veta storleken på chipset, 232 kvmm.
Vi vet att nvidia fick in 86% fler transistorer på samma yta, men sannolikt på en egen något förtätad process.
Vi vet att de kretsar Samsung tillverkar åt Apple är 9% mindre än tsmc kretsen, så sannolikt tätare.

Det vi vet tyder på att kretsen har 10-20 % fler transistorer än Hawaii. Tag därtill (enligt denna artikel) bort 28% av SP, så får utvecklarna en enorm mängd transistorer att leka med. Vad har AMD lagt alla transistorer på?

Både Nvidia och AMD använder sig fysiskt sett av 20Nm-noder, dock med FinFET av olika kvalitet, därav marknadsföringsnamnen "16Nm" och "14Nm" - Det kommer att visa sig vilken metod som är mest effektiv i slutändan. Tror dock personligen att kretsdesign är av mer vikt än skillnad mellan dessa två "noder". Att ange %-tal på fysisk storlek av noderna känns dock rent fel IMHO...

Edit: angående TFLOPLS verkar ju DX12 kunna ge resultat som är närmare den teoretiska prestandan, men då det är så buggigt ännu säger jag som alltid: Den som lever får se...

Permalänk
Medlem
Skrivet av RaBlack:

@DST: Jo jag vet det du svarade men tänkte se om någon kan förklara var dessa flopps tar vägen mer djupt.. eller var 980Ti's starka flopps kommer från?

Tycker det är fult sätt att jämföra med TFLOPS från olika grafiktillverkare då realiteten ser annorlunda ut.

MVH

Tänk Cell-processorn i PS3an. Den har ju ett visst FLOPS-värde, men arkitekturen är så himla krånglig och strypt på många sätt att det är i stort sett omöjligt att kunna få ut all beräkningskraft. Det måste till en väldigt specifikt beräkning för att man ska kunna komma nära. Ungefär samma med AMD:s GCN 1-3. Mycket teoretisk beräkningskraft, men det är svårt att dra nytta av den. AMD:s grafikdrivrutiner har inte hjälpt till heller. Eller tänk för all del Bulldozer. Mycket teoretisk prestanda, men typen av belastning/beräkning måste vara väldigt specifik för att man ska kunna dra nytta av allt.

Skrivet av HellDildo:

Både Nvidia och AMD använder sig fysiskt sett av 20Nm-noder, dock med FinFET av olika kvalitet, därav marknadsföringsnamnen "16Nm" och "14Nm" - Det kommer att visa sig vilken metod som är mest effektiv i slutändan. Tror dock personligen att kretsdesign är av mer vikt än skillnad mellan dessa två "noder". Att ange %-tal på fysisk storlek av noderna känns dock rent fel IMHO...

Edit: angående TFLOPLS verkar ju DX12 kunna ge resultat som är närmare den teoretiska prestandan, men då det är så buggigt ännu säger jag som alltid: Den som lever får se...

TSMC:s 16nm är bättre optimerad mot höga klockfrekvenser, medan Samsungs 14nm faktiskt är lite mindre.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem

Så med andra ord inte värt byta mitt gamla 290x matrix platinum mot ett polaris eller beror iåf på pris då jag säkert kan köra 2 polaris kort i crossfire om de har brygga då jag bara har pci-e 2 men de tar rätt mkt mindre ström och mitt moderkort har 4 pcie portar med 3 kort går dem iaf i 16x så kan vara värt att bygga på i framtiden isåfall men antar dom kommer slopa sladden eller funkar pci-e 2 att köra utan crossfire kabeln endå oxå? Har ju en stengammal dator men grafikkortet bottle neckas inte i närheten endå av cpun så känns som 2 polaris borde gå bra. MEn jag bara sömn tänker o skriver nu kanske. MEn blir intressant för att kolla pris för det känns drygt måsta byta nätagg för att köpa ett till 290x

Visa signatur

Main:Gammalt x58 system = Mobo: Asus Rampage 3 Ex. CPU: Xeon 5660 2.6@4.4ghz GPU: Asus 290x Matrix Platinum, 1 ssd 120gb 2st wd blue 1tb 1st wd green 1tb 1st backup+ usb3 1tb. Corsair HX 650w. Fractal design R4, 24gb DDr3 1600mhz. Creative sb Z, Marshall major v,2. Phillips brilliance 29". Steambox + controller + 3 xbox 360kontroller. Netgear wndr4200 router. Noname mekaniskt tb + R.A.T 5 mus
Laptop Asus i3 2350 4gb ram o msi i5 450m 8gb 5870m, macbook 13,3 c2d 2,4ghz 4gb

Permalänk
Medlem
Skrivet av RaBlack:

Sedan vill jag också ta upp frågan om GTX 1070 (6.5 TFLOPS) med sin nya "Pascal" arkitektur... Varför tror många att den inte kommer prestera bättre än Titan X/980Ti om den med sina 6.5 TFLOPS förmodligen kommer piska Fury'n (8.6 TFLOPS) enklare än 980 Ti (5.6 TFLOPS)?

MVH

Men ska du spamma denna tråden med nVidia också?
nVidia har optimerat för spel. Ganska bra för just DX11-spel också. AMD har dels starkare beräkningskort och dels inte lika starka grafikkort på andra fronter, shaders är inte allt som du borde förstå. AMD sträcker mer på benen i DX12 förövrigt.

Lite ironiskt att du svartmålar AMD när det är du och nVidia som ljuger om GFLOPS. Hur ärligt är det att jämföra GFLOPS vid boostfrekvens mot basfrekvens?
1070 har 5,78 TFLOPS i bas och 6,46 i boost. 980Ti har 5,63 i bas och 6,77 i boost.
Så som du ivrigt marknadsför varenda fis Jen-Hsun Huang släpper borde du veta detta.

Permalänk
Avstängd

@Aleshi:
Sorry, om du upplever och tolkar det sådär som du la upp det.

Sluta snacka fisar som släpps. Snacka flopp istället.

Jag undrar bara var all kraft tar vägen vare sig det gäller 1 flopp eller 1000 flopp, AMD eller Nvidia? AMD's kort presterar annorlunda men har högre flopps, varför? Vad har det för nytta att det står på papper om inte det ger något i verkligheten? Eller är NV flopps starkare och presterar bättre? Finns det något annat sätt att räkna på då man jämför olika GPU tillverkare sinsemellan som är bättre?

Förstå mig rätt, vi upplever saker på olika sätt, om du upplevde att jag svartmålar AMD för jag undrar varför de ljuger så får det stå för dig själv. Många företag ljuger för att sälja sina produkter. AMD har ljugit och även Nvidia det vet både du och de flesta här. Tyvärr, så är det vi konsumenter som antingen går på lögnen eller inte... Jag tycker det är bra att diskutera på forum om just sådant. (Alldeles för många som gick på 970 "4Gb" lögnen från Nvidia).

DX12 har lite mantle inbakat och därför presterar AMD "just nu" bättre i något enstaka spel (DX12), de har arbetat med den tekniken något längre än de gröna.

Att AoTs presterar bra med AMD's teknik är just för de arbetat länge med AMD... en gammal video som visar hur det var 2014 (demo AoTs).

Publicerades den 2 feb. 2014
AMD rigged a benchmark (Most likely be request fo their PR) so it wil run REALLY bad on NVIDA hardware.

But you can debunked their claims about "draw calls" and DirectX 11.2 real fast.
You need to do 2 things.
Disable the "Special Sauce" Motion Blur...designed/coded for GNC cards.
(Just like the SSAO in DIRT3)
ENABLE multithreading in the application, a feature AMD dosn't have (Command List).

And slam bam...Mantle dosn't look good anymore.

It's not being draw call limited, what makes the "demo" run bad is the Special Sauce" Motion Blur

Shame om dishonest AMD PR!!!

https://www.youtube.com/watch?v=8efNtw-gkCA

Keep Calm and stay cool!

MVH

Permalänk
Avstängd

Det börjar närma sig uppvisningen av AMD's "Polaris/Zen"....

Computex 2016, 1 Juni i Taiwan's huvudstad Taipei.
Live Webcast börjar: Onsdagen den 1 Juni klockan 00:00:00 18:00:00 Svensk tid.

http://www.amd.com/en-us/who-we-are/corporate-information/eve...

https://www.computextaipei.com.tw/

http://www.timeanddate.com/

PS: Vilket underbart teknikår 2016 är... yammi yammi.

MVH

Permalänk
Medlem
Skrivet av RaBlack:

Förstå mig rätt, vi upplever saker på olika sätt, om du upplevde att jag svartmålar AMD för jag undrar varför de ljuger så får det stå för dig själv. Många företag ljuger för att sälja sina produkter. AMD har ljugit och även Nvidia det vet både du och de flesta här. Tyvärr, så är det vi konsumenter som antingen går på lögnen eller inte... Jag tycker det är bra att diskutera på forum om just sådant. (Alldeles för många som gick på 970 "4Gb" lögnen från Nvidia).

AMD ljuger nog inte om detta på något vis. Grejen är ju bara att den teoretiska prestandan du snackar om inte säger något om prestandan man får ut i spel. Så jag vet inte varför du ser det som lögner från AMD. Går helt enkelt inte att använda som ett mått på spelprestanda och så är det med det. Kan dock inget om detta utan baserar detta på vad jag läst i tråden här. Så läs alla inlägg så får du kanske svaret på din fråga du ställde tidigare, jag tycker iaf att det har besvarats innan du ställde den.

Som någon nämnt så borde det dock vara ett bättre mått i DX12 eftersom det är ett API på lägre nivå, men fortfarande inte ett perfekt mått, iaf inte som det ser ut nu, kanske i framtiden när vi har fler rena DX12 titlar, får se helt enkelt

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Avstängd

@Zemlan: Saken är den att då Fury X skulle lanseras så sades det att den skulle piska 980Ti men så blev det inte. Det skröts en massa om flopps hit o dit men ändå blev det inte som de sa, speciellt inte från början... innan de började leverera skitbra drivrutiner.

Det är lätt att gå på sådant "som vanligt folk oftast gör" då det visas upp med fina siffror... that's it... tyvärr, därför tycker jag det är bra att vi diskuterar sådant i dessa forum.

MVH

Permalänk
Medlem
Skrivet av RaBlack:

@Aleshi:
Sorry, om du upplever och tolkar det sådär som du la upp det.

Sluta snacka fisar som släpps. Snacka flopp istället.

Jag undrar bara var all kraft tar vägen vare sig det gäller 1 flopp eller 1000 flopp, AMD eller Nvidia? AMD's kort presterar annorlunda men har högre flopps, varför? Vad har det för nytta att det står på papper om inte det ger något i verkligheten? Eller är NV flopps starkare och presterar bättre? Finns det något annat sätt att räkna på då man jämför olika GPU tillverkare sinsemellan som är bättre?

Förstå mig rätt, vi upplever saker på olika sätt, om du upplevde att jag svartmålar AMD för jag undrar varför de ljuger så får det stå för dig själv. Många företag ljuger för att sälja sina produkter. AMD har ljugit och även Nvidia det vet både du och de flesta här. Tyvärr, så är det vi konsumenter som antingen går på lögnen eller inte... Jag tycker det är bra att diskutera på forum om just sådant. (Alldeles för många som gick på 970 "4Gb" lögnen från Nvidia).

DX12 har lite mantle inbakat och därför presterar AMD "just nu" bättre i något enstaka spel (DX12), de har arbetat med den tekniken något längre än de gröna.

Att AoTs presterar bra med AMD's teknik är just för de arbetat länge med AMD... en gammal video som visar hur det var 2014 (demo AoTs).

Publicerades den 2 feb. 2014
AMD rigged a benchmark (Most likely be request fo their PR) so it wil run REALLY bad on NVIDA hardware.

But you can debunked their claims about "draw calls" and DirectX 11.2 real fast.
You need to do 2 things.
Disable the "Special Sauce" Motion Blur...designed/coded for GNC cards.
(Just like the SSAO in DIRT3)
ENABLE multithreading in the application, a feature AMD dosn't have (Command List).

And slam bam...Mantle dosn't look good anymore.

It's not being draw call limited, what makes the "demo" run bad is the Special Sauce" Motion Blur

Shame om dishonest AMD PR!!!

https://www.youtube.com/watch?v=8efNtw-gkCA

Keep Calm and stay cool!

MVH

Det är att svartmåla när man påstår att de ljuger när de inte gör det. De har inte ljugit någonstans om beräkningskapaciteten på sina kort. För att lyckas med det så måste de ljuga om antalet shaders eller frekvens. Så du kommer med tomma anklagelser. Samtidigt sprider du själv lögner i frågan då du talar om GFLOPS på nVidias kort. Ser du inte varför du får mothugg då?

Permalänk
Medlem
Skrivet av RaBlack:

@Zemlan: Saken är den att då Fury X skulle lanseras så sades det att den skulle piska 980Ti men så blev det inte. Det skröts en massa om flopps hit o dit men ändå blev det inte som de sa, speciellt inte från början... innan de började leverera skitbra drivrutiner.

Det är lätt att gå på sådant "som vanligt folk oftast gör" då det visas upp med fina siffror... that's it... tyvärr, därför tycker jag det är bra att vi diskuterar sådant i dessa forum.

MVH

Nu ljuger du igen. Annars får du gärna visa en källa där AMD ljugit om prestandan i Fury X. Tror det är du som inte ser skillnaden mellan vad AMD säger och vad forummedlemmar spekulerar.

Permalänk
Avstängd
Skrivet av Aleshi:

Det är att svartmåla när man påstår att de ljuger när de inte gör det. De har inte ljugit någonstans om beräkningskapaciteten på sina kort. För att lyckas med det så måste de ljuga om antalet shaders eller frekvens. Så du kommer med tomma anklagelser. Samtidigt sprider du själv lögner i frågan då du talar om GFLOPS på nVidias kort. Ser du inte varför du får mothugg då?

Jag menar allmänt hur olika företag beter sig för att roffa åt sig kunder.
Det är inte det jag menar, utan mer om var all kraft tar vägen (AMD) eller var kraften kommer ifrån (nVidia).

Skrivet av Aleshi:

Nu ljuger du igen. Annars får du gärna visa en källa där AMD ljugit om prestandan i Fury X. Tror det är du som inte ser skillnaden mellan vad AMD säger och vad forummedlemmar spekulerar.

Det var ett tag sedan Fury X lanserades och då fick man höra/läsa både det ena och det andra om hur Fury X skulle bli 980Ti's killer. Typ här ( http://www.pcgamer.com/amd-radeon-r9-fury-x-tested-not-quite-... )

Jag sa inte AMD utan "så sades det att den" (media rykten) samt (lätt att bli lurad p.g.a. vilseledande siffror för vanligt folk p.g.a. olika arkitekturer (AMD/nVidia).... Det är lätt att man blir vilseledd p.g.a. siffror... thats it. Varför tolkar du det jag säger så ordagrant. Är det denna mening du stört dig på? Nvidia sa att 970 körde med 4GB men de ljög... Vad ljuger AMD om då (FLOPP), undrar man? (obs: Jag sa aldrig att AMD ljuger ordagrant men menar att de lurar på olika sätt så som andra företag gör också.) Går ju alltid att se saker från olika perspektiv. Sluta hålla på, du vet vad man menar. Detta leder ju ingen vart.
Jag vill bara veta var all kraft tar vägen, det är det jag undrar över och om det finns bättre sätt att beräkna sådant via siffror mellan dessa olika arkitekturer.

Keep Calm and be cool!

MVH

Permalänk
Datavetare

När företag har en PR-avdelning som inte är totala idioter så ser man till att aldrig ljuga, däremot säger man bara en väldigt selektiv del av sanningen presenterad på ett sätt så läsaren själv försöker fylla i luckorna och där ljuger för sig själv då denna vill att något ska vara på ett visst sätt.

Exempel, AMD visade siffror innan lansering av Fury X där den var konsekvent snabbare än 980Ti

Dold text

Så hör ljög man inte här då? Dels jämförde man mot 980Ti referens i stället för de modeller med 10-20 % högre prestanda som folk faktiskt köper. Men det är av någon anledning vad typ alla gör, så inget att orda om det.

Av allt att döma var faktiskt dessa siffror helt korrekta, men det använde inställningar som ingen normal människa skulle använda i praktiken. Man maximerade alla effekter som var shader-tunga och visade bara resultat för 4k (och då bara relativa resultat och inte faktisk FPS), för där hade man ett stort försprång. Man slog av vissa andra saker som t.ex. anisotropic filtering då Fury X är lite obalanserad i att andra delar än shaders faktiskt ha samma kapacitet per MHz som 390/390X. Kvalitén på det som visades på skärmen är av rätt tvivelaktig nivå, men man säger faktiskt inget om att den ska vara hög

Att inställningar är extremt viktiga för slutresultatet är detta ett ytterst tydligt bevis för, 780Ti är snabbare än Fury X när Hexus testade Raise of the Tomb Raider i DX12 @ 1920x1080.

Dold text

Skillnaden mellan Hexus och SweClockers som också testade detta är att Hexus kör med "Very High Settings" medan SweClockers kör "Very High Settings" + man slagit på de saker som inte är på som förval i "Very High". Ingen av dessa tester är ändå fel, de testar bara lite olika saker.

AMDs uttalande om Fury X som "overclockers dream" är nog väldigt på gränsen. Rent formellt ljög man inte, finns ju liksom ingen definition av vad detta faktiskt betyder.

Nvidias PR var däremot rent klumpig kring 970 (om det nu inte faktiskt var ett ärligt misstag), att kortet har 4 GB är ingen lögn så att diskussionen mest handlat om det visar att de flesta har inte koll på de tekniska detaljerna. Problemet var att man initialt bevisligen hade fel information om antal ROPs och storleken på L2-cachen, information som i.o.f.s. sällan står tryckt på kartongerna, men i detta fall nämndes det ändå.

Däremot ljuger man inte om GFLOPS. Nvidia har i sina presentationer angivit flyttalskapaciteten med en signifikant siffra och tittar man på 970 som har 3,49 GFLOPS medan Nvidia alltid visade det som 4 GFLOPS (och 1070 hamnar i en liknande sits) så tyder det på att Nvidia själva alltid använt turbo frekvensen. Däremot kör tabellerna på Wikipedia med basfrekvensen, men det står ju också uttryckligen. I den officiella specifikationen för Nvidias kort står faktiskt inte någon GFLOPS-siffra får någon modell, däremot står bas och boost frekvens.

Edit: Finns flera teknisk aspekter man kan ta upp, men en rätt viktig aspekt just för hur lätt det är att nå en viss andel av teoretisk prestanda är "bredden" på en warp/wave-front (en grupp stream-kärnor som kör samma program). För alla aktuella GPUer är den 32 för Nvidia och 64 för AMD. Ju högre denna siffra är ju mer "spill" kommer det bli när ett problem inte exakt behöver en multipel av denna för att utföra något.

En annan är balans mellan de olika delarna i en GPU. Kepler har t.ex. för låg ROP-kapacitet jämfört med övriga delar för att riktigt kunna utnyttja sin potential i moderna spel. Fury X har för mycket shader-kapacitet och bandbredd i förhållande till kapacitet i övriga delar, 380 och 390 verkar vara de aktuella modeller med bäst balans då respektive "X" modell inte alls presterar så mycket bättre som den borde göra i teorin. Här gäller det att AMD hittar en riktigt bra balans i Polaris, då kan man få ut rätt mycket mer spelprestanda utan att egentligen öka "GFLOPS" siffran.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Kommer inte ihåg ifall det här ryktet har skrivits här, men det verkar intressant.

One of the major benefits for Nvidia's Pascal architecture is that they can achieve really high clock frequencies. The 16nm Pascal based GeForce GTX 1080 boosts over 1800 MHz. AMD will bake Polaris at 14nm and as some information found in the SiSoft Sandra database, they reach 1.27 GHz with Polaris 10.

The SiSoftware Sandra 2015 OpenGL benchmark entry (look it up here) was entered 3 days ago and allegedly shows an entry of a Polaris 10 sample at 1266 MHz. The chip is identified by its Hardware ID, 67DF: C7 and 67DF: C4. These are both Polaris 10 ASICs, one Pro and one XT model.

The entry denotes once again 36 compute cores (Nvidia call theirs SMs), 36 x 64 shader processors per cluster would mean 2304 active shader processors. The entry also reveals 8 GB memory being clocke at 7.6 GHz running over a 256-bit, so that would be 243 GB/s It however is unclear if AMD opted for GDDR5 or GDDR5X.

Obviously this might be just a reference sample, AMD can still increase the clock frequency at launch, with that in mind it remains to be seen what we finally going to see from the red camp.

Dold text
Permalänk
Medlem

Ser man på medelvärdet från femton spel enligt pcgamer.com (http://www.pcgamer.com/gtx-1080-review/) så klår nano CF såväl 1080 och 980 SLI, om man skruvar upp pixlarna över 1080p.

Artikeln visar även att DX12 spel fortfarande gillar AMD.

Så, man behöver inte blir förvånad om Polaris faktiskt är snabbare än man tror. Men, kan kan fortfarande drömma om Vega.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av sAAb:

Ser man på medelvärdet från femton spel enligt pcgamer.com (http://www.pcgamer.com/gtx-1080-review/) så klår nano CF såväl 1080 och 980 SLI, om man skruvar upp pixlarna över 1080p.
http://cdn.mos.cms.futurecdn.net/vfSzfuFSQ2hCkzi3VcmwYh-650-80.jpg
Artikeln visar även att DX12 spel fortfarande gillar AMD.

Så, man behöver inte blir förvånad om Polaris faktiskt är snabbare än man tror. Men, kan kan fortfarande drömma om Vega.

Kanske, samtidigt så är väl HBM en stor orsak till de bra värdena i höga upplösningar?

Men lite roligt i sammanhanget är att du får nog snart två begagnade nano till priset av en 1080 FE... Sen är väl iof inte allt guld och gröna skogar med CF(eller SLI för den delen) om jag förstått det rätt...

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av sAAb:

Ser man på medelvärdet från femton spel enligt pcgamer.com (http://www.pcgamer.com/gtx-1080-review/) så klår nano CF såväl 1080 och 980 SLI, om man skruvar upp pixlarna över 1080p.
http://cdn.mos.cms.futurecdn.net/vfSzfuFSQ2hCkzi3VcmwYh-650-80.jpg
Artikeln visar även att DX12 spel fortfarande gillar AMD.

Så, man behöver inte blir förvånad om Polaris faktiskt är snabbare än man tror. Men, kan kan fortfarande drömma om Vega.

980IT 2kort endast 27% snabbare än ett kort. Här är en hund begraven. Ok att Nvidia har dåliga drivrutiner för flera kort men inte så dåliga.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

980IT 2kort endast 27% snabbare än ett kort. Här är en hund begraven. Ok att Nvidia har dåliga drivrutiner för flera kort men inte så dåliga.

det är 980 sli, inte 980 ti sli. just 980 sli testas för att nvidia sade att 1080 skulle vara snabbare än 980 sli.