Skrivet av Yoshman:
Japp, väldigt tjatigt med tanke på att webbplatser som t.ex. Guru3D visat att när man kommer nära och passerar 4 GB VRAM så uppför sig 970 och 980 extremt snarlikt. Sedan blir det nästan lite komiskt när andra tester visar att i praktiken har 290/290X/Fury problem med vissa nyare titlar som använder väldigt mycket VRAM, ett problem som inte 390/390X har men inte heller 970 (inte ens 780Ti med 3 GB uppvisar problem)!
Ett annat exempel, Fury har spikar som inte finns på 390, 970 eller 980.
Tittar man på "allokerad mängd VRAM" så verkar spel definitivt kunna använda 4 GB i 970, frågan är varför 290 inte verkar vilja använda mer än 3,6 GB när 390X suger i sig 6,1 GB med samma inställningar. Nästan som man undrar vem som egentligen här ett VRAM-problem...
Och det har var att göra med det jag sa?
Jag sa att hårdvaran är samma. Segmenterat är hur den är designad och 970 är 3,5GB + 0,5GB, hur mycket du än babblar på. Nvidia kan styra detta i drivrutiner dock, men det ändrar inte hårdvaran.
Om de då dubblerar minnesmängden så blir det 7GB + 1GB.
Eller håller du inte med att det blir exakt så, tekniskt sett? Tjatigt eller inte.
Sen att 7GB räcker mer än väl är en helt annan sak, ser det inte som något negativt där.
Du har börjat gå från en datavetare till en konstig Nvidia Fanboy som ska hitta ursäkter på alla fel dessa kort har. Man kan säga att du älskar att hitta udda tester som görs på specifika drivare, spel och i specifika situationer, inte för att framhäva din sak, utan trycka ner motståndaren... Det är fanboy tänk min vän Nvidia styr sin minnesanvändning betydligt bättre, ingen tvekan om det.
Ändå så vinner 390 korten vs 970 i högre upplösningar i många moderna spel, där i praktiken mer VRAM är till nytta... så din poäng är? Du verkligen letar halmstrån...
Men visst. AMD skulle behöva jobba på minneshanteringen. Inga argument där.
Skrivet av Yoshman:
Om det är samma prestanda som 970/980 lär de nya kortet knappast få någon nytta av den extra bandbredden med GDDR5X, enda Maxwell-kortet som verkar strypt av VRAM-bandbredd är 960. Däremot finns en annan fördel med GDDR5X: strömförbrukningen är väldigt beroende på frekvensen minnet kör på, med GDDR5X kan man därför använda en lägre frekvens och ändå få minst lika hög bandbredd som GDDR5.
Sedan ligger nog 970/980 rätt nära kapaciteten för VRAM-bandbredd, så om de nya kretsar är 30-40 % snabbare eller mer så behövs mer bandbredd för att undvika en flaskhals där.
Så har dessa superklockade korten problem eller inte?
960 har jag inte dragit in, både för artikeln handlade inte om det, och för att jag vet att den har det problemet.
Sen att de kan få ner förbrukningen är väl ingen tvekan om, men hur är det med priset? Folk skrek gala på mig när jag vilel se HBM, för det kostar... nu ska man lägga till nyare moduler (som definitivt inte kommer vara billigare än GDDR5) och öka kostnaden, och plötsligt så ko-vänder du i din kommentar och åsikt? Vill de få ner förbrukningen mer än marginellt, ta HBM...
Som sagt, vi vet inget om de nya kretsarna, alls. Men visst logiskt bör de vara snabbare. Är det dock en-rebrand så kan du glömma 40%... Får se vad Nvidia gör helt enkelt.
Skrivet av Yoshman:
Angående DX12: den absolut största nyheten med DX12 är lägre "CPU-overhead" samt långt bättre möjligheter för utvecklare att utnyttja flera CPU-kärnor på ett effektivt sätt. Alla GPUer som fått DX12 (och Vulkan) stöd har fått dessa fördelar, dock är dagens GPUer inte starka nog att göra de snabbare Intel CPUerna till flaskhalsar så rent praktiskt har inte detta gett mer prestanda utan man får bara med "idle" tid på sin CPU. Detta syns väldigt väl i Ashes of the Singluarity, även om det är samma prestanda med DX11 som DX12 på Nvidias kort är CPU-användningen signifikant lägre med DX12.
Huruvida async compute finns eller ej har i praktiken noll påverkan på vilka funktioner man kan använda i DX12, vinsten för de kort som stödjer detta är möjlighet till bättre prestanda. De få fall som existerar så här långt pekar på att GCN1.1 verkar se störst vinst, upp till 20 % boost i Ashes of the Singularity och upp till 10 % boost i Hitman. GCN1.2 får något mindre medan GCN1.0 kortet i princip inte får någon vinst alls. Även med 20 % så är det knappast något som signifikant ändrar något, vissa Nvidia kort är ju fabriksöverklockade 20 % så de får motsvarande boost i alla titlar där kapacitet i GPU-delen är flaskhals (jämfört med "referens").
Så vad du säger är mer ursäkter i hopp om att ingen ska se problemet med Maxwell. Det du säger är att om någon har köpt en "skit version" från Nvidia, och inte super-överklockad version, så kommer ni halka efter. Kanon bra det där Vill du kanske kolla vilken frekvens AMD korten kör stock i tester också? Du kan jämföra det med mina fabriks OCade...
Sen bör du nog titta på dina 20% igen.. för som jag sa, ni räknar från Stock till turbo, inte från Nvidias turbo till er turbo. Och det är långt i från alla tillverkare som har dessa nivåer, mer ofta är det 5-10% mer, vilket såklart hjälper, men det är inga 20%.. inte ens nära.
Ang GCN1.0 så tror jag @sesese sa det bättre: #16013659
"7970 337% snabbare än 680 i 4K
7970 har endast 3 bps upp till 970 så frågan är kan ett AMD 7970 kort från 2012 bli snabbare är näst snabbaste kort från Nvidia 2016 i DX12???"
Hur går det för 680 korten som 7970 och GCN1.0 var riktade mot igen?
Tror du får omvärdera dina %...
Lustigaste var dina kommentarer om just Ashes of the Singularity, där du klart säger:
"Helt klart är DX12/Vulkan en bättre teknik för framtiden, men dagens GPUer verkar inte vara tillräckligt snabba för att CPU-delen ska vara någon större flaskhals ens med DX11 (i alla fall inte med Nvidia drivare)."
Så nu plötsligt så behöver vi Nvidias lägre CPU last? Det som du framhävde i citatet ovan... är det relevant eller inte, för du säger emot dig själv. M.a.o. Nvidia tjänar inget som det ser ut idag, på DX12. De snarare med dagens drivare och flertalet spel, förlorar på det.
Du själv har sagt:
"Sedan har Nvidia sagt att man ännu inte färdigställt "async compute" för Maxwell gen 2. Från AnandTech", med länk och allt.
Sen lagt till: "Är dock fortfarande skeptisk till att "async compute" kommer göra speciellt mycket för Maxwell, man kanske kan komma till punkten att det inte blir negativt i alla fall Känns ju som det är något större hinder som Nvidia stött på med tanke på att man inte ens vill ge en vink om när detta stöd kan dyka upp."
Så jag vill säga att Maxwell är en DX12 flopp... där de i bästa fall handlar om att inte tappa prestanda, inte att vinna något. Kort sagt, Maxwell är så långt ifrån framtidssäker som man kan komma, då där finns inget att vinna som det ser ut nu iaf.
Sen har du själv sagt att AotS ska vara ett specialfall, som inte sker annars. Något som dock verkar ske på samtliga spel jag ser hittills. Kanske inte i den "perfekta nivån", men Hitman tex är definitivt inte ett RTS-spel iaf. Behövs fler spel och fler tester, helt klart, men jag har som sagt inte sett ett enda positivt DX12 resultat för Maxwell iaf, som påverkar en desktop PC spelare.
Så det som skrämmer mig är hur denna "datavetare" som envisas om att citera mig, fortfarande jagar google sökningar efter tester där 970/980 Maxwell inte suger i DX12. Istället för att titta på DX12 mer objektivt och är lite fundersam till varför Nvidia inte slår på en enorm trumma för det. Detta speciellt om du nu ska vara fanboy neutral som du vill framstå.
Nvidia verkar nästan göra allt de kan för att ignorera DX12. Som det är nu så verkar det vara det enda som är positivt med Nvidias kort... att just DX12 i sig själv är långt från optimalt.
Vi får se, men du kan ge dig attan på att varenda en av dessa kommentarer kommer att länkas och hånas om nu Nvidia gör bort sig med DX12 när dessa nya kort släpps då du framhäver saker som du sen säger emot själv några månader senare. DX12 gör iaf ingen positiv verkan för slutkunden idag på Nvidia kort, snarare tvärt om. Minskad CPU användning är bra, ja, men du bör nog kolla på hur AMD korten påverkas där också, då de båda får bättre CPU användning pga hur DX12 trådar bla.
Oavsett så vet vi både alldeles för lite om framtida kort för att mer än spekulera där, mer än hur Nvidia och AMD agerar mot DX12. AMD gasar... Nvidia bromsar eller iaf går på tomgång. Vad säger det om Nvidias tro på det?