Fallout 4 får stöd för Nvidia-finesser i ny uppdatering

Permalänk
Medlem

Vad vi behöver är en standardburk som kan testa nya drivers, så vi kan se om det blir några skillnader (som dom alltid lovar), och huruvida olika versioner skiljer sig från varandra. (eller om det endast är game profile optimizations)

Permalänk
Medlem
Skrivet av Lordsqueak:

Vad vi behöver är en standardburk som kan testa nya drivers, så vi kan se om det blir några skillnader (som dom alltid lovar), och huruvida olika versioner skiljer sig från varandra. (eller om det endast är game profile optimizations)

Jag röstar för en sådan burk!

Permalänk
Medlem
Skrivet av Yoshman:

Om man tror att Nvidia medvetet saboterar för AMD kan man ju fundera varför HBAO+ (som är en del av Gameworks) presterar bättre på Fury X än på 980Ti...

För den som inte använder foliehatt utan funderar lite kring vad HBAO+ faktiskt är och vilka delar av GPUn en sådan teknik stressar mest så borde det vara uppenbart varför en sådan teknik hanteras mycket väl av Fury, OK av Maxwell och lite mindre bra av Kepler. HBAO+ är en teknik som främst stressar shader-steget vilket är den starka punkten i GCN och då framförallt i Fury. Maxwell är bättre än Kepler på att få ut existerande potential, så även om teoretisk shader-kapacitet är likvärdig på 780ti och 980ti så kommer 980ti i praktiken hantera något som HBAO+ mer effektivt.

Notera också att för saker som körs som rena shader-program finns ingen "overhead" från drivers, dessa program körs helt inuti GPUn. Även detta är fördel för AMD då Nvidia har lägre "overhead" i sina drivers.

Väänta nu... va!?

Tror du missat lite.
Varför tror du HBAO+ har varit avstängt vid lanuch tex? För att då skulle alla speltesterna med Fallout 4 ha visat AMD kort vara bättre och Nvidia skulle tappa försäljning på en efterlängtad AAA titel.
Om nu det är som du påstår ovan, att gameworks inte är Nvidia bias... varför har HBAO+ då inte varit aktivt från dag 1?
De ville ju visa det bästa motorn Fallout 4 kunde göra, varför inte inkludera en teknik som gör bättre skuggor då?
Eller "uppfanns" tekniken nyligen? Vad jag kan se har den funnits i åratal, så det är inte problemet.

I teorin så visst... AMD gynnas mer av HBAO+. Men i praktiken, AMD gynnas mer så... vi stänger av det.
Sen konstigt nog så får NVidia ändå extra, med vapeneffekterna som kompensation för deras prestanda dyk nu när tekniken är på. Men jag antar att jag åter har foliehatt på...

Vill du kanske ta en titt på annat som Godrays tex och jämföra AMD vs Nvidia, rent teoretiskt prestanda på det kanske?
http://www.overclock3d.net/reviews/gpu_displays/fallout_4_-_a...
Man undrar ju varför det släpptes med godrays som knappt gick att stänga av, eller?
"In our testing, which can be seen on the next page, the addition of Godrays is the setting with the largest performance impact in all of Fallout 4's large options menu..."
Sen att det vattnar ut färger och faktiskt gör delar sämre är väl min foliehatt som talar.

Så, utan godrays så är Fury X ganska nära 890 Ti... (och notera detta är äldre drivarna, innan senaste patchen)
Men dem så trycks FuryX ner till knappt spelbart, och 980ti får större ledning... "ON for Tim please"...

Min poäng, du har helt rätt i teorin, och du har helt missat vad Gameworks gör när de lägger sig i vilka tekniker som ska vara på från spelens släpp... de sätter därför på tex Godrays, men inte HBAO+, och Nvidia korten ser bättre ut.
Sen att teknikerna kan vara bra, det argumenterar jag inte emot. Men du måste titta på hur de används och om de används mer än bara "i terorin på kortet"

Tur är väl att Bethesda tillslut aktiverade en funktion som gynnar AMD korten och bildkvalitén, så vi kan njuta av lite också, "the way its ment to be played..."

Permalänk
Datavetare

@Paddanx: jag påstår absolut att Gameworks är biased mot Nvidias kort, Nvidia vore ju totala idioter annars. Man prioriterar aktivt finesser som går att implementera via t.ex. tesselation då Maxwell är grymt stark på detta (Kepler är inte på samma nivå men ändå starkare än motsvarande GCN). Nvidia har också gått ut och sagt att man för tillfället jobbar på tekniker där "Raster order views" är en klar fördel (finns i DX feature level 12.1 som går att komma åt både via DX12 och DX11.3).

Vad jag däremot inte tror är att Nvidia aktivt saboterar för AMD via Gameworks, som ett exempel tog jag HBAO+ där enda rimliga implementationen är via shaders. Nvidia lär vara mycket väl medvetna att GCN och då Fury-serien i synnerhet har sin styrka på just detta. Hade man aktivt saboterat skulle man valt att inte göra detta alt. stoppa in något i beräkningen som inte alls fungerar bra på GCN.

HBAO+ fanns inte från start därför att konsolerna har inte denna teknik (kräver Gameworks) så måste ju integreras i spelet.

Och begriper inte hur folk överhuvudtaget kan se Gameworks som ett problem. För det första är ju hela poängen med Gameworks att det ska vara enkelt att lägga till ovanpå vad som redan finns, vilket också betyder att det i praktiken alltid går att stänga av specifika Gameworks-tekniker om det t.ex. fungerar dåligt på den GPU man kör. Så det är opt-in.

Folk skrek i högan sky under förra konsolgenerationen att spelen såg ut som skit för de var designade för antika GPUer och inget av de nya coola som PC hade användes. Hela poängen med Gameworks är, något som Nvidia säger öppet, är ju att så snabbt som möjligt få spel att börja använda de funktioner Nvidia stoppat in i kislet på sina senaste modeller. Exakt detta är AMDs (och tidigare även ATIs) stora problem, de har ofta varit snabba att stoppa in nya finesser i kislet men de har inte sedan sett till att även programvaran för att använda funktionerna i kislet varit enkelt (==billigt) att komma över.

Så teknik som Gameworks med tillhörande utvecklarstöd är exakt det bl.a. många på denna webbplats skrek efter förra konsolgenerationen. Nu finns det men är ändå fel! Att utveckla något som Gameworks är dyrt, det borde inte vara så svårt att inse att Nvidias har en förbannad skyldighet mot sina aktieägare att försöka få tillbaka denna investering.

Spel säljer ofta en tiopotens mer på konsoler, det finns helt enkelt ingen ekonomi i att lägga massor med tid, utöver själva porteringen, för att lägga till nya funktioner till spel. Enda sättet det kommer hända är om det är väldigt enkelt/billigt, vilket Nvidia säkerställer genom att ge bort Gameworks + även erbjuda utvecklare som hjälper till med att integrera Gameworks i spelmotorn.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare

@Paddanx: var tvungen att läsa på som hastigast om vad godrays är och framförallt hur det är implementerat.

Att det i alla fall initialt inte gick att stänga av godrays i Fallout 4 verkar ju bero på en bug, avsikten verkar ändå varit att det skulle gå att helt stänga av det (varför finns det annars ett sådan alternativ i settings?). Att man uppenbarligen aldrig testat att slå av godrays ska väl ändå fall på spelutvecklaren? Så om du anser att det försämrar upplevelsen, great då fick du bättre bildkvalité och högre FPS.

Sedan är godrays ett sätt att rendera ljus som upplevs ha volym, tekniken är baserad på, TADA!, tesselation. Maxwell är typ dubbel så snabb om motsvarande GCN-krets på tesselation så knappast en överraskning att Nvidia valt en sådan implementation och att just Fury X tar en väldigt stor FPS-hit då tesselation-kapaciteten hos Fury serien är samma som 390/390X som i sin tur bara är marginellt bättre än 380/380X (fast där blir typiskt andra saker flaskhals).

Så begriper ärligt inte vad du ser för problem. Det är en helt valbar finess, gillar man den slår man på den annars slår man av den.

Och om du tycker det är "orättvist" undrar jag vad kommentarerna kommer bli när spel börjar använda tekniker där Maxwell drar nytta av "raster order views" (ROV). I sak är detta besläktat med godrays, man kan gå ljus, rök, eld, etc att ha volym i hur det ser ut och i hur det påverkar belysningen av scenen. Utan ROV kommer detta äta både mer VRAM och mer GPU-kraft, men är det bättre att inte utveckla denna teknik bra därför? Är det valbart slår man bara av det om man anser att kostnaden inte motiverar resultatet.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Så begriper ärligt inte vad du ser för problem. Det är en helt valbar finess, gillar man den slår man på den annars slår man av den.

Nej, jag har förstått det, men om du hoppar ur ditt teori skåp ett tag så kanske du ska fråga dig själv, varför ska man stötta tekniker som låser in det, precis som Gameworks gör. I praktiken motarbetar du konkurrens och hindrar vidare utveckling när du låser tekniker så, och största bovarna är faktiskt de som stöder det, imho.

Så, nej jag tycker absolut inte dessa tekniker ska verken användas eller gynnas. Öppna det till open source och låt alla tillverkare jobba med den, så ställer jag mig bakom dig. Men tills dess... nej.

Vi har nog med stängda tekniker som PhysX, G-Synk och POV från detta bolag... vi behöver inte fler, utan vi behöver fler öppna standarder. Detta oavsett "hur bra" de stängda teknikerna är...

Skrivet av Yoshman:

HBAO+ fanns inte från start därför att konsolerna har inte denna teknik (kräver Gameworks) så måste ju integreras i spelet.

Vilket visar exakt problemet... man måste gå omvägar för att kunna använda en låst teknik. Måste ha varit mer gynnsamt för oss konsumenter (antar att du är konsument nån gång också), om de kan köra på öppna alternativ, eller? Eller om HBAO+ var en helt öppen teknik som inte krävde någon sabla "GameWrecks".

Men spelen testas också med Ultra för spelsläpp, vilket om du hade slopat godrays och haft HBAO+ hade gett AMD korten enormt övertag. Detta kan ju inte NVidia acceptera från GameWorks, så man slopar integrationen till senare och lägger på det som gynnar Nvidia istället, så blev det som det blev. Detta är vad som på ett eller annat sätt sker i varje Nvidia spel... bara titta så ska du se hur de gör med sina features.

Tittar man på tex DX12 baserade spelet Ashes of the Singularity, så gjorde verkligen Nvidia allt för att när de skulle testa så ville de att spelutvecklarna skulle stänga av en massa features, för att de skulle se bättre ut. http://www.dsogaming.com/news/oxide-developer-nvidia-was-putt...
Mest rättvisa måste väl vara för dem att använda den teknik de faktiskt väljer att använda, men detta gynnar inte Nvidia, så de har sedan dess försökt trycka ner det som icke relevant test.

Så det finns rätt bra tecken på detta från flera håll:
https://www.techdirt.com/articles/20140529/09140227391/is-nvi...
GameWorks är deras sätt att göra dessa ändringar, stänga av det som behövs (som de ville ovan tex) utan att behöva ha en PR avdelning som försöker det på fulare sätt.
http://www.escapistmagazine.com/news/view/140859-Witcher-3-AM...
HairWorks är exempel på samma sak, där man förstörde det för både äldre Nvidia användare och AMD...

Så jag ber dig, titta lite längre än teorin som du kan så väl, och se hur Nvidia verkligen gör allt för att behålla alla övertag de kan, oavsett hur mycket de måste pilla, fuska och jävlas. Och det är här jag ser problemet. Det är konkurrenshämmande så det stinker om det.

Så framtiden då?
Ja vi kommer ha snygg POV på Nvidia kort, och bra prestanda med Async Compute på AMD, så båda har sina fördelar. Helst ser jag dock att samtliga öppna tekniker vinner, oavsett vem det gynnar.
Kan bara hoppas att DX11 dör snabbt och öppna tekniker i DX12/Vulkan används istället, för då kan de inte skylla på något annat än sin design av korten, som du redan försöker visa. Men oavsett @Yoshman... mindre teori, mer.. verklighet. Du kan mer än de flesta medlemmar här om det mesta, men du verkar blind till beteenden, PR och osjysta företagsmetoder.

Permalänk
Inaktiv
Skrivet av Paddanx:

Nej, jag har förstått det, men om du hoppar ur ditt teori skåp ett tag så kanske du ska fråga dig själv, varför ska man stötta tekniker som låser in det, precis som Gameworks gör. I praktiken motarbetar du konkurrens och hindrar vidare utveckling när du låser tekniker så, och största bovarna är faktiskt de som stöder det, imho.

Så, nej jag tycker absolut inte dessa tekniker ska verken användas eller gynnas. Öppna det till open source och låt alla tillverkare jobba med den, så ställer jag mig bakom dig. Men tills dess... nej.

Vi har nog med stängda tekniker som PhysX, G-Synk och POV från detta bolag... vi behöver inte fler, utan vi behöver fler öppna standarder. Detta oavsett "hur bra" de stängda teknikerna är...

Vilket visar exakt problemet... man måste gå omvägar för att kunna använda en låst teknik. Måste ha varit mer gynnsamt för oss konsumenter (antar att du är konsument nån gång också), om de kan köra på öppna alternativ, eller? Eller om HBAO+ var en helt öppen teknik som inte krävde någon sabla "GameWrecks".

Men spelen testas också med Ultra för spelsläpp, vilket om du hade slopat godrays och haft HBAO+ hade gett AMD korten enormt övertag. Detta kan ju inte NVidia acceptera från GameWorks, så man slopar integrationen till senare och lägger på det som gynnar Nvidia istället, så blev det som det blev. Detta är vad som på ett eller annat sätt sker i varje Nvidia spel... bara titta så ska du se hur de gör med sina features.

Tittar man på tex DX12 baserade spelet Ashes of the Singularity, så gjorde verkligen Nvidia allt för att när de skulle testa så ville de att spelutvecklarna skulle stänga av en massa features, för att de skulle se bättre ut. http://www.dsogaming.com/news/oxide-developer-nvidia-was-putt...
Mest rättvisa måste väl vara för dem att använda den teknik de faktiskt väljer att använda, men detta gynnar inte Nvidia, så de har sedan dess försökt trycka ner det som icke relevant test.

Så det finns rätt bra tecken på detta från flera håll:
https://www.techdirt.com/articles/20140529/09140227391/is-nvi...
GameWorks är deras sätt att göra dessa ändringar, stänga av det som behövs (som de ville ovan tex) utan att behöva ha en PR avdelning som försöker det på fulare sätt.
http://www.escapistmagazine.com/news/view/140859-Witcher-3-AM...
HairWorks är exempel på samma sak, där man förstörde det för både äldre Nvidia användare och AMD...

Så jag ber dig, titta lite längre än teorin som du kan så väl, och se hur Nvidia verkligen gör allt för att behålla alla övertag de kan, oavsett hur mycket de måste pilla, fuska och jävlas. Och det är här jag ser problemet. Det är konkurrenshämmande så det stinker om det.

Så framtiden då?
Ja vi kommer ha snygg POV på Nvidia kort, och bra prestanda med Async Compute på AMD, så båda har sina fördelar. Helst ser jag dock att samtliga öppna tekniker vinner, oavsett vem det gynnar.
Kan bara hoppas att DX11 dör snabbt och öppna tekniker i DX12/Vulkan används istället, för då kan de inte skylla på något annat än sin design av korten, som du redan försöker visa. Men oavsett @Yoshman... mindre teori, mer.. verklighet. Du kan mer än de flesta medlemmar här om det mesta, men du verkar blind till beteenden, PR och osjysta företagsmetoder.

Instämmer i det mesta du skriver.

Sedan kan man ju också lägga till allt Nvidia sysslat med som kommit fram bara under förra året. 3,5GB grafikkorten med extra 512MB långsamt minne som marknadsfördes som 4GB kort med snabbt minne, allt underligt som hände med de mobila drivarna (överklockning låses, låses sedan upp när kunderna klagar, låser igen och låser tillsist upp igen...) samt falsk marknadsföring där GTX 900-serien marknadsförs att helt stödja DirectX 12 när de trots allt inte verkar göra det, när det granskas. Känns som jag glömt något men det är mycket nog egentligen.

Riktigt synd, Nvidia är egentligen ett bra men framförallt viktigt företag. När de ändå för tillfället har större marknadsandelar på marknaden för diskreta grafikkort så borde de inte behöva dra till med fulare metoder. Riktigt trist och ger en deprimerande framtidsutsikt för PC som spelplattform. Det är ganska många som börjat inse problematiken trots allt.

Permalänk
Medlem
Skrivet av anon5930:

Instämmer i det mesta du skriver.

Sedan kan man ju också lägga till allt Nvidia sysslat med som kommit fram bara under förra året. 3,5GB grafikkorten med extra 512MB långsamt minne som marknadsfördes som 4GB kort med snabbt minne, allt underligt som hände med de mobila drivarna (överklockning låses, låses sedan upp när kunderna klagar, låser igen och låser tillsist upp igen...) samt falsk marknadsföring där GTX 900-serien marknadsförs att helt stödja DirectX 12 när de trots allt inte verkar göra det, när det granskas. Känns som jag glömt något men det är mycket nog egentligen.

Riktigt synd, Nvidia är egentligen ett bra men framförallt viktigt företag. När de ändå för tillfället har större marknadsandelar på marknaden för diskreta grafikkort så borde de inte behöva dra till med fulare metoder. Riktigt trist och ger en deprimerande framtidsutsikt för PC som spelplattform. Det är ganska många som börjat inse problematiken trots allt.

G-synk som inte fungerar utan moduler... men G-synk för laptop gör det

Jo visst är det synd. De har råd, både ekonomiskt och sett till marknadsandelar, med att öppna drivare till Linux, göra sina nya tekniker öppna för andra och faktiskt leda utvecklingen på ett positivt sätt.

GameWorks idén var bra i grunden, men de skulle inte hållit på att vara så fula som den är med teknikerna. De jag faktiskt tycker mest synd om är tex Nvidia 680Ti och 780Ti användare, eller varför inte de som spenderade 11kkr på ett Nvidia Titan (original). De blir nu blåsta... för Nvidias nya tekniker gör dessa kort totalt värdelösa.
Är det så man behandlar en kund som betalat många tusen kronor för deras produkt?... 1-2 år senare... F. O.
AMD har tight som F i sin ekonomi, men ändå både stöttar och fortsätter de optimera kort så gamla som 7000-serien. Om de har råd att göra det.. varför skulle Nvidia inte har råd?

Permalänk
Datavetare

@Paddanx: seriöst, vem av oss är det som drömmer om en utopisk värld som idag bara kan existera i teorin och vem har en pragmatisk syn på det hela? Om du kliver av din "moral high horse", försiktigt då det är rätt långt till marken, och fundera vad föreslår.

Vi har under många år haft fallet att det är upp till speltillverkarna att själva implementera all ny teknik som definieras av DX och implementeras av GPU-tillverkarna. Resultatet av detta blev varje gång att tiden från introduktion av något nytt och till dess att man faktiskt såg det användas i spel var flera år.

Jag må gilla teori när det kommer till att förstå, förklara och i viss mån förutsäga teknik. Men i grunden har jag en väldigt pragmatisk syn på saker och ting, som jag ser det är alternativen att man tar saker som Gameworks och liknade för vad det är: PR för nya grafikkort.

Det andra alternativet är att man tar vägen som inte fungerat så bra för AMD, stoppa in saker i kisel och hoppas på det bästa. I praktiken betyder detta att ingen kommer använda nya saker, när det väl kommer till användning så är den ursprunliga kretsen hopplöst omodern. Jag vill använda den teknik jag betalat för så fort som möjligt, om det betyder Gameworks så vad ska man göra?

Se på HSA, hur bra har det gått? Du nämner async-shader, det hade varit fullt möjligt att använda det via OpenGL (Nvidia har t.ex. haft extensioner för "low-overhead" i OpenGL sedan 2009). Trots att AMD pratat så mycket GPGPU, HSA och liknande är fortfarande användandet av detta extremt nära noll. Faktum är att Intel har kommit mycket längre i praktiken då man har en lång rad gratis (både closed och open source) bibliotek för att använda AVX/AVX2, GPGPU på deras Intel HD-serie samt Xeon Phi.

Det är en fin tanke med att industrin ska samarbeta för öppna bibliotek, men att utveckla programvara kostar mycket pengar och de flesta företag har ägare som förväntar sig vinst. Den praktisk gångbara lösning, i alla fall för tillfället, är därför enda skita i att använda nya finesser eller acceptera att de kommer användas m.h.a. stängd programvara. Om/när GPU-tekniken slutas och utveckla, blir "commodity", så kommer det med tiden garanterat växa fram öppen programvara då det inte längre finns något att vinna på att hålla på sina egna lösningar. Vi ser detta i en lång rad områden som tidigare varit rejäla kassakor (försök t.ex. idag att starta ett företag vars huvudprodukt är att sälja ett proprietärt OS...) där idag är hopplöst att tjäna pengar på själva programvaran, man får dra in inkomsterna på andra saker.

Det finns inga gratisluncher!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av Paddanx:

G-synk som inte fungerar utan moduler... men G-synk för laptop gör det

Jo visst är det synd. De har råd, både ekonomiskt och sett till marknadsandelar, med att öppna drivare till Linux, göra sina nya tekniker öppna för andra och faktiskt leda utvecklingen på ett positivt sätt.

GameWorks idén var bra i grunden, men de skulle inte hållit på att vara så fula som den är med teknikerna. De jag faktiskt tycker mest synd om är tex Nvidia 680Ti och 780Ti användare, eller varför inte de som spenderade 11kkr på ett Nvidia Titan (original). De blir nu blåsta... för Nvidias nya tekniker gör dessa kort totalt värdelösa.
Är det så man behandlar en kund som betalat många tusen kronor för deras produkt?... 1-2 år senare... F. O.
AMD har tight som F i sin ekonomi, men ändå både stöttar och fortsätter de optimera kort så gamla som 7000-serien. Om de har råd att göra det.. varför skulle Nvidia inte har råd?

Jo, jag har länge sett ett trevligt scenario där AMD och Nvidia börjat sammarbeta mer, speciellt på mjukvaru-sidan för att lyfta PC som spelplattform. För de allra flesta är ju konsollen överlägsen tack vare främst smidigheten att komma igång och spela samt det relativt låga priset för hårdvaran. Nu är ju Nvidia inte ett företag som är intresserad av att sammarbeta, till skillnad från AMD, så det är nog rätt kört. Vore verkligen fint om GPUOpen skulle kunna normalisera PC-marknaden. Jag är personligen lite osäker på hur stor sannorlikhet satsningen har att lyckats men samtidigt har de flesta av AMD's satsningar på senare år också gått bra. Mycket beror väl just på Nvidia, utgivare och utvecklare.

Vad gäller Titan så tycker jag nog att kunden får skylla sig själv om man betalar så mycket för ett kort. Det enda riktigt bra med Kepler (i mitt tycke) var ju den för Nvidia ovanligt låga strömförbrukningen. Det var också det jag gillade mest med det GTX 670 jag hade. Gillade inte kylningen och ljudnivån dock men det är något Gigabyte ansvarat för.
Själv funderade jag mellan GTX 780 och R9 290 vid mitt senaste köp. Priset var ganska lika, även om 780 kostade ett par hundra till.
De flesta amatörtyckare ansåg vid tidpunkten att Nvidia var bättre för att det var Nvidia och det var ofta ganska jämt mellan kortet. Två år senare så är det ju bara att konstatera att R9 290 var ett mycket bättre val än GTX 780 som halkat efter (rejält). Inte alltid lätt att veta hur saker utvecklas framöver men att GCN inte presterade optimalt vid lanseringen av Hawaii var samtidigt rätt uppenbart. Den stora frågan också är ju hur länge korten lär hålla. Förväntar mig fina resultat när de första DX12-titlarna kommer, borde klara mig ett år till med nuvarande kort.

Håller i övrigt med dig i det mesta. Nog förväntar man sig mer från Nvidias sida med tanke på deras marknadsposition.

Permalänk
Datavetare
Skrivet av Paddanx:

GameWorks idén var bra i grunden, men de skulle inte hållit på att vara så fula som den är med teknikerna. De jag faktiskt tycker mest synd om är tex Nvidia 680Ti och 780Ti användare, eller varför inte de som spenderade 11kkr på ett Nvidia Titan (original). De blir nu blåsta... för Nvidias nya tekniker gör dessa kort totalt värdelösa.
Är det så man behandlar en kund som betalat många tusen kronor för deras produkt?... 1-2 år senare... F. O.
AMD har tight som F i sin ekonomi, men ändå både stöttar och fortsätter de optimera kort så gamla som 7000-serien. Om de har råd att göra det.. varför skulle Nvidia inte har råd?

Skillnaden i kretsarkitektur/kretsdesign mellan Fermi/Kepler och Kepler/Maxwell är långt större än skillnaden mellan GCN 1.0 och GCN 1.2, så att AMD fortfarande "stöttar" sina 7000-serie kort beror nog enbart på att de inte skiljer sig på något tekniskt relevant sätt från 300-serien.

Kepler är inte en bra design, generell grafik (a.k.a. consol graphics) fungerar bra men mer avancerade tekniker blir ineffektiva på Kepler om man inte sätter sig ner och handoptimerar för den kretsen (dyrt -> kommer aldrig hända). Shit happens, vad skulle Nvidia göra i detta läge? Man satte sig vid ritbordet igen och fick fram Maxwell som av allt att döma är en väldigt robust design (d.v.s. kräver väldigt lite specialoptimering av spelutvecklare -> billigt -> glada utvecklare). Finns ingenting Nvidia kan göra för att rädda Kepler (utom att möjligt motarbeta alla former av moderna, beräkningsintensiva renderingstekniker), problemet ligger i kretsdesignen.

Du kan ju säga samma sak om de som köper Fury, d.v.s. att de är blåsta. Realistisk så ska till ett mindre mirakel för att Fury-serien ska få någon större nytta av sin överlägset största styrka: brutal shader kapacitet. Det kommer bara hända om AMD får fram något motsvarande Gameworks och erbjuder motsvarande stöd till utvecklare. I stället verkar trenden gå mot att allt fler spel pushar allt fler trianglar (det kan accelerera rejält med DX12/Vulkan då man undanröjer största hindret för långt fler trianglar per scen), i det läget är inte Fury bättre än 390/390X (vilket vi också sett i resultaten för t.ex. Just Cause 3 och Rise of the Tomb Raider) och alla dessa är långt efter motsvarande prissatta Nvidia GPUer. OBS: säger inte att det blir så, framtiden är inte lätt att förutse...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

@Paddanx: seriöst, vem av oss är det som drömmer om en utopisk värld som idag bara kan existera i teorin och vem har en pragmatisk syn på det hela? Om du kliver av din "moral high horse", försiktigt då det är rätt långt till marken, och fundera vad föreslår.

Drömmer hellre om en "utopisk värld" än en ny låst grafikteknik som inte gör nytta på 5+ år, om ens då.

Ja.. jag är en drömmare. Du verkar vara realist utan framtidssyn bortom rent tekniskt. Vi har båda våra defekter, precis som tex AMD och NVidia har. Men vi har också olika sätt att nå målen.
För mig är moraliska höghästen enormt mycket viktigare än något annat, då folk som inte kan se saker bortom hur det gynnar bara dem själva i, ekonomiskt eller annat är folk som förstör vår värld för sina egna ändamål.

Skrivet av Yoshman:

Vi har under många år haft fallet att det är upp till speltillverkarna att själva implementera all ny teknik som definieras av DX och implementeras av GPU-tillverkarna. Resultatet av detta blev varje gång att tiden från introduktion av något nytt och till dess att man faktiskt såg det användas i spel var flera år.

Jag må gilla teori när det kommer till att förstå, förklara och i viss mån förutsäga teknik. Men i grunden har jag en väldigt pragmatisk syn på saker och ting, som jag ser det är alternativen att man tar saker som Gameworks och liknade för vad det är: PR för nya grafikkort.

Det andra alternativet är att man tar vägen som inte fungerat så bra för AMD, stoppa in saker i kisel och hoppas på det bästa. I praktiken betyder detta att ingen kommer använda nya saker, när det väl kommer till användning så är den ursprunliga kretsen hopplöst omodern. Jag vill använda den teknik jag betalat för så fort som möjligt, om det betyder Gameworks så vad ska man göra?

Vad sägs om GPUOpen? Nu har du något att stötta.

Som jag sa ovan, Gameworks i teorin var enormt bra, och hade det blivit så bra som du målar upp det så hade jag inte haft något emot det.
Men som du själv sa:
"Det finns inga gratisluncher!"

Mao, för att få denna fördel måste man göra en massa fula saker för att det ska löna sig att göra dem. Nvidia har valt att göra detta genom gameworks, som manipulerar spelen inte till det bästa, utan det bästa för Nvidia, och endast Nvidia. Så varför gynna girighet, speciellt nu när det kan komma ett öppet alternativ?
Antar att jag hade inte så nära till marken ändå... det är bara teoretiker som envisas om att gräva hål överallt som man kan trilla in i.

Skrivet av Yoshman:

Se på HSA, hur bra har det gått? Du nämner async-shader, det hade varit fullt möjligt att använda det via OpenGL (Nvidia har t.ex. haft extensioner för "low-overhead" i OpenGL sedan 2009). Trots att AMD pratat så mycket GPGPU, HSA och liknande är fortfarande användandet av detta extremt nära noll. Faktum är att Intel har kommit mycket längre i praktiken då man har en lång rad gratis (både closed och open source) bibliotek för att använda AVX/AVX2, GPGPU på deras Intel HD-serie samt Xeon Phi.

Ja... HSA används väl i PS4 och XboxOne, och om AMD får som de vill kanske i Zen när de verkligen kan börja integrera kraftfull GPU med CPUn.
http://wccftech.com/amd-huma-playstation-4-graphics-boost-xbo...

Så din poäng är att för att vi alla inte sitter med tekniken så är den dålig? Eller vad syftade du på? Problemet med HSA har ju varit minneslatency och minnesbandbredd. Antingen eller blir du lidande beroende på om det är GPU eller CPU jobb. HBM kanske kan lösa problemet med minnesbandbredd rätt bra iaf, huruvida latency problemet går att lösa med HBM vet du nog bättre än jag Ser ändå det som en grund till en bra ide, där den bara behöver bättre implementation för att passa generella jobb i tex en PC.

När det gäller async-compute och min förmåga att förutspå framtiden så vågar jag säga följande: Med tanke på 900-seriens async prestanda är... skit, för DX12 och med tanke på hur många utvecklare som verkar vilja använda den tekniker så kommer historia att upprepa sig.
"Precis som 600/700 serien kraftigt hamnade efter med ny teknik med 900 serien, så kommer 900 serien hamna kraftigt efter med Pascal och Nvidias nya krets, som troligen kommer ha mer än nog optimalt stöd för async compute."

Detta eftersom Nvidia så klart kommer då med den nya korten pusha allt de kan för den nya tänket och då kan skita i alla 3,5GB VRAM problem mm. Blir synd om alla som köpte dessa kort, men de kan ju alltid köpa nyaste NVidia istället

Personligen tror jag 290X korten kan hänga med något år till utan problem.
Men det ovan sätter jag gladeligen "1krona på", för det är vad som kommer ske slutet 2016/2017 när nästa Nvidia kort kommer. Vill du sätta mig på plats så kan du ju sätta emot.

Skrivet av Yoshman:

Det är en fin tanke med att industrin ska samarbeta för öppna bibliotek, men att utveckla programvara kostar mycket pengar och de flesta företag har ägare som förväntar sig vinst. Den praktisk gångbara lösning, i alla fall för tillfället, är därför enda skita i att använda nya finesser eller acceptera att de kommer användas m.h.a. stängd programvara.

Hmm... Mantle, Vulkan, TessFX, FreeSync för att nämna några tekniker... Om nu det kostar så mycket, varför är den som faktiskt driver öppna tekniken mest framåt, den som absolut inte har pengar till det? Att påstå att Nvidia inte har råd med det är stort och fett B.S. De är bara styrda av extremt giriga personer, som inte ska ha ett skit i denna marknad att göra, om marknaden ska utvecklas till det bättre för både kund och teknik.

Vi hamnar tillbaka på detta med moraliskt tänk, eller girighet mer eller mindre. Alt 1, inte utveckla något annat är låst teknik, där största vinnaren är en aktieägare... alt 2, utveckla öppna tekniker som gynnar alla användare och utveklare, medan du själv gynnas av att andra gör likadant. Äger du aktier i Nvidia då eller?

Hade personligen inte haft något emot om man gjorde som AMD gjorde med Mantle. Man utvecklade den, visade vad den kunde göra, hade den exklusivt i nått år eller 2, sen släpper den fri och fortsätter jobba på den.

Finns där ens tekniker som Nvidia gjort de senaste ... 5... hell, 10åren, som är helt öppen, helt fri att använda eller som de har iaf öppnat till sina konkurrenter, där tekniken är modern och användbar än. AMD har en lång lista. Tom Intel har en lista ffs. Nvidia har vad? Nvidia vill ju inte ens licensera tekniker till andra ffs.

Skrivet av Yoshman:

Om/när GPU-tekniken slutas och utveckla, blir "commodity", så kommer det med tiden garanterat växa fram öppen programvara då det inte längre finns något att vinna på att hålla på sina egna lösningar. Vi ser detta i en lång rad områden som tidigare varit rejäla kassakor (försök t.ex. idag att starta ett företag vars huvudprodukt är att sälja ett proprietärt OS...) där idag är hopplöst att tjäna pengar på själva programvaran, man får dra in inkomsterna på andra saker.

Som det är nu så har den slutat utvecklas... iaf på öppen marknad, om det inte vore för AMD. Att man inte kan för utvecklings skulle släppa nya tekniker när de är 2 år gamla är bara egoistiskt och girigt, inget annat. Man får ändå sålt sin teknik, får ändå fördelar när man fortsätter utveckla så det tar 2-3 år för konkurrenter att komma ikapp, men man hämnar inte teknikerna iaf och när de är öppna så är det mer nytta att stöda det av fler utvecklare, då de når fler kunder.

Skrivet av Yoshman:

Det finns inga gratisluncher!

Men om jag bjuder dig på lunch idag, så kan du bjuda mig imorgon
Vi båda får en gratis lunch vardera och vi båda har mycket roligare tillsammans än att äta ensam. Notera även att det kostade oss båda precis lika mycket som om vi va giriga

Permalänk
Datavetare

@Paddanx: alltså jag håller med dig i teorin, om allt blev öppet skulle det vara trevligast för oss kunder. Men verkligheten ser tyvärr inte ut så.

GPUOpen har så här långt en enda pryl, det lär inte räcka långt. Visst kan man tycka att Nvidia kan hugga in, men vilket är incitamentet för dem att t.ex. donera Gameworks dit? Vad man då i praktiken gjort är att finansiera AMDs FoU, knappast något som Nvidias ägare har det minsta intresse av.

Är fortfarande få som begriper vad AMD fick ut av Mantle, är ju inte så att man själva var med och utvecklade DX12 sedan 2012 ungefär, så man visste ju vad som var på väg. Och i praktiken erbjöd Mantle inget som inte redan fanns, inte ens på AMDs kort var Mantle alltid ett steg framåt över DX11.

HSA används inte i PS4/XBO, de stödjer inte vissa saker som krävs för HSA t.ex. att minnet är koherent mellan CPU och GPU samt att GPUn använder virtuella adresser och inte fysiska. Som jag förstått det är det endast de senaste APUerna som stödjer HSA 1.0.

Async-shaders är inte något som DX12 (eller Vulkan) på något sätt kräver, däremot möjliggörs användandet av detta i DX12/Vulkan. Misstaget man gjorde i Ashes of the Singlular var att alltid använda async-shader, finns ingen poäng att använda det på Maxwell då det som sagt är en väldigt robust design där man väldigt enkelt får ut kraft som finns (senaste jag sett från AotS är att 970 nu är snabbare än 390, 970 kör utan async-shader medan 390 använder detta). Async-shaders påminner mycket om Hyperthreading/SMT, det är en bra teknik i de fall beräkningsenheterna inte kan utnyttjas fullt ut med endast en CPU-tråd. Har man däremot en design som är kapabel till att använda beräkningsenheter utan SMT så är SMT i de flesta fall meningslöst.

Så async-shaders hade varit bra för Kepler, det är bra för GCN då båda dessa designer i normalfallet inte får ut max av sin teoretiska kapacitet. I Maxwell är det i bästa fall meningslöst, i värsta fall försämras prestanda, då kretsen har så mycket egen logik för att sprida ut de jobb som faktiskt finns över tillgänglig kapacitet.

Kommer Pascal ha async-shaders? Det utgår jag från då det är enklare att designa en krets om man slipper lägga massor med transistorer på logik för distribuering av jobb över tillgängliga resurser. Det kommer dock inte påverka Maxwell negativ mer än att Pascal kommer rimligen ha långt mer beräkningskapacitet så i något läge kommer spelen bli för krävande för att köras på Maxwell.

Kepler tappar mot både Maxwell och GCN helt enkelt för tekniken i spel går mot tekniker Kepler hanterar mindre effektivt än de andra två. Just nu ser det knappast ut som att Maxwell tappar mot GCN, det är snarare tvärt om, spel går mot tekniker som GCN hanterar mindre effektiv än Maxwell. Men åter igen, svårt att säga vad som händer i framtiden.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Ratatosk:

Går i alla fall framåt, kommer nog att köpa Fallout 4 en vacker dag.

Ingen idé att köpa ett Elder scrolls/fallout spel förrän communityn har fixat en del buggar och det har dykt upp tillräckligt många modds som man är intresserad av.

Permalänk
Medlem
Skrivet av Yoshman:

@Paddanx: alltså jag håller med dig i teorin, om allt blev öppet skulle det vara trevligast för oss kunder. Men verkligheten ser tyvärr inte ut så.

Är trevligt att du iaf har lite hopp, och tror på teorin. Men det är faktiskt vi konsumenter som bestämmer... inte företagen.
När du väljer vad du ska köpa så väljer du också vilken "teori" du vill ska stämma. Kan vara värt en tanke vid nästa köp.... Intel som nu tvångsmässigt låser CPUerna igen, och Nvidia som gör vad de gör med alla stängda tekniker. Kanske är värt en liten uppoffring för ditt eget bruk, för att göra det hela till det bättre

Skrivet av Yoshman:

GPUOpen har så här långt en enda pryl, det lär inte räcka långt. Visst kan man tycka att Nvidia kan hugga in, men vilket är incitamentet för dem att t.ex. donera Gameworks dit? Vad man då i praktiken gjort är att finansiera AMDs FoU, knappast något som Nvidias ägare har det minsta intresse av.

Självklart, det är ju helt nytt. Men iden är precis som Gameworks, men den är på rätt teori.

Skrivet av Yoshman:

Är fortfarande få som begriper vad AMD fick ut av Mantle, är ju inte så att man själva var med och utvecklade DX12 sedan 2012 ungefär, så man visste ju vad som var på väg. Och i praktiken erbjöd Mantle inget som inte redan fanns, inte ens på AMDs kort var Mantle alltid ett steg framåt över DX11.

Såvida du inte jobbar för Microsoft eller AMD så kan det mesta vi kan göra är spekulera när Mantle eller DX12 började jobbas på. Microsoft visade iaf inga tecken på att ens bry sig förrän Mantle kom ut från ritbordet. Och med tanke på GCN designen var grunden till hela Mantle projektet så tvivlar jag på att AMD inte började jobba på dem ungefär samtidigt, vilket skulle innebära redan 2011, då 7000 serien släpptes slutet på 2011. Sen att de är med och utvecklar DX12 är lite som att Microsoft nu är med och utvecklar Vulkan i Khronos group, eller att Nvidia är med och utvecklar Vulkan

Sen håller jag med dig att Mantle i dess tidiga grund inte alltid var bättre än DX11, men du jämför då ett API som är nytt, halvt optimerat med omskriven kod till spelmotorerna, vs ett API som har optimerats i många, många år.

Tittar man på DX12/Vulkan designade spel från grunden så verkar där vara mycket att hämta, och DX11 kommer troligen att bli vad DX9 är idag.. en enkel grund för att testa. Blir kul att se vad de kan åstadkomma och verkligen lyckas få ut mer kraft ur vår hårdvara.

Skrivet av Yoshman:

HSA används inte i PS4/XBO, de stödjer inte vissa saker som krävs för HSA t.ex. att minnet är koherent mellan CPU och GPU samt att GPUn använder virtuella adresser och inte fysiska. Som jag förstått det är det endast de senaste APUerna som stödjer HSA 1.0.

Hmm, jag vet jag hade läst att de använde det. Just eftersom de delade RAM och resurser. Men jag tvivlar inte på din kunskap om teknik i teoretiska sammanhang.

Skrivet av Yoshman:

Async-shaders är inte något som DX12 (eller Vulkan) på något sätt kräver, däremot möjliggörs användandet av detta i DX12/Vulkan. Misstaget man gjorde i Ashes of the Singlular var att alltid använda async-shader, finns ingen poäng att använda det på Maxwell då det som sagt är en väldigt robust design där man väldigt enkelt får ut kraft som finns (senaste jag sett från AotS är att 970 nu är snabbare än 390, 970 kör utan async-shader medan 390 använder detta). Async-shaders påminner mycket om Hyperthreading/SMT, det är en bra teknik i de fall beräkningsenheterna inte kan utnyttjas fullt ut med endast en CPU-tråd. Har man däremot en design som är kapabel till att använda beräkningsenheter utan SMT så är SMT i de flesta fall meningslöst.

Varför är detta ett misstag. Misstaget verkar mer vara att man börjar sätta begränsningar på hur man nu ska designa saker ingen.. ala DX11. Sen att de nu gjort en version utan Async-compute är ju bra, men du jämför en "standardiserat sätt" i DX12 att göra en beräkning, vs att optimera för "just" 900-serien och Maxwell. Nu är vi där med optimeringar igen, och man frågar sig då... hur skiljer sig detta mellan att optimera för Fury X eller AMD och deras tesselerings kapacitet? Ska vi hålla på och optimera varje del och nivå, eller ska de som du själv sa... aktivera allt funktioner de vill och sen får man anpassa sig därefter.

Skrivet av Yoshman:

Så async-shaders hade varit bra för Kepler, det är bra för GCN då båda dessa designer i normalfallet inte får ut max av sin teoretiska kapacitet. I Maxwell är det i bästa fall meningslöst, i värsta fall försämras prestanda, då kretsen har så mycket egen logik för att sprida ut de jobb som faktiskt finns över tillgänglig kapacitet.

Yep... Kretsen är extemt DX11 optimerad, vilket tyvärr verkar göra den väldigt anti DX12 optimerad. DX12 är dock framtiden... så varför ska ett DX12 spel optimera för DX11 kort? Tror mer att Nvidia behöver stänga av den logiken om de ska få ett bättre DX12 stöd. Sen om de har den kvar för DX11 är dock bara positivt.

Skrivet av Yoshman:

Kommer Pascal ha async-shaders? Det utgår jag från då det är enklare att designa en krets om man slipper lägga massor med transistorer på logik för distribuering av jobb över tillgängliga resurser. Det kommer dock inte påverka Maxwell negativ mer än att Pascal kommer rimligen ha långt mer beräkningskapacitet så i något läge kommer spelen bli för krävande för att köras på Maxwell.

Mjo, det kommer det ju. Du sa det själv ovan.
"...finns ingen poäng att använda det på Maxwell då det som sagt är en väldigt robust design där man väldigt enkelt får ut kraft som finns (senaste jag sett från AotS är att 970 nu är snabbare än 390, 970 kör utan async-shader medan 390 använder detta)."

Mao, alla spel som kommer köra async beräkningar kommer behöva special optimeras för Maxwell, eller så kommer den lida i prestanda.
Så om nu alla kort, utom just Maxwell kommer ha det.. hur framtidsäkrat tror du dessa kort är?

Sen om pascal springer om dem eller inte är ju inte relevant för de som idag tex sitter på ett 980 ti och tänkte behålla kortet, eller?

Skrivet av Yoshman:

Kepler tappar mot både Maxwell och GCN helt enkelt för tekniken i spel går mot tekniker Kepler hanterar mindre effektivt än de andra två. Just nu ser det knappast ut som att Maxwell tappar mot GCN, det är snarare tvärt om, spel går mot tekniker som GCN hanterar mindre effektiv än Maxwell. Men åter igen, svårt att säga vad som händer i framtiden.

Det du bör ta i åtanke är dock tex vad HBAO+ gjort med Keplers prestanda. Strunta i AMD för 2 sekunder och jämför Nvidia med Nvidia. Visst har du rätt i vad du säger att vi går mot tekniker som äldre kort hanterar mindre effektivt, men största förlorarna är Nvidia Kepler kunder, inte AMD... och har varit så tidigare också med Fermi också, där deras näst senaste generation lämnas långt efter. Och jag har som sagt satt "1 krona" (symbolisk krona för att det inte ska handla om pengar i sig, utan ett vad), på att Maxwell kommer nå samma öde om 1-2 år när Pascal kommer.

AMD dock kommer inte tappa så illa, utan om något är de DX12 säkrade långt bak. Sen självklart kan framtida optimeringar göra nya kort mer effektiva, men man kommer bokstavlig talat kunna köra tex AMDs 7970/290/390 kort tills de går sönder, istället för när de blir föråldrade för en ny generation är här som gör de gamla värdelösa.

Permalänk
Hjälpsam

AoS använder inte alltid Async Shaders, det använder AS för AMD men inte för Nvidia.
Nvidia ville inte att AoS skulle använda AS för AMD, men Oxide vägrade ta bort stödet.
"Basically, the Ashes of the Singularity benchmark utilizes Asynchronous Shaders in DirectX 12, but they disable it (by Vendor ID) for NVIDIA hardware."
http://www.pcper.com/reviews/Editorial/Hot-Topic-Asynchronous...

Påminner lite om när stödet för dX10.1 togs bort för Assasins Cred, inget som påverkade Nvidia, men ansågs vara för bra för AMD.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare

@Paddanx: Både Intel och Nvidia har lite halvofficiellt antytt att man jobbat ihop med Microsoft kring DX12 sedan strax innan Windows 8 lanserades. Rimligen var även AMD med i dessa samtal också.

Angående Nvidia och äldre kort, Fermi är ju klart svagare än Kepler på grafik så att dessa kort "lämnades åt sitt öde" är ju inte tekniskt korrekt, kortet är bra för klena att hantera moderna spel vilket är precis det öde alla äldre kort fick på ganska kort tid ända fram till 28 nm. Du hittar problem där de inte finns.

Vad det gäller Kepler är det helt enkelt en dålig krets givet riktningen spelutvecklingen tog, inte mer med det. Testa att köra äldre spel, relativ prestanda mellan Kepler och Maxwell kommer vara i stort sett identisk vare sig du kör med Kepler-drivare från när Maxwell lanserades eller med dagen drivare -> man har inte på något sätt försämrat för Kepler-ägare. Har både ett 750M och ett 860M, redan från start gick det inte att ta mist på hur brutalt mycket bättre Maxwell är jämfört med Kepler. I teorin skiljer det ungefär 30% mellan dessa kretsar, i praktiken är 860M dubbelt så snabbt.

Både Maxwell och GCN kommer hamna i dammet av kommande GPUer då vi får en nodkrympning. Grafik skalar väldigt nära linjärt med antal "kärnor" så 14 nm kommer tillåta ungefär dubbelt så många kärnor som dagens modeller vid en viss kretsstorlek. Är själv nöjd om mitt 970 inte är totalt obsolete i slutet av detta år, men räknar med att ett nytt kort måste inhandlas under 2017.

Är däremot hyfsat säker på att Maxwell kommer klara sig relativt sett bäst av dagens GPU, helt enkelt därför att det verkar vara en krets som effektivt hanterar kod som inte är specifikt optimerad för kretsen. Tror också att DX12/Vulkan möjlighet till fler "draw-calls" kommer leda till rejält ökad geometrikompexitet i spel.

Edit: och angående Kepler och HBAO+, vad anser du att alternativtet skulle vara, inte utveckla tekniken? Har man Kepler så är HBAO+ en dålig idé då kretsen hanterar "compute" dålig, lösningen är trivial: slå inte på HBAO+.

Samma sak gäller om man t.ex. har 960, den kretsen har inte speciellt mycket bandbredd så man ska nog fundera både en och två gånger innan man använder sig av MSAA, framförallt på lite högre nivå. Men här kan man ändå säga att det går "960 ägarnas väg" då den riktig renderingstekniken i spel går mot gör MSAA allt mer problematisk, bandbredd är inte ett problem när man använder tekniker som FXAA, TXAA och SMAA vilket är vad som fungerar bra i "deferred-rendering" motorer (vilket snart är alla större spel).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer