Nvidia använder gamla knep för att förbättra grafikprestandan i Maxwell och Pascal

Permalänk
Medlem
Skrivet av Swedman18:

De vill väl inte offentliggöra det här för allt är väl under copyright

Vad menar du med copyright? Patent? I så fall är väl inte det något hemligt. Detta verkar ju dessutom vara något som använts tidigare och i vissa fall används fortfarande.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av Swedman18:

De vill väl inte offentliggöra det här för allt är väl under copyright

Företagshemlighet. Om det vara ett patent (som du inkorrekt kallar för copyright) så skulle det här vara känt flera år sedan.

Nackdelen med patent är att man offentliggör all information. Håller man det som en hemlighet däremot så slipper man offentliggöra informationen, men dock riskerar man att någon annan knycker receptet när de på eget sätt upptäcker det. Coca-Cola är ett praktexempel på detta.

Visa signatur

Gamingrig | Intel Core i7-6700K @ 4.2 GHz | Nvidia GeForce GTX 980 Ti | ASUS ROG Maximus VIII Formula | 16GB 2133MHz HyperX DDR4 | SSD: Samsung 850 Pro 512GB + Intel 535 480GB + Samsung 840 Pro 256GB | HDD: 2x WD Black 2TB + 2x WD Green 4TB | Creative Sound Blaster ZxR+Sennheiser HD650 | Corsair RM1000 | Corsair H100i V2 | Phanteks P400S Tempered glass | Asus ROG Swift 1440p 165Hz + Asus 1440p PLS | Retina Macbook Pro | i7-3820QM | 8GB RAM | MS Surface Pro 3&4 | Intel i5 | 8GB RAM | 256GB SSD |

Permalänk
Datavetare

Detta förklarar en del saker i Maxwell...

Angående några frågor i tråden om detta påverkar bildkvalitén. Går inte att säga med 100 % säkerhet, men till skillnad från en "ren" tile-based render som PowerVR en gång hade så använder Maxwell/Pascal fortfarande en traditionell z-buffer medan PowerVR inte hade det i sin Kryo. Z-buffer är en av de mest bandbreddskrävande delarna i en grafikpipeline. Majoriteten av alla renderingsproblem introducerades här då DX/OpenGL båda förutsätter att det finns en z-buffer, man fick göra väldigt mycket "magi" i drivers för att ge en illusion av det faktiskt fanns en traditionell z-buffer.

Har varit väldigt svårt att förstå hur Nvidia kan använda så pass smal VRAM-buss utan att för den delen bli bandbreddsbegränsade. Att köra tile-based på det steg som normalt äter mest bandbredd, rastrering, är därför ett genidrag då en "tillräckligt" liten tile kommer resultera i väldigt hög hit-rate i L2-cachen vilket då rejält minskar bandbreddskravet. Detta förklarar också hur man effekten kunde minskas så mycket i Maxwell, nästan alla mobila GPUer använder denna teknik just för att de har ont om bandbredd och läsa/skriva RAM kostar rejält mycket mer ström jämfört mot att läsa/skriva mot on-chip cache.

Den uppenbara nackdelen med tekniken är att Nvidia behöver lägga rätt mycket jobb på drivers, det även i DX12 och Vulkan, för att upprätthålla illusionen av att man har en traditionell "immediate mode renderer".

Kan också förklara varför Nvidia inte har någon brådska alls med att pusha "async shaders". En av de fördelar ARM framhåller med deras Mali GPU, som bygger på en tile-based design, är att rendering konceptuellt har två faser. Först en där man jobbar i 3D-space (world-space) där vertex-shaders, geometry-shaders och hull-shaders hanteras. Utdata från detta är trianglar som projiceras till 2D-space (screen-space), på detta kör man sedan fragment-shaders (pixel-shaders) för att generera det som faktiskt visas på skärmen.

Vad man nu kan göra är att överlagra exekvering av det första steget för scen N+1 med det andra steget för scen N, effekten är väldigt snarlik den man får via "async shaders" fast det går att göra utan det explicita stöd DX12 och Vulkan har. Detta kan mycket väl förklara varför Nvidia lyckas hålla så väldigt mycket högre faktiskt prestanda kontra shader-kapacitet kvot i Maxwell/Pascal jämfört med Kepler och GCN.

Ändå lite ironiskt att det är Nvidia som är först med denna teknik på PC då detta absolut är något som Intel och AMD skulle tjäna väldigt mycket på att ha i sina iGPUer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av XFTality:

Företagshemlighet. Om det vara ett patent (som du inkorrekt kallar för copyright) så skulle det här vara känt flera år sedan.

Nackdelen med patent är att man offentliggör all information. Håller man det som en hemlighet däremot så slipper man det hela, men dock riskerar man att någon annan knycker receptet när de på eget sätt upptäcker det. Coca-Cola är ett praktexempel på detta.

Nvidia håller flera patent som nämner "tile", t.ex. US6697063 och US9224227. Så de har nog patentera den metod man använder i Maxwell/Pascal, men kan ju finnas andra metoder för att uppnå samma eller liknade effekt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Detta förklarar en del saker i Maxwell...

Angående några frågor i tråden om detta påverkar bildkvalitén. Går inte att säga med 100 % säkerhet, men till skillnad från en "ren" tile-based render som PowerVR en gång hade så använder Maxwell/Pascal fortfarande en traditionell z-buffer medan PowerVR inte hade det i sin Kryo. Z-buffer är en av de mest bandbreddskrävande delarna i en grafikpipeline. Majoriteten av alla renderingsproblem introducerades här då DX/OpenGL båda förutsätter att det finns en z-buffer, man fick göra väldigt mycket "magi" i drivers för att ge en illusion av det faktiskt fanns en traditionell z-buffer.

Har varit väldigt svårt att förstå hur Nvidia kan använda så pass smal VRAM-buss utan att för den delen bli bandbreddsbegränsade. Att köra tile-based på det steg som normalt äter mest bandbredd, rastrering, är därför ett genidrag då en "tillräckligt" liten tile kommer resultera i väldigt hög hit-rate i L2-cachen vilket då rejält minskar bandbreddskravet. Detta förklarar också hur man effekten kunde minskas så mycket i Maxwell, nästan alla mobila GPUer använder denna teknik just för att de har ont om bandbredd och läsa/skriva RAM kostar rejält mycket mer ström jämfört mot att läsa/skriva mot on-chip cache.

Den uppenbara nackdelen med tekniken är att Nvidia behöver lägga rätt mycket jobb på drivers, det även i DX12 och Vulkan, för att upprätthålla illusionen av att man har en traditionell "immediate mode renderer".

Kan också förklara varför Nvidia inte har någon brådska alls med att pusha "async shaders". En av de fördelar ARM framhåller med deras Mali GPU, som bygger på en tile-based design, är att rendering konceptuellt har två faser. Först en där man jobbar i 3D-space (world-space) där vertex-shaders, geometry-shaders och hull-shaders hanteras. Utdata från detta är trianglar som projiceras till 2D-space (screen-space), på detta kör man sedan fragment-shaders (pixel-shaders) för att generera det som faktiskt visas på skärmen.

Vad man nu kan göra är att överlagra exekvering av det första steget för scen N+1 med det andra steget för scen N, effekten är väldigt snarlik den man får via "async shaders" fast det går att göra utan det explicita stöd DX12 och Vulkan har. Detta kan mycket väl förklara varför Nvidia lyckas hålla så väldigt mycket högre faktiskt prestanda kontra shader-kapacitet kvot i Maxwell/Pascal jämfört med Kepler och GCN.

Ändå lite ironiskt att det är Nvidia som är först med denna teknik på PC då detta absolut är något som Intel och AMD skulle tjäna väldigt mycket på att ha i sina iGPUer.

Fan vad du kan saker, har du levt på Stephen Hawking-dropp?

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem

@Yoshman: Betyder detta bara bra saker förutom att nvidia måste slita med drivers eller kommer detta påverka negativt emot vad amd gör i DX12 i framtiden?

Permalänk
Medlem

Alltid tänkt hur ? 6gb på 192-bit buss .256 bit buss på 8gb .Glömmer aldrig på 680 4gb förlorade en hel del prestanda kontra 2 gb modellen .Smart

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Datavetare
Skrivet av xdrive:

@Yoshman: Betyder detta bara bra saker förutom att nvidia måste slita med drivers eller kommer detta påverka negativt emot vad amd gör i DX12 i framtiden?

När jag läste lite kommentarer kring denna nyhet, främst på Real World Tech och AnandTech, så var det folk som nämnde att DX12 och Vulkan är designande på ett sätt som inte borde ställa till med några problem för GPUer som använder tile-based rendering. Framförallt Vulkan är ju specifikt designad med mobil GPUer i åtanke, så där lär det fungera bra.

Så beror lite på vad man definierar som "bra". Om det jag spånar om stämmer så blir en uppenbar konsekvens att Pascal inte kommer se speciellt stor vinst från "async compute" då eventuell vinst i prestanda från detta kommer av att man kan bättre kan fylla beräkningsenheterna med arbete. Pascal (och även Maxwell där "async compute" numera är avslaget i drivers då den saknar "dynamic load balancing") har helt enkelt redan funnit ett annat sätt att fylla beräkningsenheterna med arbete som inte kräver att spelet gör något explicit. Detta har vi redan sett indikationer på i t.ex. Time Spy, Pascal får ett visst lyft av "async shaders", men det är <= 5 % (högst för 1080, lär bli marginellt högre för Titan X då den har fler CUDA-kärnor). Som referens ser GCN upp mot 15 % vinst i Time Spy från "async shaders" (är främst Fury-korten som vinner mycket).

Skulle ändå inte kalla det en nackdel på något sätt.

Om man däremot lyfter blicken ett steg till och börjar jämföra kapacitet mellan t.ex. RX 480 och GTX 1060 samt har ovan i åtanke så är det uppenbart att 1060 idag presterar betydligt närmare sin kapacitet än 480. En möjlighet är då att spel lurar ut något sätt att använda DX12/Vulkan så att 480 kommer betydligt närmare sin kapacitet. Då kapaciteten är högre för 480 jämfört med 1060 är den uppenbara konsekvensen att 480 kommer dra ifrån i prestanda. Dock långt ifrån säkert att det kommer hända i praktiken. Dels kan det vara för komplicerat, d.v.s det blir för dyrt. Dels kan det finnas andra flaskhalsar som hindrar att man får ut speciellt mycket mer än idag. Men det är att sia om framtiden, vilket alltid är en mer eller mindre kvalificerad gissning.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman: okidoki, tack för svar, kan köpa gtx 1080 utan att vara allt för orolig då

Permalänk
Medlem
Skrivet av Yoshman:

Intressant nördläsning................

  1. Hur gammal är du Yoshman?

  2. Vad jobbar du med Yoshman?

  3. Vem är du Yoshman

Kom igen nu..----..Lite kan du släppa på trycket

Nyfiken bara ;)
Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem

Detta är inte TBDR som PowerVR kört sedan mitten av 90-talet utan TBIM, alltså fortfarande (tile-baserad) immediate mode rendering. Samma som finns i ARM Mali och Qualcomm Adreno (Adreno kan växla mellan IMR och TBIM) medan Vivante beskrivs som IMR trotts att de faktiskt rasteriserar tiles.

Här ska man nog tänka på att Nvidia har haft TBIM/TBIMR i Tegra (oavsett vilken gpu-arkitektur det gäller) hela tiden, så det hela är inget nytt för Nvidia. Intressant att de tog över det till desktop-korten utan att nämna det däremot. I princip måste de haft det i hårdvara även innan Maxwell. Åtminstone så hade de hårdvara för det i Tegra-varianten av Kepler.

Permalänk
Medlem
Skrivet av skog1s:
  1. Hur gammal är du Yoshman?

  2. Vad jobbar du med Yoshman?

  3. Vem är du Yoshman

Kom igen nu..----..Lite kan du släppa på trycket

Kunskap har han så det räcker och blir över i alla fall.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Kunskap har han så det räcker och blir över i alla fall.

Exakt, snubben kan sin sak in och ut. Sen har han skrivit sitt namn på profilen så en lätt googling borde få upp vad han gjort och vad han gör just nu.

Men det är off-topic!

Visa signatur

"Early to bed and early to rise, makes a man healthy, wealthy and wise."

Permalänk
Datavetare
Skrivet av skog1s:
  1. Hur gammal är du Yoshman?

  2. Vad jobbar du med Yoshman?

  3. Vem är du Yoshman

Kom igen nu..----..Lite kan du släppa på trycket

Tillräckligt gammal för att en gång i tiden skrivit min egen 3D-pipeline, i 68k assembler på en Amiga där saker som flyttal var lyx man inte kunde kosta på sig utan man fick köra med fixed-point matematik

Har skrivit spel en gång i tiden, även med DX men det är länge länge sedan nu, var på DX5/DX6 tiden. Jobbar främst med OS-kärnor idag (specialitet är nätverksdelen), mest på mulicore-ARMar senaste åren.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av kanto64:

Exakt, snubben kan sin sak in och ut. Sen har han skrivit sitt namn på profilen så en lätt googling borde få upp vad han gjort och vad han gör just nu.

Men det är väl inte lika roligt att googla, som att få ett personligt svar. Eller ?
Sen har alla "snubbar" med karaktär sitt namn på profilen här, oavsett yrke
Det är lite pondus tycker jag, att inte vara "osynlig" men det är vad jag tycker.
Vad tycker du?

Skrivet av Yoshman:

Tillräckligt gammal för att en gång i tiden skrivit min egen 3D-pipeline, i 68k assembler på en Amiga där saker som flyttal var lyx man inte kunde kosta på sig utan man fick köra med fixed-point matematik

Har skrivit spel en gång i tiden, även med DX men det är länge länge sedan nu, var på DX5/DX6 tiden. Jobbar främst med OS-kärnor idag (specialitet är nätverksdelen), mest på mulicore-ARMar senaste åren.

Intressant och stort tack för svar!

Jag gissar på att du är född 60+ talist (?)

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk

Jag äger fortfarande en gammal Matrox m3D (andra generationens powerVR) med TBR.

Minns att det brukade talas om att dessa kretsar skulle ha hög potential men att det krävdes mer CPU-kraft än tex 3DFX-kretsarna, men att det skulle skala bättre i proportion till just CPU-kraften. Det brukade även nämnas att TBR hade bra förutsättningar för lång drawing distance, och att vissa spel därför ej hade stöd för andra kort än just TBR-korten (tror det var ett av dom tidiga elder scrolls spelen, samt nått sniper FPS-spel).

Just det där med att det är mer processorkrävande har dom kanske gått runt på nått sätt. Kanske sattit in såna resurser direkt på grafikkortet.

PS. En kul detalj förresten... För drygt 20 år sedan släppte nVidia en krets som hette NV1, som använde "quadratic texture mapping", vilket inte var speciellt DirectX/Direct3D kompatibelt (iaf inte native):
https://en.wikipedia.org/wiki/NV1

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk

Ja detta fick ju sista pusselbiten på plats.

Ja Nvidia tog stort kliv ifrån 700 till 900 serien. Så dels skala av kretsen på onödigt, samt liten minnetsbus (sen Tile-Based Rasterization).

Om något bevisar ju det deras enorma R&D budget.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Ja detta fick ju sista pusselbiten på plats.

Ja Nvidia tog stort kliv ifrån 700 till 900 serien. Så dels skala av kretsen på onödigt, samt liten minnetsbus (sen Tile-Based Rasterization).

Om något bevisar ju det deras enorma R&D budget.

Nvidia körde redan TBIM på Tegra sedan tidigare. Även på Kepler.

ATI/AMD körde TBIM på Z430 och Imageon-GPUerna som Qualcomm köpte upp. Den affären gjordes upp 2008 men stängde 1 jan 2009. Qualcomm är inte de enda som använde Z430.

Detta handlar som sagt inte om deferred rendering som PowerVR kör sedan 1996.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Började fundera på om bildkvalitén på något vis kunde bli lidande eller liknande. Har du koll på ifall detta är på hårdvarunivå eller om det finns möjlighet att AMD kommer kunna använda sig av detta i sina drivrutiner nu när dom sett hur effektivt det funkat?

Tvivlar på att det skulle skilja sig i kvalitet.
Frames renderas typiskt i en backbuffer, och swappas till frambuffern när den är klar (eller så väntar den på att v-sync/g-sync/n-sync säger att det är ok att swappa.) I det läget är den färdigrenderad. Så det här är alltså inget som sker på skärmen.

Permalänk
Medlem

Detta kan ju definitivt förklara också varför de måste optimera korten för varje spel så hårt.
Sen om detta är bara bra eller inte är väl en sak att diskutera. Om Nvidia lyckats göra detta utan att kompromissa på bildkvalité eller annat, så är det väl bra gjort, utan tvekan.

Största frågan är väl hur väl detta kan anpassas till DX12/Vulkan... om det går bra så borde väl de se en boost tycker man...

Permalänk
Medlem
Skrivet av Paddanx:

Detta kan ju definitivt förklara också varför de måste optimera korten för varje spel så hårt.
Sen om detta är bara bra eller inte är väl en sak att diskutera. Om Nvidia lyckats göra detta utan att kompromissa på bildkvalité eller annat, så är det väl bra gjort, utan tvekan.

Måste dom? Visst, dom brukar släppa game ready drivare när det kommer en ny stortitel men..

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Måste dom? Visst, dom brukar släppa game ready drivare när det kommer en ny stortitel men..

Nvidia användare måste ju tom ibland hoppa mellan olika drivare för att få vissa spel att fungera. Där ena drivaren fungerar bra i ena, men sämre i andra. Det kommer ju förr eller senare en som fungerar med båda, men kolla i forum runt om i världen så ser du hur mycket trixande det är med detta.

AMD däremot kan köra stengamla (1år+) drivare i de flesta moderna spel, och allt fungerar som det ska, även om så klart nyare drivare optimerar lite extra. Det finns självklart undantag, men de är verkligen få till antalet jämfört. Därför får jag inte panik över om AMD inte släpper en ny drivare varje månad

Permalänk
Medlem
Skrivet av Paddanx:

Nvidia användare måste ju tom ibland hoppa mellan olika drivare för att få vissa spel att fungera. Där ena drivaren fungerar bra i ena, men sämre i andra. Det kommer ju förr eller senare en som fungerar med båda, men kolla i forum runt om i världen så ser du hur mycket trixande det är med detta.

AMD däremot kan köra stengamla (1år+) drivare i de flesta moderna spel, och allt fungerar som det ska, även om så klart nyare drivare optimerar lite extra. Det finns självklart undantag, men de är verkligen få till antalet jämfört. Därför får jag inte panik över om AMD inte släpper en ny drivare varje månad

Har aldrig varit med om det själv men kan så klart vara en utav de lyckligt lottade.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av Paddanx:

Nvidia användare måste ju tom ibland hoppa mellan olika drivare för att få vissa spel att fungera. Där ena drivaren fungerar bra i ena, men sämre i andra. Det kommer ju förr eller senare en som fungerar med båda, men kolla i forum runt om i världen så ser du hur mycket trixande det är med detta.

AMD däremot kan köra stengamla (1år+) drivare i de flesta moderna spel, och allt fungerar som det ska, även om så klart nyare drivare optimerar lite extra. Det finns självklart undantag, men de är verkligen få till antalet jämfört. Därför får jag inte panik över om AMD inte släpper en ny drivare varje månad

Själv upplevde jag det motsatta när jag satt med AMD kort, ena spelet fick man köra nya drivisar, ett annat äldre.

Permalänk
Medlem
Skrivet av Blitz86:

Själv upplevde jag det motsatta när jag satt med AMD kort, ena spelet fick man köra nya drivisar, ett annat äldre.

Jag vet hur ofta jag har behövt hjälpa vännerna med deras 970, 780 och 980Ti iaf vs mina 290x och 7970. Men det kan mycket väl ha varit värre för AMD förr.

Enda problem jag vet jag hade var 290 kort som hade problem i Fallout 4 med kompassen. Men i övrigt har jag inte behövt uppdatera drivare ofta för att allt ska fungera.

Permalänk
Medlem
Skrivet av Paddanx:

Nvidia användare måste ju tom ibland hoppa mellan olika drivare för att få vissa spel att fungera. Där ena drivaren fungerar bra i ena, men sämre i andra. Det kommer ju förr eller senare en som fungerar med båda, men kolla i forum runt om i världen så ser du hur mycket trixande det är med detta.

AMD däremot kan köra stengamla (1år+) drivare i de flesta moderna spel, och allt fungerar som det ska, även om så klart nyare drivare optimerar lite extra. Det finns självklart undantag, men de är verkligen få till antalet jämfört. Därför får jag inte panik över om AMD inte släpper en ny drivare varje månad

Upplevde det någon gång när jag körde SLI att stödet för det kunde stängas av från en drivrutin till en annan. Och då menar jag hård-stängas av, dvs att modda dit sin egen SLI profil inte ens fungerade. Annars.. meh. Struntar ibland i att så fort som möjligt få på game-ready drivrutiner då jag i Batman och ROTR mätte fps skillnad mellan före och efter och fann den vara rätt minimal (3-4 fps i 1440p).

Var inte allt för länge sedan jag också hade en rigg med AMD kort och upplever det som detsamma där. Att ibland är det bättre att bara vänta med nästa drivrutinsuppdatering tills man faktiskt har problem med någon titel.

Speciellt eftersom båda lagen någon gång per år verkar råka missa kvalitetskontroll och lansera en drivrutin som gör mer skada än nytta.

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Medlem
Skrivet av XFTality:

Företagshemlighet. Om det vara ett patent (som du inkorrekt kallar för copyright) så skulle det här vara känt flera år sedan.

Nackdelen med patent är att man offentliggör all information. Håller man det som en hemlighet däremot så slipper man offentliggöra informationen, men dock riskerar man att någon annan knycker receptet när de på eget sätt upptäcker det. Coca-Cola är ett praktexempel på detta.

Nja, hade det inte varit patentskyddat hade AMD troligtvis använt samma teknik, om givet att fördelarna väger upp det. Eller du kanske inte tror att AMD köper alla Nvidias grafikkort och dissikerar dessa grundligt?

Permalänk
Medlem
Skrivet av Efta:

Nja, hade det inte varit patentskyddat hade AMD troligtvis använt samma teknik, om givet att fördelarna väger upp det. Eller du kanske inte tror att AMD köper alla Nvidias grafikkort och dissikerar dessa grundligt?

Vad är folks problem? AMD har tidigare använt TBIM hos bland annat Z430/Z460 som Qualcomm köpte upp, att de skulle sålt av intellektuell egendom på sådant sett att de förlorar rätt att använda tiled-based immediate mode rendering låter osannolikt. De sitter troligen på ett gäng patent för detta de också. Ett patent täcker inte upp alla tänkbara sätt att implementera något så att Nvidia har patent stoppar inte någon. ATI släppte en GPU med TBIM 2006, så ATI (nu AMD) bör ha patent de sökt innan dess. BitBoys som köptes upp av ATI bör ha gjort något liknande också. AMD har massor annan teknik för att så mycket som möjligt ska ske mot cache "on chip" de också för övrigt. Man vill inte gå ut till minne om man kan undvika eller använda onödigt mycket bandbredd. Det gäller oavsett vilken filosofi man följer.

Permalänk
Medlem
Skrivet av Petterk:

Vad är folks problem? AMD har tidigare använt TBIM hos bland annat Z430/Z460 som Qualcomm köpte upp, att de skulle sålt av intellektuell egendom på sådant sett att de förlorar rätt att använda tiled-based immediate mode rendering låter osannolikt. De sitter troligen på ett gäng patent för detta de också. Ett patent täcker inte upp alla tänkbara sätt att implementera något så att Nvidia har patent stoppar inte någon. ATI släppte en GPU med TBIM 2006, så ATI (nu AMD) bör ha patent de sökt innan dess. BitBoys som köptes upp av ATI bör ha gjort något liknande också. AMD har massor annan teknik för att så mycket som möjligt ska ske mot cache "on chip" de också för övrigt. Man vill inte gå ut till minne om man kan undvika eller använda onödigt mycket bandbredd. Det gäller oavsett vilken filosofi man följer.

Har inte alls samma nivå av kunskap som du om tekniken, men om Nvidia hade kommit på ett sätt att drastiskt öka prestandan och energieffektiviteten i sina kort och inte patenterat den, hade AMD använt det.

Det handlar självklart inte om själva TBIM tekniken i sig, då det inte hade gått att patentera detta. Specifik mjuk- och hårdvara däremot, går att patentera, och det var det som var mitt argument. Det vill säga, att det är ytterst svårt att använda sig av sk. trade secrets i dagens teknikvärld.

Permalänk
Medlem

Nu har nog folk missat att TBIM i Maxwell inte verkar stå för någon större ökning. Redan Kepler utan TBIM var bättre på att nyttja mer av den teoretiska prestandan än vad GCN är. Det finns inget magiskt med patent. Troligen inkräktar Nvidia dessutom på AMDs patent i fallet redan. Det finns inget som säger att du måste kopiera Nvidia, TBIM från Qualcomm och ARM visar samma fördelar och IP för det hela har säkert stannat kvar inom AMD. Kretsdesignen i sig är i princip omöjlig att kopiera med bilder från elektronmikroskop idag och kretsdesign är dessutom skyddad under en egen lag. Företagshemligheter vill du knappast stjäla, se hur det gick för de Taiwanesiska kondensatortillverkarna. Detta är dessutom så pass avancerat och implementationsspecifikt att du ändå vill utveckla din egna variant, och där det går snabbare att jobba med en egen variant än att försöka få in någon annans i din design.