AMD Radeon kapar cacheminnets latenser varje generation – stiltje hos Nvidia

Permalänk
Melding Plague

AMD Radeon kapar cacheminnets latenser varje generation – stiltje hos Nvidia

Det talas sällan om hur minneshierarkin hos grafikkort presterar, något sajten Chips and cheese börjar att bena ut i ett första test.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Ja Nvidia har ju legat så pass mycket före så de har inte behövt att anstränga sig. Men liksom för Intel så kan lättja bli en strategi som straffar sig. Sen är det nog också pinsamt rent allmänt när sådant här kommer upp till ytan. Vill man ge intrycket att man förbättrar saker ska det ju gärna vara på alla plan. Nu kommer säkert folk undra hur mycket prestanda Nvidia lämnat på bordet.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Moderator
Testpilot
Skrivet av Ozzed:

Ja Nvidia har ju legat så pass mycket före så de har inte behövt att anstränga sig. Men liksom för Intel så kan lättja bli en strategi som straffar sig. Sen är det nog också pinsamt rent allmänt när sådant här kommer upp till ytan. Vill man ge intrycket att man förbättrar saker ska det ju gärna vara på alla plan. Nu kommer säkert folk undra hur mycket prestanda Nvidia lämnat på bordet.

Det kan ju rimligtvis finnas andra förklaringar än lättja.

Spännande att följa upp detta och se mer vad det hittar bland kislen och ostarna.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Ozzed:

Ja Vill man ge intrycket att man förbättrar saker ska det ju gärna vara på alla plan. Nu kommer säkert folk undra hur mycket prestanda Nvidia lämnat på bordet.

Eller så läser man ett prestandatest från verkliga applikationer/spel så behöver man inte gå runt och undra? Tycker allt att antal FPS lämnar det största intrycket, sen kan de ha vad sjutton de vill under skalet.

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Administrativ avgift
Skrivet av talonmas:

Eller så läser man ett prestandatest från verkliga applikationer/spel så behöver man inte gå runt och undra? Tycker allt att antal FPS lämnar det största intrycket, sen kan de ha vad sjutton de vill under skalet.

Hur tänker du nu? Rå FPS enda som spelar roll? Input lag? 165fps kan upplevas väldigt annorlunda beroende på setup.

Visa signatur

Loque Raw s1| 7950x3D | B650-i | 2x16GB DDR5 CL30@6000 | 2TB m.2 | 4090 TUF | Samsung G9 49 | Vive Focus 3

Permalänk
Medlem
Skrivet av andra94:

Hur tänker du nu? Rå FPS enda som spelar roll? Input lag? 165fps kan upplevas väldigt annorlunda beroende på setup.

Möjligen om man har en låg lägsta FPS, fast Nvidia är ju bäst där också.

Permalänk
Medlem
Skrivet av talonmas:

Eller så läser man ett prestandatest från verkliga applikationer/spel så behöver man inte gå runt och undra? Tycker allt att antal FPS lämnar det största intrycket, sen kan de ha vad sjutton de vill under skalet.

Kan ju vara så att lägre latens på cache-minnet leder till högre FPS med. Så hade Nvidia fått ner latensen mer så kanske de presterade ännu bättre

Visa signatur

AMD Athlon XP 2000+(Palomino) | 512MiB DDR333 | Gigabyte GA-7VRXP | Point of View GeForce 4 Ti4200 XP | 2x IBM Deskstar 80GB i Raid 0 | Chieftec Dragon | Win2k |

AMD Ryzen R7 5700X | 16GiB DDR4 3200 CL14 | MSI B450 Tomahawk II | Sapphire RX5700 Pulse | Intel 660p 1TiB | Nanoxia Deep Silence | AOC CQ32G1 144Hz 1440p | Win 10 |

Permalänk
Medlem
Skrivet av lord_dubbdäck:

Kan ju vara så att lägre latens på cache-minnet leder till högre FPS med. Så hade Nvidia fått ner latensen mer så kanske de presterade ännu bättre

Visst, men när man levererar en bättre produkt än motparten så är ju frågan om det är så relevant att leta saker man inte vinner på i syntetiska tester. Ja, AMDs kort drar ungefär jämnt i ren rastreringsprestanda, men de saknar hela CUDApaketet eller motsvarande, har sämre screenrecordingfunktion (sist jag kollade), bommar strålspårning och har ingen DLSSmotsvarighet ute ännu. Det är en intressant förbättringspotential, om en ändring ens ger särskilt mycket där, men som någon postare högre upp som kallar det "lättja" och stagnation är ju lite att ta i när de har haft påtagliga prestandaförbättringar mellan varje generation.

Permalänk

Behöver man inte finjustera latenser för att få placering/position i ledet så får de vara.
AMD känns precis som många gånger för ett typiskt experiment-kort. De var ett himla fipplande med R9-orna, Hawaiieditor och dylikt.
Tydligt att man från AMD's håll petar runt där det finns förbättringsmöjligheter.

Visa signatur

Wasserkühlung::5900X::ASSrock X570 TB3::2x8 Ballistix 3000@3800::6800Nitro+

Vilken leksak>> CH341-biosprogrammerare

Permalänk
Hedersmedlem
Skrivet av andra94:

Hur tänker du nu? Rå FPS enda som spelar roll? Input lag? 165fps kan upplevas väldigt annorlunda beroende på setup.

Jo, fast några nanosekunder minneslatency lär väl inte ha någon meningsfull effekt på input lag?
Kan något med grafikkortet överhuvudtaget påverka input lag så länge som frametimes är lika mellan två olika kort?

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem

Om detta stämmer som det presenteras så följer det egentligen bara AMDs mönster av att göra tekniskt förfinade kort som i slutänden inte blir lika populära p.g.a. eftersatt mjukvaruutveckling.

Titta bara på Radeon VII — hur stor roll spelade deras 16 GB HBM2-minne i slutändan? Ingenting, och nu är det ännu ett i rade[o]n av imponerande, bortglömda AMD-kort.

Permalänk
Medlem
Skrivet av Sveklockarn:

Om detta stämmer som det presenteras så följer det egentligen bara AMDs mönster av att göra tekniskt förfinade kort som i slutänden inte blir lika populära p.g.a. eftersatt mjukvaruutveckling.

Titta bara på Radeon VII — hur stor roll spelade deras 16 GB HBM2-minne i slutändan? Ingenting, och nu är det ännu ett i rade[o]n av imponerande, bortglömda AMD-kort.

Ja det är tragiskt på många sätt.

Men rörande Radeon 7, miners har minsann inte glömt det kortet.

Permalänk
Medlem
Skrivet av andra94:

Hur tänker du nu? Rå FPS enda som spelar roll? Input lag? 165fps kan upplevas väldigt annorlunda beroende på setup.

Jo, fast du har ju lägsta FPS med i alla recensioner också. Eller tycker du att SweClockers recensioner inte är tillräckliga och att man borde lägga till testmoment? För om många upplever som du gör så kan de säkert utöka testerna om du berättar vad som saknas.

Det du beskriver har jag inte hört debatteras sen SLI och crossfire-tiden.

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Administrativ avgift
Skrivet av talonmas:

Jo, fast du har ju lägsta FPS med i alla recensioner också. Eller tycker du att SweClockers recensioner inte är tillräckliga och att man borde lägga till testmoment? För om många upplever som du gör så kan de säkert utöka testerna om du berättar vad som saknas.

Det du beskriver har jag inte hört debatteras sen SLI och crossfire-tiden.

Tror du inte riktigt förstod vad jag menade på samma sätt som skärmar osv har input lag så kan även grafikkort ha en viss latency vid renderingar varvid det har uppkommit på senaste tiden att du ska ligga runt 80% GPU användning för att få minimalt input lag.

https://youtu.be/7CKnJ5ujL_Q?t=471 förklarar problemet i helhet med tester, du kan inte stirra dig blint på en siffra utan det är fler faktorer som spelar roll varvid du har Nvidia Reflex o AMD´s motsvarighet. Du har G-sync o freesync osv osv

Visa signatur

Loque Raw s1| 7950x3D | B650-i | 2x16GB DDR5 CL30@6000 | 2TB m.2 | 4090 TUF | Samsung G9 49 | Vive Focus 3

Permalänk
Quizmaster Göteborg 2022 & 2023

Minneslatens för GPU är inte viktig som för CPUer

Minneslatens för GPU är inte alls samma prioritet som för CPUer.
En CPU har få trådar aktiva och att vänta på minnesåtkomst kostar mycket prestanda.
En GPU har tusentals aktiva processer och vid en cachemiss, så växlar dom bara över till en annan tråd som kan köra.
I en GPU så är varje pixel en aktiv tråd och över en "frame" så har en pixel haft många trådar.
Så för en GPU så är minneslatensen inte så prioriterad, dock så har lång minneslatens en annan effekt att GPU måste ha en större registercache eftersom med längre minneslatens så måste fler trådar vara aktiva för att "gömma" cachemissarna.
Större registercache (olika GPU har olika metoder för detta) kostar ibland latens mot registercachen och det kostar direkt prestanda.

Permalänk
Medlem
Skrivet av andra94:

du ska ligga runt 80% GPU användning för att få minimalt input lag.

https://youtu.be/7CKnJ5ujL_Q?t=471 förklarar problemet i helhet med tester,

22-31 millisekunder kortare input lag i de testerna.

I vilka spel spelar det roll när reaktionstiden hos spelaren ändå är i spannet 200-300 ms?

Permalänk
Medlem
Skrivet av Sveklockarn:

Om detta stämmer som det presenteras så följer det egentligen bara AMDs mönster av att göra tekniskt förfinade kort som i slutänden inte blir lika populära p.g.a. eftersatt mjukvaruutveckling.

Titta bara på Radeon VII — hur stor roll spelade deras 16 GB HBM2-minne i slutändan? Ingenting, och nu är det ännu ett i rade[o]n av imponerande, bortglömda AMD-kort.

Vet inte hur andra upplevt det hela men jag har inga problem alls med radeons "mjukvara" sedan ett par år tillbaka, mitt 6800XT är oerhört stabilt och jag har föredragit catalyst/adrenalin framför geforce experience ungefär ända sedan de kom upp med redesignen som fick namnet geforce experience.

Det som kommit på tapeten nyligen om att nvidia behlver luta sig helt på CPU- prestansa för att kompemsera för en avsaknad av hårdvaruscheduler tycker jag tyder på att de halkar efter på mjukvarisdan snararem Det enda fallet där mina 3090 verkligen skiner är just för RT just nu, i övrigt föredrar jag mitt 6800XT och dess mjukvara.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Vet inte hur andra upplevt det hela men jag har inga problem alls med radeons "mjukvara" sedan ett par år tillbaka, mitt 6800XT är oerhört stabilt och jag har föredragit catalyst/adrenalin framför geforce experience ungefär ända sedan de kom upp med redesignen som fick namnet geforce experience.

Nvidia Shadowplay kom ut för ca 7½ år sedan. Vad har AMD för motsvarighet idag?

Skrivet av Shiprat:

Det som kommit på tapeten nyligen om att nvidia behlver luta sug helt på CPU- prestansa för att kompemsera för en avsaknad av hårdvaruscheduler tycker jag tyder på att de halkar efter på mjukvarisdan snararem Det enda fallet där mina 3090 verkligen skiner är just för RT just nu, i övrigt föredrar jag mitt 6800XT och dess mjukvara.

Nvidia introducerade den tekniken redan på GTX 600-serien och t.ex. Anandtech skrev om det 2012, så det är nog ingenting man kan säga att Nvidia har "halkat efter" med.

Permalänk
Medlem
Skrivet av Sveklockarn:

22-31 millisekunder kortare input lag i de testerna.

I vilka spel spelar det roll när reaktionstiden hos spelaren ändå är i spannet 200-300 ms?

Alla spel där reaktionstid är guld, för du går då från 250 till 220.

Sen så blir det lättare att förutse ens egna rörelser när de direkt korrelerar med vad man gör. Allt händer inte 200-300ms för sent, utan hjärnan vet i förväg när man ska sluta röra på handen så att den stannar på rätt ställe.

Permalänk
Medlem
Skrivet av Sveklockarn:

Nvidia Shadowplay kom ut för ca 7½ år sedan. Vad har AMD för motsvarighet idag?

AMD ReLive är motsvarigheten till Shadowplay och är inbyggt i AMD:s software. Kommer inte ihåg när det introducerades men det har funnits i många år iaf.

Permalänk
Medlem
Skrivet av Sveklockarn:

Nvidia Shadowplay kom ut för ca 7½ år sedan. Vad har AMD för motsvarighet idag?

Jag antar att du redan sitter på någon comeback redo för varför det inte räknas eller något men...
Radeon ReLive har ju funnits sedan 2016...

NVenc ger bättre kvalitet framförallt i låga bitrates vilket är relevant för streamers, för höga bitrates (instant replay osv) så är de båda väldigt bra, men inte lika bra som "slow" encoding på CPU om man vill ha absolut bästa kvalitet, alternativt att köra ett capture card.

Jag streamar inte men spelar in en hel del under gameplay, för mig har kvaliteten varit ganska samma lika mellan nvidia och AMD.
Med AMD är det en enorm fördel med att alla options i control center kan kommas åt direkt från game overlay om man vill och att man ska spara i GIF format. Vet att Nvidia jobbat på att implementera en del liknande funktionalitet i sitt overlay, när jag bytte till 6800XT var det dock fortfarande bara tillgängligt i beta-drivern och rätt mycket mer begränsat.

Skrivet av Sveklockarn:

Nvidia introducerade den tekniken redan på GTX 600-serien och t.ex. Anandtech skrev om det 2012, så det är nog ingenting man kan säga att Nvidia har "halkat efter" med.

"Introducerade" är lite att ta i, artikeln beskriver ju rätt specifikt att detta var ett steg bakåt tekniskt sett, och att det gjordes för att minska overhead på GPU's hårdvara.

"The end result is an interesting one, if only because by conventional standards it’s going in reverse. With GK104 NVIDIA is going back to static scheduling."

Det verkar ha varit ett smart val på den tiden då processorer började bli flerkärning i ökad grad men spel i DX11 fortfarande inte använde sig av mer än en kärna, men det är inte hur det ser ut idag och jag tycker det är rätt fånigt att säga att nvidia ligger i framkant med mjukvara när deras grafikkort behöver bråka med spelet det ska rendera om CPU cycles.

Jag tycker ändå att halkat efter är ett passande uttryck för detta- de tog tillfället att snåla lite på en del för att få mer plats on-die för annat i 2012 därför att det dög då, nu när det inte längre är optimalt så designar de inte om utan kör vidare på det trots att de skapar situationer där deras kort bara inte kan prestera medan AMD's kort kan.

Men, det var du som ursprungligen sa såhär:

Skrivet av Sveklockarn:

Om detta stämmer som det presenteras så följer det egentligen bara AMDs mönster av att göra tekniskt förfinade kort som i slutänden inte blir lika populära p.g.a. eftersatt mjukvaruutveckling.

Kan du förklara och ge exempel på denna eftersatta mjukvarautveckling?
Om det gäller särskilda kort som du har haft strul med- vilka kort är det och vilka kör du som funkar bättre?

Tänk på att många lär sig om datorbyggande på detta forum, det hjälper att vara tydlig.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av talonmas:

Eller så läser man ett prestandatest från verkliga applikationer/spel så behöver man inte gå runt och undra? Tycker allt att antal FPS lämnar det största intrycket, sen kan de ha vad sjutton de vill under skalet.

Mac kan ju tycka det, men tittar man på t. Ex Intels skylake så nöjde sig folk inte med at utvecklingen stog still i längden, och tillslut blev det så illa att de fick göra avbön. Nu är det såklart skillnad på en latens och en hel processor som aldrig blir bättre. Men man får nog ändå höja ett varningens finger då
AMD verkar bli bättre och bättre på den punkten.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Shiprat:

Jag antar att du redan sitter på någon comeback redo för varför det inte räknas eller något men...
Radeon ReLive har ju funnits sedan 2016...

Vad jag visste fanns ingen motsvarighet, det var därför jag frågade. Men ja, tre år senare är väl lite av poängen med vad jag skrev angående att ligga i framkant med sin mjukvaruutveckling.

I princip samma historia med med G-Sync, där det tog typ fem år för AMD att komma ikapp med en lika bra implementation.

Skrivet av Shiprat:

"Introducerade" är lite att ta i, artikeln beskriver ju rätt specifikt att detta var ett steg bakåt tekniskt sett, och att det gjordes för att minska overhead på GPU's hårdvara.

"The end result is an interesting one, if only because by conventional standards it’s going in reverse. With GK104 NVIDIA is going back to static scheduling."

Det verkar ha varit ett smart val på den tiden då processorer började bli flerkärning i ökad grad men spel i DX11 fortfarande inte använde sig av mer än en kärna, men det är inte hur det ser ut idag och jag tycker det är rätt fånigt att säga att nvidia ligger i framkant med mjukvara när deras grafikkort behöver bråka med spelet det ska rendera om CPU cycles.

Jag tycker ändå att halkat efter är ett passande uttryck för detta- de tog tillfället att snåla lite på en del för att få mer plats on-die för annat i 2012 därför att det dög då, nu när det inte längre är optimalt så designar de inte om utan kör vidare på det trots att de skapar situationer där deras kort bara inte kan prestera medan AMD's kort kan.

Artikeln nämner även att AMD introducerade hardware scheduling först på GCN, så det är nog inte fullt så enkelt som att det är "bra" eller "dåligt". Sen har vi ju det faktum att Nvidia hållit AMD stången och tagit uppåt 80% av GPU-marknaden, trots en "tekniskt sämre" lösning. Det illustrerar min poäng väldigt bra om att AMD pysslat med teknisk förfining som i slutändan inte gjort dem till några vinnare.

Skrivet av Shiprat:

Kan du förklara och ge exempel på denna eftersatta mjukvarautveckling?

Svårt att sammanfatta detta kort utan någon förberedelse här, men det är nog mer frågan om en filosofi Nvidia har om att ligga i framkant med att utveckla sina teknologier och framförallt skicka ut dem till spelutvecklare. Har hört några anekdoter från spelutvecklare om att Nvidia skickar dit utvecklare för att hjälpa till att implementera ny teknologi i spelen. Det gnälls ofta på "Nvidia-exklusiva teknologier" beträffande dataspel, men man kan ju samtidigt då fråga sig varför AMD inte representerat sig själva bättre i så fall? En anledning var antagligen den extremt dåligt skötta ekonomin under många år, vilket de verkar ha fått rätsida på under senare år.

Nvidia har RTX-teknologierna med bl.a. DLSS, och AMD verkar fortfarande göra minsta möjliga för att försöka tangera vad Nvidia erbjuder åratal i efterhand.

Skrivet av Shiprat:

Om det gäller särskilda kort som du har haft strul med- vilka kort är det och vilka kör du som funkar bättre?

Jag har aldrig ägt ett AMD-kort eftersom jag började bojkotta AMD-produkter i slutet av 90-talet, så jag har försökt undvika att fixa datorer med Radeon-kort med motiveringen att jag inte kan något om dem.

Jag baserar mitt omdöme på allt jag kontinuerligt läser om allt från reset-buggar till drivrutiner som ger blåskärmar. Det är ganska många AMD-entusiaster som säger precis samma sak, att AMD-mjukvara alltid medför ett visst meck men "att det är värt det". Mitt eget tålamod för krångel har minskat rejält med åren.

Jag har själv haft samt byggt åtminstone något trettiotal datorer med olika generationer av GeForce-kort. Det senaste riktiga bekymret jag hade med någon Nvidia-produkt var typ 2008 när en laptop med Nvidia-GPU som min brorsa hade köpt inte kunde installera drivrutinen p.g.a. att drivrutinspaketet inte hade rätt maskinvaru-ID. Det enda jag kan komma på att jag råkat ut för sedan dess är att någon enstaka speltitel haft dålig prestanda/grafikglitchar vid release, vilket fixats med officiella uppdateringar inom så lite som något dygn. Jag kanske har selektivt minne, men jag upplever att Nvidia varit 99% problemfritt för mig.

Sen urartar ju gärna alla AMD-nyheter här på forumet till rena väckelsemötet komplett med halleluja-rop, så som upplyst Nvidiot är det ju i praktiken min plikt att försöka argumentera emot.

Permalänk
Medlem
Skrivet av ajp_anton:

Alla spel där reaktionstid är guld, för du går då från 250 till 220.

Sen så blir det lättare att förutse ens egna rörelser när de direkt korrelerar med vad man gör. Allt händer inte 200-300ms för sent, utan hjärnan vet i förväg när man ska sluta röra på handen så att den stannar på rätt ställe.

De här ~250 ms är alltså tiden det tar från att du uppfattat det med ögat tills fingret tryckt ner knappen, så det kan knappast uppfattas som mer direkt. Om latensen ändå är <100 ms så kommer det inte spela någon roll alls förutom i något hypotetiskt competitive-scenario där två skjuter varandra samtidigt.

Men det är ju alltid kul att laborera med.

Permalänk
Medlem
Skrivet av Ozzed:

AMD verkar bli bättre och bättre på den punkten.

Allt AMD blir bättre på är såklart positivt, men ett traditionellt problem är att de utvecklar dyr teknologi som de inte får motsvarande kommersiella genomslag med. Nu har ju den trenden bevisligen vänt på flera viktiga produktområden, men som jag sagt tidigare så räcker det inte med att ha en bra generation av kort och/eller drivrutiner ibland för att ta sig till toppen.

Permalänk
Medlem
Skrivet av Sveklockarn:

Artikeln nämner även att AMD introducerade hardware scheduling först på GCN, så det är nog inte fullt så enkelt som att det är "bra" eller "dåligt".

Så komplicerat är det inte- hardware scheduler undviker att belasta CPU men tar upp plats på GPU som kan användas till annat.
Att ha schedulern i driver betyder som nu uppmärksammats att det dyker upp situationer där du kan gå från säg ett 3070 till ett 3090 utan att se någon ökad prestanda medan du annars kan gå till ett 5700XT eller 6800 och se ökad prestanda då din CPU avlastas och tillåter högre max-fps. Inte ånga situationer än då fortfarande är få spel som kör DX12 (och många stänger av det när det finns).

Skrivet av Sveklockarn:

Vad jag visste fanns ingen motsvarighet, det var därför jag frågade. Men ja, tre år senare är väl lite av poängen med vad jag skrev angående att ligga i framkant med sin mjukvaruutveckling.

Relevant poäng- jag själv använde OBS först då shadowplay var struligt med game detection i början för mig, i OBS stöddes både NVenc och VCE, VCE hade funnits sedan 2012 tror jag. Eftersläpande för 5 år sedan spelar ju dock inte så mycket roll vad gäller eftersläpande idag. Idag är det rätt tydligt att NVenc är bäst för streaming, båda är utmärkt för lokal inspelning, och i min åsikt är AMD's UI hälstlängder för Nvidia (och kräver inte en jävla captcha och login varje gång man ominstallerat driver)

Skrivet av Sveklockarn:

Nvidia har RTX-teknologierna med bl.a. DLSS, och AMD verkar fortfarande göra minsta möjliga för att försöka tangera vad Nvidia erbjuder åratal i efterhand.

Jag håller med om att AMD behöver möta DLSS, vilket de verkar jobba på. Det är inte många spel jag spelar som behöver DLSS dock så är inte ett problem för mig än. Enda gången jag avsiktligt flyttat över 3090 till gamingburken var för att testa lite Minecraft RTX igen, men körde igenom både Control och Cyberpunk i native maxade på mitt 6800XT.

Skrivet av Sveklockarn:

Jag har aldrig ägt ett AMD-kort eftersom jag började bojkotta AMD-produkter i slutet av 90-talet, så jag har försökt undvika att fixa datorer med Radeon-kort med motiveringen att jag inte kan något om dem.

Jag baserar mitt omdöme på allt jag kontinuerligt läser om allt från reset-buggar till drivrutiner som ger blåskärmar. Det är ganska många AMD-entusiaster som säger precis samma sak, att AMD-mjukvara alltid medför ett visst meck men "att det är värt det". Mitt eget tålamod för krångel har minskat rejält med åren.

Då antar jag att du är medveten om att AMD inte köpte upp ATI förrän 2006, var det ATI du bojkottade eller AMD?
Får jag fråga vad som gjort att du hållit fast vid en sådan bojkott sedan redan innan x64 var en sak? Geforce 256, (vilket jag för övrigt har ett exemplar av nedan, räddat från min barndomsdator), kom inte ut förrän 1999 liksom.

Tycker du inte att det är lite fel att uttrycka dig med sådan säkerhet på ett entusiastforum när du avsiktligt har undvikit AMD/ATI och undvikit att skapa ett eget intryck och eget förstående av produkerna i så många år, när det finns gott om folk här på forumet som har erfarenheter i första hand av produkter från båda tillverkarna och kan jämföra?

Jag är själv uppe i en historik med, vid senaste inköpet, 25st GPU's från nvidia och 17 st från ATI/AMD, varav jag haft en överlag väldigt bra upplevelse med i princip alla.

De riktiga klagomålen jag haft genom åren är 9800GX2 vilket var en gimmick och sällan verkligen gjorde det värt mödan att slå på SLI på grund av horribel stuttering i de flesta spel, Vega64 som var instabilt (men ändå typ mitt favoritkort då det var väldigt roligt att överklocka och höll måttet länge för mig) 2080S vilket var en katastrofalt dålig uppgradering från ett 1080Ti till samma pris ett par år senare, och 3090 på vilka nvidia verkar ha glömt att nämna för sina partners att GDDR6X-minnena kanske behöver kylas lite mer än normalt. Jag har aldrig kännt att ena märket är sämre överlag eller segar efter mer än att det var frustrerande att Navi aldrig kom i top-tier kort. Jag har dock kännt att Nvidia drivern orsakat strul från och till och att det aldrig lösts på ett konsekvent sätt.

Skrivet av Sveklockarn:

Jag har själv haft samt byggt åtminstone något trettiotal datorer med olika generationer av GeForce-kort. Det senaste riktiga bekymret jag hade med någon Nvidia-produkt var typ 2008 när en laptop med Nvidia-GPU som min brorsa hade köpt inte kunde installera drivrutinen p.g.a. att drivrutinspaketet inte hade rätt maskinvaru-ID. Det enda jag kan komma på att jag råkat ut för sedan dess är att någon enstaka spel haft dålig prestanda/grafikglitchar vid release, vilket fixats med officiella drivrutinsuppdateringar inom så lite som något dygn.

Då har du haft tur- jag har haft väldigt mycket strul just med nvidias drivrutin, även om vissa av dem sannolikt haft att göra med windows i sig. När jag skaffade min XPS laptop i signaturen vill jag använda den med FL Studio men fick till slut köra med soft-disabled nvidia GPU och köra skärm via enbart HD630 då jag hade enorma problem att köra ljudkort i någotsånär låg latens när jag körde skärm inkopplad med nvidia drivern installerad. Vet ej om det var nvidia eller Dell- bios från dell löste andra latensrelaterade problem men det var till slut en nvidia driver som löste problemet med externa ljudkort. Jag hade en lång period av att få regelbundna krascher i overwatch med "rendering device lost" eller där nvlddmkm.sys anges ha orsakat en krash i loggen, ett fel som hängde med över alla nvidiakort jag hade på den tiden och genom flera ominstallationer av windows. Löste sig inte förrän jag bytte till Vega64 och var en stor del av anledningen att jag körde Vega64 bra länge trots att jag hade ett 1080Ti på hyllan som till slut såldes av.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Hedersmedlem
Skrivet av Sveklockarn:

De här ~250 ms är alltså tiden det tar från att du uppfattat det med ögat tills fingret tryckt ner knappen, så det kan knappast uppfattas som mer direkt. Om latensen ändå är <100 ms så kommer det inte spela någon roll alls förutom i något hypotetiskt competitive-scenario där två skjuter varandra samtidigt.

Men det är ju alltid kul att laborera med.

Såna hypotetiska scenarion inträffar ju typ 60-100 ggr/timme man spelar, så...
Om två personer båda har reaktionstid på 200 ms och den ena har 50 ms input lag och den andra 100 så blir det ju en rätt tydlig skillnad med 250 mot 300 ms.
50 ms är mer än nog att man som åskådare ska kunna se skillnaden på det med blotta ögat.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Sveklockarn:

Allt AMD blir bättre på är såklart positivt, men ett traditionellt problem är att de utvecklar dyr teknologi som de inte får motsvarande kommersiella genomslag med. Nu har ju den trenden bevisligen vänt på flera viktiga produktområden, men som jag sagt tidigare så räcker det inte med att ha en bra generation av kort och/eller drivrutiner ibland för att ta sig till toppen.

Det går inte komma ifrån att Nvidia dominerar helt vad gäller mindshare, samt att deras drivrutiner är mer stabila och deras implementation av adaptive sync är bättre. Men det känns samtidigt som det har lossnat rejält för AMD med Navi. Just nu spelar ju allt det där ingen roll dock eftersom folk köpet det som går att få tag på. Som läget är kan man inte vara kräsen som konsument. Vilket är synd.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Thomas:

50 ms är mer än nog att man som åskådare ska kunna se skillnaden på det med blotta ögat.

Jo, tester som bl.a. USAF har gjort har ju visat att människor är kapabla att identifiera en flygplanssilhuett på så lite som 1 ms visningstid, men det är en annan sak att reagera på visuella stimuli. Om inte alltför länge går det kanske ha en datormus med ett neuralt interface så att man kan kapa bort mycket av reaktionstiden.

Permalänk
Medlem
Skrivet av Shiprat:

Så komplicerat är det inte- hardware scheduler undviker att belasta CPU men tar upp plats på GPU som kan användas till annat.

Poängen är att det är en trade-off, inte ett tecken på att Nvidia inte vet hur man gör.

Skrivet av Shiprat:

[text om Nvidia-mjukvaror]

Det är egentligen inte så mycket vad Nvidia har för teknologi, utan att de har den.

Skrivet av Shiprat:

Då antar jag att du är medveten om att AMD inte köpte upp ATI förrän 2006, var det ATI du bojkottade eller AMD? Får jag fråga vad som gjort att du hållit fast vid en sådan bojkott sedan redan innan x64 var en sak?

Jag har inte haft en AMD-produkt sedan K6-2, och sen hade jag Voodoo-kort tills 3dfx gick under vilket gjorde det naturligt att fortsätta med Nvidia-kort. Första Nvidia-kortet var något GeForce 2/3 (minns inte längre) och sen har det rullat på med Nvidia. Jag köpte även Nvidia-kort när de var sämre än ATi-korten (t.ex. FX5000- & GT7000-serierna) eftersom jag gillar att supporta 'mitt märke' i både goda och dåliga tider.

Fler AMD-fans kanske borde vara likadana?

Skrivet av Shiprat:

Tycker du inte att det är lite fel att uttrycka dig med sådan säkerhet på ett entusiastforum när du avsiktligt har undvikit AMD/ATI och undvikit att skapa ett eget intryck och eget förstående av produkerna i så många år, när det finns gott om folk här på forumet som har erfarenheter i första hand av produkter från båda tillverkarna och kan jämföra?

Nåja, jag har ju åtminstone observerat en hel del bekymmer på håll genom åren, tillräckligt mycket för att inte känna något behov av att omvärdera min ståndpunkt, särskilt inte med de senaste 10 åren eller så av AMD-GPUer.

Skrivet av Shiprat:

Jag är själv uppe i en historik med, vid senaste inköpet, 25st GPU's från nvidia och 17 st från ATI/AMD, varav jag haft en överlag väldigt bra upplevelse med i princip alla.

Det senaste AMD-kortet jag byggde in var ett Radeon HD5000-serien i min morsas dator för ca 10 år sedan. Drivrutinerna ballade ur och gav helvita namnlister/menyer i Windows, tog nog minst ett år innan det fanns en uppdatering som åtgärdade det, så helt utan datapunkter är jag inte.

Nåja, nu har vi börjat komma långt ifrån trådens ämne. Jag unnar AMD alla framgångar och tycker det är väldigt positivt att se hur de lyckats vända företaget de senaste fem åren eller så, men det innebär inte att jag kommer köpa deras prylar.