AMD Radeon RX 6800 och RX 6800 XT

Permalänk
Skrivet av The Kristoffer:

Men det är ju det hela den här diskussionen handlar om. Åsikten "markant bättre" är ytterst subjektiv. Vem är det som sätter gränsen för vad som är ok och inte? Är det du? Är den Lisa Su Eller Jehn sen? Är det jag? Ditt subjektiva argument håller inte. DLSS är en supersamplad och kontrastskärpt lågupplöst bild, tekniken är inte ny. Sättet att sälja in tekniken är ny dock.

Har du någonsin testat DLSS själv? Ser att du undviker frågan kontinuerligt.

Permalänk
Medlem
Skrivet av The Kristoffer:

Är det sant?! THE AUDACITY!

Rakt från draknästet själv:

Permalänk
Bildexpert
Skrivet av The Kristoffer:

Men det är ju det hela den här diskussionen handlar om. Åsikten "markant bättre" är ytterst subjektiv. Vem är det som sätter gränsen för vad som är ok och inte? Är det du? Är den Lisa Su Eller Jehn sen? Är det jag? Ditt subjektiva argument håller inte.

Självklart är alla fria att uppskatta vilken bild de själva vill, den subjektiviteten kommer man aldrig ifrån. Däremot har all typ av bild objektiva egenskaper som går att analysera och fastställa som goda eller dåliga. Det finns ju goda skäl till varför colorister använder referensskärmar för en kvarts miljon och uppåt exempelvis hellre än att de tycker det är kul att bränna pengar.

Sett till det resultatet som DLSS 2.0 kan uppnå är det mycket anmärkningsvärt att man är så negativt ställd till det som du är, samtidigt som du inte klargör vad du själv har för erfarenheter kring det. Återigen, vilka spel har du spelat i DLSS och med vilken kringutrustning?

Visa signatur
Permalänk
Skrivet av Towbiekun:

Har du någonsin testat DLSS själv? Ser att du undviker frågan kontinuerligt.

Skrivet av Nissling:

Självklart är alla fria att uppskatta vilken bild de själva vill, den subjektiviteten kommer man aldrig ifrån. Däremot har all typ av bild objektiva egenskaper som går att analysera och fastställa som goda eller dåliga. Det finns ju goda skäl till varför colorister använder referensskärmar för en kvarts miljon och uppåt exempelvis hellre än att de tycker det är kul att bränna pengar.

Sett till det resultatet som DLSS 2.0 kan uppnå är det mycket anmärkningsvärt att man är så negativt ställd till det som du är, samtidigt som du inte klargör vad du själv har för erfarenheter kring det. Återigen, vilka spel har du spelat i DLSS och med vilken kringutrustning?

Av ren princip är DLSS/ uppskalning något jag aldrig skulle slå på. Det räcker med de promotionvideos som finns där ute. Kikat hos bekanta med 2000-serien och är inte imponerad.
Med det sagt kanske det blir ett 3000-kort ändå, ni ser att jag gått och väntat ett tag med nyinköp. Att ha väntat så länge, för att sedan lägga så mycket pengar, för att, enligt min subjektiva åsikt, få spelet att se ut som att drevs på en potatis är inget som lockar.

Det kan vara som så att jag har för många timmar i photoshop i ryggen. Nu var det ett tag sedan men "synen" för vad som händer med bilden finns ju där fortfarande.
Som det ser ut just nu verkar ju 3000-serien smiska 6000-serien i RT native, själv går jag hellre ned i upplösning än slår på DLSS om något måste kompromissas. Det kort som ger finast bild till bäst prestanda med RT påslaget i CP2077 kommer att inhandlas. När den övriga köphetsen har lagt sig.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av The Kristoffer:

Men det är ju det hela den här diskussionen handlar om. Åsikten "markant bättre" är ytterst subjektiv. Vem är det som sätter gränsen för vad som är ok och inte? Är det du? Är den Lisa Su Eller Jehn sen? Är det jag? Ditt subjektiva argument håller inte. DLSS är en supersamplad och kontrastskärpt lågupplöst bild, tekniken är inte ny. Sättet att sälja in tekniken är ny dock.

Inte direkt en åsikt när man faktiskt kan räkna pixlar och se bildkvalitet. DLSS är bevisat bättre än att skala ned upplösning och ger bättre resultat.
Sen om du vägrar inse det är en helt annan sak.

Permalänk
Bildexpert
Skrivet av The Kristoffer:

Av ren princip är DLSS/ uppskalning något jag aldrig skulle slå på.
[...]
själv går jag hellre ned i upplösning än slår på DLSS om något måste kompromissas.

Exakt hur tänker du här? Såvida du inte sitter med en CRT-skärm kan jag inte förstå ditt argument för fem öre, eftersom du ändå måste skala upp bilden någonstans i ledet innan den visas på skärmen.

Skulle hemskt gärna se dig klara ett blindtest för övrigt.

Visa signatur
Permalänk
Medlem
Skrivet av teanox:

Vi har testat Godfall, det drar i 4k och ultra 11/12GB vram, därav "måste" DLSS vara igång för att hans kort ska klara push ut.

Jag själv har ingen möjlighet att testa VR, har glasögon redan så det skulle inte bli en bra kombo, speciellt som man är lite klaustrofob haha, dock största anledningen är att vi båda inte tycker det är värt pengarna för ett snordyrt VR som kör i 720p? Kan vara högre men vet att dem inte är i närheten till 1440P som jag själv kör på.

Ska testa mitt kort med mera spel och tester, kommer återkomma med en tråd om detta.

Haha och där märkte man att du var full av skit. Spelet allokerar 9gb, och du verkar inte heller förstå varför många påpekar hastigheten i G6X.

Permalänk
Medlem
Skrivet av Nissling:

Självklart är alla fria att uppskatta vilken bild de själva vill, den subjektiviteten kommer man aldrig ifrån. Däremot har all typ av bild objektiva egenskaper som går att analysera och fastställa som goda eller dåliga. Det finns ju goda skäl till varför colorister använder referensskärmar för en kvarts miljon och uppåt exempelvis hellre än att de tycker det är kul att bränna pengar.

Sett till det resultatet som DLSS 2.0 kan uppnå är det mycket anmärkningsvärt att man är så negativt ställd till det som du är, samtidigt som du inte klargör vad du själv har för erfarenheter kring det. Återigen, vilka spel har du spelat i DLSS och med vilken kringutrustning?

Det du försöker göra här är felaktigt. Hans personliga erfarenhet av DLSS är inte relevant, det är en subjektiv erfarenhet. Objektivt är det en uppskalningsteknik som sänker beräkningsbehovet för att öka bildfrekvensen. sedan används som yoshman säger deep learning för att identifiera element och skala upp det bättre an vanliga skalningstekniker. Resultatet är artificiellt och de delar som faktiskt ser ’bättre’ ut (håret i närbilden på 540p videon till exempel) är oftast inte ens från spelet utan skapade av algoritmen.

Jag säger inte att det nödvändigtvis är fel eller rätt, men klassificeringen av element kan gå fel och då kan man få något annat på skärmen vissa bildrutor.

Det objektiva är att diskutera resultatet och inte någons erfarenhet. Möjligen kan man sätta upp blindtester och få många att köra för att komma fram till någon form av sanning.

Personligen skulle jag vilja se 540p skalat till 8K och se några skärmdumpar, då kan vi mer säkert säga vad de riktiga artefakterna är. Vissa artefakter är ju bra (eller enligt design) för att upplevelsen ska bli bättre, men vissa delar kommer ju skalas helt vanligt, och sen kommer kanterna mellan dessa delar behöva bearbetas...

Om algoritmen gissar fel blir ju hela grejen fel, och det kan definitivt hända, skulle vara spännande att se...

Permalänk
Medlem
Skrivet av The Kristoffer:

Av ren princip är DLSS/ uppskalning något jag aldrig skulle slå på. Det räcker med de promotionvideos som finns där ute. Kikat hos bekanta med 2000-serien och är inte imponerad.
Med det sagt kanske det blir ett 3000-kort ändå, ni ser att jag gått och väntat ett tag med nyinköp. Att ha väntat så länge, för att sedan lägga så mycket pengar, för att, enligt min subjektiva åsikt, få spelet att se ut som att drevs på en potatis är inget som lockar.

Det kan vara som så att jag har för många timmar i photoshop i ryggen. Nu var det ett tag sedan men "synen" för vad som händer med bilden finns ju där fortfarande.
Som det ser ut just nu verkar ju 3000-serien smiska 6000-serien i RT native, själv går jag hellre ned i upplösning än slår på DLSS om något måste kompromissas. Det kort som ger finast bild till bäst prestanda med RT påslaget i CP2077 kommer att inhandlas. När den övriga köphetsen har lagt sig.

håller med fullständigt!

Visa signatur

In science we trust!

Permalänk
Medlem
Skrivet av The Kristoffer:

Av ren princip är DLSS/ uppskalning något jag aldrig skulle slå på. Det räcker med de promotionvideos som finns där ute. Kikat hos bekanta med 2000-serien och är inte imponerad.
Med det sagt kanske det blir ett 3000-kort ändå, ni ser att jag gått och väntat ett tag med nyinköp. Att ha väntat så länge, för att sedan lägga så mycket pengar, för att, enligt min subjektiva åsikt, få spelet att se ut som att drevs på en potatis är inget som lockar.

Det kan vara som så att jag har för många timmar i photoshop i ryggen. Nu var det ett tag sedan men "synen" för vad som händer med bilden finns ju där fortfarande.
Som det ser ut just nu verkar ju 3000-serien smiska 6000-serien i RT native, själv går jag hellre ned i upplösning än slår på DLSS om något måste kompromissas. Det kort som ger finast bild till bäst prestanda med RT påslaget i CP2077 kommer att inhandlas. När den övriga köphetsen har lagt sig.

Jag skulle snarare jämföra DLSS med att dra ner alla reglage ett halvt steg än att bara fokusera på upplösningen. Allting försämras lite, vissa saker är nära oförändrade och några få är ’enhanced’ (kolla videon med 540p när det är närbild på henne, håret är ju strikt ändrat)

Permalänk
Skrivet av Nekrol:

Inte direkt en åsikt när man faktiskt kan räkna pixlar och se bildkvalitet. DLSS är bevisat bättre än att skala ned upplösning och ger bättre resultat.
Sen om du vägrar inse det är en helt annan sak.

Skrivet av Nissling:

Exakt hur tänker du här? Såvida du inte sitter med en CRT-skärm kan jag inte förstå ditt argument för fem öre, eftersom du ändå måste skala upp bilden någonstans i ledet innan den visas på skärmen.

Skulle hemskt gärna se dig klara ett blindtest för övrigt.

Ok då tar vi det igen: #18740032
Det handlar ju om kvalitetsförstörande teknik i båda fallen, ett reducerande av bildinformation. DLSS är en svart låda som spottar ur sig bilder som en del köper, andra inte. Informationen i bilden har reducerats ned till något som verkar acceptabelt för lekmän såpass att de kommer med argument såsom: "DLSS är bevisat bättre än att skala ned upplösning och ger bättre resultat. ". I mitt tycke är det rätt bevisat att DLSS spottar ur sig bilder som är objektivt sämre sett till faktisk skärpa, kontrast, och färgåtergivning som en följd av kontrastfiltret.
Nästa steg blir väl det här: https://lh3.googleusercontent.com/proxy/mDjJwpCd8lHBl6nlVQjyW...
Subjektivt skulle säkert folk hävda att det inte är någon märkbar skillnad på bilderna om fpsen var 3 gånger så hög på den högra. Det där är väl 4k eller?
Hela diskussionen blir ju löjlig, det är ju för att DLSS är en naken kejsare. Frågan jag ställer mig är hur lång tid det kommer gå innan någon lite mer renomerad site faktiskt börjar kalla kejsaren för naken.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av The Kristoffer:

Ok då tar vi det igen: #18740032
Det handlar ju om kvalitetsförstörande teknik i båda fallen, ett reducerande av bildinformation. DLSS är en svart låda som spottar ur sig bilder som en del köper, andra inte. Informationen i bilden har reducerats ned till något som verkar acceptabelt för lekmän såpass att de kommer med argument såsom: "DLSS är bevisat bättre än att skala ned upplösning och ger bättre resultat. ". I mitt tycke är det rätt bevisat att DLSS spottar ur sig bilder som är objektivt sämre sett till faktisk skärpa, kontrast, och färgåtergivning som en följd av kontrastfiltret.
Nästa steg blir väl det här: https://lh3.googleusercontent.com/proxy/mDjJwpCd8lHBl6nlVQjyW...
Subjektivt skulle säkert folk hävda att det inte är någon märkbar skillnad på bilderna om fpsen var 3 gånger så hög på den högra. Det där är väl 4k eller?
Hela diskussionen blir ju löjlig, det är ju för att DLSS är en naken kejsare. Frågan jag ställer mig är hur lång tid det kommer gå innan någon lite mer renomerad site faktiskt börjar kalla kejsaren för naken.

Oj vad du snurrar runt med okunskap eller en oförmåga/ovilja att ta till sig fakta. Föreslår att du avvaktar med dina kommentarer rörande DLSS tills du själv sitter med en kort som klarar av det (och därmed testa) istället för att sitta och gissa som du gör nu...
Jag har väldigt svårt att se att någon här har övertygats av dina argument, då de är så meningslösa i sammanhanget.

Visa signatur

LG OLED77CX • Intel i9 10900K @ 5.0GHz • Noctua NH-D15 • ASUS Strix Z490-H • Corsair 32GB DDR4 3200MHz • GIGABYTE RTX 4080 • Phanteks Evolv X • Corsair RM 850W V2

Permalänk
Datavetare
Skrivet av medbor:

Jag skulle snarare jämföra DLSS med att dra ner alla reglage ett halvt steg än att bara fokusera på upplösningen. Allting försämras lite, vissa saker är nära oförändrade och några få är ’enhanced’ (kolla videon med 540p när det är närbild på henne, håret är ju strikt ändrat)

Allt försämras inte, det finns definitivt fall där DLSS uppskalat till X faktisk har mer detaljer än native-X, detta är ett sådan exempel

Huvudpoängen man ändå måste ta med sig från det DF säger om tekniken är: i många fall kunde han inte avgöra vilken bild som var native-4k och DLSS-4k vid normalt avstånd, enklaste sättet var att kolla frame-rate. Om den var hög -> DLSS, låg -> native.

Teorin bakom machine learning må vara gammal, men vad som nu blivit möjligt att göra med tekniken är riktigt rykande färskt. Det behövs massiv mängd beräkningskraft för att göra vad vi ser i bilden ovan.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av The Kristoffer:

Ok då tar vi det igen: #18740032
Det handlar ju om kvalitetsförstörande teknik i båda fallen, ett reducerande av bildinformation. DLSS är en svart låda som spottar ur sig bilder som en del köper, andra inte. Informationen i bilden har reducerats ned till något som verkar acceptabelt för lekmän såpass att de kommer med argument såsom: "DLSS är bevisat bättre än att skala ned upplösning och ger bättre resultat. ". I mitt tycke är det rätt bevisat att DLSS spottar ur sig bilder som är objektivt sämre sett till faktisk skärpa, kontrast, och färgåtergivning som en följd av kontrastfiltret.
Nästa steg blir väl det här: https://lh3.googleusercontent.com/proxy/mDjJwpCd8lHBl6nlVQjyW...
Subjektivt skulle säkert folk hävda att det inte är någon märkbar skillnad på bilderna om fpsen var 3 gånger så hög på den högra. Det där är väl 4k eller?
Hela diskussionen blir ju löjlig, det är ju för att DLSS är en naken kejsare. Frågan jag ställer mig är hur lång tid det kommer gå innan någon lite mer renomerad site faktiskt börjar kalla kejsaren för naken.

Jag håller med dig i sak, men skulle vilja se mer rigorösa tester. Men faktum är ju att många nöjer sig med ’steam/shield in-home-streaming’ till tv och mer bryr sig om latens. Där går ju bilden ner till megabit och komprimeras likt din bild där och sen visas på TVn. Hur mycket det märks och spelar roll är just högst subjektivt, men vi kan nog hålla med varandra om att DLSS är bättre än all form av videokomprimering och streaming i alla fall, och det verkar ju duga för många...

Permalänk
Medlem
Skrivet av Yoshman:

Allt försämras inte, det finns definitivt fall där DLSS uppskakat till X faktisk har mer detaljer än native-X, detta är ett sådan exempel
https://i.imgur.com/tC70yCy.jpg

Huvudpoängen man ändå måste ta med sig från det DF säger om tekniken är: i många fall kunde han inte avgöra vilken bild som var native-4k och DLSS-4k vid normalt avstånd, enklaste sättet var att kolla frame-rate. Om den var hög -> DLSS, låg native.

Teorin bakom machine learning må vara gammal, men vad som nu blivit möjligt att göra med tekniken är riktigt rykande färskt. Det behövs massiv mängd beräkningskraft för att göra vad vi ser i bilden ovan.

Jag tror du får läsa mitt andra inlägg ovan, DLSS är absolut inte alltid sämre, men ibland är det inte bättre än vanlig uppskalning på vissa delar eller rent av kan göra fel beslut.

Men det finns också delar där det kan se bättre ut än native, så det jämnar ut sig till viss del

Många delar i bilden du länkar ser bättre ut, men kolla näsryggens kant och kontrasten mot ögat bakom, allt är inte bättre...

Permalänk
Datavetare
Skrivet av medbor:

Jag tror du får läsa mitt andra inlägg ovan, DLSS är absolut inte alltid sämre, men ibland är det inte bättre än vanlig uppskalning på vissa delar eller rent av kan göra fel beslut.

Men det finns också delar där det kan se bättre ut än native, så det jämnar ut sig till viss del

Många delar i bilden du länkar ser bättre ut, men kolla näsryggens kant och kontrasten mot det vänstra ögat, allt är inte bättre...

OK, då är vi helt överens.

Grejen med just den här bilden är: ja det finns artefakter i DLSS-fallet, men frågan är om man i praktiken noterar detta vid normalt avstånd utan 300-400 % zoom. Samtidigt ser man definitivt att ansiktet har mer detaljer i DLSS-fallet. Så här visar sig tekniken från en sida som är i nivå med PR-lovsången.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av medbor:

Jag håller med dig i sak, men skulle vilja se mer rigorösa tester. Men faktum är ju att många nöjer sig med ’steam/shield in-home-streaming’ till tv och mer bryr sig om latens. Där går ju bilden ner till megabit och komprimeras likt din bild där och sen visas på TVn. Hur mycket det märks och spelar roll är just högst subjektivt, men vi kan nog hålla med varandra om att DLSS är bättre än all form av videokomprimering och streaming i alla fall, och det verkar ju duga för många...

Ja, det var just det. Det känns som att diskussionen just nu handlar om att sätta ett nytt bottom low som referenspunkt. Om de flesta inte bryr sig om bildkvalitet, varför ska bolagen anstränga sig?
Det här racet kommer att drabba de som faktiskt bryr sig, de flesta som tycker att det är good enough, är väl de som kommer fortsätta mata på om dess förträfflighet.
Gäller ju att koka grodan långsamt. Snart kommer det inte gå att spela nya spel utan att först behöva slå på uppskalningsfunktionen och jpegkomprimeringen. På sitt splitt nya grafikkort för tusentals kronor.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Skrivet av Yoshman:

OK, då är vi helt överens.

Grejen med just den här bilden är: ja det finns artefakter i DLSS-fallet, men frågan är om man i praktiken noterar detta vid normalt avstånd utan 300-400 % zoom. Samtidigt ser man definitivt att ansiktet har mer detaljer i DLSS-fallet. Så här visar sig tekniken från en sida som är i nivå med PR-lovsången.

Bristen på skärpa till höger förklaras dock av TAA som är påslagen, vilket saknas i bilden till vänster. Bilden till vänster är dessutom kontrastskärpt vilket ger intrycket av fler detaljer. Sedan faller texturen ihop totalt på nästippen i schackmönsterartade gradienter. Antar att det också är en bieffekt då den kan skådas lite överallt i DLSS-jämförelsen.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av Nekrol:

Haha och där märkte man att du var full av skit. Spelet allokerar 9gb, och du verkar inte heller förstå varför många påpekar hastigheten i G6X.

Godfall använder 4Kx4K texturer och 12GB vram max inställt, spelar absolut ingen roll om du har högre hastighet om du inte har nog med minne. Tänker direkt på 970, hur gick det där tro? jo 3.5GB minne som var ok och den sista biten var kastad, undermålig skit.

Visa signatur

Ryzen 7 9800X3D, Asrock B850M Pro rs wifi, 64GB ddr5,
Crucial T700 2TB, Win11, RM850, Radeon 6800 XT.

Permalänk
Datavetare
Skrivet av The Kristoffer:

Bristen på skärpa till höger förklaras dock av TAA som är påslagen, vilket saknas i bilden till vänster. Bilden till vänster är dessutom kontrastskärpt vilket ger intrycket av fler detaljer. Sedan faller texturen ihop totalt på nästippen i schackmönsterartade gradienter. Antar att det också är en bieffekt då den kan skådas lite överallt i DLSS-jämförelsen.

Allt är en balansgång. Många verkar tycka att fördelarna med DLSS klart överväger nackdelarna.

TAA är ett annat exempel på balansgång. Personligen tycker jag det är ännu ett exempel på en teknik där fördelarna vida uppväger nackdelarna. TAA eliminerar i princip de krypningar man får på pixelnivå när saker som består av enstaka pixel flyttar sig relativt lite mellan scener, man ser det som att delar med hög kontrast flimrar. Nackdelen med TAA är att man tappar lite detaljer då färgdata från tidigare scener blandas med aktuell scen.

Just den artefakten är något även DLSS kan fixa, det utan att märkbart påverka skärpan. Stora nackdelen med DLSS är att det kräver sådan enorm beräkningskraft, det råkar bli en rätt liten nackdel just nu då tensor-kärnorna inte används till något annat i spel. Om man hittar nya användningsområden för tensor-kärnor kan det mycket väl bli så att DLSS blir mindre värt.

Den höga kostnaden gör machine-learning gör att andra sätt att köra raytracing och liknande per pixel dyra tekniker i lägre upplösning. Konsolerna verkar i alla fall initialt använda checkerboard rendering och/eller variabel renderingsupplösning + traditionell uppskalning.

Vi lär få se hur bra/dåligt det fungerar att köra något likt DLSS utan tensor-kärnor när liknande tekniker baserad på DirectML hittar ut, kan mycket väl bli så att nackdelarna (i form av t.ex. artefakter) då överväger fördelarna eller så fungerar det ändå tillräckligt bra!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yasko:

Ni som har 6800 eller 6800XT, har ni möjlighet att checka om GPUns HDMI fungerar som det ska då det gäller ljud och speciellt surroundljud. Får någon ut surroundljud till sin system via HDMI? Tänkte lägga en order på 6800XT men för min del måste ljudet fungera, har inte använt AMD GPU senaste 10 åren.

Nu har jag inget sådant kort ännu men det har fungerat på AMD's kort de senaste tio+ åren så det vore oerhört märkligt om det inte gjorde det nu.

Visa signatur

Phanteks P400A RGB : Asus Prime X570-P : Ryzen 9 5900X : Corsair H100X : 32GB G.Skill Trident Z Neo 3600CL14 : Sapphire Nitro+ 6800 XT : Xiaomi 34" Curved 3440x1440 : Playseat Evolution Alcantara : Thrustmaster T300RS GT / Ferrari SF1000 Edition Add-on : HP Reverb G2

Permalänk
Medlem
Skrivet av Yasko:

Ni som har 6800 eller 6800XT, har ni möjlighet att checka om GPUns HDMI fungerar som det ska då det gäller ljud och speciellt surroundljud. Får någon ut surroundljud till sin system via HDMI? Tänkte lägga en order på 6800XT men för min del måste ljudet fungera, har inte använt AMD GPU senaste 10 åren.

Jag kör en RX580 i min HTPC och det fungerar utmärkt. Kan inte tänka mig att det finns några som helst problem på nyare Radeon-produkter.

Permalänk
Medlem

Kanske dags och ersätta RX480 med ett RX6800.

Permalänk
Medlem
Skrivet av Yoshman:

OK, då är vi helt överens.

Grejen med just den här bilden är: ja det finns artefakter i DLSS-fallet, men frågan är om man i praktiken noterar detta vid normalt avstånd utan 300-400 % zoom. Samtidigt ser man definitivt att ansiktet har mer detaljer i DLSS-fallet. Så här visar sig tekniken från en sida som är i nivå med PR-lovsången.

Skrivet av The Kristoffer:

Ja, det var just det. Det känns som att diskussionen just nu handlar om att sätta ett nytt bottom low som referenspunkt. Om de flesta inte bryr sig om bildkvalitet, varför ska bolagen anstränga sig?
Det här racet kommer att drabba de som faktiskt bryr sig, de flesta som tycker att det är good enough, är väl de som kommer fortsätta mata på om dess förträfflighet.
Gäller ju att koka grodan långsamt. Snart kommer det inte gå att spela nya spel utan att först behöva slå på uppskalningsfunktionen och jpegkomprimeringen. På sitt splitt nya grafikkort för tusentals kronor.

Saken är ju den (och som det alltid varit med datorrendering) är att det alltid är ett fulspel och handlar om att få bäst bild på skärmen så billigt som möjligt, samma diskussioner har uppkommit många gånger tidigare om saker som tile based rendering och att nvidia ’fuskat’ med saker som texturkvalitet i sina drivrutiner och annat. I slutänden är det konsumenten som väljer och jag tror inte många ens ser videoartefakter när man streamar på några megabit, att ens då prata om texturkvalitet eller annat blir liksom meningslöst.

Nya saker som RT har ju potential att revolutionera hur bra spel kan se ut, samma med andra saker. Men dessa går inte att få till om hårdvaran är helt låst till vanlig rendering.

Tänk om man istället bara kunde säga till en tränat nätverk att inom denna triangel på skärmen är det ett brunt staket och här är det en asiatisk människas öga etc. Då skulle man inte alls behöva rendera bilden knappt för att allt skulle kunna skapas. Verkligheten är såklart inte så enkel, men just maskininlärning och dessa tekniker ger oss extrema andra sätt att få fram bilder på. Då kan man fokusera hårdvaran på andra saker

Permalänk
Medlem
Skrivet av tellus82:

Visst är det uppskalat, skrev jag något annat? Det du verkar missa är att i en del spel så är det extremt nära native upplösning i kvalité men till avsevärt bättre prestanda, för många är det en mycket bra avvägning att göra. Att som du gör försöka polarisera frågan så extremt blir bara löjligt.

Tekniken är inte en lögn, den finns och den fungerar, i vissa spel sämre och i vissa bättre, när det görs bra så är det en helt ok teknik att nytta för att leverera bättre bild än vad som annars vore möjligt vid en viss bildfrekvens. Det är inte jättesvårt att förstå.

Det blir lite som att prata med audiophilesnördar.
Då tester visat att hög bitrates Mp3 inte kan skiljas från lossless (Wav, CD) vid A/B-tester så envisas man ändå med att hålla vid att skilnaden är STOOOOR!
Samma vid det här nu.
I teorin är det skillnad, men i praktiken är upplevelsen densamma som native.

Permalänk
Medlem

Jag håller med Kristoffer, t.ex jag klarar inte av att se en uppskalad textur. Så jag spelar alltid i 480p. Har inte sett en uppskalad textur på fem år. Skulle aldrig få för mig att testa 4k, det ser fullkomligt skit ut. En uppskalad textur till och jag säljer datorn.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Magnus303:

Det blir lite som att prata med audiophilesnördar.
Då tester visat att hög bitrates Mp3 inte kan skiljas från lossless (Wav, CD) vid A/B-tester så envisas man ändå med att hålla vid att skilnaden är STOOOOR!
Samma vid det här nu.
I teorin är det skillnad, men i praktiken är upplevelsen densamma som native.

Det är verkligen väldigt stor skillnad mellan dessa två sammanhang- jag har studiomonitorer, två stycken vettiga studiolurar samt ett par in-ear monitorer som alla drivs av bra ljudkort och gjorde en del A/B test när en forum-medlem för ett tag sedan startade en tråd om att spotify gör bort sig som inte konkurrerar i FLAC-streaming, jag kunde inte konsekvent höra skillnad mellan lossless och 320kbps mp3.

Med DLSS, framförallt med original men även med DLSS 2.0 så är det mer att jag behöver tänka på att försöka hålla mig immersed och inte titta för noga då skumma saker syns om man tittar efter.

Om DLSS var enda vägen framåt skulle det vara inbakat i DirectX eller Vulkan. RT var vid launch inte redo att drivas i vettiga frames men de ville ha det som en marknadsföringsgimmick, så de slängde med DLSS som fick RT att fungera bra nog som ytterligare marknadsföringsgimmick. Om AMD kommer till ett läge där de har vettigt RT-prestanda och ett svar på DLSS eller båda blir inbakade i standarder så kommer nvidia hitta på något annat som bara lirar på nvidia och som de övertalar AAA-devs att implementera- om AMD tar ledningen kommer de göra samma.

Igen, om det är enda vägen framåt, lägg det i DirectX eller Vulkan, annars nej tack.

EIDT: Vill lägga till att det finns ett ställe där jag skulle kunna se ett vettigt use-case för DLSS om de eliminerar artefakter längs kanter osv- I spel där jag vill ha riktigt hög FPS kan DLSS i sig självt vara intressant då jag i snabba spel som Apex inte riktigt stannar och tittar på omgivningen, om DLSS kan göras det mer sannolikt att köra 4K där utan fps-drops och utan konstiga artefakter så vore det trevligt.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av teanox:

Godfall använder 4Kx4K texturer och 12GB vram max inställt, spelar absolut ingen roll om du har högre hastighet om du inte har nog med minne. Tänker direkt på 970, hur gick det där tro? jo 3.5GB minne som var ok och den sista biten var kastad, undermålig skit.

Som sagt, måste vara tradigt att sitta och sprida felaktig skit på internet. Finns ju flera Gameplay videos i 4K och maxade settings ute som motbevisar allt du påstår.
Må hända att spelet allokerar 12GB med ett 6800XT, men det gör det inte med ett 3080. Länka gärna lite bevis annars.

edit: Kan väl även lägga till detta klipp

I den där videon allokerar spelet lite mer än 6GB i den miljön och banan.

Förövrigt så var ju 970 grymt för 1080p höll sig bra utan stutters ända tills jag köpte mitt 2080ti.

Permalänk
Skrivet av EvonS:

Tänk på inflationen..tänk på den där inflationen..... ... Ja det är sjukt så priserna tagit fart efter Nvidias 2000 serie där de helt ohotat kunde dra på rejält! Så nya nivån för konsumentkort ligger idag på mellan 6-10.000. Entusiastnivån är 15.000+

Ja men eller hur. Man får (bilden) för mindre

Permalänk
Medlem
Skrivet av Nekrol:

Som sagt, måste vara tradigt att sitta och sprida felaktig skit på internet. Finns ju flera Gameplay videos i 4K och maxade settings ute som motbevisar allt du påstår.
Må hända att spelet allokerar 12GB med ett 6800XT, men det gör det inte med ett 3080. Länka gärna lite bevis annars.

Den promo-videon och diskussionen om det var rätt absurd, kändes som att de läste från ett script som var skrivet för att vara så otydligt som möjligt.

Länkar till min tidigare post om det

eller TL;DR från den posten om vad jag tror nedan:

Det viktigaste citatet från promo-videon skulle jag säga är runt 2 minuter in någonstans: "here you see the impact of ray tracing in the detailed shadows cast by the character and foliage"

Sedan från videon där youtubaren testar runt 1:30 i denna video: "I do believe this game will have ray tracing at some stage for nvidia cards but i don't think that'll be on day one"

Detta gör det rätt tydligt att skillnaden mellan 12GB i deras promo (utöver vad de nu kan ha hittat på för ren pr-bullshit) är att 12GB promon kör med Ray tracing medan youtubaren inte har möjligthet att slå på Ray tracing.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200