Inlägg

Inlägg som Vash har skrivit i forumet
Av Vash

Tror ni på allvar att butiken tjänar 7500:- på ett kort....

Av Vash

Lirar i 1440p med Ultra RT och DLLS i kvalitets läget, fungerar väldigt bra och ligger runt 75-100 fps för det mesta med ett 2080 Super. DLSS imponerar stort på mig i denna titeln både sett till den ökade prestandan och bildkvaliteten. DLLS 2.0 ger för mig en så bra bild att prestanda fördelarna vida överväger de få nackdelarna tekniken har.

Av Vash
Skrivet av bopp:

Alltså, lite är det som man bäddar får man ligga. Att köpa att ett RTX-kort och förvänta sig att hela spelvärlden ska anpassa sig till det är lite magstarkt. Alla spel kommer inte att ha en RTX-stämpel på sig.

Vet att det kommit en ny video nu från Digital Foundry, har inte sett den än, men jag vet sedan förra videon de publicerade att Alex Battaglia tyckte att man som RTX-ägare inte fick "full valuta" för sitt RTX-kort i RE VIII, eller vad man ska säga, eftersom raytracingen inte skalade, utan mer var anpassad till konsolerna, och att det inte hade DLSS. Men på samma sätt; "tough luck" - det är inte så världen ser ut. Alex Battaglia har f ö tydligen fyra stycken Nvidiakort, men bara ett Radeon att testa med. Vet inte om det säger något, men kanske? Jag har inget emot Alex, men på samma sätt där, han kan inte förvänta sig att världen ska anpassa sig till hans RTX-kort.

Om Nvidia hade gjort DLSS öppen för alla, hade det kanske sett annorlunda ut, då hade de förmodligen haft prestandaövertaget ändå, men DLSS hade kommit i flera spel, kanske även i AMD-sponsrade spel? Som då hade fläskat på mer med raytracing i RE. Vem vet?

Som det nu är kan man inte förvänta sig DLSS heller i Far Cry 6. Tänk om FSR är fruktansvärt bra? Och bara fungerar på AMD-kort? Jag kan se framför mig att AMD utnyttjar sin fördel med mer minne, lägger på ett rejält UHD Texture Pack och raytracing som också kräver minne, så att 8 GB-korten från Nvidia storknar redan i låga upplösningar. Men det blir spelbart med FSR... På Radeonkorten.

Är det en sådan spelvärld vi vill ha? Att vi ska tvingas välja spel efter vilket grafikkort vi har köpt, eftersom grafikjättarna vill bestämma spelreglerna?

Oavsett om du sitter på ett AMD kort eller Nvidia kort så vill du väl ha möjlighet att i största möjliga mån få ut det bästa av ditt kort eller? Att inte kunna skala upp RT effekterna när det finns utrymme för de hos både Nvidia och AMD är väl något som man borde kritisera. Personligen är jag väldigt glad att AMD är med på RT tåget och RE8 är säkert en ögon öppnare för flera som inte testat det innan, synd bara att man slarvar lite med implementation på PC.

Av Vash

https://youtu.be/Nu61HMZPEXg
Digital foundry gör som alltid en trevlig analys.

Av Vash
Skrivet av KingCobra:

Därför minar man Ether istället som i mitt fall ger mellan 25-30k om året med GPUn i sign. Man får dra av en tusenlapp/år för elen den drar..men jag tycker ändå det är värt det.

Plockar du ut 25-30k i sek eller menar du att ditt innehavet har ett ökat värde på den summan? Ser att många skriver hur mycket de tjänar men svårt å veta riktig vad folk anser vara å tjäna pengar kontra ökat värde på innehav.

Av Vash
Skrivet av tankjunior:

Undrar hur mycket dom fick av Nvidia för att skapa det här?

Ta en titt på videoen så kanske du får en bredare och bättre syn fördelarna med RT. Fungerar utmärkt på AMD 6000 serien också men med den förväntade prestanda tappet som 6000 serien har mot Nvidia. Häftigt att prestandan är bättre trots mer RT effekter, ska bli kul å spela igenom igen när de släpps.

Av Vash

Så länge man inte tar bort funktioner på äldre kort och är tydliga med vad man begränsar på nya så ser jag bara fördelar. Förstår att man ser det som negativt om man har planer på att både spela och mina men för de flesta så tror jag de här är positivt och leder till mer grafikkort till spelare. Sen tror jag inte mining är ett så stort problem för tillgången, tror tillgången är mer påverkad av missbruk av öppet köp i kombination av faktura betalning, en stor del av tillgången på kort försvinner till folk som aldrig tänkt behålla korten eller bara ska testa lite.

Av Vash

Bra.

Av Vash

Ett AMD Sapphire R9 390, tror jag hade de i 2 veckor tills jag slängde ut skiten å köpte ett 980ti. Gick sjukt varmt och hade massa problem med drivrutiner, kan hända problemen var orsakade av mig själv men allt löste sig när jag bytte ut de.

Av Vash
Skrivet av Kenneth:

Har du provat DLSS själv? och då menar jag inte stillbilder på YT som zoomar in 1000x på ett objekt för att hitta något fel, utan faktiskt spelat med DLSS igång?

Känns som de flesta som gnäller på DLSS har en dålig erfarenhet och baserar åsikterna på de eller så har man aldrig testat å bestämt sig för att de är värdelöst. Jag spelar med DLSS i flera titlar och har svårt å förstå kritikken. Framförallt så lyfter de ju svagare kort till nya nivåer.

Av Vash

Köper där de är billigast som regel, ser inga fördelar eller nackdelar med någon launcher då jag bara startar klienten vid uppstart av spel. Tycker hela hata Epic grejen är ekstremt löjlig men de tycker jag om 99% av allt folk blir bestörta av nu för tiden.
Tycker att man borde flytta mer av vinsterna till utvecklare och mindre till plattforms ägaren så hoppas oavsett av resultatet i målet att vi ser en bättre fördelning.

Av Vash

Byggde min första dator 2003, Kommer ihåg att de var en AMD 2500xp. Köpte ett GeForce mx420 med den genialiska planen att byta ut de mot ett 4600 ti som satt i familjens dyra kommun dator som alla fick erbjudande å köpa om man var kommunalt anställd där vi bodde.
Så en kväll när jag var ensam hemma så bröt jag warrenty stickern och gjorde mitt livs uppgradering 😁 och ingen vet något än idag haha.

Av Vash
Skrivet av Defender:

jag har aldrig någonsin sett dlss bättre än 4K native, du måste skämta.

DLSS kan ge skarpare linjer och bättre detaljer än native 4k, som sagt tidigare så är en native 4k bild utan AA absolut inte felfri.
Ett exempel från Digital Foundry kan du se här https://youtu.be/6BwAlN1Rz5I

Av Vash

Förstår om man testar utan DLSS ur ett rättvist perspektiv men när DLSS är så bra som de är i Cyberpunk 2077 så ger de nästan onödigt negativ bild av RT prestandan på Nvidia sidan. Hoppas AMD får ordning på sin DLSS variant så vi kan jämföra mer realistiska scenarion.

Av Vash
Skrivet av meanh:

Idag så laddade jag ned ett spel på GOG samtidigt som jag hade en youtube video/stream igång på skärm 2 medans jag spelade lite AC: Valhalla utan märkbar skillnad i fps mot när jag enbart har spelet igång på min 5900x. Frågan är hur bra den liknande prissatta 11900k skulle klara av motsvarande last?

Lirar Valhalla med min 8700k med stream på andra skärmen utan några problem så tror nog de fungerar på en 11900k.

Av Vash

Varför testar man i 4k där skillnaden märks minst, ska bli kul å se jämförelser i 1080p och 1440p.

Av Vash
Skrivet av Bernd_P1:

Jag förstå mig inte på Intel. Dem ska ju nu släppa en ny serie, och så läcks redan siffrorna för serien som ska komma efter. Sabba man inte sin egen lansering med det genom att visa att det som ska släppas nu redan är kall kaffe?

Är väl knappast Intel som läcker dom med flit. Finns ju massor av internt material som är tänkt för framtida presentationer eller underlag för anställda. Inte så konstigt att de läcker ut i förtid.
Ser väldigt många konspirations teorier på SweClockers om allt från läckor till medvetna misstag allt för å lura marknaden eller konsumenter, verkligheten är betydligt tråkigare än så och den största sannolikheten är helt enkelt att den mänskliga faktorn ofta ligger bakom.

Av Vash
Skrivet av Paul50:

Ja. Jag bara tycker dagens CPU som kommer nu är skrämmande varma he he.
Om jag kör något testa program som då kör CPU 100 % så kommer jag upp i 50-55 grader.
När jag ser de nämner 100 grader så blir man lite rädd. Jag som gillar normala temp.
Jag mena inte direkt att just spel kommer ligga 100 grader.
Sen nu om man ska ha så varma CPU plus då en varm sommar på det. Då kommer CPU brinna upp.
Ett vatten system kommer inte räcka till de dessa CPU kan jag säga nu redan.

Förstår vad du menar hehe, sitter på en 8700k som brukar tuffa på runt 55c så temperatur över 70c känns skrämmande även om de är ofarligt. Sen blir de ju lite missvisande när man jämför med Ryzen då du får en mer exakt avläsning snarare än Intels ungefärliga temperatur.

Av Vash
Skrivet av Paul50:

Skriver ju det i texten.
Thermal Velocity Boost får sällskap av något som fungerar över alla kärnor – vid temperaturer upp till 100 °C

Ytterst osannolikt att den når 100c vid spelande. De enda som sägs är att tekniken inte begränsas förens den når 100c. Men jag hade personligen inte kört med så höga temperaturer även om de är ok.

Av Vash
Skrivet av Molotov:

Tror bara jag kört DLSS i cyberpunk.
Har ett 3070 och det är väldigt snyggt och flyter fint.
Tekniken är inte dålig.

Tycker DLSS är väldigt bra, syftade på problemen med version 1.0. Cyberpunk var ett utmärkt exempel där man fick massa prestanda och i mina ögon bättre bildkvalitet.

Skrivet av jonatannossrep:

De har ju Variable Shading som handlar om att hitta partier i en scen där detaljerna inte är så synliga och rendera dessa i lägre upplösning. Tänker rent spontant att detta i princip redan möjliggör att man kan köra en högre upplösning än man brukar med lite avkall på detaljnivå. Går väl att likna med en Video codec i realtid tänker jag. Ända skillnaden med denna teknik ställd mot DLSS är att DLSS tar något "imperfekt" och försöker förbättra detta med AI medan Variable Shading ser vad lika gärna kan vara imperfekt och renderar resten "perfekt". Rent spontant känns det ju mer logiskt att rendera de synligaste detaljerna i högre detalj, och få "äkta" detaljrikedom, istället för att försöka fejka hela scenens detaljrikedom med AI.

VRS fungerer ju även på Nvidia kort och går som jag förstår de kombinera med DLSS.