Nvidia Geforce RTX 4060 kan få färre CUDA-kärnor än RTX 3060

Permalänk
Medlem
Skrivet av Lussarn:

Nej, jag anser nog att det är en omöjlig video att göra det, precis som du. Men den videon som gjordes var nog inte så bra heller om han nu kommer fram till att det inte går att raytraca med ett 3080 i 1080p.

Jag brukar kolla på dom lite modernare hårdvarukanalerna när jag vill veta hur ett spel presterar. Daniel Owen gör ett lysande jobb, även zWormz gaming tycker jag är bra. Testar ett eller max två kort i en video, inget skitsnack om att du köpt fel kort, inga gömda agendor, utan ser till att använda inställningar som fungerar för det kortet dom testar.

Nu har ingen av dom ett 3070 8GB eller 3080 10GB tror jag så turligt nog kunde jag testa det själv bara för att se hur mycket HUB-Steeve gjorde bort sig denna gång. Och det var ju som vanligt rejält.

Förstår inte varför du ska vara med och diskutera det här problemet när du vägrar kolla på källmaterialet. Den enda som gör bort sig här är du.

Slutsatsen var aldrig att ett 3080 inte klarar av ray tracing utan kort med endast 8gb vram får problem redan vid 1080p ultra om du vill köra med rt på.

Visa signatur

i7 4790k | Gigabyte GA-Z87X-UD4H | 16GB CL11 2400MHz | GTX 1060 | SSDx2 HDDx3
Kringutrustning: BenQ XL2411Z 144Hz, SteelSeries 6Gv2, Zowie FK, Qpad QH-90, Asus Xonar DX

Permalänk
Medlem
Skrivet av Qrush:

Slutsatsen var aldrig att ett 3080 inte klarar av ray tracing utan kort med endast 8gb vram får problem redan vid 1080p ultra om du vill köra med rt på.

3080 har ju vanligen 10 GB, men i övrigt har du helt rätt.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av Qrush:

Förstår inte varför du ska vara med och diskutera det här problemet när du vägrar kolla på källmaterialet. Den enda som gör bort sig här är du.

Slutsatsen var aldrig att ett 3080 inte klarar av ray tracing utan kort med endast 8gb vram får problem redan vid 1080p ultra om du vill köra med rt på.

Ändå var det någon i den här tråden som efter kollat på videon sa till mig att det inte går att köra raytracing med 8GB. För mig lät det lite galet, jag visste ju att källan var HUB och därmed ej trovärdig. Och det visade sig vara tokfel när jag provade själv.

Permalänk
Medlem

Jag kan ju se framför mig den ultra-sågning 4060 kommer få hos HUB, inte för att jag själv kommer bevittna förödelsen men ändå.

Medan i verkligheten kan ett 4060 med rätt inställningar troligtvis köra hogwarts i 120fps 1440p med raytracing på. Visserligen får man slå på lite DLSS och framegen kanske sänka lite texturer, inget HUB kommer klara av att visa under sin review iallafall.

Jag förstår ju att vissa köper konsoll istället. Där är det tillåtet med medium settings och dynamic resolution scaling för att få upp framerate, även under reviews. Medan på PC är hårdvaran obselete som HUB kallar det i sin rubrik om man inte kan köra ultra. Bara att slänga bort.

Permalänk
Avstängd
Skrivet av Lussarn:

Jag kan ju se framför mig den ultra-sågning 4060 kommer få hos HUB, inte för att jag själv kommer bevittna förödelsen men ändå.

Medan i verkligheten kan ett 4060 med rätt inställningar troligtvis köra hogwarts i 120fps 1440p med raytracing på. Visserligen får man slå på lite DLSS och framegen kanske sänka lite texturer, inget HUB kommer klara av att visa under sin review iallafall.

Jag förstår ju att vissa köper konsoll istället. Där är det tillåtet med medium settings och dynamic resolution scaling för att få upp framerate, även under reviews. Medan på PC är hårdvaran obselete som HUB kallar det i sin rubrik om man inte kan köra ultra. Bara att slänga bort.

Det ironiska med sweclockers är att det har gått från speciellt om amd är i något underläge:
äsch man behöver inte spela på ultra ändå, skillnadrna är ändå obefintliga men mycket hög hög prestandaförlust!
Till:
haha jävla nvidia klarar inte ens av ultra lolol!1!1 alla spelar ju på ultra idag!

Och när cyberpunk kom ut och amd inte klarade av raytracing alls så var ju raytracing inget speciellt, utan en meme som bara drar ner prestandan. Nu helt plötsligt är raytracing framtiden.

Permalänk
Medlem
Skrivet av Nozomi:

Det ironiska med sweclockers är att det har gått från speciellt om amd är i något underläge:
äsch man behöver inte spela på ultra ändå, skillnadrna är ändå obefintliga men mycket hög hög prestandaförlust!
Till:
haha jävla nvidia klarar inte ens av ultra lolol!1!1 alla spelar ju på ultra idag!

Och när cyberpunk kom ut och amd inte klarade av raytracing alls så var ju raytracing inget speciellt, utan en meme som bara drar ner prestandan. Nu helt plötsligt är raytracing framtiden.

Är det därför du så hårdnackat inte vill förstå resultatet som tråden rör? För att Sweclockers forum är för taskiga mot skinnjackan? Eller ska vi bara ta och konstatera att minnesmängden på förra generationens high-end har visat sig vara ett dåligt designbeslut, och att Nvidia verkar upprepa detta för (i alla fall) midrange? Vem vet, 4080 och endast 16 GB kanske visar sig vara lika dåligt om två år. Men visst, om det känns bättre att det bara är AMD fanbois som lever rövare, och att det inte alls föreligger ett problem - you do you!

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Avstängd
Skrivet av superapan:

Är det därför du så hårdnackat inte vill förstå resultatet som tråden rör? För att Sweclockers forum är för taskiga mot skinnjackan? Eller ska vi bara ta och konstatera att minnesmängden på förra generationens high-end har visat sig vara ett dåligt designbeslut, och att Nvidia verkar upprepa detta för (i alla fall) midrange? Vem vet, 4080 och endast 16 GB kanske visar sig vara lika dåligt om två år. Men visst, om det känns bättre att det bara är AMD fanbois som lever rövare, och att det inte alls föreligger ett problem - you do you!

Vad är erat problem egentligen?

VRAMet är endast ett bekymmer i Hogsmead. Något som ni verkar undvika verkligheten kring. Vilket helt enkelt kan vara av orsaken att utvecklaren är inkompetent och inte optimerat just den delen, eller? Ni fortsätter och prata rent allmänt som om att alla spel har detta besvär och att detta är något som berörr Hela hogwarts legacy. Vilket det inte gör. Hittills har vi vad, ett spel som drar mer än 10GB videominne i Ultra, MED RT? Samtidigt som det bringar vad, som inget annat spel gör?

Att försvara dåligt optimerade spel är liksom exakt vad grafikkortstillverkare VILL att ni gör för då innebär det att fler behöva uppgradera allt oftare.

Många som sitter på sina höga vita hästar i tråden bara för att de köpt senaste AMD korten till priset av en ny dator. Och försöker skita ner alla som köpt Nvidia. Det är ju inte deras fel, eller?

Ni som har spelet får jättegärna göra en enkel sak.
Ta er till Hogsmead, ett par skärmdumpar med RTSS igång och ställ er på det tyngsta stället ni kan hitta och rör inte kameran något. Börja med 1080p Low, sedan Medium, High och Ultra utan Raytracing. Därefter Medium, High och Ultra med Raytracing.

Permalänk
Medlem
Skrivet av superapan:

Är det därför du så hårdnackat inte vill förstå resultatet som tråden rör? För att Sweclockers forum är för taskiga mot skinnjackan? Eller ska vi bara ta och konstatera att minnesmängden på förra generationens high-end har visat sig vara ett dåligt designbeslut, och att Nvidia verkar upprepa detta för (i alla fall) midrange? Vem vet, 4080 och endast 16 GB kanske visar sig vara lika dåligt om två år. Men visst, om det känns bättre att det bara är AMD fanbois som lever rövare, och att det inte alls föreligger ett problem - you do you!

Vad anser du om AMD:s kort då? Inte ens deras senaste skapelse för 15.000:- kan spela ett över två år gammalt spel som CP2077 på max-settings. Är det någon form av misslyckande? Om jag inte minns fel flyter det ganska lika just ett 3080 10GB som kostade 9000:- för två år sedan. Finns en mängd andra liknande exempel. Eller är det bara om minnesmängd är showstoppern för ultra-raytracing som det räknas på minuskontot?

Jag vill också säga att personligen har jag inget emot AMD och tycker det är skitbra att andra gillar deras kort, så tro inte att jag på något sätt argumenterar för att man skall köpa 8GB kort om man spelar spel som man vet kräver mer med de settings man vill ha. Ärligt talat tycker jag också att 8GB är snålt, men ändå så mycket så med lite tweaks kan man spela vartenda spel på det så det ser vettigt ut.

Nvidia kommer aldrig ge lika mycket hårdvara som AMD för samma peng, eller inte så länge dom är så innovativa som dom varit dom senaste åren iallafall. Dom måste ju lägga ner sjuka summor på R&D på ett sätt AMD inte gör. Man kan ju undra hur mycket gaming-ready raytracing kostat Nvidia från första tanke till där man står idag. Det är nog en hel del (Hårdvara, mjukvara, få in det i spel, marknadsföring, osv). AMD kommer som tvåa och kopierar, inget fel med det alls, jättebra, men det är mycket, mycket billigare. Samma sak med DLSS och FSR. Samma sak med GSync, Freesync osv. Det är lätt att stå och säga att Nvidia är skit och ger för lite minne, men vi som köper Nvidia har tillgång till dessa teknologier åratal innan vi skulle haft det om vi köpte AMD. För mig är det värt det.

Permalänk
Medlem

Det handlar inte om Amd kontra Nvidia det handlar om beslut man tar genom att ge ett kort 8GB eller 10GB vid den prisklassen den som påstår annat är en fanboy och det går inte att diskutera med en sådan . Alltså jag sitter med 3070 ti kort mitt innan var 1070 men jag har haft AMD kort med och kanske blir mitt nästa ett sådant . Det beror ju på vad som erbjuds om jag skall lägga 10 k+ vilket jag kommer göra nästa gång lär jag inte ta ett med 12 GB vram . Med det sagt tror jag på en super serie där folk faktiskt får lite för sina pengar i slutet på året .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av heatm:

Jag fick 8 GB för 1800 spänn för flera år sen så tror båda ligger efter RX580 i den tävlingen!

Helt galet egentligen att 8 GB varit mer eller mindre standard sedan ca. 2016, i 7 år.

Radeon 9700 Pro hade 128 MB 2002 medan GeForce GTX 280 hade 1 GB 2008. Med samma utveckling borde grafikkorten idag ha 64 GB VRAM.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av Lussarn:

Vad anser du om AMD:s kort då? Inte ens deras senaste skapelse för 15.000:- kan spela ett över två år gammalt spel som CP2077 på max-settings. Är det någon form av misslyckande? Om jag inte minns fel flyter det ganska lika just ett 3080 10GB som kostade 9000:- för två år sedan. Finns en mängd andra liknande exempel. Eller är det bara om minnesmängd är showstoppern för ultra-raytracing som det räknas på minuskontot?

Lite roande när det bara är 2-3 personer kvar i en tråd och slår ihjäl den döda hästen.

Vad jag anser om AMD? Jag anser att dom inte snålar med VRAM till den grad att ett high end-kort har noll future proofing. Vi kan anse skiten ur AMD i andra topics om prestanda i CP2077, trasiga kylare, trasiga VR-drivers, etc, etc.

Det har diskuterats kilometervis på forum sedan RTX 3080 release om inte 10 GB var i snålaste laget. Och nu får vi ett exempel på det. Vad finns det egentligen att diskutera?

Men jag ger mig. 10 GB är fullt tillräckligt. Det är helt rimligt att 3060 presterar bättre än 3080. RT i 1080p är inget man ska förvänta sig.

PS: Inte ens ett RTX 4090 är spelbart i CP2077 på max (40 fps). 7900 XTX är lika med RTX 3090 (20 fps).

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Avstängd
Skrivet av superapan:

Lite roande när det bara är 2-3 personer kvar i en tråd och slår ihjäl den döda hästen.

Vad jag anser om AMD? Jag anser att dom inte snålar med VRAM till den grad att ett high end-kort har noll future proofing. Vi kan anse skiten ur AMD i andra topics om prestanda i CP2077, trasiga kylare, trasiga VR-drivers, etc, etc.

Det har diskuterats kilometervis på forum sedan RTX 3080 release om inte 10 GB var i snålaste laget. Och nu får vi ett exempel på det. Vad finns det egentligen att diskutera?

Men jag ger mig. 10 GB är fullt tillräckligt. Det är helt rimligt att 3060 presterar bättre än 3080. RT i 1080p är inget man ska förvänta sig.

"Nu får vi ett exempel på det"
Eller så får vi ett exempel på ett spel som inte är särskilt väloptimerat? Ni läser rubriker och fattar era meningar och anser det vara konkret fakta. Om en månad eller två kanske spelet inte längre kräver 10GB+ VRAM iom patchar. Vem vet.

Men visst, har man köpt ett kort från en viss tillverkare som erbjuder en viss sak och ett spel kommer ut i lagom tid efter sitt inköp och visar sig vara relativt dåligt optimerat (stutter, frysningar mm orelaterat till VRAM) och har ETT problematiskt område i spelet, vilket är själva undantaget i spelet, så ska alla som köpt dessa kort med extra VRAM komma fram och konstatera som om det vore faktum att alla spel numera kommer dra mer än 10GB VRAM i 1080p och att det är helt omöjligt att detta spelet är ett undantag och helt enkelt kommer patchas med tiden.

Skrivet av superapan:

PS: Inte ens ett RTX 4090 är spelbart i CP2077 på max (40 fps). 7900 XTX är lika med RTX 3090 (20 fps).

Va? Menar du i 4K då eller? Spelar alla i 4K nu helt plötsligt?

4070ti drar Cyberpunk i Psycho RT i 1440p runt 50 fps utan DLSS/FG.

Permalänk
Medlem
Skrivet av superapan:

Lite roande när det bara är 2-3 personer kvar i en tråd och slår ihjäl den döda hästen.

Vad jag anser om AMD? Jag anser att dom inte snålar med VRAM till den grad att ett high end-kort har noll future proofing. Vi kan anse skiten ur AMD i andra topics om prestanda i CP2077, trasiga kylare, trasiga VR-drivers, etc, etc.

Det har diskuterats kilometervis på forum sedan RTX 3080 release om inte 10 GB var i snålaste laget. Och nu får vi ett exempel på det. Vad finns det egentligen att diskutera?

Men jag ger mig. 10 GB är fullt tillräckligt. Det är helt rimligt att 3060 presterar bättre än 3080. RT i 1080p är inget man ska förvänta sig.

PS: Inte ens ett RTX 4090 är spelbart i CP2077 på max (40 fps). 7900 XTX är lika med RTX 3090 (20 fps).

Det är ju självklart att om man tar slut på en resurs (i det här fallet 10GB minne) så kommer det inte gå speciellt bra. Frågan är väl varför man skulle göra det. Är grafikkvaliten så bra att det är värt att spela i 20fps med 5fps lows? När det är busenkelt att lösa det och troligtvis inte se någon större skillnad. Tycker du det får du får väl argumentera för att 3060 är snabbare än ett 3080 då, och du har inte fel om du verkligen tycker så.

Så här spelar jag cyberpunk och hela anledningen till att jag lägger stora pengar på grafikkort. Alla sliders på max - 4k - DLSS Q - FG. Och även ett 4060 kommer klara det här finfint, lägre inställningar, men essensen för höga fps finns där, med raytracing. Men självklart, väljer man att ta slut på grafikminnet istället så kommer det torska fatalt. Men det är upp till varje person att göra det valet, t.ex Steeve gjorde det och tyckte att det var ett bra val.

Permalänk
Medlem

wow tänk om ändå någon skulle kunna förklara vad en fanboy som spelar på sitt 4090 har med att minnet tar slut på 3070 och 3080 i nya spel o göra ? men ni har säkert rätt naturligtvis skall 3060 prestera bättre än 3080 i nya spel . Ni får fortsätta slå ihjäl den döda hästen nu och ha det så bra ni kan ha det .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Avstängd
Skrivet av ottoblom:

wow tänk om ändå någon skulle kunna förklara vad en fanboy som spelar på sitt 4090 har med att minnet tar slut på 3070 och 3080 i nya spel o göra ? men ni har säkert rätt naturligtvis skall 3060 prestera bättre än 3080 i nya spel . Ni får fortsätta slå ihjäl den döda hästen nu och ha det så bra ni kan ha det .

Vem av oss sitter på ett 4090? Svårt att ens veta vad du säger..

Gissar på personen ovanför. Men de förespråkar inte mer VRAM. Utan att helt enkelt anpassa sina inställningar efter hårdvaran. Vilket alla bör göra för att maximera Prestanda vs Grafikkvalitet. Något som alla bör vara väl medvetna om på ett Hårdvaruforum oavsett.

När Cyberpunk kom ut så förespråkade alla High > Ultra, även på den dyraste hårdvaran, för att den visuella skillnaden var totalt obefintlig, där vissa inställningar kan dras ned till Medium! utan att någon ser skillnad. Men i Hogwarts så verkar detta inte längre stämma.

Och ingen av oss har sagt att ett 3060 ska prestera bättre än 3080.

Permalänk
Medlem
Skrivet av ottoblom:

wow tänk om ändå någon skulle kunna förklara vad en fanboy som spelar på sitt 4090 har med att minnet tar slut på 3070 och 3080 i nya spel o göra ? men ni har säkert rätt naturligtvis skall 3060 prestera bättre än 3080 i nya spel . Ni får fortsätta slå ihjäl den döda hästen nu och ha det så bra ni kan ha det .

Är det jag som är en fanboy?

Jag sa precis att man får köpa precis vilket grafikkort man vill, och man skall köpa ett som fungerar bra för sitt ändamål. Det kan var Nvidia, AMD eller t.o.m Intel om man har något viktigt case där det fungerar bra. Ni får jättegärna äga och tycka att AMD kort är perfekta.

Men kom inte och säg vad andra skall tycka, eller hur andra skall använda sin hårdvara. Det kanske är ok för dom med ett 3080 att sänka någon setting och vara på banan igen? Det rör sig ju om en scen i ett ganska broken spel här. Men det kommer bli mer framöver. Då kommer ni naturligtvis vara framme med pekpinnen igen. Jag har två 3070 i familjen, som fungerar jättebra och kommer fungera många år till, och det kommer det göra oberoende av vad ni hittar för edge-case som visar att det är färdigt nu.

En fanboy kännetecknas av att man tycker att andra köper fel hårdvara, försöker få andra att köpa hårdvara man förespråkar. Man har någon slags personlig vinning i det. Tycker du att jag verkar sådan? Jag skiter fullkomligt i hur andra spenderar sina pengar, och jag ogillar folk som bryr sig om hur jag spenderar mina.

Permalänk
Medlem

Sjääälvklart anpassar man settings utifrån vad ens kort kan prestera. Det är däremot intressant att veta vart gränsen går. I det här spelet kan du få stora problem om du vill lira RT på ultra. Det är extra intressant då det inte handlar om kortets grundprestanda utan att det är bristen på VRAM som sätter käppar i hjulet. Detta är ganska eller faktiskt extremt ovanligt för endast en generation gamla kort.

Om detta är ett kasst optimerat spel eller en indikation på framtiden, ja det vet vi inte men oavsett så har Nvidias snålhet med VRAM visat sig vara ett problem för de som är ute efter allt ögongodis i det här spelet.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av Clasito:

Sjääälvklart anpassar man settings utifrån vad ens kort kan prestera. Det är däremot intressant att veta vart gränsen går. I det här spelet kan du få stora problem om du vill lira RT på ultra. Det är extra intressant då det inte handlar om kortets grundprestanda utan att det är bristen på VRAM som sätter käppar i hjulet. Detta är ganska eller faktiskt extremt ovanligt för endast en generation gamla kort.

Om detta är ett kasst optimerat spel eller en indikation på framtiden, ja det vet vi inte men oavsett så har Nvidias snålhet med VRAM visat sig vara ett problem för de som är ute efter allt ögongodis i det här spelet.

På en liknande note, är detta verkligen på riktigt? Jag frågar faktiskt för att jag går i uppgraderingstankar på grabbens dator, han sitter med en 3700x.

https://www.youtube.com/watch?v=Ab6xzrI7ohc&t=85s

Att det någon gång skulle komma ett spel som får cachen att rinna över på 5800x3d var väl väntat, men har det redan hänt? Självklart är det hogwarts också. Det mest optimerade liret i stan. Med raytracing. Han får liksom 30fps... Gör han något uppenbart fel? Sitter någon här på en 5800x3d med ett 4000 kort som kan förklara detta?

Permalänk
Medlem
Skrivet av Lussarn:

På en liknande note, är detta verkligen på riktigt? Jag frågar faktiskt för att jag går i uppgraderingstankar på grabbens dator, han sitter med en 3700x.

https://www.youtube.com/watch?v=Ab6xzrI7ohc&t=85s

Att det någon gång skulle komma ett spel som får cachen att rinna över på 5800x3d var väl väntat, men har det redan hänt? Självklart är det hogwarts också. Det mest optimerade liret i stan. Med raytracing. Han får liksom 30fps... Gör han något uppenbart fel? Sitter någon här på en 5800x3d med ett 4000 kort som kan förklara detta?

Är det Buggen som kickat in ? https://twitter.com/HardwareUnboxed/status/162379368443638169...

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Angående mindre Cuda kärnor så gäller väl det nedanför?

  • Folk på Gameclockers.se
    Det kvittar det påverkar ej spel.

  • Folk på Aiclockers.se
    Nvidia kan ta och stoppa upp sitt Geforce RTX 4060 någonstans.

Det måste råda något missförstånd gällande första delen, då det i allra högsta grad påverkar spel? Eller så förstår jag inte vad som avses...

Hursomhelst:
Vad Nvidia kallar "CUDA Cores" är funktionellt motsvarande vad AMD kallar "Stream Processors", dvs beräkningsenheterna som används för allmänna GPU-beräkningar. På moderna GPUer så används dessa beräkningsenheter för "shaders" såväl som GPGPU-beräkningar, och är alltså helt avgörande för spelprestanda.

Sedan har Nvidia två andra typer av kärnor: RT (relevant för raytracing) respektive Tensor (för AI-applikationer, inte typiskt spel).

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av Lussarn:

På en liknande note, är detta verkligen på riktigt? Jag frågar faktiskt för att jag går i uppgraderingstankar på grabbens dator, han sitter med en 3700x.

https://www.youtube.com/watch?v=Ab6xzrI7ohc&t=85s

Att det någon gång skulle komma ett spel som får cachen att rinna över på 5800x3d var väl väntat, men har det redan hänt? Självklart är det hogwarts också. Det mest optimerade liret i stan. Med raytracing. Han får liksom 30fps... Gör han något uppenbart fel? Sitter någon här på en 5800x3d med ett 4000 kort som kan förklara detta?

Så han kör 4k native RT med ett 4080 och tror att han ska få bra prestanda? Vilket skämt, köp ett 4090 och prova igen..

Permalänk
Medlem

Läste tråden, Hogwarts verkar ju vara helt broken.

Man skall väl vara glad att Steve inte tog hela AM4 lineupen och kastade i papperskorgen som obsolete.

Istället gick han för det snäppet mildare "bug" denna gång.

Permalänk
Medlem
Skrivet av anden55:

Så han kör 4k native RT med ett 4080 och tror att han ska få bra prestanda? Vilket skämt, köp ett 4090 och prova igen..

Kortet går på 70% max, det är inte GPU som sätter stopp. Säger inte att det är CPU heller, kan ju vara minnet också. Men det är absolut inte GPU.

Permalänk
Avstängd
Skrivet av anden55:

Så han kör 4k native RT med ett 4080 och tror att han ska få bra prestanda? Vilket skämt, köp ett 4090 och prova igen..

Det han skrev handlade väl snarare om 5800X3D?

Denna kan vara värd för alla att titta på.

Permalänk
Medlem
Skrivet av Nozomi:

Det han skrev handlade väl snarare om 5800X3D?

Denna kan vara värd för alla att titta på.
https://youtu.be/N0mWVLhy954

"...average frame rate is below 30fps. This is a 1200 $ graphics card, this is absolutely pathetic.."

Även om CPU inte hade flaskat så är 4080 inte ett vettigt kort för 4k RT i tungdrivna spel. Finns ett kort som kommer i närheten och det är 4090.

Permalänk
Medlem
Skrivet av Clasito:

Sjääälvklart anpassar man settings utifrån vad ens kort kan prestera. Det är däremot intressant att veta vart gränsen går. I det här spelet kan du få stora problem om du vill lira RT på ultra. Det är extra intressant då det inte handlar om kortets grundprestanda utan att det är bristen på VRAM som sätter käppar i hjulet. Detta är ganska eller faktiskt extremt ovanligt för endast en generation gamla kort.

Om detta är ett kasst optimerat spel eller en indikation på framtiden, ja det vet vi inte men oavsett så har Nvidias snålhet med VRAM visat sig vara ett problem för de som är ute efter allt ögongodis i det här spelet.

Ganska kul ändå att Arc 770 > 7900 xtx. Grymt optimerat spel verkar det som!

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

<Uppladdad bildlänk>

Ganska kul ändå att Arc 770 > 7900 xtx. Grymt optimerat spel verkar det som!

6600xt = 1fps. Ppt settings 😎

Riktigt lustigt spel detta. Snacka om att prestandan är all over the place.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av Swedishchef_90:

Ganska kul ändå att Arc 770 > 7900 xtx. Grymt optimerat spel verkar det som!

Haha, allt detta är verkligen underhållande läsning! Min fästmö spelar järnet på en "klen" XSX, och med senaste patchen rullar det ändå halvbra även med RT påslaget. Oklart vad den verkliga upplösningen är, och FSR gör verkligen inte ett vackert jobb (hon märker dock inte sånt).

Varför diffar resultaten så stort mot Techspots test? Där behövde dom inte köra RT low för att få bättre än diabildsprojektion?

Kanske är problemen helt enkelt spelets natur med en stor open world och sjukt mycket assets. VRAM usage tycker jag inte är helt orimligt givet detta.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av anden55:

Så han kör 4k native RT med ett 4080 och tror att han ska få bra prestanda? Vilket skämt, köp ett 4090 och prova igen..

Så du menar att man inte ska kunna förvänta sig minst 60fps i 4k med nytt graffikort för 16000kr ?

Visa signatur

AMD® RYZEN™ 5 5600X
Red Devil Ultimate RX 6900 XT 16GB
Asus Rog Strix F-GAMING B450
HyperX Fury 32GB DDR4 3200 MHZ
Mobil: Google Pixel 7 PRO

Permalänk
Medlem
Skrivet av Felixark:

Så du menar att man inte ska kunna förvänta sig minst 60fps i 4k med nytt graffikort för 16000kr ?

Nope, det klarar nästan ingen gpuer i dem bästa spelen. Kolla på crysis 😁

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25