Gainward bekräftar specifikationer för Geforce RTX 3080 och RTX 3090

Permalänk
Medlem
Skrivet av Snabbt_o_Hårt:

Turing Memory Compression

NVIDIA GPUs utilize several lossless memory compression techniques to reduce memory bandwidth demands as data is written out to frame buffer memory. The GPU’s compression engine has a variety of different algorithms which determine the most efficient way to compress the data based on its characteristics. This reduces the amount of data written out to memory and transferred from memory to the L2 cache and reduces the amount of data transferred between clients (such as the texture unit) and the frame buffer. Turing adds further improvements to Pascal’s state-of-the-art memory compression algorithms, offering a further boost in effective bandwidth beyond the raw data transfer rate increases of GDDR6. As shown in Figure 10, the combination of raw bandwidth increases, and traffic reduction translates to a 50% increase in effective bandwidth on Turing compared to Pascal, which is critical to keep the architecture balanced and support the performance offered by the new Turing SM architecture.https://developer.nvidia.com/blog/nvidia-turing-architecture-in-depth/

50% över Pascal låter lite för bra för att vara sant

Permalänk
Medlem
Skrivet av ipac:

Och? Det är klart som fan att 3090 är dyrare än 2080? Och att 2080 är, om än inte mkt, dyrare än 1080.

Varför är det klart? För att det var dyrare att utveckla/tillverka? Stämmer ej då Nvidia på Applestil höjde marginalerna rejält.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av EvonS:

Varför är det klart? För att det var dyrare att utveckla/tillverka? Stämmer ej då Nvidia på Applestil höjde marginalerna rejält.

Har du någon källa för ditt påstående?

Permalänk
Medlem
Skrivet av Puttefnasket:

Har du någon källa för ditt påstående?

Räcker cäl o se att vinsterna ökade trots mindre försäljning eller?

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av EvonS:

Räcker cäl o se att vinsterna ökade trots mindre försäljning eller?

Datacenter +167% jämfört med förra året
https://www.sweclockers.com/nyhet/30229-datacenter-vaxer-sig-...

Permalänk
Medlem
Skrivet av medbor:

50% över Pascal låter lite för bra för att vara sant

Det inkluderar ju den högre klocken av minnet också.

Permalänk
Medlem
Skrivet av seraj5:

Rip itx användare med den TDPen

Tbp är inte samma som tdp har vi tur blir det prestanda istället för värme men med de massiva kylarna ser det inte ljust ut.
Personligen kommer jag vänta på navi och se vad dom kan göra.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av wargreymon:

Att lägga en hel månadslön på ett kort låter korkat. Oavsett om kortet kostar 4000:- eller 20000:-. Om tur är finns det ju billigare modeller som levererar bra prestanda också. Kör man 1080p klarar man sig med ett kort för runt 2500:- idag och kan fläska på med ultra och få 60-100FPS.

Sen finns vi som kör 1080p med hög hz skärm. Många som "missar" oss. Kan köpa ett kort för 2500kr vilket då gör min 144hz skärm värdelös. Eller tänk dom med 250hz skärm eller högre. Vill man njuta av en sådan skärm i spel krävs det hög fps vilket ökar kravet på ett bra och snabbt grafik kort. Enligt egen erfarenhet är "dippar" nått man även vill hålla sig borta ifrån och billiga kort kan ibland droppa rätt lågt där.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Sen finns vi som kör 1080p med hög hz skärm. Många som "missar" oss. Kan köpa ett kort för 2500kr vilket då gör min 144hz skärm värdelös. Eller tänk dom med 250hz skärm eller högre. Vill man njuta av en sådan skärm i spel krävs det hög fps vilket ökar kravet på ett bra och snabbt grafik kort. Enligt egen erfarenhet är "dippar" nått man även vill hålla sig borta ifrån och billiga kort kan ibland droppa rätt lågt där.

Eh, ja? Kräver man lyxigare upplevelse får man ju helt enkelt lägga mer pengar på det, men 1080p 60FPS anses vara en behaglig upplevelse för de flesta, och det har ut aldrig varit så billigt att få ut det. 144FPS i 1080p är nästan lika krävande som 60FPS 4K.

Permalänk
Medlem

Stämmer det att 3070 ligger runt 2080 ti-prestanda och 500-600 dollar kan det bli "sweet-spot". Men 8 gb vram känns lite snålt tilldraget. Release runt början på oktober, då borde RDNA 2 vara relativt nära?

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Medlem
Skrivet av medbor:

50% över Pascal låter lite för bra för att vara sant

Här har du Nvidias förstudie som gjorde att man kunde öka 50% mellan 1080Ti och 2080Ti https://research.nvidia.com/sites/default/files/pubs/2015-05_Toggle-aware-compression-for/CAL-paper-final.pdf

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Skrivet av ipac:

Och? Det är klart som fan att 3090 är dyrare än 2080? Och att 2080 är, om än inte mkt, dyrare än 1080.

Vi kan jämföra med 2080 Ti som är väl det man ska jämföra med. Det kostade 999 dollar vid release.. Menar du att dessa korten inte tar ett rejält steg upp i pris?? Det vill till att prestandan tar ett rejält kliv upp för att motivera priset och ändå då kommer många helt enkelt anse det vara överprisat.

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Medlem
Skrivet av wargreymon:

Eh, ja? Kräver man lyxigare upplevelse får man ju helt enkelt lägga mer pengar på det, men 1080p 60FPS anses vara en behaglig upplevelse för de flesta, och det har ut aldrig varit så billigt att få ut det. 144FPS i 1080p är nästan lika krävande som 60FPS 4K.

Ja så även 1080p folket kan ha stor nytta av biffigt kort.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Snabbt_o_Hårt:

Här har du Nvidias förstudie som gjorde att man kunde öka 50% mellan 1080Ti och 2080Ti https://research.nvidia.com/sites/default/files/pubs/2015-05_Toggle-aware-compression-for/CAL-paper-final.pdf

Jag läste lite snabbt... trodde det handlade om kompimeringseffektivitet inte effektiv bandbredd...

I så fall vinner väl ändå många med HBM över dessa...

Edit: 616/484 ~ +30% bara på rå bandbredd, i så fall är komprimeringen inte så mycket bättre trots ’deep learning’ och annat fuffens

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Ja så även 1080p folket kan ha stor nytta av biffigt kort.

Mitt första inlägg syftade givetvis på normen att sträva efter 60FPS som de flesta gör.

Permalänk
Medlem

Det är ju en klar fördel för både Microsoft och Sony att grafikkortspriserna går upp. Fler väljer en billig konsol istället för en PC för endast spel.

Permalänk
Medlem

Jag reagerar mest på strömförbrukningen! Hoppas kylningen blir bra och korten tysta!

Min elräkning kommer nog inte tycka om detta!

Jag komemr vänta med köp tills något riktigt bra spel dyker upp som kräver typ ett RTX 3080 för att flyta på bra med RTX på.

Undrar om de kommer en uppföljnings serie med Super efteråt tex: RTX 3080 Super (typ något år senare)

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Medlem
Skrivet av Xverminator:

Jag reagerar mest på strömförbrukningen! Hoppas kylningen blir bra och korten tysta!

Min elräkning kommer nog inte tycka om detta!

Jag komemr vänta med köp tills något riktigt bra spel dyker upp som kräver typ ett RTX 3080 för att flyta på bra med RTX på.

Undrar om de kommer en uppföljnings serie med Super efteråt tex: RTX 3080 Super (typ något år senare)

Med tanke på luckorna kan jag tänka mig att vi kommer få se TI-modeller om ett halvår/år. Räknar med ett 3080Ti som hamnar nära 3090 i spelprestanda, men mindre minne, typ 12-16GB. Verkar ju även finns utrymme för 3070Ti.

Permalänk
Medlem
Skrivet av wargreymon:

Med tanke på luckorna kan jag tänka mig att vi kommer få se TI-modeller om ett halvår/år. Räknar med ett 3080Ti som hamnar nära 3090 i spelprestanda, men mindre minne, typ 12-16GB. Verkar ju även finns utrymme för 3070Ti.

De enda alternativen är ju 11/12/20/22 (inga andra) om de vill bibehålla prestandan på minnet och inte ha två delar som beter sig helt annorlunda...

Rimligast känns ett 2080ti med de flesta kärnorna kvar men med 12GB istället

Permalänk
Medlem

Pga coronan blev det inga resor för mig i år, vilket var trist..men å andra sidan sparade jag pengar som jag kan lägga på ett 3090 istället

Permalänk
Medlem
Skrivet av wargreymon:

Mitt första inlägg syftade givetvis på normen att sträva efter 60FPS som de flesta gör.

Över 60 fps, kör man v sync och får en dipp till säg 56 fps så får man en riktigt otrevlig upplevelse varje gång det händer.
Absolut minimum måste vara 60 fps eller över såvida man inte har free eller g sync. Frågan är om ett kort för 3000kr klarar det med allt på ultra i 1080p?

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Inaktiv
Skrivet av Xverminator:

Jag reagerar mest på strömförbrukningen! Hoppas kylningen blir bra och korten tysta!

Min elräkning kommer nog inte tycka om detta!

Jag komemr vänta med köp tills något riktigt bra spel dyker upp som kräver typ ett RTX 3080 för att flyta på bra med RTX på.

Undrar om de kommer en uppföljnings serie med Super efteråt tex: RTX 3080 Super (typ något år senare)

Strömförbrukningen och vad det innebär för kylning och ljudnivå är ett större problem för mig än vad priset blir. Intressant att se vad som släpps men blir att invänta något effektivare troligen.

Så 7nm, eller vem vet, 5nm, TSMC Super-kort är nog vad det blir om jag köper Nvidia. Extremt jobbigt om mitt nuvarande kort dör imorrn dock, men har ett 1070 att halta mig fram på isåfall.

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Över 60 fps, kör man v sync och får en dipp till säg 56 fps så får man en riktigt otrevlig upplevelse varje gång det händer.
Absolut minimum måste vara 60 fps eller över såvida man inte har free eller g sync. Frågan är om ett kort för 3000kr klarar det med allt på ultra i 1080p?

Varför kör man Vsync 2020? Adaptive all the way om man inte har en stenåldersskärm... sen tror jag många inte har problem att köra helt utan sync och även under 60 är acceptabelt. Kan inte gatekeepa budgetgaming på grund av dina egna krav. Man spelar på det man har råd med eller det man har i alla fall, sen är det ofta långt från optimalt...

Permalänk
Medlem
Skrivet av Shiprat:

Så dyrt = för dyrt för att någon ska kunna köpa det?

Tror inte någon menar att det är dyrt för att någon ska kunna köpa det, snarare att det upplevs dyrt jämfört med vad man är van med att få för pengarna?

Ja och nej.

Jag kan tycka att en viss sak är dyr, samtidigt som någon annan kan tycka att den är jättebillig.

Allmänt kan man väl säga att en sak är "dyr" när majoriteten inte har råd att betala.

Skrivet av medbor:

Varför kör man Vsync 2020? Adaptive all the way om man inte har en stenåldersskärm... sen tror jag många inte har problem att köra helt utan sync och även under 60 är acceptabelt. Kan inte gatekeepa budgetgaming på grund av dina egna krav. Man spelar på det man har råd med eller det man har i alla fall, sen är det ofta långt från optimalt...

För att man inte ändrar ifrån "default" inställningar kanske? Har inte gjort det själv.

Permalänk
Medlem
Skrivet av Kaine_Uro:

Det är ju en klar fördel för både Microsoft och Sony att grafikkortspriserna går upp. Fler väljer en billig konsol istället för en PC för endast spel.

Ingen skillnad nu mot föregående generation skulle jag påstå.

Permalänk
Medlem

Lulz.. folk som tycker det är dyrt med datorprylar kan ju återkomma när dom ska köpa bil gällande vad som är "dyrt"

Ja nVidia tar betalt för sina prylar... det gör precis vem som helst som kan.
Apple gör precis samma sak... Porsche likaså.

Ni har alltid valet att inte köpa.

Visa signatur

WS: R7 5800X, 32GB, Suprim X 3080, Acer X38P+Acer XB271HU
FS: HPE ML110 Gen10 Xeon Silver, Qnap TS-h973AX ~100TB
NW: Fortigate, Ruckus, Zyxel XS1930HP 10Gb

Permalänk
Medlem

Hur många vet att de ska köpa kortet härinne? Tänker om man behöver förbereda en manifestation mot regeringen att starta upp de reaktorer som ”nyss” stängt och förbereda för ett helt nytt kärnkraftverk.

Sanslösa siffror om de nu stämmer (vilket de verkar göra), elektronikbranschen kommer gynnas då de som inte har AC kommer behöva skaffa sig sådana med, bra snurr på dominoeffekten verkar det bli.

Visa signatur

Har numera en Laptop från gigabyte.

Permalänk
Medlem
Skrivet av medbor:

Varför kör man Vsync 2020? Adaptive all the way om man inte har en stenåldersskärm... sen tror jag många inte har problem att köra helt utan sync och även under 60 är acceptabelt. Kan inte gatekeepa budgetgaming på grund av dina egna krav. Man spelar på det man har råd med eller det man har i alla fall, sen är det ofta långt från optimalt...

Klart jag kan gatekeepa budget gaming på mina egna krav liksom du kan utefter dina krav?
Många som inte är nördar som oss vet inte vad g sync eller free sync är och förvånande många har gamla skärmar. Min bror bytte nyligen sin skärm från 2007.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av medbor:

Adaptive all the way om man inte har en stenåldersskärm...

Jag har en skärm för yrkesbruk (foto/video), den har inte adaptive. Körde förut en Asus ROG gamingskärm men den var för dålig att redigera på.

Visa signatur

SPELA: 13900K - Gaming X Trio 4090
LEVA: OnePlus 12 - MacBook Air M2 13"
PLÅTA: Canon C70, R3, 1DX mkII, BMPCC6K
LYSSNA: KRK Rokit RP8 G4, Beyerdynamic DT 1990 PRO
FLYGA: DJI FPV, Avata

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Klart jag kan gatekeepa budget gaming på mina egna krav liksom du kan utefter dina krav?
Många som inte är nördar som oss vet inte vad g sync eller free sync är och förvånande många har gamla skärmar. Min bror bytte nyligen sin skärm från 2007.

Men en sån person ser oftast inte skillnad på 30 eller 60 med vsync eller tearing eller om spelet kör 40 eller 70 fps heller för den delen... man spelar för att det är kul och inte för att tekniken är perfekt. Tror du skulle bli förvånad av vad mitt bästa grafikkort är. Troligen sitter det i telefonen som jag skriver detta på?

Finns sådana extrema nivåer av gaming och potatisar som driver spelen att ens diskutera vsync och om ett grafikkort för 2000kr räcker är för mig helt fel... en begagnad GPU för under 500kr eller något man hittar i el-soporna eller fått av en kompis räcker extremt bra till de allra flesta spelen... jag spelade Battlefield 2 på en Pentium 2 till och med (med typ 10 FPS men ändå...)