Nvidia: "Moores lag är död"

Permalänk
Medlem

Fast positivt för Intel, eftersom Nvidias nya generation inte är ersättare för den gamla, så om de kan konkurrera med 30xx med pris/prestanda så är loppet inte kört.

Permalänk
Quizmaster Malmö 22

Översättning: Betala mer!

Skrivet av medbor:

Något som många missar:
DLSS3 skapar bildrutor mellan de renderade bildrutorna som inte existerar egentligen
DLSS2 skalar upp låg upplösning till något högre

Att försöka jämföra dessa två på FPS-nivå är totalt felaktigt, det är väsenskilda saker

Det är väl ändå resultatet som räknas?
Upplever man att flyter på i 100 FPS och man ej kan se att det är DLSS så får man ju räkna det som 100 FPS

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av källarinvånare:

Väldigt bra video, den klart bästa jag sett i sammanhanget när priserna på grafikkort diskuteras.

Det är ju så här i Sverige också när man tittar på hur t.ex. vissa livsmedel gått upp med 50% i pris på kort tid, medan flertalet lyssnat på gammelmedia som spytt ut att "Sveriges ekonomi går så bra". Det finns ju dessutom en etablerad strategi sedan länge från Riskbanken att se till att göra den svenska kronan värdelös så att 'exportindustrin gynnas', så det borde inte komma som en jättechock att prislapparna successivt rör sig uppåt på allt som måste importeras så länge de får hållas.

Permalänk
Medlem
Skrivet av Maaxan:

USA har moms också, det är dock inte medräknat i angivet msrp på tex 899$.

Så vitt jag vet är moms (vat) aldrig inräknat i angivna priser i usa, inte ens i butik. Finns många historier om turister som får en smärre chock när dom ser kvittot i tron att det minsann är billigt där.

Har för mig deras sales tax (vat) inte finns i alla delstater däremot.

Permalänk
Medlem
Skrivet av Yoshman:

De flesta har koll på det, men skriver det ändå: Moores lag är egentligen ingen lag, utan en skarpsynt observation som råkade vara relativ korrekt under flera årtionden.

Finns flera sätt att beskriva samma sak mot bakgrund av den observation som gjordes då det länge var ungefär samma kostnad att tillverka integrerade kretsar räknat per kretsyta.

Moores lag kan då både beskrivas som: transistordensiteten fördubblas ungefär var 18-24 månad
eller som: kostnad för att tillverka en krets med X antal transistorer halveras ungefär var 18-24 månad

Det som började spåra ur när man gick under 30 nm strecket var att kostnad per area-enhet inte längre var närheten konstant, det är betydligt dyrare att tillverka en 100 mm2 krets på 5 nm än på 7 nm.

Ovanpå det "dog" en annan lag runt 40-60 nm, Dennard scaling, som sa att energieffektiviteten fördubblades i takt med ökning av transistordensitet. När denna lag "dog" blev det inte längre hållbart att öka frekvenserna med nya noder då det ökade effekten.

Så går fortfarande att tillverka allt mer komplexa kretsar, men det blir tyvärr dyrare och strömtörstigare räknat med mm2 kisel om man bara krymper. I praktiken kan man använda en mer komplex design till att göra den mer energieffektiv, men "fria lunchen" man hade med Dennard scaling är borta. Och nu är även kostnadbesparingen nästan borta.

Säger inte att Nvidia exakt följt prisutvecklingen, de verkar ha skruvat upp marginalerna (vilket de tyvärr kan göra då de bl.a. är så totalt dominerade på programvarusidan), men framåt kommer det tyvärr bara bli dyrare och dyrare att tillverka kretsar av en viss storlek

Yoshman, väl omtyckt, ofta nyanserande om ämnen, vad tycker du om priserna? Är de motiverade om en tänker på att
1. GeForce ej är Nvidias main revenue (rätta mig gärna om jag har fel här)
2. Om inte tillräckligt många köper GeForce kort kommer alla spelutvecklare skita blankt i att implementera deras tekniker om inte Nvidia betalar dem friskt (känns som dålig affärside i längden)
3. Mining kommer inte vara lika aktuellt för 4xxx serien

Min fråga är då, vem är gpu:erna i 4xxx serien till för?

Jag fattar inte genuint hur Nvidia tänker här.

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Medlem
Skrivet av Sveklockarn:

Väldigt bra video, den klart bästa jag sett i sammanhanget när priserna på grafikkort diskuteras.

Det är ju så här i Sverige också när man tittar på hur t.ex. vissa livsmedel gått upp med 50% i pris på kort tid, medan flertalet lyssnat på gammelmedia som spytt ut att "Sveriges ekonomi går så bra". Det finns ju dessutom en etablerad strategi sedan länge från Riskbanken att se till att göra den svenska kronan värdelös så att 'exportindustrin gynnas', så det borde inte komma som en jättechock att prislapparna successivt rör sig uppåt på allt som måste importeras så länge de får hållas.

Jag hoppas att AMD inte hade en aning om att nvidia bara skulle lägga på 4000-serien ovanpå till ett högre pris och fortsätta med 3000-serien, så att AMD bara har planerat att 7900xt ska ersätta 6900xt och konkurrera med 4090, för ungefär samma MSRP som förra gången, precis som vanligt.

Då har de en enorm möjlighet just nu för deras kort kommer att vara mycket billigare, som 6000-seriens MSRP och ersätter 6000-serien, så priserna är som nvidia 3000, men som konkurrerar med nvidia 4000.

Permalänk
Medlem
Skrivet av Rebe1:

Du kan glömma du ser 3080 råprestanda på 4060. Isf du ska hålla tummarna för RX 7600 XT istället...

Det va 4060Ti mer exakt som ryktet säger ska kunna va snabbare än 3080 men jag är ändå skeptisk. Ska bli intressant helt klart att se var AMD hamnar någonstans imed sin prestanda då jag gärna skulle gå tillbaka till AMD.

Permalänk
Medlem
Skrivet av Campaigner:

Översättning: Betala mer!

Det är väl ändå resultatet som räknas?
Upplever man att flyter på i 100 FPS och man ej kan se att det är DLSS så får man ju räkna det som 100 FPS

Jag skulle dock vilja se jämförande tester, jämförelse med andra ’frame doubling’ tekniker som redan finns (på t.ex. tv för sport) och så

Jag säger inte alls att dlss3 är meningslöst eller fusk på något sätt, det är bara en fundamentalt annan typ av lösning och kräver grundliga test/jämförelser för att kunna bevisas att den gör något bra. vanliga effekten av att skapa ’mellan-rutor’ brukar vara ökad fördröjning, och om den helt chansar in i framtiden lär det komma med ganska tydliga artefakter

Ska bli väldigt kul att se vad den erbjuder, men just nu är det alldeles för tidigt att bara jämföra fps mellan lösningarna. Om alla test visar liknande siffror för latens och artefakter är jag absolut positivt inställd, dock känner jag att det är för tidigt att dra dessa slutsatser ännu

Permalänk
Medlem
Skrivet av medbor:

Jag skulle dock vilja se jämförande tester, jämförelse med andra ’frame doubling’ tekniker som redan finns (på t.ex. tv för sport) och så

Jag säger inte alls att dlss3 är meningslöst eller fusk på något sätt, det är bara en fundamentalt annan typ av lösning och kräver grundliga test/jämförelser för att kunna bevisas att den gör något bra. vanliga effekten av att skapa ’mellan-rutor’ brukar vara ökad fördröjning, och om den helt chansar in i framtiden lär det komma med ganska tydliga artefakter

Ska bli väldigt kul att se vad den erbjuder, men just nu är det alldeles för tidigt att bara jämföra fps mellan lösningarna. Om alla test visar liknande siffror för latens och artefakter är jag absolut positivt inställd, dock känner jag att det är för tidigt att dra dessa slutsatser ännu

Det som dlss3 gör borde väl nästan gå att göra för vem som helst egentligen? Ett litet program som bara lägger till en extra "utjämnad" bildruta mellan de två nästa bildrutorna?

Har inte googlat men det skulle inte förvåna mig om såna program redan finns

edit: http://www.cgchannel.com/2022/07/get-free-ai-based-frame-inte...

Permalänk
Medlem
Skrivet av cosplay:

Det som dlss3 gör borde väl nästan gå att göra för vem som helst egentligen? Ett litet program som bara lägger till en extra "utjämnad" bildruta mellan de två nästa bildrutorna?

Ja precis, men det du effektivt gör då är ju att vänta med att visa den nyaste bildrutan och därmed ökar latensen

Exakt så har ju 200Hz+ på TV fungerat sedan hedenhös. Det fungerar dock oftast väldigt dåligt för spelande, både artefakter och ökad latens och en ’falsk’ högre siffra i antal bildrutor

Jag både tror och hoppas att Nvidia gjort något bättre här, men därför vill jag vänta och se först

Permalänk
Medlem
Skrivet av medbor:

Ja precis, men det du effektivt gör då är ju att vänta med att visa den nyaste bildrutan och därmed ökar latensen

Exakt så har ju 200Hz+ på TV fungerat sedan hedenhös. Det fungerar dock oftast väldigt dåligt för spelande, både artefakter och ökad latens och en ’falsk’ högre siffra i antal bildrutor

Jag både tror och hoppas att Nvidia gjort något bättre här, men därför vill jag vänta och se först

Jo jag förstår hur det funkar och det skulle jag aldrig någonsin använda frivilligt förutom på långsamma singleplayer-spel.

Permalänk
Medlem

http://www.cgchannel.com/2022/07/get-free-ai-based-frame-inte...

Det finns redan för annat så det borde inte vara omöjligt att göra någon "rå" version som fungerar i spel för vilket grafikkort som helst?

Permalänk
Medlem
Skrivet av cosplay:

http://www.cgchannel.com/2022/07/get-free-ai-based-frame-inte...

Det finns redan för annat så det borde inte vara omöjligt att göra någon "rå" version som fungerar i spel för vilket grafikkort som helst?

Skillnaden på detta är såklart att kunna göra det i realtid och utan att ha tillgång till alla frames. I spel kan de också ha annan metadata som vilka områden som rör sig åt olika håll, z-buffer, hur kameran förflyttas…

Men grunden är ju att du behöver ha nästa bild för att kunna gissa vad som ska vara mellan. Har du inte nästa bild bör din gissning missa ganska ofta. Om du redan har nästa bildruta bör det ju alltid vara bättre att bara visa den än att visa en påhittad ruta först

Permalänk
Medlem

Kommer man inte på nåt bra sätt att öka raster(?)prestandan på hårdvarunivå så får man vända sig till svartmagi(mjukvara) och diverse acceleratorer för att öka prestandan för slutkund.
Hoppas att satsningar på detta på sikt kan få ner priserna man får betala och energianvädningen men jag tror inte det är troligt.

Permalänk
Medlem

75 ms latency native 1440p, 53 ms latency med DLSS3.

https://videocardz.com/newz/nvidia-shows-geforce-rtx-4090-run...

Permalänk
Medlem
Skrivet av ipac:

75 ms latency native 1440p, 53 ms latency med DLSS3.

https://videocardz.com/newz/nvidia-shows-geforce-rtx-4090-run...

Ska bli kul att se vad det betyder sen, men det slig mig att:

FPS (Average) 59.9 170.7
FPS (1% Lows) 49.3 119.6
FPS (Min) 40.6 91.2
Latency (Average) 75.4ms 53.5ms

75.4 ms vid 59.9
Borde alltså betyda att
53.5 ms motsvarar då ca 84,4 fps

Fps som visas är de dubblerade siffran på 170.7 (ungefär dubbla av 84.4). Men latensen är alltså dubbla denna frekvens.

Bildrutefördubblingen ger alltså ingen magisk sänkning av latensen, dlss2 lär ge samma effekt, det är baserat på lägre renderingsupplösning och mer fps. Spännande dock att inte dubbleringen ska ge någon ökning i det här fallet, men detta är inte så komplett test vad jag kan se

Permalänk
Medlem
Skrivet av ipac:

75 ms latency native 1440p, 53 ms latency med DLSS3.

https://videocardz.com/newz/nvidia-shows-geforce-rtx-4090-run...

Men den 53 ms är antingen med eller utan interpolering. Är den utan interpolering, så är det 53 ms även med dlss 2 utan interpolering, och är det 53 ms med interpolering, så är det högre än vad det är utan interpolering.

Permalänk
Medlem

Från denna tråd på reddit. Ser ju just nu inte ut som en speciellt bra bra utveckling ens när man inflationsjusterat priserna, även "billiga" 4080 12GB ligger prismässigt som historiskt högsta pris för 80-klassen.

Permalänk
Datavetare
Skrivet av FierceBrosnan:

Yoshman, väl omtyckt, ofta nyanserande om ämnen, vad tycker du om priserna? Är de motiverade om en tänker på att
1. GeForce ej är Nvidias main revenue (rätta mig gärna om jag har fel här)
2. Om inte tillräckligt många köper GeForce kort kommer alla spelutvecklare skita blankt i att implementera deras tekniker om inte Nvidia betalar dem friskt (känns som dålig affärside i längden)
3. Mining kommer inte vara lika aktuellt för 4xxx serien

Min fråga är då, vem är gpu:erna i 4xxx serien till för?

Jag fattar inte genuint hur Nvidia tänker här.

GeForce var länge Nvidias största inkomstkälla, men datacenter delen står för allt större andel och är numera deras största inkomstkälla.

"Problemet", framförallt för professionell användning, är att Nvidia har i praktiken en monopolställning då ingen annan kan konkurrera med den bredd av programvara man får om man kör Nvidia.

AMD har förhoppningsvis börjat få de finansiella muskler som behövs, men de har inget idag som är i närheten av de Nvidia byggt kring CUDA. Det typiska är att Nvidia har både mer funktioner som är GPU-accelererade + när det finns för andra GPUer presterar det bäst på Nvidia (se t.ex. 3D rendering, Nvidia Optix är i en klass för sig).

Intel har i nuläget inget att komma med men de fattar i alla fall hur kritiskt programvaran är då de jobbat på deras OneAPI flera år redan (så om/när deras GPUer kanske de har OK programvara för den professionella marknaden).

Så gissar att Nvidia om inte annat kommer ha fortsatt ljus framtid då datacenter fortfarande växer. Under 2023 ger de sig även in i CPU-marknaden för datacenter.

Vad det gäller konsumentmarknaden får vi se vad som händer, det lär tyvärr bara bli dyrare framåt oavsett tillverkare. Gissar att Nvidia inte precis räknar med att 4090/4080 kommer vara deras storsäljare, 3000-serien kvarstår ju ett tag till.

Spelmarknaden följer i mångt och mycket konsolgenerationerna, vi är fortfarande i första halvan av nuvarande generation och undrar därför om vi kommer se något som egentligen behöver 4000-serien på ett tag än. Så i nuläget känns det lite som Nvidia primärt tänker pusha 3000-serien dit, men i alla fall initialt lär 4090/4080 sälja en del då det alltid finns folk som ska ha det senaste.

Spelstudios lär skaffa det senaste, om inte annat för att experimentera. Men spel kommer designas för det "tillräckligt många" faktiskt har tillgång till, vissa titlar lär ha lägen som försöker bryta lite ny mark men det lär gå att stänga av.

Själv hoppas och tror jag vi med 4000-serien kan nå nivån där RT-prestanda är så pass bra att det bli en självklarhet att använda tekniken när 4000-serien börjar bli dominant. Fungerar ju att använda RT redan på 3000-serien, i alla fall på de snabbare korten ihop med DLSS. Men RT lär hållas tillbaka en tag till, det kommer inte bli ett krav innan vi har nästa konsolgeneration (nuvarande konsolgeneration har för dålig RT-kapacitet för att man ska kräva tekniken).

Vad det gäller mining har jag allt för dålig koll på ekonomin där för att säga något vettigt. Förstår tekniken bakom, men för mig har mining stannat där...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av medbor:

Ska bli kul att se vad det betyder sen, men det slig mig att:

FPS (Average) 59.9 170.7
FPS (1% Lows) 49.3 119.6
FPS (Min) 40.6 91.2
Latency (Average) 75.4ms 53.5ms

75.4 ms vid 59.9
Borde alltså betyda att
53.5 ms motsvarar då ca 84,4 fps

Fps som visas är de dubblerade siffran på 170.7 (ungefär dubbla av 84.4). Men latensen är alltså dubbla denna frekvens.

Bildrutefördubblingen ger alltså ingen magisk sänkning av latensen, dlss2 lär ge samma effekt, det är baserat på lägre renderingsupplösning och mer fps. Spännande dock att inte dubbleringen ska ge någon ökning i det här fallet, men detta är inte så komplett test vad jag kan se

Låter absolut rimligt.

Permalänk
Medlem

Bortsett från att deras marginaler är helt enorma och ökar. Detta är enbart ett uttalande för aktieägarna.
Inte heller får man billigare deal på kiselplattor när man ditchar TSMC för Samsung och sen kommer tillbaka med svansen mellan benen och beställer allt för mycket kisel.

Fattar hur det kan sitta så många på sweclockers och svälja detta. Jag har tappat ca 20 IQ på tio år men så läser man kommentarer som får en att känna sig halvt smart igen.

Permalänk
Medlem
Skrivet av takeoninja:

Hur kan folk försvara prissättningen? Det är ju för bövelen runt 70% upp på priset mellan 3080 och 4080. 12 GB varianten är absolut inte ett riktigt 4080, inte ens nära, 192-bit buss, mindre grafikkrets, allt som normalt skiljt XX80 från XX70/XX60. $699 vs $1199, det har ju piss och ingenting med kronan att göra.

Brist i all ära men det faktiska, riktiga problemet, är att folk köper skiten ändå. Dom hade kunnat lägga sig på $1399 och alltså rakt av dubblat priset generation till nästa men hade ändå sålt. Det är inte Moores lag som är död, det är kapitalismens primära styrmekanism, att rösta med plånboken, som gått och hängt sig i garaget.

Du har vuxna karlar här som får pirr i magen av tanken att köpa nytt grafikkort. Marknadsföringen ligger på en nivå anpassad för tonåringar. Men poletten ska väl snart slå ner i tallriken även där, tänker jag.

Permalänk
Medlem
Skrivet av SweViver:

Tycker personligen att 1599 USD för ett 4090 ändå är förståeligt. Problemet för oss i Europa och framförallt Sverige är det löjliga momspåslaget som EU hittat på, plus det faktum att svenska kronans kurs är i botten. 22000kr låter inte alls så överkomligt längre. Vissa tredjepartskort lär bli ännu dyrare uppåt 25000.

Glöm inte heller att amerikanska priser anges utan moms. Majoriteten av de amerikanska staterna har ett extra påslag på priserna som anges. Vilket förstås för oss i Sverige framstår som lätt efterblivet. Föreställ dig att alla svenska priser du såg inte stämde. Utan du fick själv sitta och räkna ut det egentliga priset hela tiden.

Det finns ett fåtal stater dock med noll påslag, eller väldigt lite påslag.

Sedan har förstås den kassa svenska kronan påverkat. Sen så har vi förstås skatter på skatter på skatter osv osv osv.

Permalänk
Medlem
Skrivet av SweViver:

Tycker personligen att 1599 USD för ett 4090 ändå är förståeligt. Problemet för oss i Europa och framförallt Sverige är det löjliga momspåslaget som EU hittat på, plus det faktum att svenska kronans kurs är i botten. 22000kr låter inte alls så överkomligt längre. Vissa tredjepartskort lär bli ännu dyrare uppåt 25000.

"momspåslaget som EU hittat på"?

Permalänk
Medlem
Skrivet av medbor:

53.5 ms motsvarar då ca 84,4 fps

Måste förövrigt vara ett rejält, riktigt tungt, grafikläge.

3090 klarade 62 fps i 1440p DLSS Q, Cinematic mode, i Sweclockers test.

https://www.sweclockers.com/artikel/31086-snabbtest-cinematic...

Permalänk
Hedersmedlem
Skrivet av ipac:

Måste förövrigt vara ett rejält, riktigt tungt, grafikläge.

3090 klarade 62 fps i 1440p DLSS Q, Cinematic mode, i Sweclockers test.

https://www.sweclockers.com/artikel/31086-snabbtest-cinematic...

Antar att det (som andra siffror de visade) var med det nya "RT Overdrive"-läget med RT global illumination, fler RT-reflektioner med mera.

https://www.guru3d.com/news-story/nvidia-announces-new-ray-tr...

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Thomas:

Antar att det (som andra siffror de visade) var med det nya "RT Overdrive"-läget med RT global illumination, fler RT-reflektioner med mera.

https://www.guru3d.com/news-story/nvidia-announces-new-ray-tr...

Ahh, just ja. Det har jag ju läst om.

Permalänk
Medlem
Skrivet av Yoshman:

GeForce var länge Nvidias största inkomstkälla, men datacenter delen står för allt större andel och är numera deras största inkomstkälla.

Är väl just detta som är "problemet". Varför sälja till konsumenter när man kan sälja till företag till en bra mycket högre nivå.
Som du nämner så kommer nog föregående generation vara den som "vanliga" konsumenter är villiga att betala för i framtiden.

Det lilla jag läst om 4000-serien är att det främst satsat på RT som 2000-serien så får de som inte "behöver" RT så kan man lika gärna satsa på 3000-serien.

Permalänk
Medlem

Vänta bara tills 4090 ti släpps. Det blir dyrt 😁

Visa signatur

Ny dator på G

Permalänk
Medlem

Moores lag är död, länge leve Mammon!

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730