Geforce RTX 4070 Ti dyker upp i Geekbench

Permalänk
Medlem
Skrivet av Ozzed:

Jo. Det finns ju spel, typ Apex Legends, där 8GB är för lite om man ställer allt på max, även i 1080P, så tiden då det går snåla med minne är liksom förbi. Men vissa tycker väl att "vad då, om du ställer ner så att det ser ut som skit så går det ju ändå spela", men det kan inte vara avsikten. Då är väl nästa grej att folk tycker man ska börja spela i 720P igen och vara nöjd antagligen. Helt sjukt hur det har blivit alltså.

Nå, det finns ett ganska stort spann mellan max och "ställ ner så det ser ut som skit"
Generellt för egen del brukar max/ultra knappt gå att skilja från tex high utseendemässigt, men prestandaskillnaden kan vara påtaglig - speciellt om man är RAM-begränsad!
(och håller med Low kan se ut som skit i en del fall, tveklöst!)

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av hölmiz:

Ett problem är att msrp ganska ofta inte stämmer med det som konsumenten betalar för korten på hyllan. Det är ju najs för Nvidia och AMD att peka på masrp siffror, men det faktiska butikspriset kan varierar ganska mycket både upp och ned så egentlig prestanda per krona kan säger msrp inte mycket om.

Alla kort har sålts för msrp vid lansering, sen att priset går upp efter pga efterfrågan är högre än tillgången är bara vad vi får vid en icke konkurrens utsatt branch.

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem

Än så länge ser mitt 3080ti väldigt bra ut. Har funderat på att skaffa ett 4080 men det med strömkabelfiaskon har satt saken på paus.

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Medlem

De flesta har väl dock 144Hz eller högre idag? I alla fall gamers i Sverige, att då nöja sig med i bästa fall 70% av skärmens prestanda för att Nvidia snålar känns lagom kul.

Skrivet av Roger W:

Nå, det finns ett ganska stort spann mellan max och "ställ ner så det ser ut som skit"
Generellt för egen del brukar max/ultra knappt gå att skilja från tex high utseendemässigt, men prestandaskillnaden kan vara påtaglig - speciellt om man är RAM-begränsad!
(och håller med Low kan se ut som skit i en del fall, tveklöst!)

Det beror väl på vad för utgångspunkt man har men inte köper man en 144Hz-skärm eller bättre för att sitta och spela i 100FPS.

Just detta att de snålar med minnet på de billigare modellerna är tveklöst för att få till en upsell med prestanda man egentligen inte vill ha till ett pris man inte vill betala. Hade de ökat minnesmängden på vissa billiga modeller så hade ju dyrare modeller med mer minne sålt sämre och det vill de inte veta av.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

De flesta har väl dock 144Hz eller högre idag? I alla fall gamers i Sverige, att då nöja sig med i bästa fall 70% av skärmens prestanda för att Nvidia snålar känns lagom kul.

Det beror väl på vad för utgångspunkt man har men inte köper man en 144Hz-skärm eller bättre för att sitta och spela i 100FPS.

Just detta att de snålar med minnet på de billigare modellerna är tveklöst för att få till en upsell med prestanda man egentligen inte vill ha till ett pris man inte vill betala. Hade de ökat minnesmängden på vissa billiga modeller så hade ju dyrare modeller med mer minne sålt sämre och det vill de inte veta av.

Alla som spelar på konsoll är nöja med betydlig mycket lägre inställningar så varför skulle dessa personer inte vara nöjda med något som är betydligt mycket snabbare? Sedan att dina nivåer/krav är högre gör endast att du behöver titta på dyrare grafikkort när du ska byta. Jag vill nog påstå att grafikkort som prestera i nivå med gamla 1080ti är ok/ har ok prestanda i dagens spel.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

Alla som spelar på konsoll är nöja med betydlig mycket lägre inställningar så varför skulle dessa personer inte vara nöjda med något som är betydligt mycket snabbare? Sedan att dina nivåer/krav är högre gör endast att du behöver titta på dyrare grafikkort när du ska byta. Jag vill nog påstå att grafikkort som prestera i nivå med gamla 1080ti är ok/ har ok prestanda i dagens spel.

1080 TI har också 11GB minne. Det är mer än 8GB sist jag kollade. Så det är klart att det står sig bättre än många nyare kort med 8GB om man vrider upp allt på max.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

Kollar man Sweclockers prestanda index så lär i så fall 4070ti hamna väldigt nära 3090ti i prestanda. Att de ska ta 12k+ låter troligt med dagens prissättning tyvärr.
4060 är nog det 4000 kort som först hamnar under 10k och då är det tyvärr 3080 prestanda för typ samma peng men med lite nya features.

Permalänk
Medlem
Skrivet av Ortovox:

Kollar man Sweclockers prestanda index så lär i så fall 4070ti hamna väldigt nära 3090ti i prestanda. Att de ska ta 12k+ låter troligt med dagens prissättning tyvärr.
4060 är nog det 4000 kort som först hamnar under 10k och då är det tyvärr 3080 prestanda för typ samma peng men med lite nya features.

Snarare 3070 prestanda

(tror dock 4070 kan bli första 40-kortet under 10K SEK..för vissa exemplar och förutsatt att dollarn håller i sig)

Permalänk
Medlem
Skrivet av Swedishchef_90:

Alla kort har sålts för msrp vid lansering, sen att priset går upp efter pga efterfrågan är högre än tillgången är bara vad vi får vid en icke konkurrens utsatt branch.

Att en symbolisk mängd kort säljs för msrp vid lansering är ganska irrelevant, en luft siffra. Att det är en bransch med konkurrens problem, ja absolut. Det visar igen att din hänviutill msrp för olika generationer har sina brister. För att analysera detta problem krävs mer komplexa metoder!

Visa signatur

Min Dator: AMD 3600 | 24 GB RAM | Asus X570 Prime | Fractal Design Arc R2 | Thermalright Silver Arrow | Dell U2412M | IBM Model M

Permalänk
Medlem
Skrivet av hölmiz:

Att en symbolisk mängd kort säljs för msrp vid lansering är ganska irrelevant, en luft siffra. Att det är en bransch med konkurrens problem, ja absolut. Det visar igen att din hänviutill msrp för olika generationer har sina brister. För att analysera detta problem krävs mer komplexa metoder!

Finns ju flertalet kort just nu för msrp eller under på nyaste serien....
MSRP är vad vi i Sverige kan hänvisa till, då vår valuta åker berg och dalbana ibland.

Att säga GPUn kostade 5000:- år 2012 när dollarn åkte runt 6-7kr eller 2016 när den var runt 8 blir så missvisande.

Grafikkortsprestandan håller sig bättre nuförtiden, förut kunde du knappt spela nyaste spelen på senaste grafikkorten.... Nu kan man lira med uppåt 12 år gammal kort, inte optimalt men något iaf.

Rösta med plånboken eller spara lite till och gråt en skvätt när du klickar på köp på ett överprisat grafikkort.

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av ipac:

Snarare 3070 prestanda

(tror dock 4070 kan bli första 40-kortet under 10K SEK..för vissa exemplar och förutsatt att dollarn håller i sig)

Usch i så fall blir det värre än jag trott

Permalänk
Medlem
Skrivet av Ortovox:

Usch i så fall blir det värre än jag trott

Tjaa, vi får se. Men med ev. 2 kort mellan 70Ti och 60 borde det vara där nånstans vi hamnar. Dvs:

(raster prestanda)
4070Ti > 3080Ti
4070 > 3080
4060Ti > 3070Ti
4060 > 3070

Permalänk
Medlem
Skrivet av Ozzed:

Jo. Det finns ju spel, typ Apex Legends, där 8GB är för lite om man ställer allt på max, även i 1080P, så tiden då det går snåla med minne är liksom förbi. Men vissa tycker väl att "vad då, om du ställer ner så att det ser ut som skit så går det ju ändå spela", men det kan inte vara avsikten. Då är väl nästa grej att folk tycker man ska börja spela i 720P igen och vara nöjd antagligen. Helt sjukt hur det har blivit alltså.

Finns ingen som maxar allt i Apex Legends. Är en competitive fps. O vill man maxa allt kan man ändå bara ställa in mindre VRAM budget.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem

Vi får nog vänta iaf till 30 serien av kort börjar sälja slut före vi får se lägre priser. Eller kanske tänker de låta den leva kvar vid sidan?
De kommer gå miste om hen hel del försäljning om de inte erbjuder något alternativ i de lägre prisklasserna.
Folk som är villiga att betala 10k plus har snart köpt sina kort.

Visa signatur

Ghost S1 || 13600k || Corsair sf600 || RTX 4070 Inno3d 2x|| Asus PG279QM

Macbook pro 14 M1

Permalänk
Medlem
Skrivet av Dizzö:

Finns ingen som maxar allt i Apex Legends. Är en competitive fps. O vill man maxa allt kan man ändå bara ställa in mindre VRAM budget.

Nej för mer exakta skuggor etc hjälper ju inte alls för att lokalisera motståndare

Jag ser du skullnad på high och Extreme texture streaming budget i alla fall. Och med Extreme så räcker inte 8GB.

Men visst. Apex legends är relativt lättdrivet. Ställer man ner det så att det ser ut som skit och inte bryr sig om att sniper-sikten skall vara så exakta som möjligt så går det få bra hög FPS på rätt lökig hårdvara. Men det är inte det det handlar om.

Om man tycker att folk som spelar i 1080P inte förtjänar ögongodis så visst, då räcker 8GB, men det är ett elitistiskt perspektiv i min mening.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Om man tycker att folk som spelar i 1080P inte förtjänar ögongodis så visst, då räcker 8GB, men det är ett elitistiskt perspektiv i min mening.

Hmm, tycker ”ultra eller se ut som skit” är nog ett bättre exempel på elitism

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av Roger W:

Hmm, tycker ”ultra eller se ut som skit” är nog ett bättre exempel på elitism

Se det hur du vill. Grundproblemet ändras inte. Minnet på ett grafikkort borde inte få vara en begränsande faktor för prestanda 2022. Självklart får man ett bättre kort om man hoppar upp en SKU, men mängden minne borde inte få vara begränsande för det som idag kan ses som en standardupplösning.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Se det hur du vill. Grundproblemet ändras inte. Minnet på ett grafikkort borde inte få vara en begränsande faktor för prestanda 2022. Självklart får man ett bättre kort om man hoppar upp en SKU, men mängden minne borde inte få vara begränsande för det som idag kan ses som en standardupplösning.

Borde, enl logiken "minne är gratis år 2022"? Varför skulle minne vara friskrivet från verkligheten när t.ex. processorkraft inte är det?

Man kan förövrigt tycka att 8 GB borde räcka rätt långt vid 1080p så det känns mest som ett mjukvaruproblem.

Permalänk
Medlem
Skrivet av ipac:

Borde, enl logiken "minne är gratis år 2022"? Varför skulle minne vara friskrivet från verkligheten när t.ex. processorkraft inte är det?

Man kan förövrigt tycka att 8 GB borde räcka rätt långt vid 1080p så det känns mest som ett mjukvaruproblem.

AMD kör ju 12GB och uppåt på många av deras grafikkort och t.ex som använder sig forza horzion 5 säg av drygt 9,5gb vram i 1080p på ultra inställningar så 3060-3080 och 4060-4060ti kommer nog få det tungt i de flesta nya spel om några år. på grund av deras begränsade vram.

Visa signatur

AMD® RYZEN™ 7 9800X3D
Red Devil Ultimate RX 6900 XT 16GB
MSI B650 Gaming Plus WIFI
Crucial Pro OC 32GB DDR5 6400 MHZ
Mobil: Google Pixel 9 PRO

Permalänk
Medlem
Skrivet av ipac:

Borde, enl logiken "minne är gratis år 2022"? Varför skulle minne vara friskrivet från verkligheten när t.ex. processorkraft inte är det?

Man kan förövrigt tycka att 8 GB borde räcka rätt långt vid 1080p så det känns mest som ett mjukvaruproblem.

Nej minne är inte gratis. Men ingen vettig människa sitter väl med t. Ex 4GB RAM på en gamingdator idag bara för att det är "billigare". Om VRAM tar slut så blir det en smäll för prestandan. Det är fakta. Och logiken i mitt resonemang handlar om att 1080P idag är den lägsta standardupplösningen, så det borde inte göras nya kort där minnet riskerar att ta slut ens med allt på max. Konstigare än så är det inte.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Om VRAM tar slut så blir det en smäll för prestandan. Det är fakta. Och logiken i mitt resonemang handlar om att 1080P idag är den lägsta standardupplösningen, så det borde inte göras nya kort där minnet riskerar att ta slut ens med allt på max. Konstigare än så är det inte.

Och var går den magiska gränsen där samtliga utvecklare slutar allokera mer minne?

Ditt resonemang är både orealistiskt och bakvänt på en och samma gång. Är det från mjukvaru-utvecklarens sida prioriterat att även kunder med lite enklare hårdvara ska kunna "maxa" så får de helt enkelt anpassa sin mjukvara efter det. Att gfx-hårdvara bör designas efter att ingen mjukvara ska kunna "överallokera" minnet är iaf i alla avseenden helt orealistiskt.

Citat:

Men ingen vettig människa sitter väl med t. Ex 4GB RAM på en gamingdator idag bara för att det är "billigare".

Vanligaste gfx-kortet på Steam är tydligen 1650. Gissar att just "billigare" är huvudorsaken till det.

Permalänk
Medlem
Skrivet av ipac:

Och var går den magiska gränsen där samtliga utvecklare slutar allokera mer minne?

Ditt resonemang är både orealistiskt och bakvänt på en och samma gång. Är det från mjukvaru-utvecklarens sida prioriterat att även kunder med lite enklare hårdvara ska kunna "maxa" så får de helt enkelt anpassa sin mjukvara efter det. Att gfx-hårdvara bör designas efter att ingen mjukvara ska kunna "överallokera" minnet är iaf i alla avseenden helt orealistiskt.

Vanligaste gfx-kortet på Steam är tydligen 1650. Gissar att just "billigare" är huvudorsaken till det.

Just 1080P är väl "den enklaste" upplösningen. Och att det inte går maxa på den är i snålaste laget. OK om 1440P eller 4K inte klarar sig med 12GB, men naturligtvis skulle jag föra samma resonemang om de var de lägsta upplösningarna folk körde.

Citat:

Vanligaste gfx-kortet på Steam är tydligen 1650. Gissar att just "billigare" är huvudorsaken till det.

Är 1650 ramminne menar du? Och skulle inte det kortet prestera bättre med mer minne?

Jag tror faktiskt inte du förstår hur jag resonerar? Med ditt resonemang skulle baskonfigurationen för en PC fortfarande vara 640K RAM. Det är ju "billigare" än tiotals Gigabyte och tar det slut så blir man ju ändå alltid räddad av Swapfilen

1080P-skärmar är liksom inget flashigt lyx, det är en minimistandard för de flesta, att det då sedan det blev så säljs grafikkort där det tar slut på VRAM är kass.

Den magiska gränsen? Jag har aldrig fått något spel att dra mer än 10.5GB så det är väl där då. Säg 11GB för att det ska bli enkelt. Men 8GB räcker inte. Därför är det idiotiskt att det säljs kort med så lite minne 2022.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av ipac:

Och var går den magiska gränsen där samtliga utvecklare slutar allokera mer minne?

Ditt resonemang är både orealistiskt och bakvänt på en och samma gång. Är det från mjukvaru-utvecklarens sida prioriterat att även kunder med lite enklare hårdvara ska kunna "maxa" så får de helt enkelt anpassa sin mjukvara efter det. Att gfx-hårdvara bör designas efter att ingen mjukvara ska kunna "överallokera" minnet är iaf i alla avseenden helt orealistiskt.

Vanligaste gfx-kortet på Steam är tydligen 1650. Gissar att just "billigare" är huvudorsaken till det.

Beror ju på hur man räknar om t.ex räknar ihop laptop och desktop versionen av 3060 så är det de vanligaste graffikortet enligt steam och det har ju 12gb vram för desktop varienten och 6gb för laptop versionen.

Visa signatur

AMD® RYZEN™ 7 9800X3D
Red Devil Ultimate RX 6900 XT 16GB
MSI B650 Gaming Plus WIFI
Crucial Pro OC 32GB DDR5 6400 MHZ
Mobil: Google Pixel 9 PRO

Permalänk
Medlem
Skrivet av Ozzed:

Just 1080P är väl "den enklaste" upplösningen. Och att det inte går maxa på den är i snålaste laget. OK om 1440P eller 4K inte klarar sig med 12GB, men naturligtvis skulle jag föra samma resonemang om de var de lägsta upplösningarna folk körde.

Maxade inställningar är inte det enklaste nej.

Dessutom, även om 3050 hade 100 GB RAM så skulle du inte kunna maxa alla spel ändå. Så hela det resonemang om att man ska alltid ska kunna maxa i 1080p haltar betänkligt.

Nått annat som haltar är ditt resonemang runt minnesmängd kontra upplösning. Det är väldigt mkt mer än skärmbufferten som allokeras på ett grafikkort. Dvs tar 8 GB minne slut så har det inte så mkt med upplösning att göra utan mer om allt annat som "maxningen" har allokerat.

Citat:

Är 1650 ramminne menar du?

1650 är delvis RAM ja. För att inte tala om minneskontrollers på den begränsade kretsytan.
Så en bidragande faktor till att 1650 var så pass billig är definitivt dess minneskonfiguration, ja.

Citat:

Och skulle inte det kortet prestera bättre med mer minne?

Ehh, och? Det är ingen som har sagt att minnet inte påverkar prestandan. Det skulle förövrigt prestera bättre med fler shaders med. Totalt icke-relevant för diskussionen.

Citat:

Med ditt resonemang skulle baskonfigurationen för en PC fortfarande vara 640K RAM.

Nu är du ute och cyklar rejält. Att anpassa mjukvaran efter aktuell mål-hårdvara innebär inte på något sätt att hårdvaran slutar utvecklas. Det är bara sund mjukvaruutvecklingsfilosofi.

Citat:

1080P-skärmar är liksom inget flashigt lyx, det är en minimistandard för de flesta, att det då sedan det blev så säljs grafikkort där det tar slut på VRAM är kass.

Att köra maxat är definitivt lyx ja. Och absolut inte minimistandard.

Citat:

Den magiska gränsen? Jag har aldrig fått något spel att dra mer än 10.5GB så det är väl där då. Säg 11GB för att det ska bli enkelt. Men 8GB räcker inte.

Haha, förstår du verkligen inte att nuvarande allokerings-mängd trots allt HAR med minnesmängd hos dagens hårdvara att göra? Dvs, anledningen till att du bara kommer upp i 10.5 GB är att de flesta hårdvaror inte har så mkt mer minne än så.

Hade minimum idag varit 16GB så hade du även sett spel som allokerade så mkt, eller mer. Att mjukvaran ständigt pushar den kontinuerligt vidareutvecklade hårdvaran är ju en annan orsak till att att din idé om att "hårdvara där minnet inte får ta slut" är så bakvänd.

Det är heelt ok att säga "jag skulle idag inte köpa ett kort med bara 8 GB". Men att hävda att det inte borde tillverkas grafikkort där minnet tar slut är orealistiskt och bakvänt, för att uttrycka sig snällt...

Permalänk
Medlem
Skrivet av ipac:

Maxade inställningar är inte det enklaste nej.

Dessutom, även om 3050 hade 100 GB RAM så skulle du inte kunna maxa alla spel ändå. Så hela det resonemang om att man ska alltid ska kunna maxa i 1080p haltar betänkligt.

Nått annat som haltar är ditt resonemang runt minnesmängd kontra upplösning. Det är väldigt mkt mer än skärmbufferten som allokeras på ett grafikkort. Dvs tar 8 GB minne slut så har det inte så mkt med upplösning att göra utan mer om allt annat som "maxningen" har allokerat.

1650 är delvis RAM ja. För att inte tala om minneskontrollers på den begränsade kretsytan.
Så en bidragande faktor till att 1650 var så pass billig är definitivt dess minneskonfiguration, ja.

Ehh, och? Det är ingen som har sagt att minnet inte påverkar prestandan. Det skulle förövrigt prestera bättre med fler shaders med. Totalt icke-relevant för diskussionen.

Nu är du ute och cyklar rejält. Att anpassa mjukvaran efter aktuell mål-hårdvara innebär inte på något sätt att hårdvaran slutar utvecklas. Det är bara sund mjukvaruutvecklingsfilosofi.

Att köra maxat är definitivt lyx ja. Och absolut inte minimistandard.

Haha, förstår du verkligen inte att nuvarande allokerings-mängd trots allt HAR med minnesmängd hos dagens hårdvara att göra? Dvs, anledningen till att du bara kommer upp i 10.5 GB är att de flesta hårdvaror inte har så mkt mer minne än så.

Hade minimum idag varit 16GB så hade du även sett spel som allokerade så mkt, eller mer. Att mjukvaran ständigt pushar den kontinuerligt vidareutvecklade hårdvaran är ju en annan orsak till att att din idé om att "hårdvara där minnet inte får ta slut" är så bakvänd.

Det är heelt ok att säga "jag skulle idag inte köpa ett kort med bara 8 GB". Men att hävda att det inte borde tillverkas grafikkort där minnet tar slut är orealistiskt och bakvänt, för att uttrycka sig snällt...

Prova själv att köra typ superposition med samma inställningar förutom upplösningen och kom sedan och fortsätt påstå att ökad uppläsning inte signifikant ökar mängden VRAM som används

Sen har jag inte sagt att alla grafikkort som säljs ska kunna köra alla spel med skyhög FPS i 1080P, bara att den begränsande faktorn inte borde få vara minnet.

Med ditt resonemang vore det ok att sälja bilar, alltså inte A-traktorer eller mopedbilar, som inte klarar 120. Varför ska man kunna köra så fort bara för att man tekniskt sett får, liksom. Med mindre dimensionerad motor kan du ju dessutom få bilen några hundralappar billigare så lätt värt det eller?

Nej, jag vidhåller att du inte förstår eller inte vill förstå resonemanget. Du kanske tror att du gör det och sedan svarar du utifrån det. Men jag börjar få slut på förklaringsmodeller så jag får väl ge upp.

Men nej, jag tycker inte att det borde få säljas bilar som beta går i 70, och jag tycker inte ett det borde få säljas grafikkort som vid lanseringstillfället får slut på minne om man maxar inställningarna i spel vid för tiden lägsta standardupplösning. I praktiken är det en defekt produkt. På samma sätt som en riktig bil som inte klarar högsta hastighetsgränsen är en defekt produkt, oavsett vad den skulle kosta.

Säger också en del att för use case där man maxar inställningar så är t. Ex 3060 en snabbare produkt än 3070, trots att den är dyrare. De som tyckte det var en bra idé att snåla med minnet på en dyrare produkt... Fullständigt hål i huvudet.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Sen har jag inte sagt att alla grafikkort som säljs ska kunna köra alla spel med skyhög FPS i 1080P, bara att den begränsande faktorn inte borde få vara minnet.

Varför inte? Eller mer specifikt, varför ska ett äldre mellanklasskort automatiskt ska ha nån slags krav på sig att kunna maxa just specifikt texturstorlekslidern i alla spel, givet en godtycklig upplösning? (nånting är alltid flaskhals, varför är just minnet heligt?)
... eller varför ett sånt kort ens ska kunna maxa nånting alls egentligen i alla spel. Det finns helt enkelt inget egenvärde i att just max på en mätare ska vara ett "måste" för något kort - det är ju bara något som godtyckligt valt som max av speltillverkaren.
Hårdvaran är inte nödvändigtvis boven här. Ta Crysis tex: När det kom kunde typ ingen dator maxa alla sliders. Är det grafikkortens fel då?
I alla tider har det lönat sig att kompromissa med settings vid olika tillfällen. Om den settingen råkar vara texturslidern i nått spel på ett mellanklasskort så går inte världen under...
(och bilanalogin är för min del tänjd "beyond comprehension" )

Men missförstå mig rätt: jag håller med så långt att det är frustrerande när GPU-tillverkare gimpar ett kort där det blir så gott som oanvändbart bara pga av nån enstaka faktor på kortet!
(och tvärtom är det även jävligt irriterande när GPU-tillverkarna blåser upp en enstaka faktor på kortet bara för att få det att verka bättre än det är, som tex lassa på massor av RAM på ett 730 kort)
Men jag tycker helt enkelt inte att nuvarande Nvidiakorten har dragit det tillräckligt långt för att vara något att bli speciellt upprörd över.

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av Ozzed:

Sen har jag inte sagt att alla grafikkort som säljs ska kunna köra alla spel med skyhög FPS i 1080P, bara att den begränsande faktorn inte borde få vara minnet.

Pratade inte om skyhöga FPS. Pratade om spelbara FPS. Dvs alltid maxat, ens i 1080p, är inte genomförbart oavsett.

Det där "bara" är förövrigt det som är fullständigt orimligt.

Citat:

Med ditt resonemang vore det ok att sälja bilar, alltså inte A-traktorer eller mopedbilar, som inte klarar 120. Varför ska man kunna köra så fort bara för att man tekniskt sett får, liksom. Med mindre dimensionerad motor kan du ju dessutom få bilen några hundralappar billigare så lätt värt det eller?

Bil-liknelser är alltid kul men den här var inte speciellt lyckad. Du får det att låta som att det är ok att artificiellt, utan någon som helst egentlig anledning, begränsa produkten. Det är det ingen som påstått.

Dessutom faller det på att du vill få det till att alltid maxad 1080p är något slags minimum (som man nog kan säga att 120 km/h är för bilar). Det är det absolut inte (det borde man begripa rent språkligt, om inte annat...).

En bättre liknelse vore att se grafikkortet som en elbil där minnet är batteristorlek och beräkningskraften är elmotorn. Tar batteriet/minnet slut så är det inte kul alls men innan dess så är det motoreffekten/beräkningskraften som bestämmer hur pass kul man har.

Och här kommer du och säger att alla elbilar borde ha ett tillräckligt stort batteri... Ute i verkligheten varierar ofta batteristorleken pga tekniska och ekonomiska skäl och det är upp till brukaren att anpassa användandet därefter. Har man valt bilen med mindre batteri så kommer den längre, eller ska vi säga maxade, resan ge att krämet ta slut innan man är framme. Och har man valt grafikkortet med mindre minne så kommer de mer minneskrävande, maxade, inställningarna ge att det tar slut innan mjukvaran har allokerat färdigt.

Märkligt att elbilsägaren behöver anpassa sig till verkligheten men att den gnällige datornörden borde inte behöva det...

Citat:

Nej, jag vidhåller att du inte förstår eller inte vill förstå resonemanget. Du kanske tror att du gör det och sedan svarar du utifrån det. Men jag börjar få slut på förklaringsmodeller så jag får väl ge upp.

Oroa dig inte för mig du. Fokusera du istället på att förstå konsekvensen av ditt eget resonemang, det är däri ditt problem ligger.

Inte minst eftersom "tillräckligt med minne" är ett rörligt mål som rör sig så fort man definierar vad som är tillräckligt. Så redan där faller ditt tänk platt. Det är som en slags variant av "640kb borde vara tillräckligt för alla". Jisses.

Men oxå av tekniska skäl. Att du ovan säger "några hundralappar billigare" vittnar om att du inte riktigt förstår hur minne funkar på grafikkort. Minneskonfigurationen i ett grafikkort kan sägas ha två vikter, mängd och bandbredd. Båda dessa styrs av* antalet minneskontrollers på chippet och därmed vilken bussbredd man kan ha (och därmed hur många moduler som det är möjligt att ansluta).

När du säger att minnesmängden ska vara tillräcklig så säger du därmed att antalet minneskontrollers, och därmed kretsyta, ska vara "mer än tillräckligt". Vad är tillräckligt? Eftersom du säger att 11 GB är tillräckligt i värld där 1GB moduler fortfarande användes så säger du att ALLA grafikchip som tillverkas med minst 11 st minneskontrollers, 352 bits buss. Om du tror att detta kostar några hundralappar så är du ute och cyklar rejält.

Sure, med 2 GB moduler så är det billigare men eftersom målet är rörligt så är problemet tillbaka snart igen ändå.

Det finns även en ren fysisk aspekt. I och med ditt påhitt att för få minneskontrolleras är banlyst växer förvisso chipstorleken (de får väl minska antalet kärnor för att kompensera, glädjer nog den gnällige datornörden. inte.) men det finns även en begränsning i hur många minnesmoduler man har plats för att ansluta till ett chip av en viss storlek.

Men, men, vi ska ju inte ha några små chip. Att enbart erbjuda stora chip kostar ju bara några hundralappar...

*(förutom hastighet och kapacitet hos minnesmodulerna som finns tillgänglig, men häri finns det ofta förhållandevis liten variation och framförallt så är det inget som tillverkaren av grafikkortet kan styra över)

Citat:

Säger också en del att för use case där man maxar inställningar så är t. Ex 3060 en snabbare produkt än 3070, trots att den är dyrare. De som tyckte det var en bra idé att snåla med minnet på en dyrare produkt... Fullständigt hål i huvudet.

Just 3070 är rätt intressant. Handlade inte så mkt om snålhet, utan mera om strategisk marknadsanpassning.

GDDR6 2GB-moduler fanns på marknaden vid lansering, vilket hade gett 3070 16 GB minne. Så i nån mån var det här en artificiell begränsning, absolut.

Problemet var bara att Nvidia presenterade det kortet samtidigt som 3080 och dess 10 GB. Att man stannade på 10 GB är inte ett dugg konstigt, 320 bit buss och GDDR6X som vid tidpunkten bara fanns som 1GB-moduler ger bara 10 GB. Att då vid samma presentation komma med en lillebror som har 60% mer minne... Hade det presenterats samtidigt som 3060 så hade 3070 med 16 GB sett rimligare ut. Men det hade fortfarande gett problem för 3070Ti som tvingats stanna på 8GB pga GDDR6X (mängd och bandbredd balansen, igen). Så njae, säger inte att det var rätt men kan iaf förstå varför de gjorde det.

Man kan oxå se det som att 3070 hamnade i kläm i samband med att modulerna gick över från 1GB till 2GB. Det är inte så konstigt att sånt här sker i teknikövergångar. Att det är lite mer komplext än "hål i huvudet" står iaf helt klart...men visst, alla är korkade och onda, det är ju den enkla förklaringen.

Permalänk
Medlem
Skrivet av ipac:

Pratade inte om skyhöga FPS. Pratade om spelbara FPS. Dvs alltid maxat, ens i 1080p, är inte genomförbart oavsett.

Det där "bara" är förövrigt det som är fullständigt orimligt.

Bil-liknelser är alltid kul men den här var inte speciellt lyckad. Du får det att låta som att det är ok att artificiellt, utan någon som helst egentlig anledning, begränsa produkten. Det är det ingen som påstått.

Dessutom faller det på att du vill få det till att alltid maxad 1080p är något slags minimum (som man nog kan säga att 120 km/h är för bilar). Det är det absolut inte (det borde man begripa rent språkligt, om inte annat...).

En bättre liknelse vore att se grafikkortet som en elbil där minnet är batteristorlek och beräkningskraften är elmotorn. Tar batteriet/minnet slut så är det inte kul alls men innan dess så är det motoreffekten/beräkningskraften som bestämmer hur pass kul man har.

Och här kommer du och säger att alla elbilar borde ha ett tillräckligt stort batteri... Ute i verkligheten varierar ofta batteristorleken pga tekniska och ekonomiska skäl och det är upp till brukaren att anpassa användandet därefter. Har man valt bilen med mindre batteri så kommer den längre, eller ska vi säga maxade, resan ge att krämet ta slut innan man är framme. Och har man valt grafikkortet med mindre minne så kommer de mer minneskrävande, maxade, inställningarna ge att det tar slut innan mjukvaran har allokerat färdigt.

Märkligt att elbilsägaren behöver anpassa sig till verkligheten men att den gnällige datornörden borde inte behöva det...

Oroa dig inte för mig du. Fokusera du istället på att förstå konsekvensen av ditt eget resonemang, det är däri ditt problem ligger.

Inte minst eftersom "tillräckligt med minne" är ett rörligt mål som rör sig så fort man definierar vad som är tillräckligt. Så redan där faller ditt tänk platt. Det är som en slags variant av "640kb borde vara tillräckligt för alla". Jisses.

Men oxå av tekniska skäl. Att du ovan säger "några hundralappar billigare" vittnar om att du inte riktigt förstår hur minne funkar på grafikkort. Minneskonfigurationen i ett grafikkort kan sägas ha två vikter, mängd och bandbredd. Båda dessa styrs av* antalet minneskontrollers på chippet och därmed vilken bussbredd man kan ha (och därmed hur många moduler som det är möjligt att ansluta).

När du säger att minnesmängden ska vara tillräcklig så säger du därmed att antalet minneskontrollers, och därmed kretsyta, ska vara "mer än tillräckligt". Vad är tillräckligt? Eftersom du säger att 11 GB är tillräckligt i värld där 1GB moduler fortfarande användes så säger du att ALLA grafikchip som tillverkas med minst 11 st minneskontrollers, 352 bits buss. Om du tror att detta kostar några hundralappar så är du ute och cyklar rejält.

Sure, med 2 GB moduler så är det billigare men eftersom målet är rörligt så är problemet tillbaka snart igen ändå.

Det finns även en ren fysisk aspekt. I och med ditt påhitt att för få minneskontrolleras är banlyst växer förvisso chipstorleken (de får väl minska antalet kärnor för att kompensera, glädjer nog den gnällige datornörden. inte.) men det finns även en begränsning i hur många minnesmoduler man har plats för att ansluta till ett chip av en viss storlek.

Men, men, vi ska ju inte ha några små chip. Att enbart erbjuda stora chip kostar ju bara några hundralappar...

*(förutom hastighet och kapacitet hos minnesmodulerna som finns tillgänglig, men häri finns det ofta förhållandevis liten variation och framförallt så är det inget som tillverkaren av grafikkortet kan styra över)

Just 3070 är rätt intressant. Handlade inte så mkt om snålhet, utan mera om strategisk marknadsanpassning.

GDDR6 2GB-moduler fanns på marknaden vid lansering, vilket hade gett 3070 16 GB minne. Så i nån mån var det här en artificiell begränsning, absolut.

Problemet var bara att Nvidia presenterade det kortet samtidigt som 3080 och dess 10 GB. Att man stannade på 10 GB är inte ett dugg konstigt, 320 bit buss och GDDR6X som vid tidpunkten bara fanns som 1GB-moduler ger bara 10 GB. Att då vid samma presentation komma med en lillebror som har 60% mer minne... Hade det presenterats samtidigt som 3060 så hade 3070 med 16 GB sett rimligare ut. Men det hade fortfarande gett problem för 3070Ti som tvingats stanna på 8GB pga GDDR6X (mängd och bandbredd balansen, igen). Så njae, säger inte att det var rätt men kan iaf förstå varför de gjorde det.

Man kan oxå se det som att 3070 hamnade i kläm i samband med att modulerna gick över från 1GB till 2GB. Det är inte så konstigt att sånt här sker i teknikövergångar. Att det är lite mer komplext än "hål i huvudet" står iaf helt klart...men visst, alla är korkade och onda, det är ju den enkla förklaringen.

Jag har hela tiden sagt att ja, målet är rörligt. Det är ju självklart att det är så. Det jag slår näven i bordet och kräver är att minnet ska räcka vid lanseringsdatum. Men självklart garanterar det inte att spel som släpps om 2-3 år kommer funka på samma sätt. Både mängden minne som spel tar i anspråk och vilken upplösning som anses vara minsta gemensamma nämnare ändras ju såklart över tid.

Men vi har som sagt helt olika sätt att se på det. Och det är helt Ok. Jag kände inte till att man hellre ville få till GDDR6X än att klämma in mer minne på korten. Så jag har fått lite mys perspektiv där. Tack för det. Classic Nvidia att hellre prioritera saker som ser bra ut på papper än presterar bra i verkligheten. Jag tar hellre 12GB GDDR6 än 8GB GDDR6X årets alla dagar. Men alla är ju olika och bokstaven X har för nvidia och AMD blivit vad bokstaven Z är för dansband verkar det som

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Jag har hela tiden sagt att ja, målet är rörligt. Det är ju självklart att det är så. Det jag slår näven i bordet och kräver är att minnet ska räcka vid lanseringsdatum. Men självklart garanterar det inte att spel som släpps om 2-3 år kommer funka på samma sätt. Både mängden minne som spel tar i anspråk och vilken upplösning som anses vara minsta gemensamma nämnare ändras ju såklart över tid.

Ärligt talat så finns det en hög grad av "minnesmängden blir vad den blir" över det hela. Detta eftersom mängden är direkt kopplat till bussbredd (som för varje generation ofta ser ganska lika ut för resp chip i line-upen*) och tillgänglig modulstorlek (där har man i praktiken har 1 eller max 2 alternativ olika att välja på).

Om lanseringen sammanfaller med ett hopp i modulstorlek så ökar förstås minnesstorleken och därmed är det ofta "tämligen tillräckligt" (eftersom spelen är designade mot "föregående minnesstorlekar"). Varpå sen mjukvaran ökar allokeringen, dvs målet flyttar på sig för att sen stanna till. Tills det är dags för nästa hopp i modulstorlek. Osv.

Problem uppstår om lanseringen hamnar snett i denna modulstorlek-cykel. Eller i de fall man gör nån rent av dumdristig design/stympning men det är inte så vanligt ändå, tack olov.

*(tills nu kanske. för att använda ett bilbegrepp så har vi idag (AMD med RDNA2 och Nvidia med Ada) en downsizing trend där man sparar in lite på bussbredd och använder avsevärt större cacheminne för att kompensera bandbredden. det gör ju att minnesmängden inte växer fullt så mkt som den annars gjort)

Citat:

Men vi har som sagt helt olika sätt att se på det. Och det är helt Ok. Jag kände inte till att man hellre ville få till GDDR6X än att klämma in mer minne på korten. Så jag har fått lite mys perspektiv där. Tack för det. Classic Nvidia att hellre prioritera saker som ser bra ut på papper än presterar bra i verkligheten. Jag tar hellre 12GB GDDR6 än 8GB GDDR6X årets alla dagar. Men alla är ju olika och bokstaven X har för nvidia och AMD blivit vad bokstaven Z är för dansband verkar det som

12GB innebär att man går ner till 192 bit buss. Tror du är rätt ensam om att välja 360 Gbps före 608 Gbps bandbredd...

Bandbredd har ofta påverkan på prestanda och i de fall minnet räcker (99 fall av 100?) så det handlar om prestanda i praktiken, inte bara sköna bokstäver på pappret.

Men pratar vi om 8 st GDDR6-moduler a 2GB eller 8 st GDDR6X-moduler a 1GB så tror jag inte det var så stor prisskillnad. Och för 3070 så hade det förstnämda varit bästa valet, helt klart.

Men ja, för att vara tydlig, de ville ha GDDR6X på allt över 3070. Och därmed fick även 3070 lida. Med det sagt så gav inte GDDR6X fullt så mkt hastighetsökning (och GDDR6 är numera tom ifatt och förbi) så man undrar lite om det var värt det...egentligen. I en alternativ värld så hade 3080 kunnat haft 20 GB GDDR6 och således hade det inte varit några problem att ge 3070 16GB. Alternativ-3080 hade då varit lite långsammare än det 3080 vi fick men det hade nog inte rört sig om mkt.

Permalänk
Medlem

Vid närmare eftertanke så blir det fler nävar i bordet, Ozzed. 4060/4060Ti kommer nog prestera som 4070/4070Ti, cirkus, och minnet kommer stanna på 8 GB. Inge max-fest där inte.