Inlägg

Inlägg som Dinoman har skrivit i forumet
Av Dinoman
Skrivet av Maste:

Hej är det någon som vet om denna skärm har G-Sync Compatible?

https://www.komplett.se/product/1225085/gaming/spelutrustning...

Skrivet av Komplett:

Yes, @Dinoman testade denna och kostaterade att den har Freesync Premium Pro & är G-Sync Compatible.

Den är inte officiellt på Nvidia G-Sync Compatible-lista för att vara helt korrekt men jag har testat ett antal spel och G-sync fungerar utmärkt på denna skärmen. Jag spelar med ett RTX 3080 Ti.

Av Dinoman

Det är ju ett intressant segment som växer fram.

Vem trodde detta när det begav sig?

Av Dinoman

Det var lite dyrt kan jag tycka.

Av Dinoman

Produkt: AMD Ryzen 5950X
Länk: https://www.inet.se/produkt/5303477/amd-ryzen-9-5950x-3-4-ghz...
Kategori: Processor
Prisjakt
Pris: 4 990 kr

Av Dinoman

För den som vill ha lite mer hjälp;

Exempel från verkligheten
Ibland betalar du högre moms
Katrin från Nederländerna beställde en bok från en stor nätbutik i Irland. När hon betalade och angav sin adress upptäckte hon att priset plötsligt hade gått upp. Det berodde på att företaget tog ut nederländsk moms på 9 % i stället för irländsk moms på 0 %.

I Nederländerna är tröskeln för att slippa ta ut nederländsk moms 100 000 euro. Det innebär att ett företag som under ett år säljer varor för mer än 100 000 euro till Nederländerna måste tillämpa den nederländska momssatsen. Nätbutiken där Katrin handlat levererar ofta till Nederländerna och måste därför ta ut nederländsk moms, även om varan skickas från Irland.

Av Dinoman

Vi kan sitta här och relativisera kring huruvida det ändå inte är "helt ok" prestanda-per-pris-utveckling i och med RTX 4070 och andra grafikkort 2023 men jag tycker att många missar poängen.

Till syvende och sist så är det marknaden som styr och senaste åren så har vi gått igenom en exceptionell period där efterfrågan vida har överstigit tillgången. Därav, i vissa fall, extremt höjda priser och i andra fall lite mer modest ökning.

Vi är just nu i en global recession, många marknader stannar av och vissa, som Sverige, sjunker i BNP vilket innebär att köpkraften, och därmed efterfrågan, minskar. Tillgången är god och vi ser hur AMD och Nvidia spelar, "spilla ut mjölken"-spelet. Alltså att man hellre spiller ut överbliven mjölk än att sänka priset för att generera mer efterfrågan. Metaforen är att de drar ut på produktlanseringen för att fortsätta att sälja äldre generationen till bra priser snarare än att konkurrera stenhårt med nya produkter som skulle leda till dumpade priser på förra generationen. AMD och Nvidia går varandras ärenden till viss del just nu.

Mina tankar kring ämnet.

Jag förutspår bättre prisutveckling, ur konsumenthänseende, framöver.

Av Dinoman
Skrivet av Ragequittare:

Intels grafikkort kan bli intressanta den dagen man släpper kort som klarar minst 1440p och 144 fps.

Intressant mätvärde. Jag misstänker att du kan uppnå detta i rätt många spel idag med existerande Intel-kort.

Av Dinoman
Skrivet av Mithras:

Måste säga att man nästan skäms lite över hur mycket man vill att Intel ska lyckas med sina Arc-kort för att få fart på konkurrensen.

När fan var senaste gången man "höll" på en av industrins största aktörer som om de vore underdogs?

GO INTEL GO!

Håller med. Sällan jag önskar något företag framgångar som jag önskar att Intel kommer på banan här. Särskilt med kommande Battlemage.

AMD och Nvidia har det lite för bekvämt, särskilt Nvidia. Tyvärr går ju AMD deras ärenden genom att inte utmana prissättningen, eller snabba på och släppa mid-range för RDNA3.

På CPU-sidan är det ju ordentlig konkurrens nu, vilket märks då priserna är fullt rimliga. Där var ju Intel själva i Nvidia-position i många år men olikt Nvidia så blev de bekväma. Nvidia driver på enorm teknikutveckling, det ska man ge Jensen, han är bara extremt girig i processen.

Av Dinoman
Skrivet av Nozomi:

Frågan är. Blir texturerna på något vis större i 4k?
Texturer har väl ingen koppling till skärmupplösningen att göra.
Eller skalar moderna spel upp dem på något dolt sätt.

Nu är jag ingen självutnämnd expert på området men det finns en hel del spel som har så kallade 4K-texturpaket, där texturerna är mer högupplösta än vanligtvis. Extremt förenklat, så finns det ingen poäng med att visa texturer i ectremt hög upplösning om du spelar i 1080p då upplösningen ändå inte drar någon nytta av att texturen har fler pixlar. Motsattsförhållandet är däremot sant. Om du spelar i 4K och har låg upplösning på texturerna så kommer det uppfattas som extremt suddigt och se fult ut.

Jag misstänker att det finns många varianter på hur detta hanteras i spelmotorerna, varpå varför RTX 4070 kan prestera som RTX 3080 i vissa spel och inte andra i 4K. Ofta kan man själv också ställa in texturkvalité men exakt vad det innebär för spelmotorn vilken upplösning på texturerna som visas i olika upplösningar vet jag inte men jag misstänker att bra spelmotorer inte slösar på bandbredd eller VRAM-minne genom att använda sig av högupplösta texturer om du spelar i 1080p.

Lägg därtil vad Yoshamn beskriver här nedan.

Skrivet av Yoshman:

Det är gissningsvis inte storleken på texturerna som är den stora skillnaden, utan storleken på "render-targets" som geometri-buffert, Z-buffert, färg-buffert etc.

Tar man de två senare är deras storlek ~2 MB i 1920x1080, ~3,5 MB i 2560x1440 och hela 7,9 MB i 3840x2160.

Ökningen från 1080p till 1440p är x1,7 medan ökningen från 1440p till 4k är x2,3 (ökningen från 1080p till 4k är x4,0). Så är rätt stora steg mellan varje upplösningssteg.

Dessa buffertar har högt krav på bandbredd, men de har också relativt god data-lokalitet vilket gör att de relativt effektivt kan cache:as förutsatt att cache-storleken är "tillräckligt stor".

Tänk också på att med tekniker som DLSS minskar storleken på geometri och Z-buffert till att motsvara rendering-resolution. Så för GPUer som mer förlitar sig på cache än bandbredd mot VRAM borde rimligen uppskalningstekniker ge relativt sett större prestandavinst.

Skrivet av CrispVanDahl:

Yeah det känns som en helt rimlig förklaring.
När vi satt och spelade in så blankade jag totalt när jag försökte komma på huruvida minnesbandbredden är lägre på 4070 än 3080, haha. Händer ganska ofta att jag har siffrorna i huvudet men när kameran är på börjar jag tvivla istället.

Det kan jag förstå. Mansplainade lite för er ovan, det är alltid lika tillfredsställande.

Av Dinoman

Svaret på erat stora mysterium gällande varför RTX 3080 presterar bättre än RTX 4070 i 4K har nog väldigt troligen med att göra att den förstnämnda har cirka 51% mer minnesbanbredd tillgodo, något som blir kritiskt när det skall skyfflas tunga texturer. 320 bitars minnesbuss kontra 192 bitars. Båda baserade på GDDR6X.

Ada Lovelace har 7x större L2-cache på 36 MB kontra 5 MB för Ampere, för att mitigera den smala minnesbussen, vilket funkar lysande i 1080p men jag antar att det inte räcker i just 4K men också går bra i 1440p, därav att de riktar in sig på just 1440p och inte 4K även om RTX 4070 är kompetent i 4K också men inte lika imponerande ställt mot förra generationen.

Tack för att ni kom till mitt TED-talk.

Av Dinoman
Skrivet av Phod:

För då står skärmarna ofta och visar rätt så samma innehåll. Man har en utvecklingsmiljö uppe på en skärm och en browser eller en annan utvecklingsmiljö på en annan. Ibland kör man ett Teams-möte, men du fattar... Samma fönster på samma skärmar under lång tid. Då vill man ju inte köra på en skärm där man riskerar inbränning.

Denna modellen har ett antal skyddsfunktioner för motverka inbränning. Skärmsläckare, som jag för övrigt rekommenderar att man också har igång på Windows, hela idén med skärmsläckare kommer ju ifrån den tiden vi hade CRT-skärmar, som också kunde lida av inbränning.

Vidare så finns det också en intressant funktion som heter Pixel orbit på denna modellen. Skärmytan är egentligen större än 3440x1440 vilket innebär att hela skärmbilden skiftar en pixel åt sidan, upp och ner för att skydda pixlarna från att visa samma statiska innehåll. Detta blir ju vädligt situationsbaserat beroende på innehåll på skärmen.

Sist men inte minst, som jag nämner i piloten så har denna modellen rätt aggressiv pixel refresh som påminner var fjärde timme. Det går att stänga av men är INTE att rekommendera. Rätt störigt om man spelar länge eller sitter en längre stund och arbetar såklart men ett gott råd att ha på om man vill öka livslängden.

Av Dinoman
Skrivet av Dinkefing:

Hur mycket drar skärmen? Och vilken ljusstyrka kör du?

Jag kan inte mäta hur mycket den drar men enl andra källor på internet så ska den ligga i snitt på 100 W.

Inser att jag glömde nämna detta i piloten, men jag kalibrerar alltid för 180 nits, så det är vad jag kör på. Det är lite för ljusstarkt kvällstid varpå jag, om skärmen tillåter, också brukar köra ett nattläge kalibrerat för 120 nits.

Av Dinoman

RTX 4070 presterade bättre än jag väntat mig i 1080p, men förlorar som väntat i högre upplösningar mot förra generationen. Då RTX 3080/3080 Ti/3090 springer ifrån rätt rejält i 4K.

Samma pris och samma prestanda som RTX 3080 när det lanserades. Nvidia har snart lyckats med sin ambition att låsa in oss konsumenter i featuresets. DLSS är ett ess i rockärmen här och motivationen ligger ju i hur stor nytta man får av DLSS3 som onekligen ser intressant ut men jag kan inte skaka av mig den beska smaken i munnen här.

Vi behöver konkurrens! AMD och Intel dra en hare ur hatten, snälla!

Av Dinoman
Skrivet av LPG:

Började skriva min kommentar. Såg sen att någon hade gjort nästan likadan kommentar här med

Men typ;
1060 var i nivå med 980. Lägre pris
2060 var i nivå med 1080. Lägre pris
3070 var i nivå med 2080ti. Lägre pr.. msrp.
4060 och 4070 i nivå med 3070+3080. Snarlik msrp. Lite meh får man säga.

Ja vi får gräva djupt i historiken för att hitta ett liknande fall i form av GTX 770 som presterade 5% snabbare än GTX 680, vilket är logiskt då det de facto var exakt samma kärna med snabbare minne bara. Enligt läckta tester så verkar inte RTX 4070 ens prestera lite bättre än RTX 3080 utan i snitt något sämre, vi får se. Mer VRAM är ju en fördel.

I detta fallet är det bara ett marknadsstrategiskt drag av Nvidia att normalisera en försämring av prestandaförändringen vi kan förvänta oss med en generation.

Realpriset kommer ju inte vara lägre än RTX 3080 i slutändan, om vi bortser från kryptoboomen som är en anamoli i sammanhanget.

Det här är bara en sorglig utveckling. Inget mer inget mindre.

Av Dinoman
Skrivet av mpat:

Tack jag vet varför man stänger av delar av ett chip och vad det är som kostar, men Nvidia stänger inte av 25% av ett chip för att de har så stora defekter. De stänger av så mycket som de vill för att få en lagom stack med jämna mellanrum mellan chippen. Nvidia säljer massor av chip med mer eller mindre avstängt under andra namn till OEMer, och om de behöver göra ett nytt chip för att täcka ett hål (som 1070 Ti) så kan de lätt göra det genom att stänga av lite mindre.

Att bara göra en tabell med chipstorlek och pris blir alltid missvisande om du inte tar den största konfiggen på varje chip. Det går absolut att göra, det blir bara inte x70 varje gång.

En enda gång hade det hänt att GX110 hade använts till x70 och x80, och det var 500-serien närmast innan (GF110). Ytterligare en gång hade man använt GF100, det var 400-serien. 200-serien använde GT200 till allt från 260 och uppåt.

Jag tror att du har missat hur man läser ut namnen. Logiken med de två första siffrorna är att de är ett versionsnummer. GK104 innebär att chippet tillhör "Kepler 1.0", medan GK110 är "Kepler 1.1". Nvidia gör absolut inte alla chip varje gång, men de följer fortfarande det temat. Fermi är det enklaste exemplet, där gjorde de 1.1 av allt för 500-serien.

Detta kanske ser ut som att jag bara är en petimäter för sakens skull, men jag tror att detta är grundfelet som du gör i ditt antagande, vilket leder till nästa fel.

Nej, de lanserade GTX Titan/GK110 i februari 2013, och 780 i maj samma år. Det var nästa generation - det var bara det att de ställde in GK114 och GK116. Källa på datumen om du inte tror mig:

https://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-re...
https://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan...

Att Titan slog det 15 månader gamla 7970 är inte så konstigt. Dess verkliga konkurrent var 290X, som kom 8 månader senare.

Nvidia gjorde helt enkelt inget topp-kort i Kepler 1.0, men det är klart att de designade GK104 för att mäta sig med Tahiti (7970). Man drog sig för att göra chip större än 300mm2 eftersom det var en ny process (28nm). Nvidia hade tidigare alltid varit långsamma på nya processer, men med 28nm ville de vara lika snabba som AMD. Då blev beslutet att skjuta på det största beräkningskortet.

Alltså, nej...

Den största kärnan Nvidia gör slutar på 0. Den är alltid speciell som ett beräkningskort (bättre FP64-prestanda bland annat) och har med tiden blivit allt mer specialiserad. GK110 är ett steg på vägen, där den inte är identisk med övriga Kepler men ändå ganska lik. Den följdes av Maxwell GM200 - 980 Ti och Titan XP - innan det var slut med 100-kärnor i de vanliga familjerna. Nästa 100-kärna heter inte GP100 utan GV100 - Volta (AKA Titan V) eftersom den familjen då avviker så mycket att Nvidia vill ge den ett eget namn. Istället finns GP102, som är 1080Ti, och även TU102 (Titan RTX/2080 Ti) och GA102 (3080 och allt ovanför). Volta har sedan dess följts av Hopper, enligt samma princip.

Att Nvidia valde att använda GA102 till 3080 är kanske lite intressant (MLID har en teori om att det skulle ha varit GA103, men att Samsung hade sådana massiva problem med yielden att de helt enkelt hade en massa GA102-chip med mängder med fel), men jämför inte ett "0-chip" med ett "2-chip". "2-chip" är en stor, vanlig GPU. "0-chip" är beräkningschip som också går (eller gick) att köra lite spel på.

Du är onekligen väldigt petig med semantiken och jag tror du förstod alldeles utmärkt vad jag menade. Givetvis har saker och ting utvecklat sig hos Nvidia och 100, 110, 200 med mera är deras största kärnor och tidigare var de både till deras proffesionella serie likväl som deras konsument line-up. Det ändrades med Volta, absolut och blev istället 102 på konsumentsidan men jag är övertygad om att du förstår vad jag menade.

Min grundpoäng kvarstår och min lista som jag producerade är också helt korrekt och jag vet inte längre vad det är som du är ute efter att argumentera om.

Av Dinoman
Skrivet av edson:

Papperslanseringar 💘

Fram med högafflarna. Dags att starta revolution!

Det är ju lite konstigt detta med tanke på att se troligen inte har brist på chipp. Låter snarare som något i distributionen har fallerat.

Av Dinoman
Skrivet av mpat:

Det du missar här är om man använt hela chippet eller inte. I de allra flesta fall så är x70 ett kraftigt nedkapat chip där x80 är den kompletta modellen. Undantagen är 770, 2070, 2070S och 3070 . Om du vill göra en sådan här jämförelse är det bättre att ta till kompletta chip i varje fall, annars blir dimensionerna på chippen meningslösa.

Nej där har du fel. Storleken på chippet och antalet defekter per wafer är det som avgöra kostnaden i stora delar. Hur mycket av chippet som är avstängt på grund av defekter är helt orelevant, det är ett sätt att sänka kostnaden för hela produktstacken men det har ingen som helst påverkan på kostnaden av det individuella chippet då det är ytan av en wafer som avgöra kostnaden. Så stora chipp är alltid dyrare än små. Det är hela anledningen till att AMD och Nvidia samt troligen snart också Intel har börjat med chipletdesign. För att kunna skala prestanda utan att behöva öka ytan på ett monolitiskt chipp.

Citat:

Så var det verkligen inte. 670 var Nvidia som skulle kontra AMDs 7970 och 7950, där Nvidia togs på sängen och bara hade gamla 500-serien att sälja i ett par månader innan de papperslanserade 670 och 680. Detta var tvärtom en period när AMD konkurrerade bra. Nvidia tog bra betalt för korten beroende på att AMD lanserade först, och de satte sina priser efter vad AMD tog ut - 670 kostade $400 för att 7950 kostade $450. 770 var en "refresh", egentligen bara en omdöpt 680, och Nvidia tvingades att sänka priset på den när AMD hade uppdaterat (från $400 till $330).

Om du vill ha en generation där Nvidia tog betalt efter att det inte fanns någon konkurrens, så titta på Ampere, 2000-serien. När AMD till slut kom med första RDNA kapade Nvidia snabbt priserna (genom att döpa om kort, 2070 Super är egentligen bara 2080 till ett lägre pris osv).

När Nvidia skapade Kepler så var det första gången som man brandade 104-kärnan som 70- och 80-serien, tidigare hade alltid 110-kärnan varit avsedd för 80- och 70-serien. Kepler var så välpresterande att Nvidia inte ens behövde använda sig av den största kärnan i familjen för att vara konkurrenskraftiga, de skapade då ett nytt segment - Halo-produkt i from av GTX Titan, som var så långt före konkurrensen att det var svårt att fatta. Nvidia togs knappast på sängen med tanke på att de lanserade GTX Titan (GK110) i Feb 2012 och HD7970 kom Dec 2011. Sen angående papperslanseringar så minns jag inte exakt hur det var men det skedde i båda lägerna allt som oftast men där har du kanske rätt.

Cirka ett år senare kom GK110 igen i form av GTX 780 så Nvidia använde sin största kärna för 80-serien för att konkurrera med AMD's bästa och som du nämner så återanvände man sig av GK104 till GTX 770 vilket är precis så man gjort innan men det var ingen refresh att tala om då den hade något snabbare base clock och snabbare minne. 600-serien samt 700-serien är baserad på samma generation i form av Kepler, mycket framgångsrik arkitektur. Det var också här som Nvidia började att dra ifrån AMD. 600-serien blev helt enkelt bara ett stop-gap för att AMD inte hade något bättre att komma med. Maxwell fortsatte sedan att bygga på framgången med Kepler och sen kom Pascal och resten är historia.

Det är först när Ampere kom till marknaden som Nvidia återigen använde sin största kärna för ett 80-seriekort (icke TI) i och med GA102. Vilket också är anledningen till att den blev så uppskattad tror jag, för återigen fick vi riktigt bra prestanda för en hyfsat överkomlig peng, om vi bortser från kryptotokerierna. Anledningen till detta är 100% på grund av att AMD hade något vettigt på händerna i och med RDNA2 och Nvidia visste detta annars är jag övertygad om att vi hade sett ett 3080 baserat på GA104 det som sedemera blev 3070 och 3070 Ti.

Av Dinoman
Skrivet av Blackwizard:

Du testade aldrig rgbn på baksidan? Dvs ambilight.

I princip allting annat är mer intressant än den gimmicken men visst jag kunde lagt ner ett par timmar till av min fritid för att grundligt testa detta. Jag valde att inte göra det, rätt eller fel.

I övrigt fungerar det exakt på samma sätt som Ambilight på deras TV-apparater.

Av Dinoman
Skrivet av ipac:

Vet inte om det är så tydligt iofs. 770 kostade enl Google $515 i dagens pengar.

$84 är pengar det med, absolut, men här kan jag köpa det med tanke på det mångfaldigt ökade komplexiteten och produktionskostnaderna.

Vad som kanske säger mer är att den gången fick vi hela 294 mm2 kretsen. Idag kostar det $799.

Bra poäng. Här är listan juster efter inflation och storlek på kisel, sen ingår många fler komponenter i ett grafikkort vilket rimligtvis också har ökat. TSMC har ökat sina produktionskostnader och hela värdekedjan har troligen blivit dyrare i snitt. Men, här kommer det justerat för inflation, i USA och dagens pengar i parantes.

9600 GT - 179$ / (254$) / 240 mm²
GTX 260 - 449$ / (617$) / 576 mm²
GTX 470 - 349$ / (479$) / 529 mm²
GTX 570 - 349$ / (479$) / 520 mm²
GTX 670 - 399$ / (522$) / 295 mm²
GTX 770 - 399$ / (515$) / 294 mm²
GTX 970 - 329$ / (416$) / 398 mm²
GTX 1070 - 379$ / (473$) / 314 mm²
RTX 2070 - 499$ / (594$) / 445 mm²
RTX 2070S - 499$ / (586$) / 545 mm²
RTX 3070 - 499$ / (547$) / 392 mm²
RTX 4070 - 599$ / (599$) / 295 mm²

Tittar vi ser vi att 2000-serien var chunky-bois eftersom nu så användes stora delar av kislet till RT-kärnor samt Tensor-kärnor.

Det är nog främst svenska kronan som ställer till det allra värst för oss här i Sverige även om det är historiskt högt pris för en sådan liten kärna. Speciellt med RTX 2070 Super i bakhuvudet som kostade lika mycket men nästan är dubbelt så stor.

GTX 670 och GTX 770 var senast vi fick betalar så öronbedövande mycket pengar för så lite kisel senast. Det var också en period då ATi/AMD inte var särskilt konkurrenskraftiga. Nvidia drar tyvärr ifrån i nutid också på den fronten med ett "feature set" som blir mer och mer attratkivt för kunderna. Ray tracing, DLSS och CUDA främst då.

Av Dinoman

Vad kan man säga som inte redan är sagt. Jag låter den historiska prissättningen tala sitt tydliga språk.

GTX 770 - 399$
GTX 970 - 329$
GTX 1070 - 379$
RTX 2070 - 499$
RTX 2070 SUPER - 499$
RTX 3070 - 499$
RTX 4070 - 599$