Inlägg

Inlägg som Dinoman har skrivit i forumet
Av Dinoman
Skrivet av ipac:

Vet inte om det är så tydligt iofs. 770 kostade enl Google $515 i dagens pengar.

$84 är pengar det med, absolut, men här kan jag köpa det med tanke på det mångfaldigt ökade komplexiteten och produktionskostnaderna.

Vad som kanske säger mer är att den gången fick vi hela 294 mm2 kretsen. Idag kostar det $799.

Bra poäng. Här är listan juster efter inflation och storlek på kisel, sen ingår många fler komponenter i ett grafikkort vilket rimligtvis också har ökat. TSMC har ökat sina produktionskostnader och hela värdekedjan har troligen blivit dyrare i snitt. Men, här kommer det justerat för inflation, i USA och dagens pengar i parantes.

9600 GT - 179$ / (254$) / 240 mm²
GTX 260 - 449$ / (617$) / 576 mm²
GTX 470 - 349$ / (479$) / 529 mm²
GTX 570 - 349$ / (479$) / 520 mm²
GTX 670 - 399$ / (522$) / 295 mm²
GTX 770 - 399$ / (515$) / 294 mm²
GTX 970 - 329$ / (416$) / 398 mm²
GTX 1070 - 379$ / (473$) / 314 mm²
RTX 2070 - 499$ / (594$) / 445 mm²
RTX 2070S - 499$ / (586$) / 545 mm²
RTX 3070 - 499$ / (547$) / 392 mm²
RTX 4070 - 599$ / (599$) / 295 mm²

Tittar vi ser vi att 2000-serien var chunky-bois eftersom nu så användes stora delar av kislet till RT-kärnor samt Tensor-kärnor.

Det är nog främst svenska kronan som ställer till det allra värst för oss här i Sverige även om det är historiskt högt pris för en sådan liten kärna. Speciellt med RTX 2070 Super i bakhuvudet som kostade lika mycket men nästan är dubbelt så stor.

GTX 670 och GTX 770 var senast vi fick betalar så öronbedövande mycket pengar för så lite kisel senast. Det var också en period då ATi/AMD inte var särskilt konkurrenskraftiga. Nvidia drar tyvärr ifrån i nutid också på den fronten med ett "feature set" som blir mer och mer attratkivt för kunderna. Ray tracing, DLSS och CUDA främst då.

Av Dinoman

Vad kan man säga som inte redan är sagt. Jag låter den historiska prissättningen tala sitt tydliga språk.

GTX 770 - 399$
GTX 970 - 329$
GTX 1070 - 379$
RTX 2070 - 499$
RTX 2070 SUPER - 499$
RTX 3070 - 499$
RTX 4070 - 599$

Av Dinoman
Skrivet av Jaxione:

Framhäva det hade du inte behövt men hade varit väldigt intressant att få reda på hur bra det funkar/inte funkar osv.

Men det är bara min åsikt. Suverän recension i övrigt

Det funkar väldigt likt deras TV-apparater, så det funkar bra och kan följa innehållet på bilden. Går att göra mängder med inställningar utöver att följa video-innehållet som att pulsera till ljud eller bara bete sig som vanlig RGB-belysning. Det sitter en rad under skärmen samt runt hela baksidan - kortsida likväl som långsidan.

Helt ärligt så orkade jag inte lägga tid på den funktionen.

Av Dinoman
Skrivet av star-affinity:

Ja, G8 är stilig. Dock bara 65 W via USB-C – tror Philips erbjuder 90 W här. Det senare välkommet för bärbara datorn jag kör. Plus att det är en KVM inbyggd något som jag inte tror G8 har (kommer nämligen använda skärmen med en stationär och en bärbar).

Det stämmer att denna modellen erbjuder 90 W via USB-C samt att det finns en KVM-switch. Då är denna modellen potentiellt perfekt. Om du inte stör dig på subpixellayouten. Har du möjlighet så testa en först.

Av Dinoman
Skrivet av star-affinity:

Bra recension!

Lite sugen på denna skärmen. Var och kikade på den hos en som införskaffat. Trevlig på många sett och det går att anpassa ljusstyrkan (och även stänga av) LED:en nere till höger och loggorna på ramen nere till vänster och till höger är rätt subtila även om jag helst inte alls vill ha sådant på skärmens ram.

Negativt är dock att texten absolut ser lite ”fuzzy” ut med anledningen av pixelstrukturen, men också även pixeltätheten som ju inte är så värst hög. Verkar också lite störigt med ”pixel refresh”-funktionen som verkar kunna köra igång när det minst passar. Borde gå att schemalägga den. Men förstår samtidig att den måste köras om det inte gjorts på ett tag.

Så en skärm som är fantastiskt för spel, video och bild men sådär för för text. Går tydligen inte att få allt i nuläget.

Håller med om designen att den inte är en riktigt höjdare, även om jag uppskattar att de försöker göra något "annat".

En sak gällande texten. Jag reagerade direkt när jag satte igång den för första gången men nu efter ett par veckor så har jag vant mig och tänker inte på det alls i princip. Jag har också justerat med hjälp av ClearType. Kan vara värt att ha i åtanke. Sen personligen hade jag satsat på Samsung G8 istället. Samma panel men mycket snyggare.

Alienwares modeller har bäst garantier, samt att du även kan kika på MSI.

Av Dinoman
Skrivet av Jaxione:

Tack för recensionen mycket bra! Men du har ju helt missat att recensera denna skärmens USP. Ambiglow, det är det som särskiljer denna QD oled mot de andra. Konstigt att knappt nämna det och hur det fungerar eller inte fungerar.

Mvh J

Tack,

som testpilot så försöker jag göra en så komplett recension som möjligt men jag har också ett personligt perspektiv när jag bedömmer produkten. För mig är Ambiglow en gimmick som är kul, men det är allt. Philips hade säkert velat att jag försökte framhäva detta men det lämnar jag till deras marknadsavdelning då jag personligen inte bryr mig så mycket om den funktionen. Jag har fokuserat på det jag tycker är intressant, såsom USB-C med power delivery, KVM-switch t.ex.

**********************************

När det kommer till upplösning så är den standard ur mitt perspektiv och ~110 PPI (motsvarande en 40-tums 4K-skärm) är väldigt vanligt, text är fullgott skarp om ni frågar mig, det är snarare gloriaeffekten som skulle vara en oro även om jag själv har vant mig efter ett par veckor. Att kalla den gammalmodig på grund av sin upplösning är rätt konstigt. Den här skärmen är i absoluta framkanten när det kommer till teknik och färgåtergivningen är helt sinnesjuk samt att den här helt befriad från några som helst eftersläp, listan är lång.

Vidare så är inbränning en evighetsdiskussion gällande OLED. Som nämnt i tråden så verkar QD-OLED faktiskt vara ett sämre alternativ än WOLED från LG, då den tekniken har en vit subpixel vilket gör sprider ut belastningen bättre över alla pixlarna, för att åstadkomma vit på QD-OLED så är det alla subpixlar som måste vara tända samtidigt, som med LCD. Kolla gärna på rtings.com för mer info.

Jag är helt enig med eran kritik gällande HDMI 2.0, det är helt ofattbart dåligt att enbart erbjuda 100 Hz över HDMI när skärmen klarar 175 Hz. Kortslutning hos produktutveklaren och troligen något slags konstigt beslut att spara pengar.

I övrigt, tack för att ni läser och fortsätt dela era tankar, jag skickar tillbaka skärmen inom kort men säg till om ni vill ha något testat som jag kanske missat.

Av Dinoman
Skrivet av Xeonist:

Jmf. med?

Jag ska inte uttala mig om huruvida det är dyrt eller inte, men den där naiva tanken som många ger uttryck för att "då är det väl bara höja priset med 25kr till slutkund, ingen skulle reagera...." är just..naiv.

Att du insinuerar att jag är naiv gillar jag inte. Jag jobbar på ett av Sveriges största bolag med produktutveckling, och vi gör inte bara köttbullar. Jag har en viss insikt i hur BOM-kostnaden ser ut inom elektronik. 25 kr är inte en stor utgiftspost på en produkt som säljs för tusenlappar även om många bäckar små alltid är relevant.

Min poäng är, vad är då rimligt? En licenskostnad får du vackert betala om du inte själv vill lägga miljoner på R&D. 20 :-? 15:-? Alternativet är ju inte att få det gratis. Du äger inte rättigheterna. 5 kr besparat på en totalkostnad om, säg 1000:- skulle vara en kostnadsbesparing på 0,5%. Knappast en anledning att dra sig ur Europa med hela produktsegmentet.

Alla vill spara pengar men i sammanhanget när man tittar på totalkostnaden för en produkt så tror jag inte den potentiella kostnadsbesparing är särskilt stor. Detta verkar handla om dåliga ursäkter för att dra sig ur något man ändå inte är lönsam inom.

Av Dinoman

Förstod jag det rätt att OPPO och förlängningen OnePlus är sura på Nokia för att de vill ha 25:- per såld telefon i licenskostnad?

Låter inte som att det var en skitdyr licensmodell.

Av Dinoman
Skrivet av ramlösa:

Ett av de första spelen det verkar göra nån riktig skillnad, förutom som nån sorts gimmick där allt blir en spegel.

Kan också ha att göra med att de ljustekniker som fanns innan kanske inte var de bästa. Många spel är ju riktigt duktiga på att baka ljus och använda en massa tekniker för att simulera ljuseffekter. Ju sämre de är från början desto större effekt har Ray Tracing på spelet.

Av Dinoman
Skrivet av Orisons:

Över 10år? Det är väl till och med över 20år?

Du kanske tänker på originalet som släpptes 2000?

Av Dinoman
Skrivet av SCORPIUS:

Det är fullständigt rättvist att kalla det en dumpster fire.
Det är inte som jag sitter hemma och tycker. Det ÄR så.
Mjukvaran till korten var fullständigt skräp.
Korten visade sig vara bra. Det som imponerar är hur dom lyckats styra upp allt med senare mjukvara.
Nu vågar man sig på att rekommendera dom.

Att det är en komplex produkt förändrar ingenting. Allt ska ses från en köpares ögon och där var en överväldigande majoritet överens om att inte vilja ha det i sin dator om dom så fick det gratis.
Vi som hoppades på dessa kort böjde ryggen så det knakade av ödmjukhet.

Ok, det är din rätt att ha den åsikten det jag försökte framför ovan är att det är fel att hänga ut Raja Koduri enkom för dess lyckande eller misslyckande och att jag inte håller med dig om att det var ett misslyckande då det uppenbarligen var en produkt som har gått att få ordning på. Inget dåligt första (andra om vi räknar DG1) försök om du frågar mig och det är troligen inte många människor i världen som hade kunnat leda ett liknande projekt som Raja har gjort.

Vi har nog helt olika synsätt på detta. Du har full rätt att vara jättebesviken på Raja för att Arc var kass vid lansering, jag gjorde ett försök att nyansera diskussionen.

Av Dinoman

Nu tycker jag att vi alla tar ett djupt andetag.

Jag har också ett förslag att när ni diskuterar prestanda på grafikkort så använd er av flertalet källor och var också tydliga med vilka förutsättningar ni fokuserar på såsom upplösning, spel och grafikinställningar, Ray tracing, uppskalingstekniker med mera då det har enorm påverkan.

Det Nvidia har gjort är att de sätter en prislapp på deras ekosystem som även följer med deras produkter, såsom CUDA, olika RTX-finesser, DLSS med mera. När vi tittar lite för djupt ner i lådan så tittar vi på en 3D-värld där rastereringsprestanda var kung och jämförelsen ofta var ganska äpple med äpple.

Nuförtiden så går även kiselbudget till att få plats med RT-kärnor samt för AI-beräkningsenheter utöver det som krävs som pipeline för rasterering så det är inte helt märkligt att prestandalyftet sjunker om man jämför ren rastereringsprestanda. Ada Lovelace är snabbare på ray tracing samt snabbar på matrisberäkningar än Ampere men tar inte lika stora lyft i rasterering än vad som vi är vana vid.

Problemet är prissättningen för många av oss tror jag. Det är för att vi inte än riktigt accepterat det Nvidia vill att vi skall acceptera, att vi även betalar för ett "feature-set" när vi köper deras produkter.

Jag kan sympatisera med den som säger att man blir lätt besviken över en produkt som kallas för RTX 4070 Ti och den verkar marginellt bättre än ett RTX 3080 i t.ex. Valorant (inte faktakollat detta). Dessutom för att realpris som är högre än RTX 3080 var vid vissa tillfällen, krypto ställde ju till prisbilden under dess livstid. Faktum är att det fanns en stor skara människor här på Swec som faktiskt fick tag på ett RTX 3080 för runt 8000 kr. Något som är omöjligt för ett RTX 4070 Ti, rimligtvis, om man tittar lite längre bak i historiken så borde ett RTX 4070 Ti ligga lägre i prissättning, men av många faktorer och anledningar, vissa som beror på TSMC, vissa som beror på Nvidia och dess tredjepartstillverkare och andra som beror på svag svensk krona och inflation gör att vi nu sitter här med svarte petter.

Mitt tips är att titta på beg. marknaden och helt enkelt stå över denna generationen och möjligen nästa.

Av Dinoman
Skrivet av SCORPIUS:

Men... det var en fullständig dumpster fire. SEN blev det bättre.

Fast med tanke på hur komplex produkt det här är så är det inte helt rättvist att kalla det en dumpster fire och hade det varit det så hade de inte kunnat få ordning på det, alls.

Då vet hur de brukar säga, gör det bättre själv. Att sitta hemma och tycka en massa saker om människor är ju lätt men att ge sig i kast med liknande saker själv är oftast en ganska ödmjuk upplevelse.

Av Dinoman

Med risk för att inte följa trenden och klaga på Raja så vill jaga bara påpeka att han inte får nog cred för vad han är värd. Att leda arbetet kring att ta fram en helt ny grafikarkitektur är gissningsvis en förmåga som extremt få besitter. Intel Arc är imponerande med tanke på hur de ändå tagit sig in på marknaden utan att vara en fullständig dumpster fire.

Vidare så kan man inte titta på Intel Arc och sedan dra slutsatsen att Raja är enkom ansvarig för dess prestanda eller hur lyckad den är på marknaden. Det är tusentals människor involverade, budgetar, strategiska beslut med mera som påverkar en lansering av ett grafikkort så samtidigt ska man nog dämpa den direkta kopplingen.

Hur han däremot uttryckt sig i social media med mera är helt på hans bord och där finns en del övrigt att önska.

Av Dinoman
Skrivet av DLM:

Du valde att sträcka på sanningen en bra bit

3080 och 4070 Ti hade samma lanseringspris runt 700 dollar men 4070 Ti ligger prestandamässigt i linje med 3090 Ti. Ett 4070 Ti presterar ca 20% över ett 3080 vilket absolut är ett stort steg.

RTX 3080 hade $699 som lanseringspris.

RTX 4070 Ti har $799 som lanseringspris.

Enl Techpowerup så är RTX 4070 Ti 17% snabbare för 14% högre pris.

Pris per prestanda stagnerar och det har pågått ett tag nu.

Av Dinoman
Skrivet av ckghagen:

Tänkte inte bara på denna funktion exklusivt utan mer på AI närmsta åren. En snabb googling ger exempelvis
"Grammatik- och stavningskorrigering handlar om att ta bort fel i en text.
Det låter lättare än det är, eftersom det finns flera olika typer av misstag. Ibland handlar det bara om ett stavfel eller ett felstavat ord, men det kan också vara ett djupare problem med meningsstrukturen. Tack vare artificiell intelligens är det nu möjligt att på ett tillförlitligt sätt upptäcka fel och föreslå en perfekt korrigering, på de flesta språk."

Andra tankar jag får: Även annat att skriva en enkel text och att be AIn ge den en akademisk prägel eller att göre en byråkratisk text mera lättbegriplig.

Ja, där vet jag av egna testar att ChatGPT har förmågan att göra precis de sakerna du nämner.

Jag kommer inte bli förvånad om man t.ex. börjar använda Large Language Models som OpenAI GPT till att skriva pressrelease, manualer och annat monoton textarbete.

Av Dinoman
Skrivet av ckghagen:

Kanske rättstavningen kan rätta rättstavade men fela valda ord snart. Även syftningsfel vore trevligt att få korrigerade.

Jag tror du underskattar vad den här funktionen klarar av.

Detta är revolutionerande. Jag ser oerhört mycket användbart med detta. Framförallt att sammanställa, summera hjälpa till att ställa upp en agenda, skapa ett par snabba slides inom ett ämne för diskussion med mera.

Effektiviteten kommer öka dramatiskt. Hade jag suttit med Business Navigation och annan analysberoende verksamhet hade jag börjat bli svettig. Samt alla serviceinriktade roller samt kommunikation.

Av Dinoman
Skrivet av ipac:

Tjaa, menade relativt obefintlig skillnad. Dvs 80 vs 80Ti är normalt mkt större skillnad.

Även om 8-9% nästan i sig självt kan sägas vara om inte obefintligt så iaf obetydligt.

Eller som en känd sajt sa: "[3080 Ti är] ett dyrt och fullkomligt onödigt grafikkort".

Hehe ja, iaf för sitt ursprungliga pris.

Sen så hävdar jag nog att skillnaden är mer 10-12% mycket beroende på spel och upplösning. Mellan 3080 Ti och 3090 handlar det snarare om 2-3%. Sen var inget av de korten särskilt prisvärd. 3080 var ju givet pris/prestanda-kungen. Just då så var verkligen 3080 Ti helt meningslöst. 3080 och 3090 var nog segmentering. Men under kryptoboomen så kunde ju ett grafikkort bara existera för att sälja.

Jag köpte själv mitt 3080 Ti begagnat för 9k hade aldrig lagt MSRP eller mer.

Av Dinoman
Skrivet av ipac:

GA103 är förstås snabbare än GA104 om den ges klockning/effektbudget i desktop klass.

Tror det var planen för 3080 från början men nu tog Nvidia det lite udda valet att köra på GA102 istället vilket fick en del konsekvenser. T.ex. att det är nästan obefintlig skillnad mellan 80 och 80Ti vilket är "udda".

Det är väl 3080 Ti och 3090 som har en närmaste obefintligt prestandaskillnad.

3080 kontra Ti-modellen är det ju större skillnad på. Då 3080 är en betydligt mer nedskuren modell av GA102.

Av Dinoman
Skrivet av ottoblom:

Fast dom har lagt till ett nr på chippen . 103 som egentligen är 104. Eller vet du ett kort innan som där kretsen har 103 ? Tittat så långt tillbaka som till pascal .

Så kan man ju se det iofs men jag ser det mer som ytterliggare segmentering av toppkorten.

Jag vet att det fanns 108-kärnor när det begav sig 30-serien.

Spelar inte så stor roll egentligen då prestandan per krona är vad som i slutändan spelar roll. Allt annat är bara godtyckligt.