Inlägg

Inlägg som ajp_anton har skrivit i forumet
Av ajp_anton
Skrivet av Dinkefing:

Då bårde de inte benämnas 125W varianter utan nåstanstans över 200W. Intel ljuger sina konsumenter rakt upp i huvudet. Här kan man läsa vad en 10900K egentligen drar för att visa sina överdrivna Geekbench resultat. Det är milsvid skillnad mellan AMD's och Intel's dito. Det ända Intel varit bra på är att övervolta sina modeller. Hade Rocket Lake varit 10nm eller 7nm hade strömtillförseln varit mycket mindre. Kom håg att de fortfarande ligger på 14nm och är begränsade av just det utöverer övervoltning och överklockning.

https://www.tomshardware.com/reviews/amd-ryzen-7-5800x-zen-3-...

Nog för att AMD haft fördelar att ligga på 7nm mot Intels 14 men kom ihåg Intels 14nm är någonstans runt 8-10nm TSMC.

Hur har Intel ljugit? Tror inte de nånsin ens berättat för sina konsumenter hur mycket deras processorer drar i ström. Det är först när man gräver sig djupare ner i PL1 och PL2 som strömförbrukningen kommer fram, och även här stämmer allt precis som det ska.

Av ajp_anton
Skrivet av Red Onion:

Någon som kan förklara varför det inte går att använda mer än 100 MHz?

Varför skulle PTS ens tillåta en och samma aktör att köpa mer än 100 MHz om konsensus är att allt över 100 bara vaskas?

Undrar också varför Telia inte skulle kunna använda dessa 20MHz om Tre hade kunnat göra det. Vad hindrar Telia från att göra vad det nu är som Tre hade gjort, för att få användning för dessa 20MHz? Kanske att man måste dela upp kunderna i två separata nät? Är det ett problem?

Av ajp_anton
Skrivet av ipac:

Njae. Ursprungdtexten säger inte att EdgeLED ger bättre HDR än FALD. Det är enbart nått Swec råkat formulera.

Man argumenterar för att kantbelysning bjuder på enastående kontrast med lägre maximal ljusstyrka än vad man hade tidigare med FALD. Så bra att man går och sänker kraven på ljusstyrka som tidigare var satt enligt FALD. Hur låter inte detta som att kantbelyst är bättre än FALD? Ja, OLED är med där också, men kantbelyst används också i samma argument för att sänka kravet.

"While the original G-SYNC Ultimate displays were 1000 nits with FALD, the newest displays, like OLED, deliver infinite contrast with only 600-700 nits, and advanced multi-zone edge-lit displays offer remarkable contrast with 600-700 nits."

Av ajp_anton
Skrivet av ipac:

Det gör det inte. Fel i artikeln.

Dock så verkar ursprungstexten också mena samma sak. Att kantbelyst uppnår godkänd HDR vid lägre ljusstyrka än vad man rekommenderade med FALD.

Av ajp_anton

Svarade rätt storlek. En massa andra saker också som är viktiga, men marknaden och utbudet har lett till att storlek är det första man måste filtrera efter. Vill ha en mobil som får plats i fickan men som ändå är hyfsat high-end.

Har en Sony XZ1 Compact. Finns en 2:a också, men den saknar hörlursport (!!) så 1:an är just nu den snabbaste användbara mobilen för mig.

(iPhone är inte ett alternativ)

Av ajp_anton

Oj, följer tydligen inte tråden så fick ingen notifikation. Ja, +358. Och jag tror också att det är sällsynt att nån handlar med utländskt nummer, detta är andra gången sen ni införde swish som jag använder marknaden. Är det nån säkerhetsrisk med att bara inkludera allt?

Av ajp_anton
Skrivet av JBerger:

Hur kan det snabba på något, att vänta?

Skrivet av medbor:

Hur kan utbyggnaden gå snabbare om auktionen skjuts upp? Hur är det billigare att vänta när vi hamnar efter resten av världen i spetsteknik och mobila lösningar?

Antar att man måste gå tillbaks och göra om auktionen, och återinstallera Huawei-saker man redan hunnit riva bort, om Huawei får rätten att delta senare.

Av ajp_anton
Citat:

Den uppenbara nackdelen med detta vore licensavgifter och mindre marginaler.

Hur kan licensavgifterna vara en nackdel om det är billigare än egen tillverkning? För om det är dyrare, så skulle det inte finnas nån poäng med det överhuvudtaget. Eller är det bara en nackdel om man gråter över att ingenting är gratis?

Av ajp_anton
Skrivet av Jagers:

vadå "amd må prestera väl i spel" ? vilket spel, ett spel på hela marknaden som dem NÄSTAN slår nvidia i?

Lugna ner dig. "Spel" är plural och då menas såklart ett genomsnitt. Titta på recensionens prestandaindex och berätta varför den inte skulle prestera väl i spel.

Av ajp_anton

Nåja, som tur (för AMD) så verkar skillnadena vara väldigt små. Flaskhals nånstans i kedjan? Visst, ska man bara köra detta så är det Nvidia som gäller, men har man redan AMD av nån annan orsak så förlorar man inte särskilt mycket.

Av ajp_anton
Skrivet av Meathim:

Men vi talar om ett hypotetiskt scenario där ECC är standard och alltså kan vi inte jämföra med vad det kostar i verkligheten, där ECC inte är standard. Hade det varit så hade kanske priserna varit högre än vad de är nu, men det hade vi aldrig vetat.

Du pratar som att det hela är en hypotetisk produkt också som vi inte vet något om och som inte relaterar alls till vår verklighet. Så är inte fallet, utan den består av egentligen samma minneskretsar som vanliga minnen som är standard, och därför kan man göra helt kvalificerade gissningar utifrån vad vi redan har. I ditt hypotetiska scenario är ECC standard och produktionsledet innehåller alla prisoptimeringar som kommer från massproducering. Det är precis det jag jämför med.

Av ajp_anton
Skrivet av Meathim:

Kanske inte gratis, men billigare helt klart, naturligtvis. Och hade det varit standard hade det inte varit billigare eftersom vi inte haft något att jämföra med.

Men då kan vi alltså kolla på hur mycket billigare större minnesmoduler är. De innehåller ju mer av precis samma minne, så de är egentligen inget annat än mängdrabatterade minnen, precis vad ECC vore i ditt exempel.

*Drar statistik från prisjakt på DDR4-3200 från många olika tillverkare*

Resultatet är att den enda mängdrabatten man verkar få är att själva minnesmodulen med dess kontrolllogik är en fast extrakostnad för samtliga minnesmoduler. Utöver det så är priset på själva minnet otroligt linjärt. Vilket egentligen inte är nån överraskning - är inte just RAM bland de mest prispressade varorna i världen? Just därför som priserna svänger så mycket när tillverkningspriserna ändras, för det finns verkligen inga marginaler.

ECC-RAM, med dess 12,5% högre minnesmängd, kostar enligt mina data ca 9% mer för 4GB-moduler, 11% mer för 8-16GB-moduler och 12% mer för 32GB-moduler. Skillnaden är mer för större mängder, just eftersom en större andel av modulen då är just minne. Så där har du din mängdrabatt om vi antar att volymerna ökas maximalt. Istället för 12,5% prispåslag så får du bara ca 11%.

Av ajp_anton
Skrivet av kreekill:

Nu va det några år sedan jag köpte en bärbar, men varför skulle man behöva högre upplösning än 1920x1080 på en 15" skärm? Jag vill vara tydlig här att det är inte någon kritik mot din åsikt utan mer min okunskap/nyfikenhet som frågar. Det är ju inte så man kan sitta o gibba i 4k på de flesta bärbara iaf? Eller film? I min värld känns det otroligt svårt att se någon skillnad på en sån liten skärm.

Nu var det några år sedan jag köpte en bärbar senast men den tuffar på fortfarande med upplösningen 3200x1800 eller nå sånt på 13" och jag har ALLTID hatat det. Så många gånger som jag önskat att det var 1920x1080 upplösning på skärmen.

Man behöver inte, men det är trevligare och allt ser bättre ut. Förutsatt då att skalning fungerar med de program man använder. Kör man något tungdrivet, t.ex moderna spel, så behöver man givetvis inte driva spelet i samma upplösning som skärmen. Eller så gör man det men med lägre detaljnivå. Men hela grejen är ju att man inte ska kunna se några pixlar, och därför vill man ha högre upplösning.

Angående "otroligt svårt att se någon skillnad på en sån liten skärm" så undrar jag hur långt du sitter från din dator? Tänker mig ifall jag skulle byta ut min 13-tummare mot 15, så skulle den ha samma vinkelstorlek som min 55-tums TV två meter bort i min lilla etta, där jag tvärtom skulle säga att det blir otroligt stor skillnad att gå upp från 1080p till t.ex 4k (vilket min TV är). Önskade att min 13-tummare också hade högre än 1080p (eller 1200p i mitt fall), men tyvärr var jag tvungen att välja mellan detta eller en spegelblank yta som inte kan användas utomhus.

Av ajp_anton
Skrivet av Gurrrra:

1920x1080 känns dock väldigt förlegat, skulle inte vilja ha nånting mindre än 4K ens på en 13"are.

De satsar på en gammal nisch som ingen längre bryr sig om, bara för att kunna säga att de har "världens första 15-tums OLED på 1080p". För 1080p på 15 tum övergavs innan OLED var en grej.

Av ajp_anton
Skrivet av Donnerstal:

Kan det ha något att göra med Intels kommande version av SAM kanske?

Fast det har väl inget med styrkretsen att göra? Kommunikationen med GPUn sker ju via PCIe-länken som går direkt från CPUn.

Av ajp_anton

Ingen som tycker det är nämnvärt att Intel fördubblar sin DMI-buss mellan CPU och styrkrets? Den är visserligen fortfarande bara en DMI 3.0, dvs PCIe 3.0, men bredden är x8 nu. Konstigt val, då den nya CPUn stödjer PCIe 4.0, så varför fördubblar man bredden istället?

Av ajp_anton
Skrivet av tvelander:

4K 120Hz 4:4:4 med iGPU?

Ja, varför inte? En HD 530 klarar av att driva 4k i 60Hz, så denna lär inte ha några som helst problem med det dubbla. Eller måste man kunna maxa Crysis för att det ska vara värt det?

Av ajp_anton
Skrivet av lillaankan_i_dammen:

Det största problemet med flash är dålig säkerhet och det är därför folk i över 10 års tid har rekommenderat att inte installera den. Bortser man från detta så visst fanns det lite störande reklam, men jag ser det som ett litet problem.
Att patcha för högre säkerhet, så är hela konceptet öppet för en massa olika attacker.

Försöker tolka detta som svar på min fråga som du citerade, men jag kan inte komma på varför den dåliga säkerheten skulle vara helt okej om man råkar befinna sig i Kina.

Av ajp_anton

Så vad är poängen med att segmentera detta enligt region? Det är ju inte som att flashplayer är en fysisk vara där varje enhet kostar att producera, transportera och sälja. Om man fortsätter att patcha flash för kinesisk publik, varför duger inte den åt resten av världen?
(Antaget då att flash överhuvudtaget duger för någon)

Av ajp_anton

Är det inte lite tidigt att deklarera Samsung som att ha sprunit om Intel? Samsungs 8nm är fruktansvärt optimistiskt döpt då det är jämförbart med Intels 14nm och har enorma problem med tillverkningen, till skillnad från Intels 14nm som är typ den mognaste noden i världen just nu. Samsungs 7nm skrivs det så lite om att det känns som den ligger värre till än Intels 10nm, som nu faktiskt börjat ta fart. Och sen har vi Samsungs 5nm mot Intels 7nm... hur långt fram i utvecklingen är dom egentligen?