Inlägg

Inlägg som houze har skrivit i forumet
Av houze
Skrivet av jeffan97:

Vad är grejen med halverad cache jämfört med dem som inte har en iGPU`?

Dessa är byggda på ett kisel så för att spara yta, strömförbrukning och få ner kostnaden har AMD valt mindre L3 cache. Eftersom cpu, cache och minneskontroller är på samma kisel så har dessa lägre latens mot RAM än vanliga Ryzen så det kompenserar den lägre cache-mängden en del, i vissa applikationer är dessa snabbare men i de flesta spel långsammare då spel rent generellt gillar mycket cache.
Kislet är ju mest tänkt att användas i laptop-cpu:er men med uppskruvad strömbudget fungerar de bra i stationära datorer som inte behöver någon kraftfull grafik.

Av houze
Skrivet av Pyxira:

Får man göra så?
Jag som tycker PGA är bättre, lättare att böja tillbaka pinnarna om man råkar böja någon. Visst de kanske inte sitter kvar så bra i sockeln alla gånger, men man kan iaf använda den gamla processorn till att borsta katten.

Skrivet av landmarks:

Bästa tipset so far. Varför har jag envisats med mirakelkam? Till nästa utställning kommer samtliga katter i min ägo prepareras med processor, de lär vinna rubbet

486:or är bäst för det, lite längre pinnar på de och lagom mellanrum, nyare cpu:er är inte lika bra att kamma katten med.

Av houze
Skrivet av Felix:

Det är alltså drygt 7.2 miljarder USD i ren vinst per månad, eller dryga 241 miljoner USD (2 miljarder SEK) i ren vinst om dagen.
Helt sjukt faktiskt.

Skrivet av UndaC:

Hehe det år så löjligt mycket pengar att man blir helt vimmelkantig.

Om man började spara en miljoner kronor i månaden idag skulle man ha lika mycket pengar om femtiosju tusen år som Apple omsätter på tre månader.

Galet mycket pengar, 187 miljarder SEK i vinst på ett kvartal. Jämför man svenska statens budget så skulle det bekosta svenska försvaret i 3 år eller Utbildning och universitetsforskning i 2 år. Apples helårsvinst (vinst, inte omsättning) är som halva svenska statsbudgeten.

Av houze
Skrivet av holo:

Kommer inte energiåtgången/värmeutvecklingen öka hyfsat linjärt med en sån här lösning?

Jo, men eftersom dessa kommer byggas på TSMC 5nm som har 30% lägre förbrukning så jämfört med 7nm så ökar det inte linjärt, 6000-seriens kort är rätt högt klockade, ska AMD lyckas öka antalet beräkningsenheter så pass mycket så kanske de för klocka dessa lägre? Vi kan nog räkna med att topp-korten kommer fortsätta ligga över 300W, en fördel med MCM är att man kan sprida ut värmen och lite lättare kyla kretsarna, jag skulle inte bli förvånad om nästa generation grafikkort närmar sig 400W förbrukning.

Ska bli intressant med dessa MCM-baserade grafikkort, både Intel och AMD kommer ha de till kommande kort och Nvidia antar jag kommer implementera det efter nästa generation.

Av houze
Skrivet av jan-banan:

Hade hoppas att de skulle byta kärna till linux hade varit en lika stor grej som Apple m1.

Hoppas de rensar ut allt gammalt skit och gör något likande som rosetta som Apple gjorde.

Gör något slags uppdateringaverlryg typ apt-get så man slipper jaga olika hemsidor efter uppdateringar

Finns redan en packethanteringssystem som kommer nu under sommaren i Windows 10, heter winget, lite betaversion än så länge men det blir nog bättre. Annars finns ju sen länge chocolatey.

Av houze
Skrivet av Balconette:

Jag uppfattar det såhär:
SLC: Enterprise-grade
MLC: Server-grade/Pro-grade
TLC: Enkel konsument, Mest läs-disk
QLC: Extrem budget

SLC: används inte i SSD:er längre.
MLC: tveksamt om det tillverkas några nya SSD:er med MLC.
TLC: Vanligt i både Enterprise och konsument-produkter
QLC: Börjar bli vanligt i både Enterprise och konsument-produkter.

Kollar du på Enterprise-diskar från t.ex. Kioxia, Intel eller Micron så är det TLC eller QLC.
SLC användes för 10 år sedan när diskarna var på 100GB och skulle skriva 2-300GB/dag, dagens betydligt större diskar så är det i princip ett icke-problem med utslitna SSD:er.

De flesta är överdrivet rädda för att få sina SSD:er utslitna, men hur ofta händer det? Man måste skriva väldigt mycket för det ska vara ett problem och har man ett sådant behov så finns ju andra lösningar som t.ex. Optane-diskar.
Har slitit ut en Samsung 850 Pro 512GB på ett år men det var i en server som körde en snekodad database som skrev om sitt innehåll var 15:e minut så den skrev 100-200GB/timme, det är inte normal användning. Hade jag satt i en lite större enterprise-disk hade den nog hållt 4-5 år utan problem.

Av houze
Skrivet av cronix91:

Konstigt att ingen har nämnt chocolatey..
Installerar choco, sen har jag ett txt dokument där jag har sparat ner alla program jag behöver. Så de ser typ ut så här:

choco install nvidia-display-driver
choco install amd-ryzen-chipset

choco install vlc teamviewer9 nordvpn rufus discord qbittorrent telegram filezilla lightshot nordvpn cryptomator jre8 flutter steam-client notepadplusplus sumatrapdf firefox-beta --pre megasync --ignore-checksums

Sen för att uppdatera alla program så skriver jag bara

choco upgrade all -y

https://chocolatey.org/

Håller med, Chocolatey först, resten är ju mest choco install kommando. Kan dock ändra sig rätt snabbt om winget blir bra.
I övrigt så är det Bitwarden för att hämta alla login/password/licenser.

Av houze

Inte lätt att hålla reda på alla varianter.

Av houze
Skrivet av Olle P:

... räknat i USD.
Vore ju minst lika intressant att se produktionen räknat i etsade wafers.

Ja, det vore intressant, men jag tror det handlar om en liknande skala som kanske är lite avtagande, nya noder är betydligt dyrare per wafer men priserna för äldre noder borde sjunka lite eftersom utrustningen är betald och det finns konkurrens från rätt många aktörer så det jämnar ut lite.

För varje fabrik som byggs så ökar antalet processade wafers men som vi märkt de senaste åren så hänger inte utbudet med efterfrågan.

Av houze
Skrivet av sKRUVARN:

Ja det finns en helt klart en marknad utanför dom mest avancerade noderna. Jag tror även många underskattar hur stor halvledarmarknaden är utanför kommersiella cpu/gpu/soc segmentet.

https://www.semi.org/en/semiconductor-industry-2015-2025

https://www.semi.org/sites/semi.org/files/data15/images/Figure3.JPG

Ja, den grafen visar inte bara hur mycket som är utanför den senaste tillverkningsnoden utan också hur mycket marknaden växer år för år. Man ser också att äldre noder i princip oförändrat fortsätter tillverkas i samma utsträckning, kolla bara på 130nm (mörklila) som nu varit igång i 20 år utan minskning.
Så kretsbristen handlar långt ifrån enbart om TSMC 7nm, det handlar om fabriker som byggdes för 20-25 år sedan för dåtidens kapacitet och tillverkningsnod som inte kan leverera tillräckligt mycket idag.

Att Global Foundries inte fortsatte krympa sina noder är helt klart förståeligt, de har inte musklerna att konkurrera med TSMC, Samsung och Intel för cutting edge noder, möjligt att de 30 miljarder dollar de hoppas få in kan hjälpa dem ta fram något bättre så de har 7nm 2025 men det är tveksamt.

Av houze
Skrivet av sweisdapro:

540TB får jag det till

Långa år du har

Ja, det stämmer, vet inte hur jag räknade, fick med några hundår eller något annat i beräkningen

Av houze
Skrivet av Shiprat:

Det är ju ungefär så det har varit, tillverkare anger ibland endurance men oftare DWPD och en garantitid, där DWPD är hur många gånger du kan skriva över disken per dag under åren, så om DWPD är 0,3 för en 1TB disk så kan du skriva 300GB per dag i fem år som mest för att hålla garantin - skriver du mer än så så gäller inte garantin, om du går över 5 år så gäller den inte heller.

0,3 DWPD på 1TB blir ca 5,4TB endurance- problem är att nu om folk använder en sådan disk lite osmart så kommer de kanske skriva säg 0,4TB på en månad. Sannolikt vet tillverkaren i detta fallet att diskarna inte faktiskt kan hålla måttet för att brukas 100% på det viset, utan riskerar att dör tidigare i sådana fall.

Var kommer 5,4TB från? 0,3DWPD är ju 730TB över 5 år.

Skrivet av Shiprat:

Tänk dig att en biltillverkare erbjuder en ovanligt bra garanti- med ditt exempel säg att de ger sju år eller 25000 mil, men det handlar om en liten Smart fourtwo och de har slugt räknat med att den aldrig kommer köra så långt ändå då de flesta som kör en Smart inte kommer köra 3125 mil om året, och garantin ser fördelaktig ut i jämförelse med andra tillverkare.

Sedan börjar de märka att många som kör åt über eller driver enskild firma där de kör mycket eller dylikt köper just denna bil då den har sådan fördelaktig garanti och de inser att de snart kommer ha en väldig massa fall av människor vars bilar dör vid 20000 mil efter bara sex år - tidigare än garantin. De meddelar då att det är ett sådant problem med att folk använder bilarna på "fel sätt" att de måste halvera garantin framöver för alla, vilket givetvis inte spelar någon större roll för de som redan har bilen och kört den enligt villkoren de köpte med, det är bara ett sätt att skylla ifrån sig något de vet att de inte kan stå för på en grupp användare- utan de användarna hade de kunnat fortsätta sälja en falskhet, säkra i vetskapen att inte tillräckligt många skulle syna bluffen för att det skulle börja bli dyrt.

Fast i detta fallet vore det att några kör sin bil på ettans växel med varvtal som gränsar till rödmarkering i 25000 mil medans tillverkaren tycker man ska köra normalt för att bilen ska klara 25000 mil.

Skrivet av inquam:

Nu kanske ja, men då var ju per definition marknadsföringen tidigare missvisande.
Sanningen är nog snarare att disken under "vanligt" användande klarar det högre värdet, men tack vare Chia-mining så vågar man inte anta att folk använder den så som tänkt och försämrar då garantin för alla.

Ja, det är självklart så att hur disken används är det som påverkar. Men det finns ju inget som tidigare sagt detta. Så om man hade flera begränsningar så borde det framgå och listas även det och inte endast TBW värdet. Innan Chia var en sak så kunde det ju varit så att en SSD agerade cache disk på ett system med en massa data flödandes genom det, något som kunde ha samma effekt. Men det var inget som har lett till försämrad garanti för alla köpare av disken. Idag hamnar vi där och de som även installerar spel och låter dem ligga på disken under lång tid får en sämre garanti.

Finns sedan 10 år tillbaka standarder för hur SSD ska testas, t.ex.:
JEDEC JESD218, Application classes for client & enterprise SSDs
JEDEC JESD219, Client & enterprise SSDs workloads.

Kollar man databladen för många SSD:er så anger de just JESD219 i samband med TBW.

Hittar dock inte att PNY anger JESD219 och att deras TBW innan ändringen var mycket högre än konkurrenterna, jämför man med 1TB diskar t.ex. Samsung 980 Pro eller WD Black så har de 600TBW medans PNY CS3030 hade 1665TBW vilket är 2.5 gånger mer. Det plus att jag inte hittar vilken testmetod PNY har använt ger ju lite rödflagg redan från början, de kanske klarar utsatt TBW men under några helt andra förhållande än vad som är gängse standard.

Av houze
Skrivet av medbor:

Du verkar ha helt rätt, jag mindes de gamla värdena från SSD för 10 år sedan. Då var typ 10000 vanligt om jag minns rätt.

Enligt tech radar är det typ såhär:
SLC 30-100k
MLC 5-30k
TLC 2-5k
QLC 1-2k
...

Är det värt att minska skrivuthålligheten så mycket bara för att få mer utrymme? TLC vs MLC är ju ’bara’ 50% skillnad i kapacitet, men 5x skillnad i livslängd...

Jag tror siffrorna för TLC och QLC kan skrivas ner mer än så för vissa NAND, vissa QLC klarar säkert inte mer än ett par hundra skrivningar men det finns även extrema exempel åt andra hållet också, IBM's flashcore-diskar de använder i sina Storwize-produkter använder numera QLC och klarar av upp mot 16000 skrivcykler.

Om det är värt det, beror helt på användningsområde och vad kunderna vill betala, men generellt har diskarna blivit så pass stora att det inte är ett problem, det är inte normalt användning för någon med 1TB disk att installera om ett 100GB AAA-spel 10 gånger varje dag och på så sätt slita ut sin SSD på mindre än 5 år.

Av houze
Skrivet av hACmAn:

Ja det är ganska simpelt, men ändå inte, som vanligt.
Om de inte fyller disken, helst inte ens i närheten. Och minar segment för segment och sedan flyttar datat från SSD till HDD så kommer SSD kuna fungera precis som vid gaijming.

Minnes cellerna kan bara skrivas ett antal gånger sedan är de sönder. Därav att man har extra NAND minne liggande på kontroller kortet som man kan byta ut trasiga minnes celler gentemot.

Om nu SSDn är nästan full, finns det inte så många lediga celler att skriva till.
Tänk att du har en 1000GB SSD med 980GB utrymme som du inte ändrar på och då 20GB ledigt. De 20 resterande GB är det som det konstans skriv till då du Surfar kollar på netflix eller vad det nu kan vara som dina Temp filer använder. Då kommer de sista 20GB skrivas på om och om igen. Samt bytas ut mot det extra minnet som finns på SSD för att byta it skadade celler.

Man brukade ta som exempel att varje cell klarar 1000 skrivningar. Om du då har en milijon celler 1 000 000 så skulle du kunna skriva till disken en miljard gånger innan den första cellen dör, dvs 1000 000 000. Men om du tvingar den att bara använda 20% av diskens utrymme skulle det bli 0200 000 000 skrivningar. Dvs en femtedel. Har vi TRIM och lite annat också så man kan inte räkna så exakt. Sedan lär ju det bli klart varrmare om det är en konstant last på disken. Lär inte vila i strömspar så ofta.
Vart lite långt.

Edit:
@houze SLC cashen glömde jag bort. Om jag inte minns fel körde Samsungs TLC EVO diskar TLC NAND som SLC för att det var smidigare att köra samma chipp på hela kortet. Vet du om de fortfarande gör so och i så fall om de kan ändra om adresseringen per cell i de TLC minnen som agerar SLC. Eller om man skriver samma till varje cell. Skicka samma spänningsförändring till alla tre borde nog inte vara så svårt. (sen om det är praktiskt är en annan sak)

Vet inte om ditt exempel riktigt stämmer när det gäller relativt fulla SSD:er, kontroller håller reda på cellernas slitage och flyttar runt lite data för att frigöra bättre celler och jämna ut slitaget.

När det gäller att använda TLC som SLC så är det inte bara Samsung, de flesta gör det, är ju igentligen ingen skillnad på cellerna, bara hur man läser av dem och SLC är det bara att läsa en hög eller låg spänning medans TLC har 8 olika spänningsnivåer.

Många SSD:er har dynamisk SLC-cache idag så de kan använda rätt många av cellerna när det är lite allokerat på disken, men fyller man upp disken så används det mesta som TCL/QLC-celler och SLC-cachen krymper vilket gör slitaget högre om man skriver mycket och skrivs det enorma mängder så blir cachen full så det skrivs direkt till TCL/QLC vilket ökar slitaget ännu mer.

Därav det jag skriv, under normal användning, dvs, en inte för full disk, inte så stora bursts av skrivningar och att kontrollern kan flytta runt lite data för att jämna ut slitaget så klarar de de uppfyllda TBW men om det skrivs stora mängder hela tiden så slits det snabbare och kanske bara klarar av 20% av utsatt TBW.

Skrivet av medbor:

SLC kan inte skrivas tusentals gånger mer än TLC. Kanske dubbelt eller möjligen 10 gånger så många, men inte tusen gångers skillnad

1000 kanske är lite väl att ta i, men åtminstone hundratals gånger mer, finns ju SLC som klarar upp mot 100k P/E medans TLC ligger någonstans mellan 1000-3000 P/E så 100 gånger mer är best case scenario för SLC, 30-40 gånger är nog mer realistiskt, hursomhelst handlar det inte bara om någon fördubbling eller bara 10 gånger.

Av houze
Skrivet av inquam:

Tycker det är lite skumt. TBW borde ju inte ändras, däremot skulle jag kunna köpa om de ändrar garantitid från 5 år till 3 år eller något. Men om de har diskar de säger skall kunna skriva 500TB tex och sedan ändrar man sig till att de endast kan skriva 250TB eftersom folk faktiskt börjar skriva till dem... då ljög man antingen innan eller hade inte en aning och chansade på en siffra som man nu inte vågar stå bakom.

Men, men... mining har än en gång skapat sämre förutsättningar för alla som gillar PC-hårdvara

Skrivet av Spawnbadboy:

Ja jag fattar inte detta heller hur TBW kan ändras. Då hade de en falsk siffra från början

Men är inte så insatt hur det fungerar i detalj så kanske är något jag inte förstår om någon annan vill förklara

Skrivet av Teddis:

Känns det inte på sätt och vis skumt att de inte kan stå för sina original-TBW värden? Skriv som skriv tänker jag. Eller är det just att chia är en lång intensiv session av skrivningar som gör att det sliter mer än samma mängd av ströskrivningar över en längre period i en vanlig dator?

Skrivet av medbor:

TBW är ju en statistisk siffra när X% av diskarna fallerar. Om de ändrar gränsvärdet till en riskfaktor på 0.1% istället för ursprungliga kanske 1% så kan TBW-värdet ändras markant beroende på chipens kvalitet, och dessutom kanske de behöver köpa in nya, sämre, chip pga bristen nu som gör siffrorna mer extrema.

Troligen var ursprungliga värdet baserat på att bara något fåtal procent av användarna beräknades komma ens i närheten av gränsen, och därmed väldigt få faktiska fall av problem.

Nu med Chia och sämre tillgång till NAND kanske både fler beräknas använda kapaciteten samtidigt som minnena är av sämre kvalitet potentiellt. Dessa tillsammans kan påverka nya ekonomiska ’break even’ ganska markant

Skrivet av kelthar:

Fast det ena anger en ålder och det andra anger en mängd skriven. De har garanti på 5 år eller 3150 TBW t.ex, vad man nu än når först. Har inga problem med att de ändrar tiden / åldern. Dock är TBW en annan femma.

Det ska hålla upp till 3150 TBW, men helt plöstligt så håller den bara 660 TBW. Kvittar inte det om det gäller 5 veckor eller 5 år. Om gångjärnen på mitt köksskåp ska hålla 10000 öppningarn så borde de göra det oavsett om jag står och öppnar skåpet hela dagarna eller om jag gör det 3-4 ggr / dag.

Detta är lite märkligt... känns nästan som det är något fuffens. Falska siffror. Kan man ha estimerat livslängden till 500% för mycket så låter det som man inte testat alls eller ljög från början.

Det kanske är så att man max får skriva 1,64TB / dag på dem varje dag i 5 år. Då når man 3000 TBW på exakt 5 år.

Det ni inte räknar med är olika användningsmönster, konsument-SSD:er är inte gjorda för att kontinuerligt skriva stora mängder, de är gjorda för att hantera enstaka större skrivningar och däremellan flertalet mindre skrivningar.
Jag antar med Chia att man överskrider den SLC-baserade skrivcachen gång på gång och därmed behöver skriva direkt till TLC/QLC som tål betydlig mindre skrivningar samt att kontrollern inte hinner städa bland NAND-cellerna och sprida ut skrivningarna till de celler som är minst slitna.

D.v.s. diskarnas TBW är beräknat på normal användning där man kan utnyttja SLC-cachen optimalt, SLC-cellerna klarar av 300 till 1000 gånger mer skrivningar än TLC och ännu mer jämfört med QLC. Block som ofta skrivs om ofta kommer förmodligen aldrig ens ut på TLC/QLC-celler utan lever sitt liv i SLC.

Så, TBW är inte totalt antalet skrivningar, det är totalt antalet skrivningar vid ett visst användarmönster.

Skrivet av Svantesson666:

Skillnaden ligger i hur det skrivs misstänker jag. Nu är jag absolut ingen expert i ämnet så rätta mig gärna om jag har fel. Men vid Chia-brytning görs extremt långa skrivningar. Vilket gör att din enhet aldrig får chans att varva ner och kyla av sig som den normalt sett annars hade fått göra.

Men som sagt rätta mig gärna om jag tänker fel.

Jag tror inte kylningen är något större problem, men att SLC-cache och att kontrollern inte hinner med att optimera datan för minst slitage på cellerna.

Skrivet av Lodisen:

Tror de gick över till QLC från TLC och ändrade TBW, inte som en effekt av Chia.

Skulle givetvis kunna vara det, TLC hanterar ju 3-10 gånger mer skrivningar än QLC.

Av houze
Skrivet av ThomasLidstrom:

Jag tycker den tidplanen är väldigt aggressiv.
Drygt tre år att bygga fabriken, bygga upp tillverkningsmaskineriet och starta upp den?

Tycker också det låter som en kort tid, men de har ju redan börjat bygga den så all planering är förmodligen gjord de senaste 2-3 åren så det handlar ju "bara" om att bygga byggnader och installera utrustningen för att sedan börja trimma in produktionen så då kanske 3 år kan vara rimligt.
Är dessutom en mellanstor fabrik så inget megabygge och tillverkningsnoden 5nm använder de ju redan idag så det går nog snabbare att trimma in produktionen när man gjort det förut med samma tillverkningsteknik.

Av houze
Skrivet av Yoshman:

Tja, kärnan till MacOS/iOS är faktiskt öppen källkod och det skulle ge Windows en rejäl knuff framåt vad det gäller stödet för modern CPU-design!

Å andra sidan får man också de vinsterna med en Linux-kärna.

Tyvärr lär inget av de hända. Men Windows är faktiskt en riktigt bra Linux-distro. Under Build förra veckan presenteras stöd i WSL2 för grafiska Linux applikationer.

https://youtu.be/f8_nvJzuaSU

Har ju gått att köra grafiska applikationer sedan WSL1, bara starta en X-server i Windows och exportera displayen från WSL, men jag antar det inte fungerar så bra med krävande saker, har bara använt det för att köra webläsare och lite annat.

En sak som borde rullas ut på bred front snart är väl pakethanteraren winget vilket jag ser fram emot, vad för andra stora saker som kommer till Windows är jag förväntansfull över.

Av houze
Skrivet av Yoshman:

Givet att CPU-kretsarna packas så tätt intill varandra och givet att Intel har sin EMIB-teknik kanske det inte är en allt för djärv gissning att designen bygger på att man med hjälp av EMIB direkt sätter ihop kretsarnas interna mesh-buss.

Om det är fallet och det fungerar som tänkt löser man ett stort problem med dagens "chiplet-designs": högre latens mot RAM (som till viss del kan kompenseras med massiv mängd L3$, men det tar tyvärr väldigt mycket kiselarea).

Tycker ändå det som blir mest spännande att se hos Sapphire Rapids är CXL. CXL har potentialen att ta heterogena system till en ny nivå.

Är väl som du säger troligt EMIB sätter ihop mesh-bussen så man har cache coherency och relativt snabba minnesaccesser. Svårt att se på bilderna men om alla chiplets är lika så är väl troligt att varje chip har en minnesbuss men med EMIB som superlim så blir inte effekterna så grava som de var för första generationen EPYC. Lägre latens och att varje chip har upp till 20 cores gör det bättre, blir lite sämre än Skylake sub-NUMA men mycket bättre än EPYC ver1 där man hade 4 cores/ccx, betydligt enklare för OS/applikationer att hantera 4 relativt stora noder i en sub-NUMA än massa små som i EPYC ver1.

CXL är helt klart det mest spännande, men jag är för dåligt påläst om hur det kommer fungera och vad det kommer ge i form av funktioner.

Angående kiselyta för L3$, är den verkligen så pass dyr? Givetvis för kretsar i budgetsegmentet är varje kvadratmillimeter viktigt men för kretsar i skalan $5000-$10000 så känns det som att 100mm^2 extra kanske inte är avgörande.
Och kollar man på funktioner i CXL som shared memory pool och spec på PCIe5/CXL om 60ns latency så känns det som att fler kretsar än bara CPU kommer behöva cache-minne i någon form för att hålla uppe prestanda. Så jag förväntar mig att vi kommer se ännu mer cache på många enheter varav vissa inte har detta idag.

Av houze
Skrivet av SweDragon:

Vad menar han? Geforce 3080 och AMD 6800XT är ju de största bristvarorna av alla! Eller han kanske tycker att dessa inte är "high end" utan bara plebs köper dem?

Skrivet av Sando:

3060 ti och 6800 är väl om något ännu värre, i alla fall om man ser på siffror från tex proshop.

Vilka 3:e-parts kort man kan få tag på i Proshop eller annan webhandel kanske inte återspeglar vad tillverkare så som Acer kan få levererat. Är ju inte så att Acer köper Gigabyte-grafikkort på Webhallen för att stoppa i sina få modeller av stationära gaming-datorer.

Han säger ju inget om vilka komponenter som de behöver mest.
För Acers volymprodukter kanske det är helt andra komponenter som är problem, de har ju t.ex. över 20 olika Chromebooks, kanske saknas eMMC, skärmpaneler eller CPU:er till dessa. De har +30 olika skärmmodeller, kan ju vara brist på allt möjligt som paneler, bildprocessorer och HDMI-anslutningar för dessa.

När han säger att High-End är ett mindre problem så är det för Acer som företag, de kanske får tillräckligt med Quadro-kretsar för deras ConceptD-maskiner eller Intels HQ-CPU:er, de kanske har fått så många Max-Q-GPU:er till deras gaminglaptops som de kommer sälja. För dem så kanske tillgång på grafikkretsar såsom 3800 eller 6800 inte är något större problem, de beställde dem från Nvidia och AMD för över ett år sedan och får det de beställde så om de beställde en miljon kretsar så har de fått det och kunnat sälja alla deras stationära gaming-datorer och de hade kanske önskat att de beställde hundratusen till för det finns efterfrågan på det men det finns efterfrågan på 10 miljoner mer Chromebooks vilket är ett större problem.

Det som förvånar mig i all denna komponentbrist är att inte tillverkarna och återförsäljare bara extremhöjer sina priser, nog för priserna ökat en del men inte i närheten av vad de skulle kunna ta ut. Köpte för ett tag sedan en AMD 5800X för den är "överprisad" och därmed det enda i lager, 5600X och 5900X är en del väntetider på, varför har inte AMD bara höjt priserna på dessa och fått bättre marginal, tog ju Intel 6 månader att komma med nya CPU:er som kan konkurera. Eller alla grafikkort baserat på Geforce 3080 och AMD 6800XT, Gigabyte/Asus/Asrock/EVGA m.fl. eller Inet/Webhallen/Komplett kunde bara lagt på några tusenlappar till, vad tusan, Nvidia och AMD som är källan för dem kunde höjt priserna tills det matchar efterfrågan.
Tillgång och efterfrågan verkar inte riktigt fungera, Intel är kanske ett extremfall men de släpper en CPU med ett visst pris och sen håller de det tills tillverkningen upphör, sätter de ett pris så är det så i 3 år oavsett vad som händer, t.ex. Core i9-9980XE kostade $2000 och fortsatte göra så när AMD släppte Threadripper för att till nästa generation (Core i9-10980XE) halvera priset.
Marknaden är för statisk, saker lanseras för ett pris och det hålls hela produktens livslängd ut, därav de konstiga MSRP-priserna från AMD och Nvidia vi sett de senaste lanseringarna, de släpper grafikkretsar till kort som säljs för ett bestämt pris i ett fåtal exemplar, stiger i pris direkt och håller det i 1,5-2 år för att återgå till lanseringspriset och sedans försvinner produkten för nästa generation och cykeln uppretas. Varför släpper de inte produkten och gradvis sänker priserna när efterfrågan minskar?

Av houze

Denna gamla nyhet känns relevant:
https://www.sweclockers.com/nyhet/24757-datorkomponenter-kan-...

"Sumco berättar att efterfrågan på kiselplattor idag ligger på 5,6 miljoner enheter per månad, men menar att detta kommer öka för att år 2020 uppgå till 6,6 miljoner per månad. Företaget planerar dock ingen expansion av sina fabriker, då detta skulle leda till för låga priser och obalans på marknaden."

Det finns ju många mer tillverkare än Sumco men om de inte har expanderat sedan 2017 och övriga inte heller har det så var det nog väntat att även wafers skulle bli en bristvara efter 2020 ökade marknaden för kretsar.