Inlägg

Inlägg som houze har skrivit i forumet
Av houze

42" och 4k är rätt bra, har länge varit sugen på att byta ut 2 st 27" 1440p men de 40-42" skärmar som funnits har varit lite tveksam bildkvalitet med bleeding och sånt. Tror det blir en oled 42 nästa black Friday.

Av houze
Skrivet av mkk:

En del produkter kanske skulle gå att flytta, som exempelvis grafikchip. Men så länge som Samsung fortsätter att ligga rejält bakom TSMC så känns det mer som förhandlingstrixande.

Samsung ligger inte så långt bakom TSMC, får Samsung igång sin 3nm produktion under 2022 är de nästan ikapp.

Skrivet av Yoshman:

Att TSMC använder silkesvantar när de förhandlar med Apple är inte så konstigt, det är väldigt mycket tack vare Apples enorma ekonomiska muskler som TSMC kunnat ta ledningen bland kretstillverkarna.

Intels prat om "att få tillbaka Apple" lär i praktiken handla om inviter att få Apple att använda Intels fabriker, finns ingen logik alls för Apple att inom överskådlig tid överge sina egna CPU, GPU, NPU etc designer för något annat då de är ledande i varje segment inom mobila enheter (vilket är området Apple primärt fokuserar på).

För marknaden i stort vore det ändå positivt om Samsung får över fler stora kunder. TSMC gör det enda rimliga när man har en sådan ledning man har för tillfället: ökar priset och därmed sina egna marginaler, varför skulle man inte då man säljer all kapacitet man har?

Samsung har tyvärr problem med sin 5 nm process, men de är stora nog att både våga och kunna fortsätta satsa och de verkar gå all-in på 3 nm. Lite glädjande för Samsung är att TSMC verkar ha lite strul med sin 3 nm process...

Som tillägg.
Både Samsungs och TSMCs 3nm är GaaFET men Samsungs transistordensitet är lägre (i nivå med TSMC 5nm), så om TSMC inte får igång sin 3nm förän 2024 och Samsung får igång produktion under 2022 så ligger de ett år före med GaaFET.

Förövrigt tror jag Intel gjorde ett misstag att inte erbjuda kontraktstillverkning förän nu, så många fabriker de skrotat/uppgraderat istället för att fortsätta tillverkningen av äldre noder skulle förmodligen avstyrt mycket av kretsbristen vi ser idag om de för 15 år sedan börjat tillverka kretsar åt andra på 130/90/65nm.

Av houze
Skrivet av Rågren:

Dom har ju inte kunnat hävda sig mot Apple på mobilsidan. Vad är det som säger att dom lyckas med det med CPUer riktade mot datorer?

Qualcomm har köpt Nuvia, ett företag som startades av delvis förre detta anställda på Apple där de var med och utvecklade Apples CPU:er så den CPU som Qualcomm pratar om kommer förmodligen ha en del likheter med Apples CPU:er och förmodligen liknande prestanda.

Skrivet av Dinkefing:

Förstår inte att du kan försvara ett företag som Qualcomm som hämmat utvecklingen på just Androidtelefoner och sina dumma uttalanden på senare tid. Qualcomm är som Epic Games men i hårdvaruvärlden.

Hur får du det till att Joshman försvarar Qualcomm? Han konstaterar bara att Qualcomm har köpt Nuvia som hållt på att utveckla en förmodligen mycket bra ARM-baserad CPU de senaste åren.

Skrivet av Solaris:

Jag håller med @herkää. Fram tills vi har den här ARM processorn framför oss och vet vad den kan gå för så kan man inte göra något annat än spekulera. Att du ens tar upp Apple vet jag inte riktigt vad det skulle tillföra till konversationen, så det får du gärna utveckla.

Apple är ju högst relevant i spekulationerna då flera av Nuvia-personalen förut utvecklade Apples CPU:er, så man kan spekulera att de tagit med och kanske förbättrat design-idéer som nu finns i t.ex. Apple M1 vilket är en mycket kompetent CPU.

Jag trodde Nuvia hade fokuserat på server-CPU:er men de kanske styrde om när de blev uppköpta av Qualcomm, hursomhelst ska det bli spännande att se vad det mynnar ut i samt om Microsoft kanske lösa mjukvaru-problemen som t.ex. kunna köra x64-mjukvaror lika bra som Apple lyckats.

Av houze
Av houze
Av houze
Skrivet av Yatagarasu:

Ett stort problem med denna fabrik ur det hänseendet är att fabriken inte kan procudera chip som är designade de senaste 10 åren 20 - 28nm är nästan SandyBridge eller Bulldozer-gammalt när vi pratar om processor arkitekturer runt den storleken (SB-arkitekturen var på 32nm vill jag minnas). Denna Japanska fabrik är en fabrik för andra fabriker som t.ex. den bilindustrin som nämns, inte så mycket för privatpersoner och mer finlirande modern teknik.

20nm-klassen används ju i mycket saker om man bortser från högpresterande kretsar till datorer och mobiler, biltillverkarna använder i de flesta fall ännu äldre saker som 65nm eller 130nm.
T.ex. Raspberry Pie 4 SoC BCM2711 är på gjord på 28nm, Phison E16 SSD-kontroller med PCIe 4 stöd tillverkas på 28nm och sitter i en hel del SSD:er som säljs idag, wifi/routers, display-kontrollers för TV/skärmar mm, finns säkert hur många exempel som helst på saker som berör privatpersoners hemelektronik.
Även om det är 10 år gammalt så är det fortfarande högaktuellt för alla kretsar som inte tillhör absoluta toppskiktet.
Så en ny fabrik i 20nm-klassen hjälper inte för bristen på nya grafikkort och cpu:er men för många andra delar i datorer, nätverk mm, som det också är brist på.

Av houze
Skrivet av pa1983:

Messenger fungerar på mobilen, det fungerar inte på annat än mobilen när det är nere för det är av allt att döma inte samma infrastruktur.

Extremt opraktiskt att skicka länkar och annat från en dator via en mobil, hur ska man copy/pasta saker?
Litet tocuh tangentbord osv.

Facebook skiter fullständigt i dekstop användarna, mobile har allt support, bästa infrastrukturen, desktop får en web app som kräver en cray super dator och tjänsten är nere för många titt som tätt, speciellt för dom med bara messenger reggat via mobilnummer.

Jävla skitföretag är vad det är, ska man sälja ut all sin privata data kan dom i alla fall erbjuda en fungerande chat klient som inte får en modern CPU att nå 100% på en kärna hela tiden när en C64 från 80 talet kan köra IRC med en mindre uppgradering.

Dom tar bort fuktioner hela tiden med, lämnka en YT video, igen tumbnail osv.

Pratar du med en dev så skrattar dom bara åt skämtet messenger är, typ ett mem bland developers vad jag förstått.

Blir väl så när du har 2 miljarder användare och alla är beroende som en narkoman är av sin langare, din service är eftertracktad även om du säljer 99% bäbispulver och 1% knark, bättre än inget när langarna dödat alla konkurrerande gäng.

Visste inte att det fanns en app för desktop, har bara använt web-sidan på PC vilket fungerar bra men det kanske saknar några funktioner som jag inte tänkt på att använda. Intressant att det just nu fungerar på mobil men PC, Facebook-delen verkar inte fungera på någon plattform, fungerar verkligen Messenger på mobil?

Av houze
Skrivet av pa1983:

var bara några veckor sedan messenger var nere för många som reggat det på mobilnummret inte email, tog en vecka innan dom fixade utan att säga nåt.

Messenger är en katastrof som suger CPU och tappar features varje update, hur man år 2021 kan ha en chat app som kräver en Cray super dator med i princip igen fuktionalitet kvar är för mig obegripligt.

Jag försöker fasa ut messenger och använder Discord och IRC mest möjligt, men i bland behöver man messenger för många äldre har det tex.

Kanske beror på vilken telefon du har om Messanger fungerar bra eller inte. För mig fungerade det bra på Samsung Galaxy Note 3 och Samsung S20 men inte alls bra på Oneplus 5t och Oneplus 7t Pro där den var långsam och frös ibland.
I webläsaren på Windows-datorer har jag inte märkt några problem, även på långsamma Atom-baserade saker som Asus T100 men det var ett tag sedan jag använde den så det kanske har ändrats?

Av houze
Skrivet av Pett-Ture:

Detta kommer bli en varm historia.
Kylning lär ju vara ett måste.

E3.S är specad till max 25W så den borde hålla sig under det, nuvarande CD6 och CM6 diskar ligger på mellan 13-21W beroende på storlek, så det behövs kylning även för nuvarande diskar.

Av houze
Skrivet av infigo:

Väldigt trevlig chipset bandbredd.
Så om jag tolkar det rätt så är det utöver den 4.0 baserade nvmen till cpun möjligt att köra 3st till 4.0 diskar från chipset, med något delad bandbredd till cpu om alla lastas samtidigt.
AMD hade fint med x570 som tyvärr körde fläkt för värmen men den är ju några år snart. Men intel i princip matchade AMD på den fronten med z590 och nu tar ett liknande kliv igen.
Tar ju ett tag till amds nästa styrkrets för zen4 som väl skulle ha liknande bandbredd.
Men detta lägger på på en redan dyrare platform som z690 kommer bli och tanken är väl att trycka upp den i HEDT segmetet och ha något mer lagom till oss andra som inte kostar skortan.

Kommer nog vara många dyra moderkort med Z690, utrustade med 3-4 M.2, 5Gbe NIC, Wifi 6E och annat godis så lär väl de kosta 4000-5000kr och uppåt.
Blir väldigt bra med ansultningsmöjligheter med Z690, utökad bandbredd mellan chipset och CPU gör att det går att köra väldigt mycket utan att slå i taket.

Skrivet av tvelander:

PCI 5.0 är ju mest "win" för server markand atm, inget någon privat person typ kan ens använda om dom ville.

Dvs flytta mer data per färre PCI lanes använda och få ner kostand för du slipper mer pizza kartongen aka 1U servers.
Visas tydligt från gammal hårdvara 2014-17 till 2021 med NVME instick från SATA 2.5 via PCI.

Detta är info som jag fått av IBM, HP.

Nej, måste givetvis ha PCIe 5.0, tänk att köra Intel Arc Alchemist på 8x och en Intel SSD på 8x så man får 30GB/s Direct Storage laddning av texturer i spel

Av houze
Skrivet av mpat:

Nu har jag inte kollat om de ändrat på detta nyligen, eftersom jag inte brytt mig om att uppdatera MacOS på några år (gillar inte vad Apple gör med det), men som det fungerade när det var nytt var det så här i MacOS: När det lediga minnet börjar ta slut så skulle kerneln normalt ha skrivit det minnet till disk. Nu kommer sen istället att komprimera de sidorna men behålla dem i minne, eftersom det går snabbare att dekomprimera dem än att hämta dem från disk igen. Kompressionen är inte speciellt effektiv i hur mycket minne den sparar, men den är extremt snabb. Min erfarenhet är att den gjorde att en maskin med 8GB minne kändes som om den hade 12GB, ungefär. Poängen med detta är att om man vill ha maximal prestanda och undvika kompressionen så går det att lösa på samma sätt som tidigare - köp mer RAM.

Då är det samma som jag beskrev för Linux, kollade även upp och det är liknande för Windows. Det är ett bra sätt att slippa swap men ger dålig effekt om man använder stora delar av minnet frekvent.

Skrivet av mpat:

Nu finns det ju inga detaljer i den här lilla artikeln, men mitt problem med konceptet är att man försöker dölja det för kerneln. Hårdvaran låtsas som om den har 16GB minne när den bara har 8GB (eller vad det nu är), men om det som lagras i den inte går att komprimera så hårt så spricker illusionen. På något sätt måste hårdvaran antingen tala om för kerneln att det där minnet jag sa att jag hade faktiskt inte finns, eller lösa problemet själv (dvs, pagea). Jag hade varit mycket mer bekväm med en lösning där det är kerneln som gör allt. Den kan ha hårdvarustöd för att gör kompressionen snabbare om det behövs, men det är mycket mindre komplext än vad det här verkar vara.

Finns mer detaljer i deras whitepaper: ZeroPoint’s ZiptilionTM IP-Block Family for
Transparent Expansion of Memory Capacity and
Improvement of Effective Bandwidth
om hur det fungerar i lite mer detaljer.
Även en YT om det Ziptilion™ Boosting RISC V with An Efficient and O:S Transparent Memory Compression System

Verkar som det fungerar som en ersättare för compressed swap paging som operativsystem i dagsläget gör, men istället för att använda en del av RAM och lägga komprimerade pages i så komprimeras allt som läggs i RAM och det lediga utrymme som uppstår används som en virtuella page swap.
De pratar även om någon drivrutin så jag antar det ändå inte är helt transparent?

Av houze
Skrivet av mpat:

Givetvis. Tycker bara att det reducerar värdet av prylen rätt markant. Om du har ett OS som jobbar på det viset (komprimerar minnet när det behövs), varför skall du lägga pengar på en sån här funktion i hårdvaran?

Den andra delen - att det ökar den effektiva minnesbandbredden - är meningslös när det gäller GPUer, eftersom texturerna är komprimerade redan. Där hade det annars behövts, att ge en integrerad GPU bättre effektiv bandbredd.

Jag har inte riktigt koll på minneshantering i Windows och Mac OS men för Linux så fungerar det så att en del av minnet avsätts för en virtuel page swap, t.ex. 20% av minnet istället för att swappa en page till disk så komprimeras den och läggs komprimerad i minnet så den tar mindre plats och är snabbare att läsa tillbaka än från disk.
Problemet med detta är flertalet, dels går det åt minne till detta, tar tid att hantera page fault, tar tid att komprimera och avkomprimera pages och bara en del av minnet blir komprimerat, 20% t.ex. så det minne som aktivt används av applikationer är inte komprimerat så komprimeringsförhållandet är relativt dåligt, kanske bara 15-20%.
Med Zeropoints teknik blir allt minne komprimerat så man kan utnyttja det betydligt bättre än vad operativsystemen idag kan göra.
Om man läser igenom deras whitepaper så är det en relativt lite overhead att utföra komprimeringen vilket genomsnitt fördubblar minneskapacitet och minnesbandbredd samt ibland även minska latency så vissa applikationer blir snabbare.

För GPU är det som du säger ingen stor vinst med detta men det är inte heller vad tekniken är framtagen för, den är gjord för CPU:er.

Kostnadsökningen för hårdvaran om man räknar bort patent-licenser är i princip försumbar, 1.36mm2 kiselyta för en 8 Core CPU.
Så enligt mig är den stora frågan om vad licenserna kostar och om CPU-tillverkarna nappar på det.

IBM har utvecklat en liknande lösning 2001 som heter MXT men den använde en för långsam och komplex komprimering så latency blev för hög så detta är inget nytt, bara att Zeropoints har spenderat 15 år på att finslipa idén med bättre komprimeringsalgoritmer och och metoder för att hantera dynamiskt minne.

Av houze
Skrivet av lillaankan_i_dammen:

Kan hålla med. Samtidigt är "scamvarningen" befogad att det inte är första gången.
Det jag ser är att om mjukvaran körs som microkod på cpun. Och microkoden kan utföra minneskomprimeringsoperationer på samma klockcykel som cpun lagrar minne på ramminnet, då har de kommit fram till något grymt.
Eller att såklart processortillverkaren bygger om sina instruktioner.

Jag har svårt hur något program alls kan utföra det minsta arbete på minne i ram utan prestandaförsämringar när bandbredden till ram har samma klockfrekvens som cpun arbetar med och ingen marginal alls för någon extra instruktion att exekveras finns. Ja i vissa scenario kan det bli snabbare, men knappast alltid. Och det känns som att de få fallen bättre kan hanteras av programutvecklaren själv.
Annat minne som ssd så finns det marginaler för cpun att kunna utföra något arbete när det är så mycket slöare.

*edit*
Om de säljer in tekniken till olika programvarutillverkare och de använder lösningen i deras applikationer när den behövs. Ja, det kan vara en riktig smart ide. Men overhead som alltid ligger på tror jag snarare kan ta resurser.

Har inte orkat läsa deras whitepaper men jag får uppfattningen att detta inte är en mjukvara-baserad lösning utan en hårdvarurlösning som utökar minneskontrollern med komprimeringsstöd, så allt är transparent* för operativsystem och mjukvaror, de ser sina normala virtuella adressrymder som minneskontrollern hanterar åt dem.
Så när CPU skriver till minnet så skickas datan som normalt till minneskontrollern men istället för att bara mappa om virtuellt minne till en fysisk adress så passar den även på att komprimera datan innan det skickas till RAM, med komprimerad data så minskar trafiken över minnesbussen och även användningen av minnesceller i RAM.
Så det är inte till programvarutillverkare de kommer sälja tekniken utan till CPU-konstruktörer.

Det är ju inte helt olikt hur t.ex. minneskryptering i AMD EPYC fungerar idag och den klarar ju av det med väldigt liten prestandaförlust.

Jag tror den stora frågan är om Intel, AMD, ARM, Apple, IBM, Qualcomm, Mediatek och andra CPU-konstruktörer är intresserade av att köpa licenser för tekniken.

Edit: * kanske inte helt transparent för operativet, det måste ju ändå hålla lite koll på hur mycket minne som används så jag antar det behövs lite mjukvara ändå för att minneshanteringen i OS ska fungera korrekt och kunna utnyttja minnet optimalt.

Av houze
Skrivet av mpat:

Apple har ju kört minneskompression i OSet sen 10.8, och Microsoft har det också nu. Där används det som ett steg innan page fault, här verkar det vara på allt.

I allmänhet: detta kommer att kosta latency för att vinna bandbredd och lagringskapacitet. Det låter ju bra, men om det man komprimerar redan är komprimerat så kostar det latency och man vinner ingenting.

Borde inte vara så svårt för varken Windows eller Mac OS att känna av om hårdvaran kör minneskomprimering och i så fall inte kör det självt.

Skrivet av Drenmi:

Är "dubbla kapaciteten och bandbredden" ett typiskt fall, eller ett drömscenario som aldrig uppstår i verkligheten? Har de släppt några jämförelser med olika typer av laster?

Givetvis olika vid olika scenarior men mycket av det som läggs i minnet är rätt så komprimerbart jämfört med vad som läggs på disk.

Skrivet av deltascu:

Får mig att tänka på Sandforce SSD-kontroller som utnyttjade just komprimering för att öka io-hastigheten för SSD-diskar. Problemet (i alla fall för testare) var att hastigheten blev beroende på komprimerbarheten av data. Sandforce rönte stora framgångar när SSDs var nytt, kanske framförallt genom OCZ's Vertex-serie. De senaste 10 åren har jag dock inte sett så mycket om komprimering i SSD-kontroller för att öka prestanda, frågan är förstås varför och om det finns någon parallell att dra med Zeropoint's datakomprimering för RAM.

Komprimering i SSD-kontrollern som Sandforce hade gav inte mer diskutrymme men det hjälpte däremot med att minska slitage på NAND-celler eftersom det skrivs mindre när data kan komprimeras.
Skulle krävas helt andra filsystem för att kunna utnyttja det för enskilda SSD-diskar eftersom man aldrig vet hur mycket datan kommer komprimeras i förväg. Ta en SSD på 100GB, i bästa fall skulle den kunna rymma 300-400GB med data om det komprimeras men i värsta fall enbart 100GB, behövs ett filsystem som dynamiskt hanterar använt och ledigt utrymme på disken.

Storage-system som SAN hanterar detta med hjälp av thin provisioning och overprovisioning, filsystemen som ligger på olika LUN's har en statisk virtuell allokering så servrar tror de har en viss mängd diskyta och SAN-administratören får hålla reda på det faktiska använda utrymmet, komprimmeringsgrad och overprovisioning.
De flesta SAN har stöd för komprimmering i kontrollern men vissa har byggt in det i själva SSD-diskarna som t.ex. IBM's Flashcore-diskar så det finns ett fåtal diskar med komprimering i kontrollern idag men det är ovanligt.

Om Zeropoint's teknik verkligen har så liten latency som de hävdar så kan det ha riktigt stor potential för många produkter, många datastrukturer som hanteras i minnet är ofta väldigt komprimeringsvänliga, ta en vanlig .jpg-bild som laddas in för en websida, den avkodas till en bitmap-bild för att visas på skärmen, en bitmap-bild kan komprimeras rätt så mycket (inte lika mycket som .jpg men ändå en hel del) och samma gäller mycket annat som finns i RAM.

Av houze

Känns som det inte kommer påverka den svenska marknaden nämnvärt, det som skulle kunna hända är att Tech Data stärker partnerskap med vissa tillverkare vilket på sikt kan slå ut andra distributörer vilket inte är så bra ur en konkurrenssituation.

Av houze
Skrivet av Tea42BBS:

Nya eluttag till nästa dator alltså, om denna sladd ska passa...

https://www.biltema.se/bygg/el/skarvsladdar/skarvsladd-400-v3...

16A är ju inte så mycket, hade 32A enbart för grafikkortet i en dator jag haft.

https://www.sweclockers.com/galleri/5387-onyx-2

Skrivet av Thomas:

Jo, fast vanligtvis så dras det ju ner rejält när flera kärnor används. Som Ryzen som vad jag minns drar runt 40 W på en kärna, men knappast i närheten av 320 W på 8.
Prestandatappet på att gå från 40 W till ~18 W (142 W totalt är taket iaf på 5800X) är ju inte jättestort heller.

40-50W per kärna är ju helt klart bättre än Pentium 4 som nådde över 100W på en kärna, ser man det så är det ju riktigt bra 😀

Av houze

Ibland hänger man med i nyheterna, missade på mössen och fu nvidia så allt fastnar inte i modermodemet.

Av houze
Skrivet av Herr Kantarell:

Fabrikerna tillverkar nu också massa chip åt fordonsindustrin också, vilket tar kapacitet från att tillverka chip till datorer.

Fordonsindustrin är väldigt små kunder hos kretstillverkarna, enstaka procent. Dessutom är de flesta kretsar fordonsindustrin behöver inte tillverkade i samma fabriker som dator-industrin så det påverkar i princip inte alls.

Skrivet av gashemi:

Börja med att förbjuda mining, tillför ingenting och drar en massa ström. Ström som det dessutom också är brist på.

En gamer får sitt kort och är nöjd. En miner ser inget slut, kan man komma över kort som betalar sig på rimligt antal månader köper man bara fler. På så vis kommer behovet aldrig mättas.

Dessutom skapar kretsbristen massa problem för industrin som inte kan producera vilket i sin tur leder till att folk blir av med jobbet i slutändan. Se på Volvo och Scania. Volvo har fått pausa produktionen.

Fordonsindustrin har ju mest sig själva att skylla, de drog ner på kretstillverkningen och kör allt med JIT så de har inga lager. Kretstillverkarna vill ju inte bli stående med tomma linjer i fabrikerna så andra kunder köpte in sig på kapacitet och när bilindustrin kom på att de behövde kretsar igen så var kapaciteten slut hos kretstillverkarna.

Skrivet av Anonymous FTW:

Det ska ju byggas nya fabriker samt planeras för nya.

Kan det bli så att när de är färdigbyggda så kanske man sitter med för många fabriker istället?

Många av dessa fabriker har varit plannerade sedan tidigare för att möta behovet, man smäller inte upp en fabrik för 100 miljarder bara för det är skoj. Det kan varit så att kretstillverkarna underskattat behovet för 5 år sedan vilket delvis skapat situationen som är idag.
Sen brukar det nästan alltid vara lite brist på de absolut senaste noderna som t.ex. TSMC 5nm och 7nm nu eller Intels 14nm för 2-3 år sedan (vilket berodde på att de planerat för 10nm då men inte fick igång den processen), men nu verkar det vara brist på alla noder, från 20 år gamla 130nm till det senaste vilket gör att fler än de som vill ha den senaste CPU/GPU drabbas.

Det låter givetvis mycket med att bygga fabriker för tusentals miljarder men efterfrågan på kretsar stiger för varje dag eftersom fler och fler saker behöver dem och det kommer behövas ännu mer om några år så risken för överkapacitet är nog försumbar.

Av houze
Skrivet av talonmas:

Fast innan du etsar 4 eller 40 nm så finns det en distrubutionskedja från råvara till färdig produkt. Det är inte enbart i absolut sista maskinen som det är kapacitetsbrist utan även på ingående komponenter. Om jag förstått det hela rätt.

Vilka ingående komponenter? Kemikalier för rengöring och behandling av kislet? Jag har inte läst några nyheter att det skulle vara brist på dessa. Vatten för rengöring? Visserligen varit vattenbrist i Taiwan men om jag förstått rätt så klarade de att hålla igång produktionen för de fick regn i sista minuten. Sista ingående komponent är ju wafers och eftersom det är så passa gamla processtekniker kretsarna till biltillverkarna så är det 200mm wafers så de konkurerar inte med CPU, GPU eller andra saker som använder 300mm wafers.
Så det är kapacitetsbrist i gamla fabriker som tillverkar kretsar på äldre tillverkningstekniker som påverkar biltillverkarna mest.
Givetvis kapacitetsbrist i nyare fabriker också men det drabbar inte bilindustrin utan mer tillverkning av GPU, CPU, SoCs.

Av houze
Skrivet av talonmas:

Tror att Kina bannade mining (på riktigt den här gången) påverkar bra mycket mer än en artificiell begränsning i 3000-serien. Men det är fortfarande kretsbrist och grafikkort prioriteras först när bilindustrin är tillfreds. Så ja, ditt estimat på 2024/25 är nog inte så tokigt

Skrivet av Sh4d0wfi3nd:

Ja alltså med tanke på att volvo stått still och mååånga andra aktörer har tomma bilhandlare på många ställen är det kris i den branchen. Jag hoppas dock på mer gpuer lagom till nästa år men är väldigt tveksamt just nu.

Kretsbrist för grafikkort har inget att göra med den kretsbrist bilindustrin har. De flesta kretsarna på grafikkorten är tillverkade på senaste tillverkningsteknikerna men de kretsar bilindustrin saknar är tillverkade på 15-25 år gamla tillverkningstekniker, dvs 200mm wafer, 45-250nm process.