Intel går med förlust för första gången på flera decennier

Permalänk
Medlem
Skrivet av SAFA:

Sen är det ju ändå så att om utvecklingskostnaden är 50:- och produktionskostnaden 50:- så kan du ändå sälja produkten för tex 90:- då det ger mindre totalförlust än att inte sälja den alls.

Funkar tills aktieägarna tröttnat på att tillskjuta medel, räntorna stiger och gratis kapitalet försvinner.

Visa signatur

=)

Permalänk
Medlem

Investeringar i företaget ser ut som förlust på pappret.

Visa signatur

Chassi: Fractal Meshify, Skärm: LG C2 oled, GPU: AMD 6950XT, CPU: Ryzen 5800X3D, M2: 1TB , SSD: 480GB, M2 1TB, PSU: Dark Power Pro 1500W, Mobo: ASUS TUF GAMING X570-PLUS, RAM: 32GB Ripjaws @ 3600MT, Mus: Logitech G502X Matta: Steelseries QcK Heavy, Tbord: Logitech MX Mech Mini, Hörlurar: BD DT1990 Pro, DT770 PRO, Superlux HD-668B, Sennheiser HD599 OS: Win11. AI: Tascam US-20x20, Monitorer: Yamaha HS7 x2.
Citera när ni svarar! :)

Permalänk
Medlem
Skrivet av Yoshman:

Det som brukar nämnas är att x86 sedan väldigt länge delar upp x86 instruktioner i mindre och mer "RISC-lika" instruktioner internt. Det är i.o.f.s. helt sant, men om det vore det enda relevanta skulle PowerPC, MIPS etc rimligen klarat sig bättre mot x86 än de gjorde.

Det som är nytt med ARM64 och RISC-V är att man identifierade en rejäl flaskhals i att "riktigt gå på bredden" när högre frekvens inte var en framkomlig väg och man började allt mer jaga högre "IPC" (mängd instruktioner som kan köras per cykel).

Alla CPUer innan ARM64/RISC-V ändrar frekvent på "flaggor" som indikerar lite olika saker kring resultatet hos en instruktion. Problemet här är att ändra dessa flaggor är i praktiken som att programmera multitrådade program med globalt data (alla som gjort multitrådad programmering borde direkt inse hur dåligt detta är).

Så även om x86 delar upp instruktionerna i mindre och enklare instruktioner intern (vilket för övrigt även de mest högpresterande ARM64 CPUer också gör, för finns flera fördelar med detta, främst att det ger bättre perf/W) så kan man inte komma runt fundamentala designbeslut som flaggor och andra saker kring hur läsning/skrivning mot minne fungerar (även här finns fundamentala skillnader mellan ARM64/RISC-V och x86 där de förra har en mer effektiv modell både ur prestanda och prestanda/W aspekten).

Om två lika kompetenta team bygger en ARM64/RISC-V CPU och en x86_64 CPU kommer den senare ta fler transistorer, dra mer ström och/eller vara långsammare. Exakt hur stor skillnaden är är svårt att säga, men inget tvivel att en sådan skillnad finns och den är icke-försumbar.

Gracemont visar en av flera aspekter av avvägningar som måste göras. Avvägningen i Gracemont är att man inte går efter absolut högsta ST prestanda, för det är exponentiellt svårare att extrahera ut mer prestanda! IPC-mässigt får man ut Skylake/Zen2 nivå ur något som tar ~1/4 av Goldmonts kretsyta (som ligger ~35-40 % högre i IPC).

Men det finns fler aspekter. Man kan jämföra Gracemont med Arms Cortex X2 som används i Samsungs Exynos 2200. Dessa har rätt snarlik ST-prestanda, Gracemont drar mer effekt men de är ändå inom rimligt avstånd (d.v.s. är inte mer än kanske 2-3 heltalsfaktorer som skiljer på den punkten).

Gracemont klockar till ca 4,0 GHz medan Cortex X2 klockar till strax över 3,0 GHz. Så den senare har ~30 % högre IPC (och där är nog en realistisk nivå på vad ARM64 kan ge över x86_64, fördelarna från en bättre ISA ligger nog runt den här nivån om man spenderar ungefär samma antal transistorer).

Lite svårt att hitta information om densitet hos Samsungs 4 nm process, men såg någon gissning om att den ligger på ~140 MTr/mm² medan Intel 7 ligger på ~100 MTr/mm².

Tar man den informationen och mäter lite i dessa två bilder så verkar Gracemont matcha Cortex X2 rätt väl i kretsyta (kompenserat för skillnad i densitet).

Gracemont verkar vara ~2,3 mm² på Intel 7 medan Cortex X2 är ~2,0 mm² på Samsung 4nm (Gracemont har 2 MB L2$ per 4 kärnor, så motsvarande 0,5 MB / kärna medan Cortex X2 i detta fall har 1 MB L2$, cache tar relativt mycket utrymme).

Det Intel gjort så bra för x86 och som en av barriärerna för att gå till någon annan ISA är att Intel har massor med folk som jobbar med att optimera programvara för x86. Utan det arbetet skulle t.ex. AVX vara rätt poänglöst, det används för att Intel sett till att det används. Arm har av flera anledningar aldrig utökat NEON till att vara mer som SSE4. (Nu har man i.o.f.s. lärt sig från GPU-sidan, så börjar komma vettig sätt att använda SIMD utan att behöva knacka Assembler!).

Så beroende på om man vill se x86 leva vidare eller om man vill se det ersättas så fort som möjligt ska man hålla ett öga på vad Intel nu börjar dra ned på. Om man börja dra ned på programutvecklingen så har man nog börjat plugga ur respiratorn för x86!

Det beror på hur fet GPU man stoppar i

En jämförelse man kanske kan göra är att titta på PS5/XSX. Dessa har en Zen2 baserad CPU klockad till ~3,5 GHz. En sådan skulle få ~1000 poäng i GB5 ST.

Det är väsentligt lägre än "stora" CPU-känorna i Iphone 13 och även något läge än de "stora" kärnorna i Samsung Exynos 2200 och Qualcomm Snapdragon 8 gen 1/2.

Vi kanske också får en lite bättre idé om något år. På årets Apple WWDC presenterades 3:e generationer av deras Metal, en av huvudnyheterna var att man gjort förändringar som gör det lättare för spelutvecklare att stödja MacOS via Metal 3 (gissningsvis har man gjort saker som minskar gapet mellan DX12/Vulkan och Metal i form av hur de bäst används).

Superintressant, blir tio tummar upp för det inlägget från mig. Även om jag nog kommer behöva läsa om det några gånger för att någorlunda hänga med.

Intressant det du skrev om att mer blir som acceleratorer i en CPU, hört talas om det för video. Du behöver inte bli för långdragen om du inte vill, men kan du nämna fler områden där det skulle kunna dyka upp s.k acceleratorer?

Visa signatur

Chassi : BitFenix Prodigy Svart mITX Moderkort : Asus P8Z77-I DELUXE mITX CPU : Intel Core i7 3770K RAM : Crucial 16GB (2x8192MB) CL9 1600Mhz Ballistix Sport

Permalänk
Datavetare
Skrivet av shogun-r:

Superintressant, blir tio tummar upp för det inlägget från mig. Även om jag nog kommer behöva läsa om det några gånger för att någorlunda hänga med.

Intressant det du skrev om att mer blir som acceleratorer i en CPU, hört talas om det för video. Du behöver inte bli för långdragen om du inte vill, men kan du nämna fler områden där det skulle kunna dyka upp s.k acceleratorer?

Acceleratorer för video, kryptering, maskininlärning ("NPUs/VPUs", M1/M2 har redan NPU, har kommit in driver för en "VPU" i Linux där VPU ska vara Intels NPU i 14:e gen), bild/ljud-behandling (mobiltelefoner har DSPer för sådant), delar av I/O-hantering för disk/nätverk (mer datacenter än hemanvänding kanske, men Graviton 3 som nämns har delar som tidigare gjorts på CPU flyttat till acceleratorer...).

CXL (Compute Express Link, introducerads ihop med PCIe5) är helt designat för ett mer flexibilitet till att addera alla möjliga former av acceleratorer via instickskort. Är inte själv riktigt med på exakt vad som accelereras, men sett "acceleration av RAM" nämnas flera gånger i denna kontext. T.e.x detta

Edit: angående det sista, denna video förklarar faktiskt "RAM acceleration" ("Type 3 Devices")

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ozzed:

Ja. Det är väl så de flesta gör. Om man inte kan få en vara såld till det pris man vill så har tänkta kunder bestämt att det är för dyrt, de bestämmer alltså att priset ska sänkas. För de allra flesta sänker nog hellre priset så att de kan få tillbaka så mycket som möjligt snarare än att helt ta bort produkten från marknaden för att de blev besvikna när priset de tänkt sig saknade verklighetsförankring

Beror på företagets omsättning, I USA kan man väl kvitta förlust mot skatt till 100%? Så då kan det faktiskt vara bättre att inte sälja alls i vissa fall.... Beroende på sista raden....

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Datavetare
Skrivet av wounds:

Ofta tittar man på $/specint-poäng eller så har man en egen matris med egna benchmarks.

Sant! Och är just de siffrorna som inte är rolig läsning för vare sig Intel eller AMD just nu

Hade inte koll på att Google också börjat med Ampere Altra kretsar. Visade att det inte var så konstigt, det blev känt för mindre än en månad sedan.

Orsaken ska tydligen vara att Google har marknadsfört sina "Tau" instanser just på perf/$ mot bl.a. Graviton 2 hos AWS. Dessa "Tau" instanser lanserades med Epyc "Milan", de var konkurrenskraftiga mot Graviton 2 men föll platt mot Graviton 3.

Värt att notera här är att även om det funnits fall där Arm-lösningar tidigare kunna konkurrerat på perf/$ kunde de inte konkurrera med prestanda. Prestanda per vCPU är kritisk för många fall och Intel har tidigare pekat på att de är den bättre lösningen just då man länge var ledare på den punkten.

Kolla SPECint, ARM64 instanserna har primärt högre perf/$ för att deras perf/vCPU är högre, inte för att man är billigare (det är billigare, men bara ~10 % i Googles fall medan prestanda är ~50 % högre). Ampere Altra drar dock mer ström än Graviton 3, detta primärt då de är högre klockade och har fler kärnor (80-128 st per CPU beroende på modell).

Skrivet av wounds:

ARM är toppen för cloud-native startups och andra mer agila verksamheter men när vi snackar svensk basindustri eller klassisk bank och finans så är en övergång långt borta, hur mycket cloud-first strategi de än säger sig ha. Visst, enstaka avdelningar kan nog röra sig men när det gäller den faktiska produktionsmiljön eller typiska enterprise-miljöer kommer det inte att gå fort.

Finns ju flera aspekter där.

För de första håller jag helt med: finns absolut segment som byggt fast sig. Men gissar att de kör traditionella server-lösningar och inte molntjänster.

Traditionella serverlösningar kommer inte försvinna, men fokus går snabbt allt mer mot molnlösningar.

Inom varje segment lär företagen kika vad konkurrenterna gör. Om kostnad för "compute" har en relevant storlek för affärsverksamheten blir det problematiskt om konkurrenterna börjar använda teknik som är väsentligt billigare!

Följer inte datacentermarknaden speciellt noga, hade därför missat en hel del större saker där. Visade sig att Ampere Computing inte bara knutit åt sig Microsoft och Google, man har även kommit in hos Oracle molntjänster, samt hos företag som Tencent och Baidu (möjligen även Alibaba eller så håller de på likt AWS med sin egen design).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det som brukar nämnas är att x86 sedan väldigt länge delar upp x86 instruktioner i mindre och mer "RISC-lika" instruktioner internt. Det är i.o.f.s. helt sant, men om det vore det enda relevanta skulle PowerPC, MIPS etc rimligen klarat sig bättre mot x86 än de gjorde.

Det som är nytt med ARM64 och RISC-V är att man identifierade en rejäl flaskhals i att "riktigt gå på bredden" när högre frekvens inte var en framkomlig väg och man började allt mer jaga högre "IPC" (mängd instruktioner som kan köras per cykel).

Alla CPUer innan ARM64/RISC-V ändrar frekvent på "flaggor" som indikerar lite olika saker kring resultatet hos en instruktion. Problemet här är att ändra dessa flaggor är i praktiken som att programmera multitrådade program med globalt data (alla som gjort multitrådad programmering borde direkt inse hur dåligt detta är).

Så även om x86 delar upp instruktionerna i mindre och enklare instruktioner intern (vilket för övrigt även de mest högpresterande ARM64 CPUer också gör, för finns flera fördelar med detta, främst att det ger bättre perf/W) så kan man inte komma runt fundamentala designbeslut som flaggor och andra saker kring hur läsning/skrivning mot minne fungerar (även här finns fundamentala skillnader mellan ARM64/RISC-V och x86 där de förra har en mer effektiv modell både ur prestanda och prestanda/W aspekten).

Om två lika kompetenta team bygger en ARM64/RISC-V CPU och en x86_64 CPU kommer den senare ta fler transistorer, dra mer ström och/eller vara långsammare. Exakt hur stor skillnaden är är svårt att säga, men inget tvivel att en sådan skillnad finns och den är icke-försumbar.

En fundering: Skulle det vara möjligt att göra något liknande som gjordes mellan x86 till AMD64, alltså en vidareutveckling av x86 och på så sätt göra sig av med den ineffektiva designen?

Det är såklart en del hinder. Förutom att det måste gå att göra tekniskt så att bakåtkompatibiliteten är så stor som möjligt så måste AMD och/eller Intel även vilja göra det. Det sitter såklart långt inne, speciellt hos Intel kan jag tänka mig, men AMD kanske är mer öppna för det? AMD har ju redan skapat AMD64 och känner bara Intel pressen så kan dom "tvingas" in i samarbete. Det borde vara i bådas intresse att x86 håller sig relevant, även om båda skulle kunna gå över till ARM64 så är det ju tydligt att det blir en tuffare marknad med fler konkurrenter.

Ett annat alternativ vore såklart en helt ny ISA men det lär ju vara väldigt svårt att få till. Svårt att se att Intel skulle våga satsa igen efter Itanium och med dagens marknadsläge. Och även om man satsar så måste det ju bli bra dessutom, vilket uppenbarligen inte är helt lätt för någon.

Permalänk
Datavetare
Skrivet av vb:

En fundering: Skulle det vara möjligt att göra något liknande som gjordes mellan x86 till AMD64, alltså en vidareutveckling av x86 och på så sätt göra sig av med den ineffektiva designen?

Det är såklart en del hinder. Förutom att det måste gå att göra tekniskt så att bakåtkompatibiliteten är så stor som möjligt så måste AMD och/eller Intel även vilja göra det. Det sitter såklart långt inne, speciellt hos Intel kan jag tänka mig, men AMD kanske är mer öppna för det? AMD har ju redan skapat AMD64 och känner bara Intel pressen så kan dom "tvingas" in i samarbete. Det borde vara i bådas intresse att x86 håller sig relevant, även om båda skulle kunna gå över till ARM64 så är det ju tydligt att det blir en tuffare marknad med fler konkurrenter.

Ett annat alternativ vore såklart en helt ny ISA men det lär ju vara väldigt svårt att få till. Svårt att se att Intel skulle våga satsa igen efter Itanium och med dagens marknadsläge. Och även om man satsar så måste det ju bli bra dessutom, vilket uppenbarligen inte är helt lätt för någon.

AMD64 / Intel64 (de är identiska i "user-space", men har en del olikheter för OS-kärnan) rättade till en del tillkortakommanden i IA32. I korthet de som man kunde fixa genom att addera nya finesser. Det blev "tillräckligt bra" för att dels döda IA64 men också för att göra konkurrenskraftig mot POWER, MIPS, SPARC etc (dessa ISA körde över IA32 i t.ex. server-fall).

När Arm designade ARM64 insåg man att kunskaperna kring "bra" CPU-design hade ändrats så mycket sedan mitten av 80-talet när man skapade 32-bit Arm att man drog slutsatsen att det fanns så mycket saker som skulle kunna göras bättre bara man fick starta från scratch.

Det var en gigantisk risk Arm tog i det läget, för historisk har sådana tilltag (t.ex. IA64...) haft ett uselt utfall. D.v.s ARM64 är en helt nya ISA, den har inget att göra med 32-bit Arm (mer än att det finns CPU-modeller som har stöd för båda ISA). Men så här i efterhand var det ett genidrag!

Alltid lätt att vara efterklok och se "vad alla borde sett" i efterhand. Tittar man på tidigare ISA alternativ till x86 har det alltid funnits både fördelar och nackdelar + Intel länge kunde kompensera eventuella tillkortakommanden i x86 med deras försprång i tillverkningsteknik (även AMD hade ju egna fabriker förut).

Innan ARM64/RISC-V hade ett par viktiga saker hänt: normen är numera multi-core, tidigare ISA var designade när single-core var normen. "Ingen" skriver längre Assembler, ARM64/RISC-V ISA är helt designade utefter kraven kompilatorer har och inte för att människor ska kunna skriva superoptimerad Assembler. Och slutligen är ARM64/RISC-V först att designas efter att högre "IPC" egentligen är enda vägen framåt, går inte längre att öka frekvensen i någon större utsträckning (Intel/AMD inser att de måste, de är snart på 6 GHz, men det drar löjligt med ström...).

ARM64/RISC-V är designade för att maximera alla nämna fall ovan. Tror just hänsynen till multicore är förklaringen att till och med Arms standardkärnor, som inte är i närheten lika avancerade som Apples M1/M2, står sig så väl mot Intel/AMD på serversidan (32-bit Arm var ett skämt på serversidan, det skadade Arm att företag ens försökte för det var lika illa som IA32...).

Det framförallt Apple gjort med sin CPU-design är att gå all-in på att ARM64 möjliggör betydligt högre ILP (vilket när det utnyttjas ger hög IPC). M1/M2 är med råge de "bredaste" designade som någonsin skapats, de utför 50-70 % mer per cykel än AMD/Intels bästa designer (vilket är orsaken att de kan prestera lika bra trots maxfrekvens på 3,2-3,5 GHz)!

Intel / AMD kan inte göra samma sak som ARM64 gänget kan med mindre än att bryta bakåtkompatibilitet med existerande program

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Xeonist:

Så när du har för lite pengar kvar i slutet på månaden så ber du om lönesänkning....?

Vad saknar du i utvecklingsväg? Är det på något område som kapitalismen har fungerat så är det väl tech-branschen.

I mitt inlägg så nämnde jag inget om kapitalism direkt. De går att diskutera aktieägare & riskkapitalister utan att snacka politik.

T.ex var windows phone ett bra OS till mobiltelefoner. Riskkapitalister tyckte inte intäkterna var värt de att utveckla för, både från microsofts håll och apputvecklare.
Riskkapitalister anser att mobilspel är bättre att satsa på, mer intäkter till mindre resurser som sätts in på utvecklingen.

Permalänk
Medlem
Skrivet av Yoshman:

Sant! Och är just de siffrorna som inte är rolig läsning för vare sig Intel eller AMD just nu

https://3s81si1s5ygj3mzby34dq6qf-wpengine.netdna-ssl.com/wp-content/uploads/2022/07/google-tau-azure-aws-x86-arm-comparisons.jpg

Hade inte koll på att Google också börjat med Ampere Altra kretsar. Visade att det inte var så konstigt, det blev känt för mindre än en månad sedan.

Orsaken ska tydligen vara att Google har marknadsfört sina "Tau" instanser just på perf/$ mot bl.a. Graviton 2 hos AWS. Dessa "Tau" instanser lanserades med Epyc "Milan", de var konkurrenskraftiga mot Graviton 2 men föll platt mot Graviton 3.

Värt att notera här är att även om det funnits fall där Arm-lösningar tidigare kunna konkurrerat på perf/$ kunde de inte konkurrera med prestanda. Prestanda per vCPU är kritisk för många fall och Intel har tidigare pekat på att de är den bättre lösningen just då man länge var ledare på den punkten.

Kolla SPECint, ARM64 instanserna har primärt högre perf/$ för att deras perf/vCPU är högre, inte för att man är billigare (det är billigare, men bara ~10 % i Googles fall medan prestanda är ~50 % högre). Ampere Altra drar dock mer ström än Graviton 3, detta primärt då de är högre klockade och har fler kärnor (80-128 st per CPU beroende på modell).

Finns ju flera aspekter där.

För de första håller jag helt med: finns absolut segment som byggt fast sig. Men gissar att de kör traditionella server-lösningar och inte molntjänster.

Traditionella serverlösningar kommer inte försvinna, men fokus går snabbt allt mer mot molnlösningar.

Inom varje segment lär företagen kika vad konkurrenterna gör. Om kostnad för "compute" har en relevant storlek för affärsverksamheten blir det problematiskt om konkurrenterna börjar använda teknik som är väsentligt billigare!

Följer inte datacentermarknaden speciellt noga, hade därför missat en hel del större saker där. Visade sig att Ampere Computing inte bara knutit åt sig Microsoft och Google, man har även kommit in hos Oracle molntjänster, samt hos företag som Tencent och Baidu (möjligen även Alibaba eller så håller de på likt AWS med sin egen design).

Användningsområdet för ARM är fortfarande för specifikt för majoriteten av företag i dagsläget, hyser inga tvivel om att det är framtiden men vi kommer att få dras med x86 länge till.

Det finns absolut klassiska enterprise-företag i molnet, dock kör de ju mycket mer general purpose vilket gör att man väljer Intel eller amd där i högre utsträckning. IBM har ju till och med molnlösningar för mainframe-kunder så riktigt gamla drakar kan säga att de kör cloud (även om det kanske mer blir som någon form av managed service).

Visa signatur

Lian-li PC-011 Dynamic Corsair RM750x ROG STRIX X570-E GAMING 5950X NZXT Kraken Z73 32GB Corsair Dominator 3200MHz Gigabyte 6800XT Master Corsair MP600 1TB + Toshiba NVMe 512GB Vertex Pok3r MX Brown Acer Predator XB323UGX Logitech G502+ & Powerplay ...lagrar gör jag på Synology 920 32TB.