Intel visar Lunar Lake – "den mest effektiva arkitekturen någonsin"

Permalänk
Medlem
Skrivet av medbor:

Du vet väl att windowsmjukvara fungerar felfritt i macos senaste årtiondet via Parallells och liknande mjukvaror? Annars finns ju alltid VM eller fjärrskrivbord

Utvecklare har länge varit överrepresenterade på Apple till exempel, för rena ingenjörer och specifikt CAD finns det många som fungerar officiellt på mac också

Jag skulle tro att wintel främst används för att det är bekvämt och inkört, de lever på gamla meriter. Det håller windows 11 på att sabba nu. Jag tror verkligen inte det kommer vara dominerade plattform på samma sätt som tidigare om ett årtionde

Det spelar ingen roll om det finns programvaror som inte är defacto-standar inom konstruktion och bygg, alla vill använda samma programvaror, ingen orkar lösa problem med ÅÄÖ etc. Även om AutoCad finns till Mac så saknas de branschspecifika implementationerna, att köra i emulerat läge på en Mac är inte aktuellt då många modeller lätt äter upp 64GB RAM, helt oförsvarbart att betala för en Mac som är sämre på jobbet och betydligt dyrare. Det finns hur många typer av CAD som helst, allt från kretsdesign till landskapsarkitektur, ytterst få nischer har fungerande mjukvara på Mac. De arkitekter som ritar i Archicad får alltid skit av byggbolagen trots att det är ett bättre CAD-program för arkitekter, de är bara en i kedjan, alla andra discipliner använder Autodesks produkter på PC eller än mer PC-bundna system. Har du jobbat i något av Autodesks program öht? De är med några moderna undantag riktigt förlegade saker med legacy-kod från 1980-talet kvar. En massa special som hur de implementerade ett hårkors i Autocad med någon magisk kod som ingen vågar röra och inte fungerar i emulering eller ens på många grafikkort.

Du kan ju försöka övertala SKANSKA att byta sina system till Apple Silicon och lyssna på deras skratt i dagar, eller tala om för SISAB att deras projekthanteringsverktyg hade varit mycket bättre om de gjordes om för Mac. Men visst det finns försök, branschstandarden för PDF-hantering heter Bluebeam Revu och de "har" en iPad-version som inte utvecklas för att ingen använder den.

Permalänk
Medlem
Skrivet av Mordekai:

Det spelar ingen roll om det finns programvaror som inte är defacto-standar inom konstruktion och bygg, alla vill använda samma programvaror, ingen orkar lösa problem med ÅÄÖ etc. Även om AutoCad finns till Mac så saknas de branschspecifika implementationerna, att köra i emulerat läge på en Mac är inte aktuellt då många modeller lätt äter upp 64GB RAM, helt oförsvarbart att betala för en Mac som är sämre på jobbet och betydligt dyrare. Det finns hur många typer av CAD som helst, allt från kretsdesign till landskapsarkitektur, ytterst få nischer har fungerande mjukvara på Mac. De arkitekter som ritar i Archicad får alltid skit av byggbolagen trots att det är ett bättre CAD-program för arkitekter, de är bara en i kedjan, alla andra discipliner använder Autodesks produkter på PC eller än mer PC-bundna system. Har du jobbat i något av Autodesks program öht? De är med några moderna undantag riktigt förlegade saker med legacy-kod från 1980-talet kvar. En massa special som hur de implementerade ett hårkors i Autocad med någon magisk kod som ingen vågar röra och inte fungerar i emulering eller ens på många grafikkort.

Du kan ju försöka övertala SKANSKA att byta sina system till Apple Silicon och lyssna på deras skratt i dagar, eller tala om för SISAB att deras projekthanteringsverktyg hade varit mycket bättre om de gjordes om för Mac. Men visst det finns försök, branschstandarden för PDF-hantering heter Bluebeam Revu och de "har" en iPad-version som inte utvecklas för att ingen använder den.

Detta är precis så det är. Det är kul på exempelvis arkitektskolor att se Apple-människor kämpa något år med att få saker att funka på deras fina Macbooks för att efter ett tag bara kapitulera och köpa en "sämre" Windows-laptop. En hel del specialiserad mjukvara finns inte, eller fungerar dåligt på något annat än x86. Och en grafikkrets från Nvidia är mer eller mindre ett krav om du vill rendera. Visst kan allt detta ändras, men det kommer ta otroligt lång tid. I arkitektur/byggbranschen är det inte Microsoft eller Apple som bestämmer vad som används hårdvarumässigt utan det är Autodesk/McNeel/Chaos osv osv som bestämmer. Stödet utanför Wintel-miljön är nästintill obefintligt idag.

Permalänk
Medlem
Skrivet av Mordekai:

Du kan ju försöka övertala SKANSKA att byta sina system till Apple Silicon och lyssna på deras skratt i dagar, eller tala om för SISAB att deras projekthanteringsverktyg hade varit mycket bättre om de gjordes om för Mac.

Jag tror även att målgruppen du nämner väljer bort Ultrabooks med endast en USB-C utöver porten för laddning, vilket artikeln faktiskt handlar om Dessutom är Lunar Lake begränsad till 32GB RAM.

Tycker det är självklart att välja det verktyg som är bäst lämpat för respektive uppgift.

Har tröttnat på alla schweiziska arméknivar som mest är värdelösa på allt.

Skulle exempelvis aldrig skaffat en Mac för enbart spel (även om Metal fått en boost i macOS 14), utan har konsoler för det istället. Även Windows har sin plats hos mig, i form av en äldre IBM Thinkpad, för att kunna köra mina gamla EPROM-prylar. Jobbdatorn kör också Windows, men allt jag kör där finns även till Mac eller tillgängligt via VDI:n.

Permalänk

De problem som ni nämner med program och windows finns i hur många områden som helst. Det är naturligt att det blir så och det är också lite tragisk men det finns ingen enkel lösning.
Man kan prata om Windows VS MacBOS, men man kan även prata om olika program för samma sak på samma dator. Väldigt många program idag är supergamla, de har använts hur länge som helst professionellt, att någon student eller liknande som lider av Dunning Kruger-effekten hänvisar att den har hört talas om ett nyare program som är modernare, så är det inte så enkelt för alla som jobbar med det att bara byta till denna.

Räddningen på problemet med laptops är att folks laptops går emot att bli klienter/terminaler, där man kan säga att du kan köra vilket operativsystem/laptop du vill. Detta arbetssätt har många fördelar, folk behöver inte krångla med installation av mjukvara, få licenser, plugging etc att fungera, arbetsfiler tas ej hem lokalt till en dator. Nackdelar är att viss saker som jobba med grafik ofta inte fungerar tillräckligt bra.

Jag ser det inte alls bra att folk egentligen kör med "gammal dritt" än idag, men det är inte så enkelt att ändra. Lite som jag skämtsamt säger att hela Stockholms och Göteborgs innerstad skulle rivas och bygga om. Då hade man på alla sätt fått bättre hus, bättre kollektivtrafik etc. Men det är i praktiken inte så lätt att bara göra. Det blir att bygga vidare på det gamla och man får inte det lika bra som om man hade gjort om allt från början.
På laptopsidan så är räddningen som sagt att man använder dem som klient emot webbläsaren eller en fjärrstyrningslösning som terminalserver.

Permalänk
Medlem
Skrivet av Dinkefing:

Apple ger bara sex år kanske sju år innan de slutar supporta sina modeller. Så allt är inte ros här.

Jag tror inte på din domedagsprofetia. Ingen vettig människa kommer vilja öggla i någon femtumsskärm framför en stationär.

Inte så mycket bättre med PC med Windows 11

Permalänk
Medlem
Skrivet av Yoshman:

För att hålla oss till Lunar Lake: har läst en hel del artiklar / tankar kring Lunar Lake.

Lion Cove verkar ju vara en store omdesign, men verkar ändå bli lite "meh" sett till faktiskt förbättring.

Skrev det tidigare och såg bl.a. TechPowerUp använda exakt samma ord: stjärnan i Lunar Lake är Gracemont. Stämmer det Intel skriver om den har de verkligen "knocked one out of the park". Att nå IPC motsvarande Golden Cove hade varit bra, att man nu når Raptor Cove / Zen 4 (enligt SPEC-int) är sanslöst.

Stämmer sedan Intels påstående kring perf/W, vilket jag misstänker rätt mycket hänger på Gracemont, har Intel fått en hel del ammunition för nästkommande laptop-generation.

Sådär, fantastisk trevligt inlägg att läsa.. åsikter om det som bör diskuteras i tråden, Intels nya grejor utan bashing eller min pappa är starkare än din pappa.

☀️☀️☀️☀️☀️ och en 👍

Permalänk
Medlem

RibbonFET och PowerVia kommer väl med 20A eller om det är 18A, senaste under 2025 har jag för mig. Borde kunna bli ett riktigt prestandakliv det med, speciellt om man lyckas förbättra arkitekturen ordentligt återigen.

Just nu är det väl E-cores som är den lysande stjärnan och som har potential att springa förbi p-cores i många tillämpningar?

En passivt kyld NUC utan störig fläkt är fortfarande min dröm med riktigt bra prestanda.

Visa signatur

Chassi : Node 304 Moderkort : Asrock Z890I Nova CPU : Intel Core Ultra 7 265K RAM : Corsair Vengeance 32GB (2x16GB) DDR5 6000MHz CL30 M.2 (1) System Samsung 990 PRO M.2 NVMe SSD 1TB M.2 (2) Lagring Kingston Fury Renegade M.2 NVMe SSD Gen 4 4TB

Permalänk
Skrivet av Yoshman:

Har inte sett några tester alls gjorda med GB5 för M4, sökte precis och fick bara upp GB6 resultat. Och varför skulle någon bry sig om GB5 idag?

GB6 är på alla sätt en bättre benchmark, både för ST då man använder betydligt större datamängder jämfört med GB5 (blir lätt "mikrobenchmark" resultat som sällan korrelerar bra med "riktiga" program).

Men framförallt är GB6 en långt bättre MT benchmark jämfört med tidigare GB och de flesta andra benchmarks. Fram till GB5 testades MT som allt för många gör: man kör inte ett multitrådat program, man kör ett enkeltrådat program per CPU-tråd. Det senare ger "rolig" skalning med CPU-kärnor och har även viss relevans i datacenter där man "hackar upp" CPUn i massor med mindre instanser. Det har väldigt liten relevans för krävande program som körs på desktop.

GB6 har fått rätt mycket kritik för att "MT testerna är trasiga, de skalar ju inte perfekt med kärnor". Det är exakt vad man kommer att se i "riktiga" program. En annan sak man ser är att ARM64 generellt nu presterar bättre relativt x86_64, det är också precis vad man kommer se i verkligheten då en fördel med ARM64 är att den bättre hanterar synkronisering mellan kärnor.

Det skrivet: GB6 M3 vs M4 ser ut så här totalt sett

<Uppladdad bildlänk>

Sen finns denna om man skulle göra cherry-pick av ett enda deltest...

<Uppladdad bildlänk>

Om någon för bara 1 år sedan sagt: Apple kommer snart lansera en Ipad som är har den snabbaste CPU på planeten sett till absolut single-thread prestanda had denna någon fått en clownstämpel. Det borde inte vara möjligt. Så släpp detta, om det känns bättre "jag är en idiot som ens använde en sådan term", men faktum kvarstår att det är utklassning på ett sett som "känns" omöjligt att egentligen kunna genomföra.

Och låt oss även släppa Apple mer än "de har visat vad som är möjligt med ARM64". Den som rätt mycket är pappan bakom dagens M-serie jobbar nu på Qualcomm. Qualcomm har inte samma ekonomiska muskler som Apple, men de är väldigt framgångsrika och finns därför all möjlighet att de kan göra samma sak där och då faller hela "jag kan inte köra MacOS, det måste vara Window".

För Qualcomm jobbar ju väldigt tight med Microsoft för att göra något specifikt designat för Windows. Och av allt att döma går inte heller "men jag kör massa x86 prylar". Av allt att döma är Windows 11 x86 emulering nu på liknande nivå som Rosetta 2, når man då M4 prestanda kommer man kunna köra x86 kod lika snabbt som de snabbaste x86 CPUerna kan + ARM64 ger ännu bättre prestanda.

Här tror jag också att om man inte faktiskt använt en M-serie Mac tror jag man inte kan greppa exakt hur mycket snabbare de kan vara.

Detta är M4 i kompilering, en av de laster många anser var en av de bästa måttstockarna då det inte går att "paja" en sådan benchmark med speciella instruktioner. Allt som typiskt ger bättre prestanda här är generellt bra för det är en otroligt komplex arbetslast att optimera för.

Detta är mot 7940HS, en av de snabbaste AMD CPUerna för bärbara. Vi ser inte 10 % fördel, M4 är snabbare 55 %!
<Uppladdad bildlänk>

Och då vi kommenterar Intel, detta är mot 155H

<Uppladdad bildlänk>

Den dag 69 % högre prestanda "inte spelar någon roll" tror jag vi kan lägga ner alla forum där man ens funderar på prestanda hos CPUer.

Detta är 155H mot läckta Snapdragon X Elite i samma test OBS 155H är referens (M4 var referens ovan) här så siffran är därför direkt hur mycket snabbare Oryon är mot Redwood Cove
https://i.imgur.com/ZZ1Xz6g.png

Pappan till Qualcomm menar du Jim Keller? Jim Keller som senaste åren jobbat på AMD sedan Apple och nu Qualcomm? Det är lite tråkigt att man är så beroende av en person för att få en boost i processormarknaden.

Permalänk
Medlem
Skrivet av Dinkefing:

Pappan till Qualcomm menar du Jim Keller? Jim Keller som senaste åren jobbat på AMD sedan Apple och nu Qualcomm? Det är lite tråkigt att man är så beroende av en person för att få en boost i processormarknaden.

Jim Keller har aldrig jobbat hos Qualcomm vad jag vet, och gick från Apple till AMD redan 2012. Personen i fråga är nog snarare Gerard Williams III, som tidigare var chefsarkitekt hos Apple. Han bildade senare Nuvia tillsammans med några andra kretsdesigners från Apple och Google, som Qualcomm sen köpte upp.

Permalänk
Medlem
Skrivet av 0cool:

Håller med om en del men måste påpeka att skillnaderna inte var små om man jämför motsvarande produkter. Det såg emellanåt ut som nedan, över 2x prestanda på batteri och även med nätadapter var det över 50% fördel Mac mot en Intelprocessor kombinerat med nvidiagrafik.

https://www.fredmiranda.com/forum/ufiles/92/2503292.png

Var och varannan kotte märkte att det var klasskillnad. Som flera har nämnt var försprånget som Apple hade tillräckligt för att många valde att byta från Windows till Mac. Om Qualcomm kan ge samma sorts fördelar på windows kommer det locka ännu fler.

Det återstår förstås att se om så är fallet. Årets lanseringar från alla tre, Qualcomm, Intel och AMD är ju inte testade av oberoende parter ännu. För att trigga byte räcker det inte för Qualcomm att bara vara lite bättre, de måste vara klasskillnad bättre.

x86 försvinner inte direkt förstås, men man kan ana att en snöboll börjat rulla. Servrar har redan glidit över på ARM i ganska stor omfattning, om laptops kommer efter och nästa playstation/xbox blir ARM-baserad kanske inte ens spel kommer vara snabbast på x86 längre.

x86 blev snabbast genom att vara vanligast, och hämtade till slut in alla andra arkitekturers prestandafördelar. ARM har gjort samma resa på mobila enheter. När de börjar få fotfäste på allt annat också är de i särklass vanligast och det finns flera aktörer och därmed mest konkurrens. Det kommer bli svårt att hänga med för x86 även om de skulle lyckas hålla undan denna gången.

Hur som helst - det kommer bli intressant att följa produktlanseringarna framöver!

ett edgecase som har lite med arkitekturen att göra och allt med specialinstruktioner för mediabearbetning, MMX i modern tappning. Innan dess var det DSP. Det påverkar ju såklart också att det finns ultrasnabbt minne men behöver man mer än det som får plats i Apple Silicon blir det omvänt i prestandatabellen.

Permalänk
Medlem
Skrivet av walkir:

Jag tror även att målgruppen du nämner väljer bort Ultrabooks med endast en USB-C utöver porten för laddning, vilket artikeln faktiskt handlar om Dessutom är Lunar Lake begränsad till 32GB RAM.

Tycker det är självklart att välja det verktyg som är bäst lämpat för respektive uppgift.

Har tröttnat på alla schweiziska arméknivar som mest är värdelösa på allt.

Skulle exempelvis aldrig skaffat en Mac för enbart spel (även om Metal fått en boost i macOS 14), utan har konsoler för det istället. Även Windows har sin plats hos mig, i form av en äldre IBM Thinkpad, för att kunna köra mina gamla EPROM-prylar. Jobbdatorn kör också Windows, men allt jag kör där finns även till Mac eller tillgängligt via VDI:n.

Ultrabooks fungerar utmärkt, vi kör på betydligt sämre hårdvara än dessa, RAM och single-core prestanda är allt som betyder något, med ett fåtal undantag så används mer än en kärna samtidigt. Vi har fyra år gamla Lenovo X1 Carbon som väger 1Kg. Ingen inom arkitektur, bygg och konstruktion har på en massa 3D-effekter när man jobbar, rendering och annat tjafs kan folk utan ingenjörsutbildning pyssla med på workstations eller render farms.

Permalänk
Medlem
Skrivet av Dinkefing:

Pappan till Qualcomm menar du Jim Keller? Jim Keller som senaste åren jobbat på AMD sedan Apple och nu Qualcomm? Det är lite tråkigt att man är så beroende av en person för att få en boost i processormarknaden.

Jim Keller bytte väl till Tesla? Sen Intel, sen några andra startups och mindre ställen

https://en.m.wikipedia.org/wiki/Jim_Keller_(engineer)

Permalänk
Skrivet av medbor:

Jim Keller bytte väl till Tesla? Sen Intel, sen några andra startups och mindre ställen

https://en.m.wikipedia.org/wiki/Jim_Keller_(engineer)

Kanske missminner mig. Yoshman kanske vet bättre.

Permalänk
Datavetare
Skrivet av Ryzer:

Betyder detta att Lunar Lake kommer bli bra till speldatorer?

Lunar Lake kommer definitivt inte bli bra till speldatorer då det är en plattform specifikt designad för ultratunna bärbara. Det är en krets för det Intel/AMD tidigare hade U-suffix på med nominell TDP runt 15-20 W.

Varken Intel eller AMD har egentligen haft några produkter riktad mot denna marknad på ett tag. Därför jag (och uppenbarligen andra) pekar på att det inte är AMD som är huvudkonkurrent, utan det är i första hand Qualcomm Snapdragon X Elite (då det är en Windows-plattform precis som Lunar Lake) och i andra hand Apple M3 (samma segment).

AMD Strix Point täcker det segment AMD/Intel har "H" suffix på, här hittar man bl.a. kompakta speldatorer. Intels svar här blir Arrow Lake.

Men gissar att frågan kanske mer var: kommer Skymont göra Arrow Lake till en bra spelplattform? Kan bara gissar, men tror det är en rätt kvalificerad gissning: nej, Skymont kommer likt Gracemont inte göra speciellt mycket specifikt för spel. Hur bra/dålig Arrow Lake bli här hänger på hur bra Lion Cove är.

Det som har långt större bärring på hur bra Arrow Lake kommer stå sig är om Intel får till modeller med Admantine eller inte. Pat H. nämnde i höstas att "Admantine kommer i framtida produkter", vilket många då gissade var Meteor Lake. Givet att det inte kom då är Arrow Lake en rimlig gissning.

Admantine är en cache-teknik på en separat "tile" som blev känd via Intel patent.

Vad Skymont rimligen kommer göra för Arrow Lake är att än mer göra "i5" (vad den nu kommer heta) klassen väldigt konkurrentkraftig. Rimligen mer så än i5-14600K som många gånger drar jämt med 12-kärniga 7900 i "produductivity" (lika bra eller ofta bättre ST och samma MT).

Skrivet av Dinkefing:

Pappan till Qualcomm menar du Jim Keller? Jim Keller som senaste åren jobbat på AMD sedan Apple och nu Qualcomm? Det är lite tråkigt att man är så beroende av en person för att få en boost i processormarknaden.

Detta är ett bra exempel på att även de med enorm erfarenhet och kompetens kan ibland har rätt ordentligt fel. Jim Keller är en (av väldigt många) som länge ansåg att ISA har väldigt liten påverkan på prestanda, allt handlar om mikroarkitektur.

Den jag pratade om här är, som @perost skriver ovan, Gerard Williams III (som jag skulle säga tagit över som största stjärna i CPU-design).

Tror vi till rätt stor del kan "skylla" på Intel och deras haveri med Itanium. Men är ju alltid lätt att vara efterklok med facit i hand...

Itanium byggde på att man skulle kunna göra mycket av dyr/avancerad analys "up-front" vid kompileringstillfället. Det man lärde sig är att vissa problem fungerar bra att lösa på det sättet, många flyttalstunga fall ha relativt få villkorade hopp och prestanda hänger mer på hur väl man använder de ALUs som finns.

De flesta klientlaster, kompilering är väl en av de "elakaste", har väldigt mycket saker som inte kan redas ut med statisk analys då man behöver information som bara finns när programmet faktiskt körs. Så dynamisk analys är kritisk.

Det ARM64 gjort så otroligt bra (och Intel ser ut att försöka kopiera med APX så långt som möjligt inom ramen av x86) är att minimera antalet hopp som behöver göras i koden, man har lagt till instruktioner som ger samma effekt som villkorade hopp men utan att det finns någon hoppinstruktion i koden.

Ovan är en kritisk komponent i att ARM64 CPUer kan effektivt utnyttja väldigt "bred" design. Vi ser nu både Lion Cove och Skymont med, för x86, extremt bred front-end. Dessa har klassledande perf/cykel ("IPC") bland x86, men de är rätt långt efter Apples, Qualcomms och även Arms (Cortex X serien) ARM64 CPUer. Svårt att hur något annat än ISA kan föra gapet längre, på mikroarkitekturnivå har det egentligen skett en konvergens mellan alla high-end CPUer.

Edit: sen finns en annan viktig sak här. Ställer man x86_64 mot PowerPC, MIPS eller 32-bit Arm så är ingen av dessa oavkortat bättre än den andra. Alla hade klara styrkor och klara svagheter.

Väldigt mycket hände från tiden när x86, PowerPC etc designades under förra seklet till 2011 när ARM64 (och RISC-V) lanserades. Sättet man designar programvara har ändrats rätt som följd av att Dennard scaling upphörde och med den enkel ökning av prestanda via högre frekvens. Man började bygga multicore CPUer, men det löste inte alla problem. Så man började lura ut hur man bäst ökar "IPC".

Det sista har haft rätt stor effekt på hur man bäst designar en ISA och är nog förklaringen till varför "gamla sanningar" slutade vara sanna.

Skrivet av Mordekai:

Ultrabooks fungerar utmärkt, vi kör på betydligt sämre hårdvara än dessa, RAM och single-core prestanda är allt som betyder något, med ett fåtal undantag så används mer än en kärna samtidigt. Vi har fyra år gamla Lenovo X1 Carbon som väger 1Kg. Ingen inom arkitektur, bygg och konstruktion har på en massa 3D-effekter när man jobbar, rendering och annat tjafs kan folk utan ingenjörsutbildning pyssla med på workstations eller render farms.

Render farms hoppas jag verkligen inte man kör på Windows längre. Det finns tekniska skillnader mellan Windows och Linux som rätt enkelt förklarar varför Blender presterar rätt mycket bättre på Linux än Windows, trots egentligen samma kod och samma HW. Samma tekniska detalj ser ut att också förklara varför AI-ramverken (tensorflow och pytorch) presterar klart bättre under Linux.

Har skrivit flera gånger att jag inte använt CAD, men inser att det inte är sant då jag använde KiCad en hel del (också använt Fritzing), d.v.s. CAD för kretskort (tänker CAD = "vanliga" ritning av bilar, hus etc). Snabbt kik på dessa program och jag ser vad du säger: även rätt komplicerade ritningar går ju att köra på en "potatis". (Bara en FYI: båda dessa program finns för MacOS).

Men det gör ju också Qualcomm Snapdragon X Elite till en rejäl utmanare här. Även om dessa program måste emuleras så kommer Oryon utan problem köra dessa program klart snabbare än vad ni kan göra på fyra år gamla Lenovo X1 Carbon.

Oryon kommer köra Windows och den kommer kommer i en formfaktor som X1 Carbon vara snabbare, tystare och med bättre batteritid än någon vi sett. Här blir det kritiskt för Intel att Lunar Lake verkligen kommer prestanda på den nivå det verkar från presentationerna.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av lillaankan_i_dammen:

De problem som ni nämner med program och windows finns i hur många områden som helst. Det är naturligt att det blir så och det är också lite tragisk men det finns ingen enkel lösning.
Man kan prata om Windows VS MacBOS, men man kan även prata om olika program för samma sak på samma dator. Väldigt många program idag är supergamla, de har använts hur länge som helst professionellt, att någon student eller liknande som lider av Dunning Kruger-effekten hänvisar att den har hört talas om ett nyare program som är modernare, så är det inte så enkelt för alla som jobbar med det att bara byta till denna.

Räddningen på problemet med laptops är att folks laptops går emot att bli klienter/terminaler, där man kan säga att du kan köra vilket operativsystem/laptop du vill. Detta arbetssätt har många fördelar, folk behöver inte krångla med installation av mjukvara, få licenser, plugging etc att fungera, arbetsfiler tas ej hem lokalt till en dator. Nackdelar är att viss saker som jobba med grafik ofta inte fungerar tillräckligt bra.

Jag ser det inte alls bra att folk egentligen kör med "gammal dritt" än idag, men det är inte så enkelt att ändra. Lite som jag skämtsamt säger att hela Stockholms och Göteborgs innerstad skulle rivas och bygga om. Då hade man på alla sätt fått bättre hus, bättre kollektivtrafik etc. Men det är i praktiken inte så lätt att bara göra. Det blir att bygga vidare på det gamla och man får inte det lika bra som om man hade gjort om allt från början.
På laptopsidan så är räddningen som sagt att man använder dem som klient emot webbläsaren eller en fjärrstyrningslösning som terminalserver.

Bara en fråga: vilka problem ser du för att köra "gammal dritt" på en Snapdragon X Elite?

Är med på att det finns nischer där man av olika skäl kan sitta fast rätt hårt i något rätt specifikt program som kanske bara finns på Windows. Men har samtidigt jobbat på ett företag där en av huvudtankarna var att erbjuda produkterna på i praktiken vilket OS som helst.

Och rätt mycket större skillnader mellan alla de embedded OS som finns än mellan Windows, Linux och MacOS + man då också fick hantera skillnader mellan MIPS, SPARC, PowerPC, Arm, SH4, x86 m.fl. som har långt mer utmanande problem än att kompilera om ett x86_64 program för ARM64 (dessa två skiljer sig inte alls på det som gav mest huvudvärk att gå från t.ex. x86->big-endian MIPS...). Ändå var det full gör-bart i praktiken, men i.o.f.s. tillräckligt komplicerat att det gick att tjäna pengar på.

Alla program som går att köra på 2-3 år gamla datorer kommer, sett till prestanda, inte vara några problem alls att "emulera" på Snapdragon X Elite (eller MacOS+Parallells+Win11). Så vad är då problemet? För här behövs ingen explicit portning, det sköts automatiskt av systemet (med för Intel nog lite ironisk ton då flera saker man lärde sig av Itanium-spåret lär nu vara värdefullt när man gör statisk översättning av x86_64->ARM64, man har blivit väldigt bra på det).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Yoshman:

Bara en fråga: vilka problem ser du för att köra "gammal dritt" på en Snapdragon X Elite?

Är med på att det finns nischer där man av olika skäl kan sitta fast rätt hårt i något rätt specifikt program som kanske bara finns på Windows. Men har samtidigt jobbat på ett företag där en av huvudtankarna var att erbjuda produkterna på i praktiken vilket OS som helst.

Och rätt mycket större skillnader mellan alla de embedded OS som finns än mellan Windows, Linux och MacOS + man då också fick hantera skillnader mellan MIPS, SPARC, PowerPC, Arm, SH4, x86 m.fl. som har långt mer utmanande problem än att kompilera om ett x86_64 program för ARM64 (dessa två skiljer sig inte alls på det som gav mest huvudvärk att gå från t.ex. x86->big-endian MIPS...). Ändå var det full gör-bart i praktiken, men i.o.f.s. tillräckligt komplicerat att det gick att tjäna pengar på.

Alla program som går att köra på 2-3 år gamla datorer kommer, sett till prestanda, inte vara några problem alls att "emulera" på Snapdragon X Elite (eller MacOS+Parallells+Win11). Så vad är då problemet? För här behövs ingen explicit portning, det sköts automatiskt av systemet (med för Intel nog lite ironisk ton då flera saker man lärde sig av Itanium-spåret lär nu vara värdefullt när man gör statisk översättning av x86_64->ARM64, man har blivit väldigt bra på det).

I början när virtualisering kom så användes det till lite olika saker. Det fanns i början kompabilitetsproblem med många mjukvaror. Både virtualiserings mjukvarorna (hypervisors) blev bättre och programtillverkare insåg att allt fler av deras kunder köra deras program i en VM och de såg till att testa av detta rejält.
Där det idag har gått till att i princip alla köra dessa program hypervisor på något sätt, det kan vara en stor Exsi server stående någonstans eller lokalt på deras egen dator.

Problemet för de som var först var att de körde en lösning som var väldigt otestad och inte heller var den precis felfri. Detta ihop med extrema kostnader(viten) om något blir fel, gör att det var väldigt begränsat vad det användes till i början.
Detta har som sagt förändras till mer raka motsatsen, vaf-n installerade du programvaran direkt på hostdatorn kan någon undra? Ja, det borde fungera, men du är den enda i hela världen som har testat detta och detta ska du använda i produktionsfiler?

Problemet med snapdragon är som sagt att det är en otestad produkt nu i början. När det har gått ett tag och om vitalisering fungerar lika bra som det fungerar på en x86/x64 maskin, så finns det självklart inga som helst problem att använda det.

Ett problem med ultraportabla är såklart ram och ssd. 32GB ram är ungefär minimum för att göra något idag (ja det går att swapa på snabb nvme ssd). Lagring så ett par TB är minimum.
Det kan hända att snapdragon endast kommer till enkla ultraportabla i början, då är det i början ett problem.
När de släpps bättre så är problemet borta. Och ja, usb SSD fungerar skitbra för nästan allt. Det är bara dumt att ha dem lösa och det är fler saker att ha koll på.

*edit*
Angående framtid utveckling så är min bild att den går åt lite olika håll. Vender lock-in, månadsavgifter för det ena och andra gillar de på ekonomiavdelningen. Utvecklare vill sedan lägga ner så lite tid som möjligt.
Där jag vet utvecklare av ny mjukvara som ej lämnar ut information om hur man gör saker automatisk, för det skapar så massa extra supportjobb åt dem när folk har ändrat på datan på ett konstigt sätt. Ta en arbetsfil som deras program använder. Ja, man kan sitta och göra saker manuellt i gränssnittet. Det går segt. Sedan kan man skapa ett program som automatgenerar in data direkt i arbetsfilera.
Förr var detta med automatgeneringen en självklarhet, lösningen Microsoft OLE Automation gjorde att "varenda kotte" kunde automatgenera i de flesta program. Nu går trenden emot att inte alls ha något liknande och även inte berätta hur datan i deras filer är lagrade.

Plattformsoberoende så är det webb som företag satsar på av hur många anledningar som helst.

*edit*
Nya Word Excel/filer är ett bra exempel på hur arbetsfiler ska se ut. De är en samling ihopzippade .xml filer. Man kan uppdatera dessa manuellt med Notepad om man så vill. Möjligheterna att automatgenera är hur stora som helst.
Men jag ser många utvecklare mer gå raka motsatsen och motarbetar folk ändra filer utanför programmet.

Permalänk
Datavetare
Skrivet av lillaankan_i_dammen:

I början när virtualisering kom så användes det till lite olika saker. Det fanns i början kompabilitetsproblem med många mjukvaror. Både virtualiserings mjukvarorna (hypervisors) blev bättre och programtillverkare insåg att allt fler av deras kunder köra deras program i en VM och de såg till att testa av detta rejält.
Där det idag har gått till att i princip alla köra dessa program hypervisor på något sätt, det kan vara en stor Exsi server stående någonstans eller lokalt på deras egen dator.

Problemet för de som var först var att de körde en lösning som var väldigt otestad och inte heller var den precis felfri. Detta ihop med extrema kostnader(viten) om något blir fel, gör att det var väldigt begränsat vad det användes till i början.
Detta har som sagt förändras till mer raka motsatsen, vaf-n installerade du programvaran direkt på hostdatorn kan någon undra? Ja, det borde fungera, men du är den enda i hela världen som har testat detta och detta ska du använda i produktionsfiler?

Problemet med snapdragon är som sagt att det är en otestad produkt nu i början. När det har gått ett tag och om vitalisering fungerar lika bra som det fungerar på en x86/x64 maskin, så finns det självklart inga som helst problem att använda det.

Ett problem med ultraportabla är såklart ram och ssd. 32GB ram är ungefär minimum för att göra något idag (ja det går att swapa på snabb nvme ssd). Lagring så ett par TB är minimum.
Det kan hända att snapdragon endast kommer till enkla ultraportabla i början, då är det i början ett problem.
När de släpps bättre så är problemet borta. Och ja, usb SSD fungerar skitbra för nästan allt. Det är bara dumt att ha dem lösa och det är fler saker att ha koll på.

*edit*
Angående framtid utveckling så är min bild att den går åt lite olika håll. Vender lock-in, månadsavgifter för det ena och andra gillar de på ekonomiavdelningen. Utvecklare vill sedan lägga ner så lite tid som möjligt.
Där jag vet utvecklare av ny mjukvara som ej lämnar ut information om hur man gör saker automatisk, för det skapar så massa extra supportjobb åt dem när folk har ändrat på datan på ett konstigt sätt. Ta en arbetsfil som deras program använder. Ja, man kan sitta och göra saker manuellt i gränssnittet. Det går segt. Sedan kan man skapa ett program som automatgenerar in data direkt i arbetsfilera.
Förr var detta med automatgeneringen en självklarhet, lösningen Microsoft OLE Automation gjorde att "varenda kotte" kunde automatgenera i de flesta program. Nu går trenden emot att inte alls ha något liknande och även inte berätta hur datan i deras filer är lagrade.

Plattformsoberoende så är det webb som företag satsar på av hur många anledningar som helst.

*edit*
Nya Word Excel/filer är ett bra exempel på hur arbetsfiler ska se ut. De är en samling ihopzippade .xml filer. Man kan uppdatera dessa manuellt med Notepad om man så vill. Möjligheterna att automatgenera är hur stora som helst.
Men jag ser många utvecklare mer gå raka motsatsen och motarbetar folk ändra filer utanför programmet.

Fast ser inte hur vare sig "hypervisor" eller virtualisering på något sätt kommer in i bilden.

Om man kör Windows via Parallells på MacOS blandar man in virtualisering. Det har sina användingsområden, men finns också begränsningar.

När man kör Windows på Snapdragon X är det, på källkodsnivå, samma Windows som körs på t.ex. Lunar Lake. Kikar man i t.ex. Linux kommer man se hur extremt lite kod som skiljer mellan olika CPU-arkitekturer, i de flesta applikationer skiljer inget alls på källkodsnivå.

Ja, det finns ett binäröversättningslager med i ekvationen när man kör x86/x64 applikationer. Men det är långt mer jämförbart att köra en annan CPU-modell än att köra saker via virtualisering. Nu kan man nog får kommentaren "varför i helvete bytte ni ut 486-CPU vi kört i 30 år mot en modern CPU där något gick sönder"?

Visst finns det buggar i kompilatorer, men de är betydligt ovanligare än buggar i själva applikationen. Och binäröversättning är ur ett valideringsperspektiv långt mer jämförbart med kompilering än att skriva om programmet. Speciellt då Microsoft och Apple båda baserar sina binäröversättningstekniker på LLVM (en av de mest använda kompilator-ramverken).

Är det något man ska vara nervös för här är det bristande engagemang från Microsoft. Verkar som Qualcomm är Microsoft darlig #1 just nu, något som lär (och nog bör) skrämma Intel och AMD. Men Microsoft har bytt fot tidigare, så allt kan nog hända än!

Har ändå blivit nyfiken på Lunar Lake, är den plattformen vad Intel försöker få det till blev just uppförsbacken för Qualcomm betydligt brantare. För som nämnts i denna tråd: för Qualcomm räcker det inte att vara lika bra, men kommer behöva vara bättre än alternativen för att ARM64 på Windows ska ta fart. Svårt att inte se hur man är rätt mycket bättre än det Intel/AMD har i detta segment just nu, frågan är hur det kommer se ut senare i höst...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Alla program som går att köra på 2-3 år gamla datorer kommer, sett till prestanda, inte vara några problem alls att "emulera" på Snapdragon X Elite (eller MacOS+Parallells+Win11). Så vad är då problemet? För här behövs ingen explicit portning, det sköts automatiskt av systemet (med för Intel nog lite ironisk ton då flera saker man lärde sig av Itanium-spåret lär nu vara värdefullt när man gör statisk översättning av x86_64->ARM64, man har blivit väldigt bra på det).

Denna tråd tyckte jag var intressant https://x.com/ErrataRob/status/1331735953292095491
Vet vi om Qualcomm har löst memory ordering på samma sätt som Apple gjorde?
Atomics borde var enkelt att lösa genom att generera kod som är lika eller mer strikt.
Antar att problemet kommer vid data markerat som volatile, behövs ordentligt med slöa minnesbarriärer för att simulera TSO.

Permalänk
Medlem
Skrivet av Mordekai:

ett edgecase som har lite med arkitekturen att göra

Många edgecase små blir en stor "awe". När macbookarna med M-chippet kom var det ett häpnadsväckande lyft jämfört med x86-laptops på många olika sätt.

MS ser uppenbarligen ARM som så viktigt att de körde en Brutus-liknande backstab på x86-duon veckan innan Computex, där AMD höll den inledande keynoten och Intel också presenterade sin next-gen. Det kändes som att MS gjorde slut med WinTel och siktar på en framtid med WinComm.

Permalänk
Medlem
Skrivet av Yoshman:

Render farms hoppas jag verkligen inte man kör på Windows längre. Det finns tekniska skillnader mellan Windows och Linux som rätt enkelt förklarar varför Blender presterar rätt mycket bättre på Linux än Windows, trots egentligen samma kod och samma HW. Samma tekniska detalj ser ut att också förklara varför AI-ramverken (tensorflow och pytorch) presterar klart bättre under Linux.

Har skrivit flera gånger att jag inte använt CAD, men inser att det inte är sant då jag använde KiCad en hel del (också använt Fritzing), d.v.s. CAD för kretskort (tänker CAD = "vanliga" ritning av bilar, hus etc). Snabbt kik på dessa program och jag ser vad du säger: även rätt komplicerade ritningar går ju att köra på en "potatis". (Bara en FYI: båda dessa program finns för MacOS).

Men det gör ju också Qualcomm Snapdragon X Elite till en rejäl utmanare här. Även om dessa program måste emuleras så kommer Oryon utan problem köra dessa program klart snabbare än vad ni kan göra på fyra år gamla Lenovo X1 Carbon.

Oryon kommer köra Windows och den kommer kommer i en formfaktor som X1 Carbon vara snabbare, tystare och med bättre batteritid än någon vi sett. Här blir det kritiskt för Intel att Lunar Lake verkligen kommer prestanda på den nivå det verkar från presentationerna.

Jag menade verkligen inte att render farms skulle köra Windows, rätt ointressant vilken CPU och OS, det enda som spelar roll är GPUerna och minne/minnesbuss.

Att köra CAD i en emulator är nog inget någon i Bygg, Arkitektur eller Konstruktion har lust med. Addins för projektsamarbeten etc är aldrig tänkta att köras på något annat än WinTel så även om möjligt tror jag de flesta stora företag inte har lust med risken om någon kritisk funktion inte fungerar, man är helt beroende av supportavtal som inte gäller om man inte kör på ISV-godkänd hårdvara. Om det går eller ens är bättre spelar liten roll i sammanhanget är vad jag menar. "All" CAD bygger på relativa koordinater så parallellisering är omöjligt till skillnad från spel där alla absoluta koordinater redan räknats ut. Om jag flyttar grunden i en byggnad måste hela byggnaden räknas om helt seriellt. Flyttar jag ett handtag på en dörr finns det CAD-Program som löst buggar genom att helt sonika räkna om allt igen, kasst, absolut men verkligheten, ingen modern CPU har tagit några jättekliv på dessa beräkningar, problemet i prestanda är kass gammal kod, inte hårdvara. Precis alla företag i branschen kör någon variant av Microsoft 365 med Sharepoint och integrering med lokala active directories, stödprogram med gamla guin som inte är DPI-aware, addins till CAD-programmen som är skrivna internt eller av ett litet företag för nischade lösningar. Själv har jag skrivit en massa AddIns till Revit som aldrig ens funnits i fantasin att köras på något annat än WinTel. Version 2025 släpper Revit kravet på .Net framework 4.x och går över till .Net 8, det ökar ju möjligheterna för framtiden eftersom i princip hela branschen kör Revit som SaS och man bara har access till 4 senaste versionerna. Dvs alla måste konvertera sina addins till .Net 8 inom fyra år, då möjligen kan det finnas anledning att titta på något annat än WinTel om man inte vill hamna i dependency hell. AutoCad har fortfarande Lisp som huvudscriptspråk...

Permalänk
Medlem
Skrivet av Mordekai:

Jag menade verkligen inte att render farms skulle köra Windows, rätt ointressant vilken CPU och OS, det enda som spelar roll är GPUerna och minne/minnesbuss.

Att köra CAD i en emulator är nog inget någon i Bygg, Arkitektur eller Konstruktion har lust med. Addins för projektsamarbeten etc är aldrig tänkta att köras på något annat än WinTel så även om möjligt tror jag de flesta stora företag inte har lust med risken om någon kritisk funktion inte fungerar, man är helt beroende av supportavtal som inte gäller om man inte kör på ISV-godkänd hårdvara. Om det går eller ens är bättre spelar liten roll i sammanhanget är vad jag menar. "All" CAD bygger på relativa koordinater så parallellisering är omöjligt till skillnad från spel där alla absoluta koordinater redan räknats ut. Om jag flyttar grunden i en byggnad måste hela byggnaden räknas om helt seriellt. Flyttar jag ett handtag på en dörr finns det CAD-Program som löst buggar genom att helt sonika räkna om allt igen, kasst, absolut men verkligheten, ingen modern CPU har tagit några jättekliv på dessa beräkningar, problemet i prestanda är kass gammal kod, inte hårdvara. Precis alla företag i branschen kör någon variant av Microsoft 365 med Sharepoint och integrering med lokala active directories, stödprogram med gamla guin som inte är DPI-aware, addins till CAD-programmen som är skrivna internt eller av ett litet företag för nischade lösningar. Själv har jag skrivit en massa AddIns till Revit som aldrig ens funnits i fantasin att köras på något annat än WinTel. Version 2025 släpper Revit kravet på .Net framework 4.x och går över till .Net 8, det ökar ju möjligheterna för framtiden eftersom i princip hela branschen kör Revit som SaS och man bara har access till 4 senaste versionerna. Dvs alla måste konvertera sina addins till .Net 8 inom fyra år, då möjligen kan det finnas anledning att titta på något annat än WinTel om man inte vill hamna i dependency hell. AutoCad har fortfarande Lisp som huvudscriptspråk...

Vi hör dig, men CAD är inte hela världens användning av IT. Extremt mycket idag har inte legacy-krav från 1980, det körs på webben eller remote. Klienten ska helst inte ha känslig data på sig

Permalänk
Medlem
Skrivet av medbor:

Vi hör dig, men CAD är inte hela världens användning av IT. Extremt mycket idag har inte legacy-krav från 1980, det körs på webben eller remote. Klienten ska helst inte ha känslig data på sig

Nej det är ett exempel stora företag köper de flesta datorerna, inget stort företag kommer i den närmsta tiden välja dator efter CPU-arkitektur mer än för att programvaror de använder bara är utvecklade för den. Det finns en massa branscher med små företag som kan hoppa till Mac utan större smärtor men det är inte en avgörande del av persondatormarknaden. Linux har i princip monopol på offentliga servrar, windows i princip på interna servrar och windows definitivt på företag med mer än 100 anställda. Ingen av dessa monopolställningar kommer av en specifik processors överlägsenhet, mjukvaran betyder allt. Att inbilla sig att det blir ett stort skifte till MacOS eller ARM pga Apple Silicon är lika naivt som att tro att privatpersoner (en masse) skulle börja bry sig om framtidens människor. Vi är egoister och företag köper datorer för mjukvara, inte tvärtom.

EDIT
Många större system stora företag använder idag är webbaserade och kan köras på vilken klient som helst, CPU-prestanda spelar i dessa fall ingen som helst roll.

Beräkningsintensiva applikationer som kräver x86 för client-side compute;
https://se.mathworks.com/support/requirements/matlab-system-r...
https://en.wikipedia.org/wiki/Statistica
https://its.uri.edu/minimum-system-requirements-for-sas-and-s...

Ekonomi
https://vismaspcs.se/produkter/systemkrav

I princip all administrativ mjukvara flyttar till molnet, kvar på klienterna finns grafiskt intensiv mjukvara och beräkningsintensiv mjukvara som statistik och cad. Vilken utbredd programvara stora företag använder har en klient på Apple Silicon? Det är inte en ledande fråga, jag undrar.

Varför Apple Silicon inte drastiskt kommer påverka IT-marknaden
Permalänk
Medlem

@Yoshman
Börjar bli tröttsamt med alla sågningar av AMD/Intel/x86/x64 och hyllningar av Apple/ARM.
Kanske bara är jag...

Visa signatur

Atari Mega 2

Permalänk
Datavetare
Skrivet av McMillan:

@Yoshman
Börjar bli tröttsamt med alla sågningar av AMD/Intel/x86/x64 och hyllningar av Apple/ARM.
Kanske bara är jag...

Kan glädja dig med att jag tror inte att det bara är du!

Men vill verkligen trycka på detta av flera orsaker. Första är att jag fattar att den initiala reaktionen är "det är skitsnack och cherry-pickade tester", tänkte själv exakt så när jag såg de en del tidigare resultat från Iphones.

Känner fortfarande så, när jag fick M3 Max datorn testade den mot bl.a. 14900K och 7800X3D kändes det fortfarande "det här ska inte vara möjligt" när man ser hur den presterar. Hur rimligt är det att mobiltelefoner idag här bättre CPU-prestanda än de flesta PC-laptops samt senaste generationen konsoler?

Fråga är varför man inte ska vara entusiastisk för att ett duopol som av allt att döma just nu bromas PC-utvecklingen faktiskt utmanas. Gillar man inte det kan man ändå glädjas i att det finns fortfarande massor med sätt ARM64 på Windows kan gå fel!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare

Och för att vara lite mer positiv då: Battlemage ser ju ut att bli riktigt bra, framförallt i kontext av "AI PC"!

Givet att Qualcomm inte nämnt sin GPU alls i kontext av AI kan man gissa att den nog inte är speciellt stark på det ställd mot deras 45 TOPS NPU. Positiva är ändå att det redan finns programvara/drivers för att använda CPU, GPU och NPU på den plattformen.

AMD pratade väldigt lite om GPU-delen när de presterande Strix Point, men de har listat kapacitet på produktsidan. GPU-delen tillför 30 TOPS till de 50 TOPS man har i NPU (totalt 80 TOPS).

En av nyheterna i Battlemage över iGPU Arc är att man lagt till XMX-stöd som ger i sammanhanget en rätt rejäl boost på 67 TOPS (totalt 115 TOPS)

Så totalt sett ser det ut som Lunar Lake kommer vara den starkaste Windows-baserade "AI PC" i höst. Ovanpå det har Intel sen tidigare väldigt bra stöd för både NPU och GPU (i.o.f.s även bra stöd för AVX-VNNI) till PyTorch/Tensorflow i ramverk som är helt öppna.

Då den diskussionen var uppe tidigare: i fallet Intel så får man tydlige bättre prestanda med INT4 över INT8, i alla fall på GPU (TOPS refererar till INT8)

En annan sak som varit uppe är hur jämförbar "TOPS" siffrorna är. Det finns fortfarande skillnader i detaljer, men som jag förstått det ska alla nu använda sig av INT8.

Att Apple haft lite "udda" beteende kan också ha en rimlig teknisk förklaring: deras NPU stödjer (i alla fall upp till och med M3) bara FP16 så om man kör INT8 så konverterades det till FP16 internt. Så man får ingen förbättring där av att köra lägre än FP16. 38 TOPS FP16 är då riktigt bra, men ändrar inte att man "bara" får 38 TOPS (på M4, 18 TOPS i M3) när man kör INT8.

Så för den som verkligen är ute efter en "Copilot AI PC" ser Lunar Lake ut att faktiskt kunna leverera något riktigt bra!

Sen bara för att sätta allt i relation till dominanten på marknaden: ett 4090 har 660 TOPS i INT8...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Och för att vara lite mer positiv då: Battlemage ser ju ut att bli riktigt bra, framförallt i kontext av "AI PC"!

Givet att Qualcomm inte nämnt sin GPU alls i kontext av AI kan man gissa att den nog inte är speciellt stark på det ställd mot deras 45 TOPS NPU. Positiva är ändå att det redan finns programvara/drivers för att använda CPU, GPU och NPU på den plattformen.

AMD pratade väldigt lite om GPU-delen när de presterande Strix Point, men de har listat kapacitet på produktsidan. GPU-delen tillför 30 TOPS till de 50 TOPS man har i NPU (totalt 80 TOPS).

En av nyheterna i Battlemage över iGPU Arc är att man lagt till XMX-stöd som ger i sammanhanget en rätt rejäl boost på 67 TOPS (totalt 115 TOPS)

https://images.anandtech.com/doci/21425/Intel_Tech%20Tour%20TW_Xe2%20and%20Lunar%20Lakes%20GPU-26.png

Så totalt sett ser det ut som Lunar Lake kommer vara den starkaste Windows-baserade "AI PC" i höst. Ovanpå det har Intel sen tidigare väldigt bra stöd för både NPU och GPU (i.o.f.s även bra stöd för AVX-VNNI) till PyTorch/Tensorflow i ramverk som är helt öppna.

Då den diskussionen var uppe tidigare: i fallet Intel så får man tydlige bättre prestanda med INT4 över INT8, i alla fall på GPU (TOPS refererar till INT8)

https://www.servethehome.com/wp-content/uploads/2022/03/Intel-Xe-Core-XMX-Matrix-Engine-1.jpg

En annan sak som varit uppe är hur jämförbar "TOPS" siffrorna är. Det finns fortfarande skillnader i detaljer, men som jag förstått det ska alla nu använda sig av INT8.

Att Apple haft lite "udda" beteende kan också ha en rimlig teknisk förklaring: deras NPU stödjer (i alla fall upp till och med M3) bara FP16 så om man kör INT8 så konverterades det till FP16 internt. Så man får ingen förbättring där av att köra lägre än FP16. 38 TOPS FP16 är då riktigt bra, men ändrar inte att man "bara" får 38 TOPS (på M4, 18 TOPS i M3) när man kör INT8.

Så för den som verkligen är ute efter en "Copilot AI PC" ser Lunar Lake ut att faktiskt kunna leverera något riktigt bra!

Sen bara för att sätta allt i relation till dominanten på marknaden: ett 4090 har 660 TOPS i INT8...

Och då är frågan jag har här: Hur kommer skillnaden mellan exempelvis 80 TOPS kontra 115 TOPS manifesteras i verkligheten? Bättre resultat av AI:n eller snabbare resultat av AI:n? Alltså rent krasst, vad kommer en användare känna är bättre i en Lunar Lake-baserad Ultrabook kontra en med Strix Point - allt annat lika?

Sedan kanske man inte vill att GPU aktiveras för Copilot+ i något av fallen när det körs på batteri, men det är en helt annan diskussion än min fråga.

Permalänk
Medlem
Skrivet av Novdid:

Och då är frågan jag har här: Hur kommer skillnaden mellan exempelvis 80 TOPS kontra 115 TOPS manifesteras i verkligheten? Bättre resultat av AI:n eller snabbare resultat av AI:n? Alltså rent krasst, vad kommer en användare känna är bättre i en Lunar Lake-baserad Ultrabook kontra en med Strix Point - allt annat lika?

Sedan kanske man inte vill att GPU aktiveras för Copilot+ i något av fallen när det körs på batteri, men det är en helt annan diskussion än min fråga.

Tittar man på "inference" i en LLM. Hur snabbt den genererar svar av ord (tokens) så är prestandan oerhört påverkad av minnesbandbredd. Och rent generellt får man lägre kvalitet på svaren om man formatet har sämre precision.
Men bättre precision, t.ex FP16 vs INT4 gör att det behöver behandlas mer data och därför kräver mer total mängd minne samt bandbredd.

Så det kommer till stor del handla om hur man använder något och till vad.
Rejälare grafikkort har så oerhört mycket mer prestanda än de där NPUerna till exempel, men drar oerhört mycket mer ström att använda GPUerna.

Så man kan tänka sig att NPUerna kommer driva små enkla modeller utan hög precision och då kanske inte TOPS spelar så stor roll när man nått en viss tröskel av hur stora modellerna kan vara. Man kan se det för grafikkort där Nvidias konsumentkort som 4090 hålls tillbaka av för lite VRAM. Medan Apples Ultra-cpuer som har VRAM/RAM hålls tillbaka i många lägen av minnesbandbredden istället.

TOPS är imo ett oerhört kasst mätvärde. Bättre vore att ha någon form av real world benchmark istället.

Permalänk
Datavetare
Skrivet av Novdid:

Och då är frågan jag har här: Hur kommer skillnaden mellan exempelvis 80 TOPS kontra 115 TOPS manifesteras i verkligheten? Bättre resultat av AI:n eller snabbare resultat av AI:n? Alltså rent krasst, vad kommer en användare känna är bättre i en Lunar Lake-baserad Ultrabook kontra en med Strix Point - allt annat lika?

Sedan kanske man inte vill att GPU aktiveras för Copilot+ i något av fallen när det körs på batteri, men det är en helt annan diskussion än min fråga.

Egentligen är det inte helt relevant att jämföra summan av TOPS. Vad man kan göra med NPU är inte helt jämförbart vad som är möjligt med GPU/CPU.

NPU kan bara användas för inference, den har också rätt mycket restriktioner kring vilka dataformat som kan användas. NPU är bara vettig för att använda färdiga modeller och modellerna behöver formateras på ett specifikt sätt. Ovanpå det är det typiskt så att man kör "komprimerade" (quantized) modeller (är därför INT8 fungerar, man "komprimerar" FP32 modell till INT8).

iGPUer är egentligen inte jättemycket sämre än NPU sett till perf/W, även om den är sämre. Men en iGPU används ju till mycket annat, så finns orsaker till varför man kanske inte vill använda GPU till AI.

Fördelen med GPU är att den stödjer långt fler format och framförallt kan den även användas till träning av modeller (relevant för utvecklare, men inte kanske inte så relevant för slutanvändare).

Så en mer relevant jämförelse är nog: Lunar Lake, Strix Point och Snapdragon X har ur alla praktiska hänseenden samma råprestanda via NPU. 48, 50 och 45 TOPS är ur alla praktiska hänseende samma sak, det lär vara större varians från saker som kvalité på programvara.

Och för Intels del verkar de ha fördelen att just nu ha bäst stöd via programvara. De stödjer flest programvaror, har flest LLMs och andra modeller färdigpakterade för deras NPU etc. Om något har Nvidia visat att i slutändan är det programvara som avgör.

Om man behöver använda en "thin-and-light" laptop som utvecklare verkar ju Battlemage iGPU vara en trevlig bekantskap. Som @Sidde nämner kan det lätt bli flaskhals mot RAM, men så länge som man är beräkningsbegränsad (vilket man absolut kan vara, beror mycket på hur modellen ser ut) så skalar det normalt väldigt väl med "rå beräkningskraft".

Som "vanlig" användare kan man nog vilja "offra" GPUn till LLMs i vissa lägen förutsatt att den presterar bättre än NPU, med Lunar Lake har man då möjlighet till ~40 % högre prestanda om man kör på iGPU i stället för NPU.

Som utvecklare kan det också vara trevligt att ha 67 TOPS ihop med upp till 32 GB "VRAM" i en laptop. Visst är M3 Max långt snabbare och kan ha upp till 128 GB, men är också en klart högre prislapp (en 128 GB M3 Max startar väl på runt 60k).

Nu vet vi inte hur bra/dålig Qualcomms GPU är till detta, men givet att de inte alls nämnt den kan man nog utgå från att den, likt iGPU RDNA3.5, saknar "tensor-cores" (vilket är vad XMX är i Battlemage) och "TOPS" i den GPUn är rimligen i 20-30 TOPS nivån.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av McMillan:

@Yoshman
Börjar bli tröttsamt med alla sågningar av AMD/Intel/x86/x64 och hyllningar av Apple/ARM.
Kanske bara är jag...

Skrivet av Yoshman:

Kan glädja dig med att jag tror inte att det bara är du!

Måste då flika in att det absolut inte är jag!

Hur kan det vara tröttsamt att diskutera fördelar och nackdelar med olika processorer i en tråd som denna?

Jag vill diskutera ocensurerat och rakt om tekniken i sig. Jag var eld och lågor när AMD släppte Zen och när intel släppte core2duo. Nu är det ARM-tillverkarna som imponerar, det kan blir Intel eller AMD nästa gång.

Om man tycker det är tråkigt att AMD och Intel ligger efter just nu är det kanske läge att ta en paus från den här sortens trådar en stund?
När och om AMD och Intel slår tillbaka med ett eget kvantsprång (vilket de ju har gjort många gånger) så är jag övertygad om att @Yoshman kommer hylla och såga rättvist då också.

Det är som det skall vara, flaggviftande hör hemma på en fotbollsplan.

Permalänk
Medlem
Skrivet av Mordekai:

Nej det är ett exempel stora företag köper de flesta datorerna, inget stort företag kommer i den närmsta tiden välja dator efter CPU-arkitektur mer än för att programvaror de använder bara är utvecklade för den.

Det är ju just stora företag som väljer ARM. Energiförbrukningen utgör en märkbar besparing om man har många servrar.

Några av dem har gått så långt att de till och med bygger egna ARM-processorer, Amazon Gravitron och Google Axion till exempel.