Testpilot: MSI Titan 18 HX A14VIG – så fläskigt det kan bli?

Permalänk
Melding Plague

Testpilot: MSI Titan 18 HX A14VIG – så fläskigt det kan bli?

Testpiloten Björn Endre tar sig an en extrem bärbar speldator som varken kompromissar med de högpresterande komponenterna, prestandan eller priset.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Första gången jag ser en konsument PC-laptop med Apple priser.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Skrivet av AlbinLoan:

Första gången jag ser en konsument PC-laptop med Apple priser.

Va? Acers värsting med välvd skärm gick väll för närmare 100k med max specs, så 66k för en laptop med absolut bästa specsen är inte så farligt.

Visa signatur

here we go!

Permalänk
Medlem

Länken vi fick :

https://www.prisjakt.nu/produkt.php?ref=203&p=13290086

Finns ännu inte i någon Butik ?!

Permalänk
Medlem
Skrivet av PeterP57:

Länken vi fick :

https://www.prisjakt.nu/produkt.php?ref=203&p=13290086

Finns ännu inte i någon Butik ?!

https://www.inet.se/produkt/1975539/msi-titan18-hx-i9-64gb-2t...

Permalänk
Medlem

Tackar..

Permalänk
Skrivet av norrby89:

Va? Acers värsting med välvd skärm gick väll för närmare 100k med max specs, så 66k för en laptop med absolut bästa specsen är inte så farligt.

Helt missat den Acern.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Skrivet av AlbinLoan:

Helt missat den Acern.

Ja men brukar vara ganska standard med dom absolut värsta modellerna, kollar man bara på cpu/gpu så sure 40-50 brukar vara dom billigare men så fort det ska vara en riktigt bra skärm, chassi osv så springer priset fort iväg =o

Razer och även asus strix ligger även dom uppe runt samma prisklass med absolut värsta konfigurationerns.

Visa signatur

here we go!

Permalänk
Datavetare

För ungefär samma pengar får man en Mac med lika mycket RAM och lika stor disk. Kollade lite CPU-benchmarks, 14900HX hänger ju med (fast den drar 3-4 gånger mer...), men M3 Max är i de flesta fall snabbare både i ST och MT (framförallt kompilering vilket lär vara en sak den här typen av maskiner används till).

Kan tyckas vara förvånande att fördelen i CPU-prestanda faktiskt är något större i MT då 14900HX har totalt 24 kärnor och 32 trådar mot 16 kärnor och 16 trådar hos M3. Men MT är ett område där ARM64 specifikt har fördelar mot x86_64, det på ett sätt som bara kan fixas för den senare genom att paja bakåtkompatibilitet.

GPU-mässigt råder det inget tvivel om att RTX 4090 Laptop är snabbare, GPUn i M3 Max ligger mellan 4070 och 4080 i prestanda. Ävenom Apple också här leder i perf/W, är fördelen är inte alls lika stor som på CPU sidan. GPUn i M3 Max ha uppmäts ha peak-effekt på ~50 W. 4090 ligger på 175 W, 4080 på 150 W och 4070 på 115 W.

Men en annan sak som gör en sådan här produkt värd priset är AI-hysterin. Nvidia är ledande med CUDA, men den som är överlägset närmast Nvidia i programvarustöd just nu är Apple. Alla de populära ramverken för AI/ML har "native" stöd för MacOS. Ovanpå det har AI/ML-stödet för ARM64 förbättrats väldigt snabbt då både Apple och Nvidia hjälps åt då Nvidias egen serverplattform använder Arm Neoverse V2 CPU-kärnor.

4090 är utan tvekan snabbare än M3 Max, men så fort man börjar ge sig på LLMs (vilket lär vara där hysterin är som störst just nu) eller "bara" har fall som mår bra av stora dataset (vilket rätt snabbt blir fallet så fort det blir lite mer komplex) har M3 Max en enorm fördel i att den har i praktiken ~100 GB VRAM tillgänglig mot 16 GB för 4080/4090.

Så just AI/ML är nog killer-featurn för M3 just nu och det som enklast kan motivera 70k för en bärbar. De andra möjligheterna att ens kunna jobba med så stora dataset är CPU, med långt sämre prestanda, eller datacenter GPUer som startar norr om 100k...

Ett snabbtest med LM Studio på Acer-datorn hade var spännande. GPU-mässigt borde det AMD testade här ge >60 tok/s med GPU, ingen aning var CPU-delen kan tänkas hamna. Det är ändå ett fullt rimligt use-case för den här typen av dator.

Ett test kräver
LM Studio och denna modell. Söker man efter "mistral-7b-finetuned-orca-dpo-v2-Mistral-7B-Instruct-v0.2-slerp-GGUF" i LM Studio kommer rätt modell upp, ska vara den som är 5,94 GB för att testa de som testas i listan jag postade här (så resultatet kan sättas i relation till något).

Varje gång man ställer en fråga visa prestanda-statistik längst ned. En prompt jag sett folk använda som "benchmark" då det ger ett rätt långt svar är "Tell me about Mars". Egen testning visar att tok/s är rätt konstant oavsett vad frågan handlar om.

Nu finns det säker någon som köper en sådana här laptop som gaming-maskin, men det kanske inte är vad enheten är optimerad för...

Givet att AI/ML i väldigt stor utsträckning körs på Linux (ett klagomål på både PyTorch och TensorFlow är att samma HW presterar bättre under Linux jämfört med Windows, framförallt GPU-accelerering med CUDA) vore det spännande att veta hur bra/dåligt Linux stödet är på den här maskinen. Givet att AI/ML är en av nog rätt få saker som kan motivera inköp av den här typ av bärbara vore det kul med ett snabbtest av t.ex. Ubuntu. Se att det i alla fall bootar, all HW hittas och fungerar + något snabbtest, allt detta kan göras från en USB-sticka/disk utan att röra Windows-installationen.

Även Blender uppvisar bättre prestanda under Linux, är inget jag personligen bryr mig speciellt mycket i men skulle kunna användas som snabbtest av att GPU/CUDA fungerar.

Skrivet av AlbinLoan:

Första gången jag ser en konsument PC-laptop med Apple priser.

Tycker det är precis vad man brukar se, om något ligger just denna dator rätt bra i pris mot Apple då det faktiskt oftare är så att Windows-laptops tenderar bli dyrare än Mac:arna om de på något sätt är jämförbara i kvalité och prestanda.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Givet att AI/ML i väldigt stor utsträckning körs på Linux (ett klagomål på både PyTorch och TensorFlow är att samma HW presterar bättre under Linux jämfört med Windows, framförallt GPU-accelerering med CUDA) vore det spännande att veta hur bra/dåligt Linux stödet är på den här maskinen. Givet att AI/ML är en av nog rätt få saker som kan motivera inköp av den här typ av bärbara vore det kul med ett snabbtest av t.ex. Ubuntu. Se att det i alla fall bootar, all HW hittas och fungerar + något snabbtest, allt detta kan göras från en USB-sticka/disk utan att röra Windows-installationen.

Även Blender uppvisar bättre prestanda under Linux, är inget jag personligen bryr mig speciellt mycket i men skulle kunna användas som snabbtest av att GPU/CUDA fungerar.

Givet hur knöligt det kan vara med drivrutiner för Nvidia för Desktop korten hade jag inte vågat köpa en laptop med Nvidia GPU för att jobba i Linux med GPU stöd på den.

Permalänk
Datavetare
Skrivet av takeoninja:

Givet hur knöligt det kan vara med drivrutiner för Nvidia för Desktop korten hade jag inte vågat köpa en laptop med Nvidia GPU för att jobba i Linux med GPU stöd på den.

Nu kan jag absolut tänka mig att det blir strul på en laptop, men det primärt p.g.a. dual-GPU, inte för att det är en Nvidia GPU (vare sig Nvidias eller AMDs drivare är garanterade att fungera i dual-GPU setup på Linux, inte koll på hur det är med Intel iGPU/Intel dGPU kombo).

Har lite svårt att förstå vad folk generellt har för problem med Nvidia GPUer i Linux givet att Nvidia ger officiellt stöd för Linux med deras drivers och det är just Linux man kör i datacenter. Det man får ha lite koll på är att välja en av de ~5 distro som har officiellt stöd om man sätter stabilitet i topp. Kör själva i praktiken alltid Ubuntu, där stöds aktuella LTS-versioner av Nvidia.

Skulle säga att tvärtom är det Nvidia GPU som är enklast att få igång under Linux om man även vill ha fullt HW-stöd och fullt mjukvarustöd.

Det skrivet: har precis testat att köra Windows 11 + WSL2 + CUDA-acceleration under Ubuntu/WSL2 och det fungerar lysande. Även det har officiellt stöd från Nvidia/Microsoft.

Prestanda är väldigt nära "native Linux", känns rätt galet att man kan få 50-100 % bättre prestanda i WSL2 i t.ex. PyTorch jämfört med under Windows. Är trots allt i slutändan Windows-kärnan som hanterar Nvidia GPUn, men så blev det och det är ett helt väntat resultat (både PyTorch och TensorFlow har diskussioner kring varför prestanda under CUDA kan vara så mycket bättre under Linux).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer