Så mycket snabbare är Surface Laptop än Macbook Air M3

Permalänk
Skrivet av 0cool:

det bär rejält emot att betala så mycket för en pryl som måste slängas i sin helhet när ssd'n ger upp.

Hur många procent av enheterna händer det på? Jag är inte statistiskt signifikant, men det är extremt sällsynt att se SSD:er av någorlunda kvalitet ge sig, varken privat eller i serverhallen.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

RS232/RS485 kommer leva kvar väldigt länge, men mycket har ersatt med ethernet. Många har med såna rs232/rs485adaptrar idag.
När det gäller ethernet så har den inte på något sätt blivit ersätt när det gäller konfigurera/programmera hårdvara. Folk icke behov av denna handlar enbart av att de inte programmerar dessa hårdvarotyper. Och att de antagligen överallt sitter med superbra wifianslutningar (lyckostar) eller att de har väldigt låga krav.
Där en sak som kräver bra anslutning är att man fjärrstyr en dator/sever och man vill känna att det känns som man sitter lokalt med den. Många gnäller redan på ethernetlösningarna för detta, andra säger dålig wifi duger.

*edit*
En superstor skillnad med RS232/RS485 och ethernet är att RS232/RS485 är något som de flesta tekniker använder någon gång då och då, en kort period kanske mer. Sedan kan det gå ett par år utan de rör den.
Ethernet, ja den pluggas in hela tiden (ofta indirekt via dockan), för att deras fjärrsamtal, videokonferenser och annat ej ska lagga. Ett nätverk med kanske tusen wifianlutningar blir ofta segt för grundläggande saker, självklart går det bygga bättre wifi. Men ofta är de ej så påkostade. -Angående tusen wifi anslutningar, alla datorer, smarttelefoner, smartklockor och annat.

Tycker du blandar korten lite nu. RS232 är de facto standard för en mängd utrustningar och många som jobbar med hw fysiskt måste alltid vid varje ny installation faktiskt använda det. Alla tekniker jobbar inte exakt med samma hw och beror helt på omständigheter. Ett helt personligt exempel: mina servar i mitt hem har till och med rs232/console bios output och saknar grafikkort. Jag har därför en USB-hubb med 4st donglar för db9-kontaktar ansluten till min Mac studio för jämnan. Men ju behöver bara 1st 10gbe interface för trunken av vlan.

Kontorsarbete med videosamtal etc har ju inget öht som gör att en tekniker sticker ut från random tjänsteman. Wi-Fi fungerar för många saker men det blir i princip en AP per klient om man ska streama sin 4k video. Men underskatta inte trådlösa protokoll. I mitt hem får jag ut över 500mbit över 5g till mobilen till exempel.

Permalänk
Medlem
Skrivet av DUNXIII:

But can it run Linux?

Det kommer att gå att köra linux på, men eftersom det är en helt ny processor måste någon kompilera linux för den nya processorn.
Så det kommer antagligen inte gå från dag ett.

Det största problemet som jag ser är NPU.
CPU och GPU är inget problem för linux, men i dagsläget finns inga linuxprogram som är skrivna för att atnvända NPU.

Jag killgissar att det går att köra de stora linuxdistrona inom ett år.
Däremot kanske AI och LLM för linux som använder NPU kanske dröjer två år.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Jag är för övrigt nyfiken på att de som inte har deras laptop kopplad till ethernet för jämnan, sitter på moderna platser superbra wifi eller om de har superlåga krav?

Har inte ens sladd i stationära, satsar på bra wifi istället. För edge-cases så har jag ethernet adapter med usb-c funkar fin-fint, det är inte hela världen att ha en uppsättning kablar och adaptrar med sig.

Men så är jag killen som hade en Psion5 med hemmabyggda adaptrar för att kunna använda den som VT100 terminal när jag åkte runt till kunder en gång i tiden. Fungerade alldeles utmärkt för att få feldiagnostik och/eller sätta ip-adress på utrustningen så jag kunde fortsätta från någon av kundens datorer.

Visa signatur

Amd o Ps5pro o Apple

Permalänk
Medlem
Skrivet av Dinkefing:

Det är också irrelevant så länge inte Qualcomm visar vilken TDP de kör på.

De gör de indirekt genom att ha bättre batteritid på samma storlek av batteri.

Visa signatur

Meshilicious, Amd 7950X3D, Asus X670E-I ,96 GB DDR5 6000,RTX4090 FE, Crucial 4TB Pcie5 m.2 / Corsiar Pcie4 4TB, Samsung 57" G9

Permalänk
Hedersmedlem
Skrivet av anthra:

Det kommer att gå att köra linux på, men eftersom det är en helt ny processor måste någon kompilera linux för den nya processorn.
Så det kommer antagligen inte gå från dag ett.

Det verkar dock som att Qualcomm ligger steget före och redan har lagt till mycket i linuxkärnan och de säger att de kör Debian.

Skrivet av anthra:

Det största problemet som jag ser är NPU.
CPU och GPU är inget problem för linux, men i dagsläget finns inga linuxprogram som är skrivna för att atnvända NPU.

Även här kan man väl tänka sig att Qualcomm bistår med drivrutiner, och sedan är det väl ingen större skillnad mot Windows?

Permalänk
Medlem
Skrivet av Det Otroliga Åbäket:

Hur många procent av enheterna händer det på? Jag är inte statistiskt signifikant, men det är extremt sällsynt att se SSD:er av någorlunda kvalitet ge sig, varken privat eller i serverhallen.

Enligt backblaze är det ca 1% per år i snitt för deras ssd-diskar, däremot är det vissa modeller med mycket högre procent och andra som har 0%

Men i viss mening kan man ju säga att det är 100% av alla ssd'er om de används länge nog, de har en begränsad mängd writes och är i praktiken en slitdel. Därför tycker jag de skall kunna bytas.

Det kan förstås vara irrelevant i de flesta fall, normalt användande hinner inte hinner döda disken innan hela datorn ändå är kasserad av andra skäl. Men jag ogillar ändå att behöva tänka på det. En mjukvara som - hypotetiskt - uppdaterar 10 gig cache på disk varje timme eller något kan göra hela datorn oanvändbar i förtid, det behöver inte vara så.

Sen är det ju andra fördelar med att kunna byta lagring, man kan ta ut "produktionsdisken" när man vill labba exempelvis.

Hoppas därför de övriga ARM-aktörerna lyckas hålla sig till att lagringen är separat från själva SOC'n även fortsättningsvis.

Permalänk
Hedersmedlem
Skrivet av 0cool:

En mjukvara som - hypotetiskt - uppdaterar 10 gig cache på disk varje timme eller något kan göra hela datorn oanvändbar i förtid, det behöver inte vara så.

Även 10 GB/tim ska inte vara något problem dock. Om vi säger att datorn är på 12 tim/dag så är det 120 GB/dygn; med den takten tar det 5120 dygn eller 14 år att nå 600 TBW. Och många moderna diskar har klart mer (Kingston KC3000 2 TB har 1600 TBW, så den för skulle det ta drygt 37 år; det var den första jag kollade).

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Datavetare
Skrivet av lillaankan_i_dammen:

Angående nätverkskort så är detta som är lite tragisk. Att det är så få som använder deras laptop till tekniska arbeten emot hårdvaror.
Men man får se på den hela skaran konsumenter och sedan fungerar ett par usb nätverkskort ofta bra. De flesta tekniker/elektriker som sysslar med konfiguration/programmering av hårdvara klarar sig inte med ett enda nätverkskort, så även om laptoppen redan har en nätverksport så får de ändå ha en extra usb nätverkskort. Ett nätverkskort för att komma åt nätverket, ett annat för att programmera hårdvaran. Det är omständligt att byta nätverkskabel fram och tillbaka, byte Ip hela tiden och få de slå igenom till all mjukvara som hypervisors.

Men jag håller med att det är mainstream vi går emot. Och vi går samtidigt åt ett håll att allt fler inte bryr sig så mycket om vad för laptop de har. Såklart vikt och klumphet påverkar. Men när de tar upp laptoppen på jobbet hemmet så använder de externa skärmar och tangentbord +mus. Programvaror de kör så är ligger de ofta på en server någon annanstans. Det gör att när det flaskar så är det inte deras lokala dator som flaskar.

Jag är för övrigt nyfiken på att de som inte har deras laptop kopplad till ethernet för jämnan, sitter på moderna platser superbra wifi eller om de har superlåga krav? Med superlåga krav så när man jobbar en dator som man fjärrstyr så vill man få en känsla som om man jobbar lokalt. Inte det att man trycker på en tangent och får

Måste bara fråga: givet att du ofta kommer tillbaka till att "mycket stöds bara på Windows" samt att man behöver Ethernet för konfigurering gissar jag att för dig betyder "tekniska arbeten mot hårdvaror" arbete mot PLC:er. Right?

För mig där "inbyggda system" har likhetstecken med mikrokontrollers på enda sidan och Linux-datorer med olika former av fältbussar på andra sidan blir kraven rätt annorlunda. Inbyggda system har en långt större spännvidd i hur de kan tänkas fungera jämfört med "vanliga datorer".

Moderna microkontrollers har, bortsett från de minsta/enklaste varianterna, nästan alltid en USB/TTL-krets som gör att man kan får information och ladda upp programvara via USB. ESP-kretsarna har blivit extremt populära i alla möjliga former av IoT-applikationer, där går det att ladda upp programvara via USB (default) men också fixa over-the-air uppdateringar via WiFi. Så Ethernet är egentligen helt irrelevant här.

För de lite större systemet används ofta Ethernet för drift. Men då dessa idag nästan uteslutande kör Linux är de ju mer lik vilken headless server som helst när det kommer till hantering av programvara. Även allt fler hemmarouters är ju Linux-baserad. Här kan man använda Ethernet, men fungerar väldigt ofta precis lika bra med Wifi (förutsatt att det finns en AP på nätverket).

Det lilla jag kommit i kontakt med PLCer har det i praktiken handlat om att interagera med redan installerade sådana. Så möjligen behövs Ethernet här, men då de kör TCP/UDP måste det ju rent logiskt fungera lika bra med Wifi.

Finns ingeting som hindrar att man kör flera logiska nät över samma fysiska Ethernet/Wifi-nät. Sen kan det finnas orsaker till varför man inte vill/kan göra det. Oavsett, hårt krav på Ethernet är ett rätt nischat use-case.

Angående stabiliteten: innan Wifi-6 fungerade väl det sådär på stora flygplatser med tusentals klienter. I mer "normal" hemmamiljö borde det vara hur stabilt som helst om man nu inte byggt sitt Wifi-nätverk med APs som består av 5 kr mikrokontrollers från Aliexpress...

Vad det gäller hastighet är den naturligtvis sämre via Wifi än vad som är möjligt via Ethernet. Wifi verkar också vara optimerat så att AP->klient ger högre bandbredd än klient->AP, får så i båda mina Wifi-nätverk i alla fall. Redan med Wifi-5 ligger man på 500 Mbit/s eller mer, med Wifi-6 ökar det med 100-150 Mbit/s. Det mot laptops med 2x2 radio, grabbens stationära med 3x3 radio tar sig över 1 Gbit/s med Wifi-6.

Sen angående att kolla in allt möjligt i en laptop. Vi är på en site för datorentusiaster, för oss är det inte något konstigt att koppla in skärmar, tangentbord, etc. Rätt säker att frugan och dottern aldrig kopplat in något annat än en sladd för att ladda deras mobiler via datorn till deras MacBooks. Innan "Apple-silicon eran" där jag droppade separat stationär kopplade jag inte heller in något mer än möjligen en extern skärm/projektor för att köra presentationer i mina laptops då de just bara användes som laptops (och hade separat stationär).

Men är nog också vanligt att många använder sina bärbara som stationära på jobbet. D.v.s. de är konstant kopplade till skärm, tangentbord, skärm och mus. Fast är det ett problem då det enkelt görs med en kabel via en rätt simpel USB-docka? Rätt mycket så jag idag använder min bärbara när jag jobbar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Elgot:

Det verkar dock som att Qualcomm ligger steget före och redan har lagt till mycket i linuxkärnan och de säger att de kör Debian.

Jupp, det kommer att gå fort, men det kommer inte att fungera från början (som är 18 juni när de nya datorerna släpps).
Med lite tur kanske det fungerar redan till Ubuntu 24.10 / Fedora 41 i oktober.

Skrivet av Elgot:

Även här kan man väl tänka sig att Qualcomm bistår med drivrutiner, och sedan är det väl ingen större skillnad mot Windows?

Här kommer det dock ta längre tid.
Det räcker inte med att dte finns drivrutiner i kärnan, det måste finnas program som använder drivrutinerna.
Vad jag menar är att det antagligen inte räcker att kompilera om AI / LLM för NPU, utan programmen måste även skrivas om - vilket tar längre tid.

Vad jag menar är att Linux redan går att köra på ARM, dock inte Snapdragon Elite, därför komer det gå snabbt att fixa.
Men NPU är en ny processor, därför måste man skriva nya program, vilket tar längre tid.

Permalänk
Skrivet av Yoshman:

Måste bara fråga: givet att du ofta kommer tillbaka till att "mycket stöds bara på Windows" samt att man behöver Ethernet för konfigurering gissar jag att för dig betyder "tekniska arbeten mot hårdvaror" arbete mot PLC:er. Right?

Typ all större styrutrustning oavsett om det är panel, duc, plc för vad som helst. Vanlig styrutrustning som finns i varenda modernt större byggnad, lägenheter som fabrik och på många andra ställen ute i samhället. Undantag där de ej finns är att mindre fordon inte har denna typ av styrningsutrustning utan microkontrollers. Microkontrollers är mest till för kompakta färdiga lösningar där slutägaren ej uppdaterar programkod och skräddarsyr den för sitt behov, självklart finns det undantag på detta.

Skrivet av Yoshman:

Men är nog också vanligt att många använder sina bärbara som stationära på jobbet. D.v.s. de är konstant kopplade till skärm, tangentbord, skärm och mus. Fast är det ett problem då det enkelt görs med en kabel via en rätt simpel USB-docka? Rätt mycket så jag idag använder min bärbara när jag jobbar.

Ja, man kopplar in sin laptop i dockan. Då blir allt inklusive Ethernet inkopplat. Det är när man går in i en tyst rum där det inte finns en docka som man pluggar in ethernet om rummet inte har bra wifi. Jag påstår att det självklart går fixa wifi som duger åt de flesta. Det är dock svårare att få till ett bra wifi på en arbetsplats för mängder av enheter än i hemmet. Detta med att smårummen ska vara ljupdämpande bidrar nog till att wifin ofta blir dålig.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Jag är för övrigt nyfiken på att de som inte har deras laptop kopplad till ethernet för jämnan, sitter på moderna platser superbra wifi eller om de har superlåga krav? Med superlåga krav så när man jobbar en dator som man fjärrstyr så vill man få en känsla som om man jobbar lokalt. Inte det att man trycker på en tangent och får

Tappade du Internet där?

Vet inte vad du menar med superlåga krav, men det var länge sedan jag satt med under 200Mbps trådlöst. Själv är jag inte speciellt begränsad av WiFi på ~500Mbps med en svarstid på 5-15ms.

Har inte kört med ethernet direkt till datorn här sedan 802.11n blev en officiell standard.

Permalänk
Hedersmedlem
Skrivet av anthra:

Jupp, det kommer att gå fort, men det kommer inte att fungera från början (som är 18 juni när de nya datorerna släpps).
Med lite tur kanske det fungerar redan till Ubuntu 24.10 / Fedora 41 i oktober.

Den huvudsakliga poängen var att det verkar redan gå att köra Debian på den, så grovarbetet i kärnan är kanske gjort. Sedan tar det förstås längre tid om man måste invänta nästa version av ett specifikt os och liknande.
Dessutom är det kanske inte bara att installera linux som på en traditionell pc, men det kan ju inte skyllas på linux i sig.

Skrivet av anthra:

Här kommer det dock ta längre tid.
Det räcker inte med att dte finns drivrutiner i kärnan, det måste finnas program som använder drivrutinerna.
Vad jag menar är att det antagligen inte räcker att kompilera om AI / LLM för NPU, utan programmen måste även skrivas om - vilket tar längre tid.

Jo, men det är väl ingen skillnad mot Windows? Någon måste ju skriva program där också, och har man väl gjort det är det troligen inte särskilt besvärligt att göra det för linux också. (Sedan kan det ju tänkas att inte alla applikationer kommer till linux, men så är det ju alltid).

Permalänk
Medlem
Skrivet av Elgot:

Jo, men det är väl ingen skillnad mot Windows? Någon måste ju skriva program där också, och har man väl gjort det är det troligen inte särskilt besvärligt att göra det för linux också. (Sedan kan det ju tänkas att inte alla applikationer kommer till linux, men så är det ju alltid).

Min poäng är att någon redan har skrivit program till Windows, nämligen Microsoft.

Ett av säljargumenten är ju att copilot och recall redan fungerar.

Däremot kommer det nog ta lika lång tid för alla andra icke-microsoftverktyg att bli färdiga oavsett om det är windows eller linux.

Permalänk
Hedersmedlem
Skrivet av anthra:

Min poäng är att någon redan har skrivit program till Windows, nämligen Microsoft.

Ett av säljargumenten är ju att copilot och recall redan fungerar.

Däremot kommer det nog ta lika lång tid för alla andra icke-microsoftverktyg att bli färdiga oavsett om det är windows eller linux.

Jo, men dessa är väl kanske mer att se som windowsfinesser? Det svåra är kanske inte ens att använda npu utan att integrera det vettigt i systemet (om nu Microsoft har lyckats med detta). Med tiden kommer förstås fler och fler applikationer få ai-stöd av olika slag, men det kommer nog dröja ett tag innan det blir oumbärligt både i Windows och linux (och för seriöst ai-arbete är ju inte 45 Tops så imponerade ändå).

Än så länge är det väl knappast ai-prestanda som gör att folk längtar efter dessa datorer?

Permalänk
Medlem
Skrivet av Palme_570:

De gör de indirekt genom att ha bättre batteritid på samma storlek av batteri.

De visar dock bara batteritid för videouppspelning och webbsurfning medan prestandasiffrorna bara är för tunga flertrådade laster. De anger med andra ord bara batteritiden vid låg belastning, vilket säger väldigt lite om hur mycket ström CPUn faktiskt drar eftersom skärmen och övrig hårdvara kommer stå för en stor del av strömförbrukningen i det fallet.

Permalänk
Medlem
Skrivet av Thomas:

Även 10 GB/tim ska inte vara något problem dock. Om vi säger att datorn är på 12 tim/dag så är det 120 GB/dygn; med den takten tar det 5120 dygn eller 14 år att nå 600 TBW. Och många moderna diskar har klart mer (Kingston KC3000 2 TB har 1600 TBW, så den för skulle det ta drygt 37 år; det var den första jag kollade).

Det skulle man kunna tro men det är inte riktigt så det fungerar i praktiken, Tbw-siffrorna är inte direkt översättningsbara till "process som skriver 10 gig per dag" kan man säga.

Tbw förutsätter exempelvis att datat kan fördelas jämnt på cellerna, vilket de inte kan om disken redan har en massa annat data.

Ett annat uttryck för hållbarheten är garantitiden och "disk writes per day". KC3000 förutsätter 0.4 DWPD för att ge en garanti på 5 år, men om du skriver 10 gig i timmen till en disk som nästan är full så kan det leda till en belastning som liknar 12 DWPD på en liten del av disken. Då är den beräknade hållbarheten istället ca 60 dagar.

Detta hanterar SSD'er genom att flytta data (så gott det går, vilket påverkar prestandan också), så disken ryker inte garanterat inom 60 dagar även i det här scenariot. Men summa kardemumma är det ändå värdelöst att inte kunna byta eller uppgradera sin SSD.

Det är helt onödigt att baka in en förbrukningsvara i SOC'n på själva datorn, det är som att bygga bilen så att man behöver byta den när bromsskivorna är utslitna. Det är fel rent principiellt och kan alltså även bli ett problem i praktiken.

Minnet är däremot okej, det är en klar fördel att ha enhetligt minne på processorn, men disken är helt onödig.

Fördelarna för Apple är att disken kommer vara den vanligaste orsaken till att någon skrotar sin macbook air med 128 gig disk om några år och tvingas köpa en ny. Fördelarna för användaren är precis inga alls.

Permalänk
Hedersmedlem
Skrivet av 0cool:

Fördelarna för användaren är precis inga alls.

Det är ju inte säkert att man tycker att det är värt uppoffringen, men man lär väl också spara en hel del plats på att inte behöva kontakter, skruvar, luckor och liknade?

Permalänk
Medlem
Skrivet av walkir:

Visst är inte M3-kretsen riktad till de som har extremt höga krav, men du missar att single core prestandan skalar i takt med antal kärnor.

Förvisso, men det är svårt att se de som letar efter en tunn och lätt dator med mycket hög beräkningskapacitet men som samtidigt har svag grafikdel, begränsat med minne, låg lagringskapacitet och mjukvaror som körs emulerade som en speciellt stor kundgrupp.

Permalänk
Hedersmedlem
Skrivet av 0cool:

Det skulle man kunna tro men det är inte riktigt så det fungerar i praktiken, Tbw-siffrorna är inte direkt översättningsbara till "process som skriver 10 gig per dag" kan man säga.
[...]

Jo, men hur många har 90% fullt på sin SSD som används konstant? Visst går det att nå såna gränser i extremfall, men det jag tror ändå inte det är så stort problem som du får det till. Jag har haft många trasiga hårddiskar, men ingen trasig SSD än så länge; har ett par som jag använt rätt mycket sedan de köptes in typ 2010-2014.

Jag håller absolut med om att det vore bäst att ha utbytbara diskar i alla laptops, men jag tror inte på att SSD:n kommer vara orsaken till att särskilt många datorer pensioneras. Skadade skärmar, dåliga tangentbord, döda batterier, defekta backlights och annat verkar mycket vanligare än utslitna SSDer.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Datavetare
Skrivet av 0cool:

Det skulle man kunna tro men det är inte riktigt så det fungerar i praktiken, Tbw-siffrorna är inte direkt översättningsbara till "process som skriver 10 gig per dag" kan man säga.

Tbw förutsätter exempelvis att datat kan fördelas jämnt på cellerna, vilket de inte kan om disken redan har en massa annat data.

Om inte SSD-kontrollern är totalt vansinnigt designad kommer det i praktiken bli väldigt jämn fördelning av skrivning av cellar. En av huvudfunktionerna för en kontroller är att göra om logisk<->fysisk mappning av lagringen så att cellerna lastas jämt.

Har för mig att detta bollande med vilka celler som skrivs är orsaken till att skrivprestanda kan bli lidande om disken har väldigt lite ledigt utrymme.

Skrivet av 0cool:

Ett annat uttryck för hållbarheten är garantitiden och "disk writes per day". KC3000 förutsätter 0.4 DWPD för att ge en garanti på 5 år, men om du skriver 10 gig i timmen till en disk som nästan är full så kan det leda till en belastning som liknar 12 DWPD på en liten del av disken. Då är den beräknade hållbarheten istället ca 60 dagar.

Detta hanterar SSD'er genom att flytta data (så gott det går, vilket påverkar prestandan också), så disken ryker inte garanterat inom 60 dagar även i det här scenariot. Men summa kardemumma är det ändå värdelöst att inte kunna byta eller uppgradera sin SSD.

Det är helt onödigt att baka in en förbrukningsvara i SOC'n på själva datorn, det är som att bygga bilen så att man behöver byta den när bromsskivorna är utslitna. Det är fel rent principiellt och kan alltså även bli ett problem i praktiken.

Minnet är däremot okej, det är en klar fördel att ha enhetligt minne på processorn, men disken är helt onödig.

Fördelarna för Apple är att disken kommer vara den vanligaste orsaken till att någon skrotar sin macbook air med 128 gig disk om några år och tvingas köpa en ny. Fördelarna för användaren är precis inga alls.

Gjorde misstaget att inte öka storleken på disken på min M1 MacMini. Lite var det en orsak att jag i det läget var lite skeptisk att "Apple Silicon" skulle vara speciellt bra (så här i efterhand, den datorn är det köp som överraskat mest positivt någonsin för min del).

Använder fortfarande den datorn en del och den var min primära hemmadator från november 2020 till november 2023. Den har använts till surf, programutveckling, den har ett gäng docker-containers, används till bildredigering samt enklare spel. Har i.o.f.s. en 1 TB SDD disk via USB3 kopplad till den, men den interna 256 GB disken används av de flesta program samt systemet.

Den står på 24/7 så den går att nå via SSH.

Kollade precis disken SMART-status, har använt 5 % skrivcyklerna så här långt. Tror disken med råge kommer överleva datorn!

M3 Max laptop:en som tog över som primär dator november 2023 (och där körs betydligt tyngre saker, den kör Windows 11 via Parallell desktop etc). Där står det att 0 % av skrivcyklerna använts, så minder än 0,5 % så här lång (är en 2 TB disk).

Första SSD-disken jag köpte (har för mig att det var början av 2009), en Intel X25 160 GB, lever fortfarande (gav den till svärfarsan som kör den i sin surfdator).

Det skrivet: även om disken med råge kommer hålla datorns livslängd ut går det inte att komma ifrån att Apple tar ohemult mycket för uppgradering av SSD och RAM uppgraderingar. Så klart positivt att vissa Snapdragon X Elite datorer verkar ha M.2 kontakt.

Att RAM är fastlödat tycker man få ta då det finns klara tekniska fördelar med LP-DDR5X/LP-DDR6 över "vanliga" DDR5 moduler

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hedersmedlem
Skrivet av hakro807:

Förvisso, men det är svårt att se de som letar efter en tunn och lätt dator med mycket hög beräkningskapacitet men som samtidigt har svag grafikdel, begränsat med minne, låg lagringskapacitet och mjukvaror som körs emulerade som en speciellt stor kundgrupp.

Är det inte tvärt om nästan vad alla vill ha? Även om man inte gör annat än surfar är det något som dessa processorer är överlägsna på (javascript-prestanda dvs.).

Permalänk
Medlem
Skrivet av Thomas:

Jo, men hur många har 90% fullt på sin SSD som används konstant? Visst går det att nå såna gränser i extremfall, men det jag tror ändå inte det är så stort problem som du får det till.

Att ha 90% fullt på en 128 eller 256gigs macbook lär inte vara ovanligt gissar jag. De som köper nytt och byter inom 5 år lär inte märka något det är sant, i den meningen är det inget stort problem. Större för den som köper begagnat och ännu större för den om inte har råd att byta dator bara för att disken ryker förstås.

För mig personligen är det ett problem från dag 1. Min M1-macbook är den enda datorn jag haft där jag ens funderar på hur full disken är! För alla andra datorer tänker jag "tomt utrymme är slösat utrymme", på macbooken är det istället tvärsom, den måste till varje pris hållas så tom som möjligt. Varje stor fil som sparas känns som att röka en ofiltrerad cigarett.

Jag gillar MacOS men om inte det finns macar med bytbara diskar när min M1a ger upp (vilket den kommer göra pga trasig disk innan något annat går sönder) så är detta min sista mac.

Permalänk
Medlem
Skrivet av Yoshman:

Om inte SSD-kontrollern är totalt vansinnigt designad kommer det i praktiken bli väldigt jämn fördelning av skrivning av cellar. En av huvudfunktionerna för en kontroller är att göra om logisk<->fysisk mappning av lagringen så att cellerna lastas jämt.

Har för mig att detta bollande med vilka celler som skrivs är orsaken till att skrivprestanda kan bli lidande om disken har väldigt lite ledigt utrymme.

Det är min bild av det också, prestandan blir lidande eftersom ssd'n måste flytta befintligt data när det är hög aktivitet på det kvarvarande lediga utrymmet. Detta i sig orsakar alltså högre writes än det datat man faktiskt vill spara, och även den mekanismen är också till syvende och sist en avvägning. När disken börjar bli full offras leveling för att inte prestandan skall bli obefintlig och då blir det inte jämn fördelning.

Brasklapp att det händer mycket på teknikfronten och jag fördjupade mig i det för några år sedan.

Skrivet av Yoshman:

Gjorde misstaget att inte öka storleken på disken på min M1 MacMini. Lite var det en orsak att jag i det läget var lite skeptisk att "Apple Silicon" skulle vara speciellt bra (så här i efterhand, den datorn är det köp som överraskat mest positivt någonsin för min del).

Använder fortfarande den datorn en del och den var min primära hemmadator från november 2020 till november 2023. Den har använts till surf, programutveckling, den har ett gäng docker-containers, används till bildredigering samt enklare spel. Har i.o.f.s. en 1 TB SDD disk via USB3 kopplad till den, men den interna 256 GB disken används av de flesta program samt systemet.

Den står på 24/7 så den går att nå via SSH.

Kollade precis disken SMART-status, har använt 5 % skrivcyklerna så här långt. Tror disken med råge kommer överleva datorn!

Någon som vet exakt hur det funkar får gärna rätta mig här men jag har uppfattningen att om du utnyttjade säg 120 av de 256 och därmed var under 50% kapacitet så kunde de 5% skrivcyklerna kanske varit 50% om du hade haft en mini med 128 gig istället och därmed utnyttjade 90+% av disken.

Här borde jag lätt köra ett test genom att fylla min M1'a till 90% och köra en loop som fyller återstående utrymme i en vecka och kolla procent-deltat - men det känns lite som att kolla om det gör ont att hålla handen i en låga. 🤪

Skrivet av Yoshman:

M3 Max laptop:en som tog över som primär dator november 2023 (och där körs betydligt tyngre saker, den kör Windows 11 via Parallell desktop etc). Där står det att 0 % av skrivcyklerna använts, så minder än 0,5 % så här lång (är en 2 TB disk).

Jag tror att den avgörande skillnaden inte är arbetsbelastningen men hur stor procent av disken som utnyttjas av de 2tb jämfört med minin's 256.

Det vore fantastiskt om någon kunde förklara att detta inte alls gäller längre, så jag kan sluta andas genom tänderna när jag bygger om mina previews i lightroom på macbooken

Skrivet av Yoshman:

Så klart positivt att vissa Snapdragon X Elite datorer verkar ha M.2 kontakt.

Att RAM är fastlödat tycker man få ta då det finns klara tekniska fördelar med LP-DDR5X/LP-DDR6 över "vanliga" DDR5 moduler

Håller helt med om detta. M2-lagring tror jag inte är några problem, NAND-cellerna sätter gränsen så nvme-bandbredden borde kunna hålla jämna steg prestandamässigt. Och jag hoppas också att någon kan komma på en lösning där separata minnesmoduler fortfarande kan vara gångbara även med unified-minne, åtminstone på desktops. Uppgraderbart GPU-minne på köpet!

Permalänk
Datavetare
Skrivet av 0cool:

Det är min bild av det också, prestandan blir lidande eftersom ssd'n måste flytta befintligt data när det är hög aktivitet på det kvarvarande lediga utrymmet. Detta i sig orsakar alltså högre writes än det datat man faktiskt vill spara, och även den mekanismen är också till syvende och sist en avvägning. När disken börjar bli full offras leveling för att inte prestandan skall bli obefintlig och då blir det inte jämn fördelning.

Brasklapp att det händer mycket på teknikfronten och jag fördjupade mig i det för några år sedan.

Moderna SSD:er har alltid mer fysiskt utrymme än vad de presenterar uppåt. Detta har flera fördelar, en uppenbar är att dåliga celler automatiskt kan ersättas.

Men en annan väldigt viktig orsak i kontext av ovan är att man då slipper hamna i ett läge där SSD-kontroller får lägga väldigt mycket resurser på att lura ut en bra strategi för hur skrivningar från hosten ska mappas fysiskt till flash-celler.

Så även om det fortfarande blir en prestandaminskning av att köra med en väldigt fullpackad disk, är den typiskt mindre idag jämfört med SSDs tidiga dagar.

Skrivet av 0cool:

Någon som vet exakt hur det funkar får gärna rätta mig här men jag har uppfattningen att om du utnyttjade säg 120 av de 256 och därmed var under 50% kapacitet så kunde de 5% skrivcyklerna kanske varit 50% om du hade haft en mini med 128 gig istället och därmed utnyttjade 90+% av disken.

Hittade information som sade att de tidiga och med dagens mått usla SSD-kontrollers kunde få en "write amplification factor" på >=2,5. D.v.s. en skrivning av 1 GB av data resulterade i praktiken i 2,5 GB skrivning mot flash. Med en sådan nivå skulle 5 % då istället varit 25 %.

Och värt att ha med sig här: givet att de flesta diskar verkar ha 512 byte logisk block storlek och NAND-celler har typiskt 4096 byte blockstorlek ger det en "worst-case amplification factor" på 8.

I praktiken, bl.a. tack vare mer fysiskt utrymme än vad som presenteras, verkar dagens diskar inte få något större problem med "write amplification". Inte ens om man ligger på 90 %.

För egen del så räckete ändå 256 GB som systemdisk ihop med 1 TB extern disk, men ligger typiskt då på 75-90 % diskanvändning. Det som suger är att OS-uppdateringar kan vara rätt stora och ligger man på ~90 % med en 256 GB disk går de ibland inte att göra, så det är orsaken till att 512 GB hade varit så mycket bättre. Så det är "trots" hög nyttjandegrad det ändå bara tagit 5 %.

Skrivet av 0cool:

Här borde jag lätt köra ett test genom att fylla min M1'a till 90% och köra en loop som fyller återstående utrymme i en vecka och kolla procent-deltat - men det känns lite som att kolla om det gör ont att hålla handen i en låga. 🤪

Jag är rätt hundra på att det enda du skulle se i det fallet är en "write amplification factor" på väldigt nära 1,0. Är rätt trivialt för kontrollern att optimera det fallet då 90 % av data är rätt statiskt och den har mer än 10 % att jobba med rent fysiskt på det kvarvarande.

Skrivet av 0cool:

Jag tror att den avgörande skillnaden inte är arbetsbelastningen men hur stor procent av disken som utnyttjas av de 2tb jämfört med minin's 256.

Absolut! Och därför är egentligen just kapaciteten den viktigaste faktorn. På min disk med 256 GB där nu 5 % används skulle gissa att en 128 GB disk (om vi nu antar att det ens hade fungerat) hade legat på 10-12 %. Ungefär det dubbla p.g.a. av halva fysiska kapaciteten och en liten ökning p.g.a. en "write amplification factor" strax över 1,0.

Men om man nu faktiskt klarar sig på en mindre kapacitet lär man även ha mindre behov av lagring. Så i praktiken skulle en dator med 128 GB disk med ett liknande användarmönster jag haft ligga mer i 5-7 % nivå (ignorerat att jag inte hade fått plats med allt som måste ligga på systemdisk då, finns saker som inte kan flyttas till extern disk USB på MacOS).

Det som i så fall är en potentiell värre SSD-dödare är att konstant köra en last där aktivt använt RAM ligger strax över mängd fysiskt RAM då det ger en konsekvent ström av läsning/skrivning från swap-space.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Elgot:

Är det inte tvärt om nästan vad alla vill ha? Även om man inte gör annat än surfar är det något som dessa processorer är överlägsna på (javascript-prestanda dvs.).

Fast de innebär för normal användning ett så gigantiskt overkill att huruvida X Elite eller M3 är 10 procent snabbare än den andra är egalt.

Permalänk
Hedersmedlem
Skrivet av hakro807:

Fast de innebär för normal användning ett så gigantiskt overkill att huruvida X Elite eller M3 är 10 procent snabbare än den andra är egalt.

Var och en får förstås avgöra hur mycket pengar de vill lägga, men för den optimala surfupplevelsen är det nog MacBook (och kanske dessa) man vill ha (och i ännu högre grad om man vill vara portabel). Några procent hit eller dit betyder kanske inte så mycket, men om man skall köpa något vill man ju gärna veta hur marknaden ser ut så man kan göra ett välgrundat val.

Permalänk
Medlem
Skrivet av Yoshman:

Det som i så fall är en potentiell värre SSD-dödare är att konstant köra en last där aktivt använt RAM ligger strax över mängd fysiskt RAM då det ger en konsekvent ström av läsning/skrivning från swap-space.

Bra exempel, och det är ju extra bittert att Apple envisas med att sälja laptops - även "pro" för över 23000 kr - med bara 8 gig minne.

Vad som än råkar vara den SSD-dödaren som till slut välter lasset så vet man från dag 1 att en SSD är döende, därför är det IMO orimligt att göra datorer där de inte kan bytas. Men det är som det är och jag bryr mig kanske lite för mycket om det.

Copilot+ kanske blir en väckarklocka till Apple också inte bara Intel och AMD. Det enorma försprånget som Apple haft på laptops är troligen borta, hur ser kunderna då på att betala 23000+ för en burk med 8 gig ram?

Man får 8 gig RAM i en raspberry pi för ca 1000 spänn, den kör också Arm64...

Permalänk
Medlem
Skrivet av 0cool:

Vad som än råkar vara den SSD-dödaren som till slut välter lasset så vet man från dag 1 att en SSD är döende, därför är det IMO orimligt att göra datorer där de inte kan bytas. Men det är som det är och jag bryr mig kanske lite för mycket om det.

Copilot+ kanske blir en väckarklocka till Apple också inte bara Intel och AMD.

SSD och livslängd känns som OCD ärligt talat, för de allra allra flesta kommer ändå vilja sluta använda enheten innan ssd’s livslängd är över.

AI blev en väckarklocka för Apple, absolut att de labbat i det fördolda, men tror ändå det tog dom på sängen. Nu släppte de M4 vad jag gissar i förtid för att inte hamna på efterkälken avseende NPU och det ska bli riktigt intressant vad de presenterar på årets WWDC för de inser förhoppningavis att det är dags att gasa och att lägga ner Apple Car och omfördela pengarna mot AI talar för att det är exakt vad de gör.

Visa signatur

Amd o Ps5pro o Apple

Permalänk
Hedersmedlem
Skrivet av 0cool:

Copilot+ kanske blir en väckarklocka till Apple också inte bara Intel och AMD. Det enorma försprånget som Apple haft på laptops är troligen borta, hur ser kunderna då på att betala 23000+ för en burk med 8 gig ram?

Jag tror inte att särskilt många bryr sig om det (så länge allt flyter på med 8 GB), men för att kunna köra alla ai-modeller man rimligen kommer stoppa in i OS X krävs kanske mer minne.