Mac Studio är Apples kompakta proffsdator med 20-kärniga M1 Ultra

Permalänk
Medlem
Skrivet av fredl:

Mycket snack men liten verkstad i tråden... Lade en order på en M1 Max med 64 GB/1TB igår som ersättare till min HP Workstation som verkligen sjunger på sista versen. Har hållit liv i den länge med hjälp av uppgraderingar.

Blir en sådan för mig med framöver, med samma uppgraderingar. Känns rimligt med 64Gb och 1TB disk med tanke på att man nog kommer behålla burken 5-7 år. I dom här prisklasserna lär man ju inte byta burk varje år direkt..

Visa signatur

WS: Mac Studio M1 Max | 32 GB | 1TB | Mac OS
WS: Intel i5 12600K | 64 GB DDR4 @3600 Mhz | 2x1TB nvme 2x1TB SSD SATA | Windows 11 & Manjaro Linux
Bärbar: Macbook Pro 14" | M1 Pro | 16GB RAM | 512GB SSD | Mac OS
Servrar: Intel i7 10700K | 64 GB DDR4 @3600Mhz | 3 TB SSD + 22TB HDD | Unraid |
4x Raspberry pi 4b 8Gb | Dietpi |

Permalänk
Skrivet av Xeonist:

Då är den såklart fantastisk för dom som har exakt det behovet, och det är den enda hänsynen man behöver ta. Så man kan bortse från t.ex. hur utveckling/portning av plug-ins ser ut, andra saker som behöver göras i det flödet man har, osv. osv.

Det är fortfarande rätt nischat. Och närmare 100k (ink moms) för en maxad maskin och skärm är ju inte kaffepengar.

Hur många cores den har känns väl väldigt ointressant, det man måste mäta är såklart prestanda/krona.

Beror helt på vilket program du kör. Anandtech kommer att visa detta när de testar M1 Ultra. Många program är dominerade av minneshantering och där är Apple i särklass. Men visst finns det undantag!

Permalänk
Medlem
Skrivet av Levandebild:

Sweclockers - forumet där nästan alla tror att alla datorer är till för att spela med och de som köper in dem sitter och jämför ram-priser så de kan spara några kronor mellan olika stickor...

Håller med om detta. Misstänker att det beror på att man saknar arbetslivserfarenhet? Den absoluta majoriteten av alla datorer tillverkas och säljs som arbetsredskap och inte nöjesredskap.

Permalänk
Medlem

Ingen optisk utgång?

Visa signatur

Dator: 7800x3d | RTX 4090 | 32gb ram | 1tb ssd
Simrig: NLR Elite | Simucube 2 Pro | Ascher F64 V3 | Heusinkveld
Monitorer: Samsung Neo G9 | Alienware AW2723DF
Ljud: Røde NTH-100M | Roland Bridge Cast
Media: Zidoo Z2000 Pro | Apple TV | PS5

Permalänk
Medlem
Skrivet av eFoppa:

Ingen optisk utgång?

Ingår i deras 3,5m utgång. Toslink.

Permalänk
Medlem
Skrivet av nivanson:

Ingår i deras 3,5m utgång. Toslink.

Nja, det står då inte någonstans i specarna vad jag kan se? Apple slutade väl med det på alla nya modeller från cirka 2016 och framåt pga att efterfrågan inte ansågs finnas.

Visa signatur

Mostly Harmless

Permalänk
Medlem
Skrivet av nivanson:

Ingår i deras 3,5m utgång. Toslink.

Skrivet av Mayhem SWE:

Nja, det står då inte någonstans i specarna vad jag kan se? Apple slutade väl med det på alla nya modeller från cirka 2016 och framåt pga att efterfrågan inte ansågs finnas.

Precis, därav min fråga. De pratade om en dator med massa anslutningsmöjligheter, de till och med hade de KEF LSX jag har med i videon. Ändå funkar AirPlay sisådär med de högtalarna imo. Är nästan värt att sälja min MacBook (använder den 99 % på skrivbordet) och skaffa en Studio om jag kan få optisk ut.

Visa signatur

Dator: 7800x3d | RTX 4090 | 32gb ram | 1tb ssd
Simrig: NLR Elite | Simucube 2 Pro | Ascher F64 V3 | Heusinkveld
Monitorer: Samsung Neo G9 | Alienware AW2723DF
Ljud: Røde NTH-100M | Roland Bridge Cast
Media: Zidoo Z2000 Pro | Apple TV | PS5

Permalänk
Medlem
Skrivet av Mayhem SWE:

Nja, det står då inte någonstans i specarna vad jag kan se? Apple slutade väl med det på alla nya modeller från cirka 2016 och framåt pga att efterfrågan inte ansågs finnas.

Tack för rättningen.

Permalänk
Rekordmedlem
Skrivet av eFoppa:

Precis, därav min fråga. De pratade om en dator med massa anslutningsmöjligheter, de till och med hade de KEF LSX jag har med i videon. Ändå funkar AirPlay sisådär med de högtalarna imo. Är nästan värt att sälja min MacBook (använder den 99 % på skrivbordet) och skaffa en Studio om jag kan få optisk ut.

Det finns många usbljudkort som har toslinkutgång och det finns även rena omvandlare men ljudkorten brukar vara billigare eftersom omvandlarna ofta har mer avancerade funktioner likt jittertvätt.
Om inte Apple har hittat på nått underligt med drivrutinsstödet borde de väl funka på de nya Macarna också.
https://www.gear4music.se/sv/Inspelning-and-datorer/Behringer...

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av sniglom:

...
Enligt benchmarken ska Apples GPU vara snabbare än ett RTX 3090 vid en tredjedel av förbrukningen. Det kan så klart röra sig om ett extremt missvisande exempel, det får väl tiden utvisa. Men med 800GB/s mot minnet kan jag tänka mig att integrerad GPU snurrar på ganska bra med.

Nej den är inte snabbare än RTX 3090 - det såg vi redan med M1 Max i Macbook Pro. Tycker absolut apple lyckats bra - nu behöver vi bara bättre mjukvara som utnyttjar all kraft! Jobbar man med videoredigering är detta säkert ett av de bästa alternativen man kan köpa just nu, men för överiga är det nog vettigare att köra en mac mini eller windows PC.

Visa signatur

Samsung 77" S90C QD-OLED || LG OLED 42C2 || Sony 77" A80J OLED || Macbook Pro 16" M1 Max 1TB 32GB || Asus ROG Azoth med Black Ink V2s (205g0) + Asus ROG Harpe ACE

Permalänk
Skrivet av Nem0:

Blev tydligen en Mac Studio M1 ULTRA med två tillhörande skärmar från jobbet, för det har dom "bestämt". Hade hellre fortsatt med windows dator :\. Får se hur länge det tar innan man vänjer sig.

Det lär gå tämligen fort när du upptäcker att det inte är någon delay alls. På någonting du gör.

Dessutom. Om du inte är extrem Windows-nörd så går det att konfa macOS att vara den kanske bästa utvecklarplattformen för en hel drös språk och runtimes därute. Med tanke på att det är BSD-Unix i botten.

Det är en bra kompromiss mellan W10 och Linux kan man säga. De allra flesta (GUI) appar som företag kör finns. Och är man inte nöjd med tex fönsterhantering by default så finns det en uppsjö av appar som fixar det.

Lite avis blir man. Jag skaffade en M1 MacMini för ett år sedan. Är sugen att uppgradera. Mest för att det går. Inte att jag behöver. Såklart

Visa signatur

||Wintel PC|3*Mac mini|Xbox One S|Synology DS918+||

Permalänk
Medlem
Skrivet av Jonteponte:

Det lär gå tämligen fort när du upptäcker att det inte är någon delay alls. På någonting du gör.

Dessutom. Om du inte är extrem Windows-nörd så går det att konfa macOS att vara den kanske bästa utvecklarplattformen för en hel drös språk och runtimes därute. Med tanke på att det är BSD-Unix i botten.

Det är en bra kompromiss mellan W10 och Linux kan man säga. De allra flesta (GUI) appar som företag kör finns. Och är man inte nöjd med tex fönsterhantering by default så finns det en uppsjö av appar som fixar det.

Lite avis blir man. Jag skaffade en M1 MacMini för ett år sedan. Är sugen att uppgradera. Mest för att det går. Inte att jag behöver. Såklart

Jag har precis beställt en, endast för att jag villhöver en Mac Studio och absolut inte för att jag behöver en Mac Studio 🥳

Visa signatur

Flest datorer när han dör vinner...

Permalänk
Medlem
Skrivet av ex-con:

Jag har precis beställt en, endast för att jag villhöver en Mac Studio och absolut inte för att jag behöver en Mac Studio 🥳

Såg i din sig att du har en rätt fin Apple-park redan. Ska Studio ersätta någon av dem eller blir det ytterligare? Hade kanske provat en M1 Mini om den hade fixat mer än 16GB ram.

Permalänk
Skrivet av eFoppa:

Precis, därav min fråga. De pratade om en dator med massa anslutningsmöjligheter, de till och med hade de KEF LSX jag har med i videon. Ändå funkar AirPlay sisådär med de högtalarna imo. Är nästan värt att sälja min MacBook (använder den 99 % på skrivbordet) och skaffa en Studio om jag kan få optisk ut.

Det är för att airplay är en låst standard och KEF kör sin egen plattform. Rent praktiskt hadde de bara kunnat ha stödjat vanlig standard ljud överföring. Man får bara hoppas de kan stödja AV1 också nu när Apple också är med eller de kommer låsa in sig på h265 är det endaste som går att använda.

Permalänk
Medlem
Skrivet av sniglom:

Jag är nyfiken på GPU-prestandan.

"For the most graphics-intensive needs, like 3D rendering and complex image processing, M1 Ultra has a 64-core GPU — 8x the size of M1 — delivering faster performance than even the highest-end PC GPU available while using 200 fewer watts of power.[3]"

https://www.apple.com/newsroom/images/product/mac/standard/Apple-M1-Ultra-gpu-performance-01_big.jpg.large.jpg
Notera "highest-end discrete GPU" i bilden och det finstilta.

Läser man sedan vad [3] betyder så står det så här:
[3] Testing was conducted by Apple in February 2022 using preproduction Mac Studio systems with Apple M1 Max, 10-core CPU and 32-core GPU, and preproduction Mac Studio systems with Apple M1 Ultra, 20-core CPU and 64-core GPU. Performance was measured using select industry‑standard benchmarks. Popular discrete GPU performance data tested from Core i9-12900K with DDR5 memory and GeForce RTX 3060 Ti. Highest-end discrete GPU performance data tested from Core i9-12900K with DDR5 memory and GeForce RTX 3090. Performance tests are conducted using specific computer systems and reflect the approximate performance of Mac Studio.

Enligt benchmarken ska Apples GPU vara snabbare än ett RTX 3090 vid en tredjedel av förbrukningen. Det kan så klart röra sig om ett extremt missvisande exempel, det får väl tiden utvisa. Men med 800GB/s mot minnet kan jag tänka mig att integrerad GPU snurrar på ganska bra med.

Apple var tramsigt selektiva med M1 Max benchmarks på GPU-biten, individuella testare hittade väl endast ett enda benchmark som ens var i närheten av vad Apple påstod och då mot mobila kretsar. Jag vet inte varför dom känner att dom måste salta så enormt på just GPU-biten, dom har ju sin media engine och GPU:n är bra nog för resten för målgruppen.
Att M1 Ultra skulle komma ens nära ett desktop 3090 när M1 Max i 9 av 10 fall presterar som ett 3050Ti Mobile är väldigt osannolikt

Permalänk
Medlem
Skrivet av fredl:

Såg i din sig att du har en rätt fin Apple-park redan. Ska Studio ersätta någon av dem eller blir det ytterligare? Hade kanske provat en M1 Mini om den hade fixat mer än 16GB ram.

Den får nog ersätta min Mac Mini, som då troligtvis flyttas till tv-bänken…

Min Apple-park skulle jag nog beskriva som ett missbruk 😂, men jag brukar ge bort dom efterhand till min gamla mor eller mina syskonbarn.

I dagsläget ser det ut så här:
iMac 27”, köksdator,
iMac 24”, sovrumsdator
Mac mini + 43”-skäm i vardagsrummet
Apple TV + 75”
MacBook Air M1 på nedanvåningen
MacBook Pro på ovanvåningen (agerar även som arbetsdator när jag kör program som kräver Windows)
iPad Air som mobil toaskärm 😬

Visa signatur

Flest datorer när han dör vinner...

Permalänk
Medlem
Skrivet av Buddaz112:

Beror väl på om vad nästa AMD/Intel server/spel inriktade chip gör. Tror ej de ligger på stranden och latar sig.

Kommer ta många år, Intel gen 12 har en minnesbandbredd av 88 GB/s med DDR5-6200 CL36, medan värstingmodellen av Apples nya dator klarar 800 GB/s.

Permalänk
Datavetare
Skrivet av tozz:

Apple var tramsigt selektiva med M1 Max benchmarks på GPU-biten, individuella testare hittade väl endast ett enda benchmark som ens var i närheten av vad Apple påstod och då mot mobila kretsar. Jag vet inte varför dom känner att dom måste salta så enormt på just GPU-biten, dom har ju sin media engine och GPU:n är bra nog för resten för målgruppen.
Att M1 Ultra skulle komma ens nära ett desktop 3090 när M1 Max i 9 av 10 fall presterar som ett 3050Ti Mobile är väldigt osannolikt

Det jag inte riktigt gillade med M1 Pro/Max är att de kretsarna verkar så väldigt skräddarsydda för relativt smala områden. Är ju superbra om man råkar tillhöra målgruppen, vilket är "content creators med fokus på bild/video". (Blev ju ingen 13" M2 bärbar, så fick "nöja" mig med en M1 Pro som för programmering i praktiken är identisk med M1 Max prestandamässigt).

Håller däremot inte med om att M1 Max presterar som ett 3060 i 9 fall av 10. Det må vara utfallet för många "reviews" då majoriteten av testerna är speltester och där är M1 Max närmare just mobila 3060. Att det är så kanske inte är så konstigt när man tittar på teoretisk kapacitet för rastrering

Klicka för mer information
Visa mer

kombinerat med att ha i bakhuvudet att spelen man testade kör med "emulering" (är x86_64 binärer) samt att M1-serien är like mobil-GPUer fundamentalt annorlunda än PC-GPUer (tile based rendering vs immediate rendering)

Klicka för mer information

Tile-based rendering pipeline

Immediate mode rendering pipeline

Visa mer

Funktionellt kan båda modellerna göra samma saker, men vad som är optimalt skiljer sig rätt ordentligt på vissa punkter. Som exempel är FSAA i stort sätt "gratis" på HW som bygger på tile-based rendering, medan det är relativt dyrt på immediate-rendering GPUer. Att ha väldigt många trianglar är däremot betydligt billigare för immediate-rendering GPUer än för tile-baser rendering GPUer. Är därför det blir sådan enorm skillnad i relativ prestanda mellan M1 Max och Nvidia 3000-serien beroende på om man tittar på mobil-applikationer (som är optimerad för "tile-based" HW) och traditionella PC-spel (som är optimerade för "mmediate-rendering" HW).

Kollar man på de områden Apple faktiskt fokuserat på står sig redan M1 Max rätt väl mot 3090. Lär ju vara de fallen Apple refererar till även för M1 Ultra. Är naturligtvis i vissa lägen en kombo av GPU+"media engine" som ger denna nivå på prestanda, men ändrar inte att om man håller sig i dessa områden så lär M1 Ultra vara "det bästa pengar kan köpa just nu".

Klicka för mer information
Visa mer
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det jag inte riktigt gillade med M1 Pro/Max är att de kretsarna verkar så väldigt skräddarsydda för relativt smala områden. Är ju superbra om man råkar tillhöra målgruppen, vilket är "content creators med fokus på bild/video". (Blev ju ingen 13" M2 bärbar, så fick "nöja" mig med en M1 Pro som för programmering i praktiken är identisk med M1 Max prestandamässigt).

Håller däremot inte med om att M1 Max presterar som ett 3060 i 9 fall av 10. Det må vara utfallet för många "reviews" då majoriteten av testerna är speltester och där är M1 Max närmare just mobila 3060. Att det är så kanske inte är så konstigt när man tittar på teoretisk kapacitet för rastrering

kombinerat med att ha i bakhuvudet att spelen man testade kör med "emulering" (är x86_64 binärer) samt att M1-serien är like mobil-GPUer fundamentalt annorlunda än PC-GPUer (tile based rendering vs immediate rendering)

Funktionellt kan båda modellerna göra samma saker, men vad som är optimalt skiljer sig rätt ordentligt på vissa punkter. Som exempel är FSAA i stort sätt "gratis" på HW som bygger på tile-based rendering, medan det är relativt dyrt på immediate-rendering GPUer. Att ha väldigt många trianglar är däremot betydligt billigare för immediate-rendering GPUer än för tile-baser rendering GPUer. Är därför det blir sådan enorm skillnad i relativ prestanda mellan M1 Max och Nvidia 3000-serien beroende på om man tittar på mobil-applikationer (som är optimerad för "tile-based" HW) och traditionella PC-spel (som är optimerade för "mmediate-rendering" HW).

Kollar man på de områden Apple faktiskt fokuserat på står sig redan M1 Max rätt väl mot 3090. Lär ju vara de fallen Apple refererar till även för M1 Ultra. Är naturligtvis i vissa lägen en kombo av GPU+"media engine" som ger denna nivå på prestanda, men ändrar inte att om man håller sig i dessa områden så lär M1 Ultra vara "det bästa pengar kan köpa just nu".

Jo men det är ju det jag invänder mot, om allt du gör är video export så absolut, men det gör inte grafen mindre missvisande Att göra blanket statement om ett 3090 (ska vi jämföra CoreML mot CUDA så lär det blir det väldigt tråkigt) är meningslöst (dessutom om dom klockar ner 3090 som dom gjort i grafen).
För övrigt är väl Premiere Pro den sämsta mjukvaran som existerar, DaVinci Resolve är bättre på alla sätt och vis (och även här vinner M1 lätt, apropå benchmarks).

För tydlighetens skull är jag väldigt imponerad av M1(Pro/Max/Ultra) och kommer själv köpa en Studio eller vänta på en M2 Pro Mac mini som ryktena säger är nästa dator. Det är alltså inget anti-Apple det handlar om, tycker bara dom gör sig själv dumma i just detta specifika fallet.

Permalänk
Avstängd

Vad mer skiljer tile-based och immediate rendering?

Finns det en övre gräns för hur detaljrik grafik som går att åstadkomma med tile based, som inte finns med immediate? Det lär ju finnas en anledning att det ena är vanligt på mobiler som i regel har mindre verklighetstrogen grafik. En djupdykning hade vart intressant. Särskilt mtp att om det finns begränsningar med tile based så kan man sluta hoppas på macos som framtida gaming OS med fler titlar.

Permalänk
Datavetare
Skrivet av first:

Vad mer skiljer tile-based och immediate rendering?

Finns det en övre gräns för hur detaljrik grafik som går att åstadkomma med tile based, som inte finns med immediate? Det lär ju finnas en anledning att det ena är vanligt på mobiler som i regel har mindre verklighetstrogen grafik. En djupdykning hade vart intressant. Särskilt mtp att om det finns begränsningar med tile based så kan man sluta hoppas på macos som framtida gaming OS med fler titlar.

Huvudfördelen med tile-based rendering är att det kräver långt mindre bandbredd mot RAM, vilket därmed gör det högst lämpligt för integrerade GPUer, både då det ger bättre perf/W och då CPU+GPU delar på RAM där bandbredden sällan matchar VRAM i dGPUer (M1 Max/Ultra är avvikande här då just bandbredden är i nivå med dGPUer).

Huvudbegränsningen är att rendering av scenen måste ha en hård separation mellan ”allt som sker i model/world-space” och ”allt som sker i screen-space”. Finns en del effekter som kan göras väsentligt billigare på ”immediate rendering” p.g.a. att man inte har en hård barriär mellan dessa två steg:

Shaders på geometrinivå, de som förr kallades ”vertex-shaders” sker typiskt i model/world-space, medan shaders på ”fragment-nivå” (tidigare ”pixel-shaders”).

Funktionellt kan allt göras oavsett modell. Och gissar att den största orsaken till att mobilspel är relativt enkla kommer av att man annars utesluter allt för stor andel av marknaden. En modern IPad/IPhone har ju klart mer rå-kraft än både Switch och även SteamDeck (och även enklaste M1 modellen är ett steg upp från det). Men designade man för senaste 14/15:e generationens IPad/IPhone utesluts en klar majoriteten av marknaden.

Skulle ändå vara spännande att se vad som är möjligt om man enbart siktade på M1-Mac:ar. En sådan titeln skulle med stor sannolikhet vara i nivå med current-gen AMD/Nvidia dGPUer. Även om M1 Max ”bara” når upp till 3050Ti/3060 i spel får man komma ihåg att M1 Ultra har dubbla teoretiska kapaciteten (men dels kommer det inte skala perfekt och dels räcker ”bara” en fördubbling till strax över 3070Ti nivå, inte 3090 nivå)

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av ex-con:

Den får nog ersätta min Mac Mini, som då troligtvis flyttas till tv-bänken…

Min Apple-park skulle jag nog beskriva som ett missbruk 😂, men jag brukar ge bort dom efterhand till min gamla mor eller mina syskonbarn.

I dagsläget ser det ut så här:
iMac 27”, köksdator,
iMac 24”, sovrumsdator
Mac mini + 43”-skäm i vardagsrummet
Apple TV + 75”
MacBook Air M1 på nedanvåningen
MacBook Pro på ovanvåningen (agerar även som arbetsdator när jag kör program som kräver Windows)
iPad Air som mobil toaskärm 😬

Du inser väl att 1 Macbook och 1 iPhone i princip skulle kunna täcka alla de där behoven?

Permalänk
Medlem
Skrivet av Nem0:

Blev tydligen en Mac Studio M1 ULTRA med två tillhörande skärmar från jobbet, för det har dom "bestämt". Hade hellre fortsatt med windows dator :\. Får se hur länge det tar innan man vänjer sig.

Vad ska du jobba med om man får fråga? Säg till om du har något macOS-trubbel så kanske jag kan assistera.

Visa signatur

• Fractal Design North | ASUS ROG Strix B650E-F | Ryzen 7 7800X3D | Radeon RX 7900 GRE | 64 GB RAM | Windows 11
• Mac Pro (Mid 2010) | 6-Core Intel Xeon ”Westmere” | Radeon RX 5700 XT | 32 GB RAM | macOS 12 Monterey | Windows 10
• MacBook Pro 14" | M2 Max | 96 GB RAM | macOS 14 Sonoma

Permalänk
Medlem

Fint att skryta med h.264 när det finns h.265 och AV1/A1.

Permalänk
Medlem
Skrivet av Blobster:

Fint att skryta med h.264 när det finns h.265 och AV1/A1.

HEVC är ju med på bilden, d.v.s. h.265.

Permalänk
Medlem
Skrivet av tozz:

Apple var tramsigt selektiva med M1 Max benchmarks på GPU-biten, individuella testare hittade väl endast ett enda benchmark som ens var i närheten av vad Apple påstod och då mot mobila kretsar. Jag vet inte varför dom känner att dom måste salta så enormt på just GPU-biten, dom har ju sin media engine och GPU:n är bra nog för resten för målgruppen.
Att M1 Ultra skulle komma ens nära ett desktop 3090 när M1 Max i 9 av 10 fall presterar som ett 3050Ti Mobile är väldigt osannolikt

Tror många missförstod mitt inlägg. Jag förstår att resultaten är cherry-pickade och icke-representativa. Men jag är fortfarande nyfiken på vilken prestanda denna GPUn kan få. Jag tror inte att Apple byggt en magisk GPU som krossar nvidias flaggskepp.

Jag gissar att du tittat på spelbenchmarks anpassade för x86, samt att de inte använder Apples Metal API? För annars låter 3050ti-nivå lågt för M1 Max.

Nu är det dags för massiv spekulation om prestanda, ta fram era saltkar!

Flera av testerna jag hittat inkluderar prestanda för M1 Pro, som är ungefär som en halv M1 Max, som i sin tur är som en halv M1 Ultra.
M1 Pro 200GB/s 16 GPU-kärnor.
M1 Max 400GB/s, 32 GPU-kärnor.
M1 Ultra 800GB/s, 64 GPU-kärnor.
Jag tänker konservativt gissa att M1 Ultra skalar något lägre än vad M1 Max gör över M1 Pro, men det är möjligt att M1 Ultra skalar bättre än så med tanke på högre TDP.

Låt oss börja med att titta på syntetiska tester för M1 Max, eftersom dessa testerna är anpassade efter både ARM-cpun och GPUns Metal-API.

Skalning:
M1 Max = 0.98x 3080L
M1 Max = 1.87x M1 Pro
M1 Ultra = 1.8 M1 Max (spekulation)

3080L motsvarar någonstans mellan 3060 och 3060ti på stationära sidan.

Tittar vi på swecs prestandaindex är ett 3090 cirka dubbelt så snabbt som ett 3060, oavsett om vi tittar på 1080p, 1440p eller 2160p.

Om M1 Ultra presterar 1.8x mot M1 Max/3080L/3060-3060ti hamnar vi faktiskt i 3080-3090-området för detta test(!). Intressant, men troligen inte representativt.

Notebookchecks test

Jag gick till 3Dmarks hemsida och plockade ut deras genomsnittsresultat för 3090, 3080 och 3070ti. Tänk på att snittet troligen är glädjesiffror som dras upp av alla överklockare och världsrekordsförsök. Vet någon oklockade nvidia-resultat tar jag dem gärna.

Skalning
M1 Max = 1.81x M1 Pro.
M1 Max = 0.91x 3080L.
M1 Ultra = 1.75x M1 Max (spekulation)

3090 43864p (3dmark genomsnitt)
3080 37660p (3dmark genomsnitt)
M1 Ultra 32863p (spekulation)
3070ti 31544p (3dmark genomsnitt)
M1 Max 18779p (notebookcheck)
M1 Pro 10352p (notebookcheck)

Tittar man på benchmarks för faktiska spel, så ser dessa betydligt sämre ut. Inte så konstigt med tanke på att spelen är kompilerade för x86 och måste emuleras. Troligen använder de inte Metal-APIet och slutligen så vet vi inte hur bra MacOS-porten är.

M1 Max presterar 61% av 3080L
M1 Max = 1.81x M1 Pro
M1 Ultra = 1.75x M1 Max = 1.07 3080L (spekulation)

M1 Max presterar 47% av 3080L
M1 Max = 1.84x M1 Pro
M1 Ultra = 1.78x M1 Max = 0.84x 3080L (spekulation)

Med emulerad spelprestanda ser vi ut att landa någonstans mellan 3060 och 3060ti.

Måste säga att jag fortfarande är nyfiken på hur väl denna kretsen kommer att prestera med välskriven mjukvara. Ser absolut ut att finnas potential.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Skrivet av Blobster:

Fint att skryta med h.264 när det finns h.265 och AV1/A1.

Apple är också med på AV1, frågan är bara om de kommer implementera eller köra vidare på det hårt licensierade MPEG. Google är före eftersom de har gått ut med att de rullar ut det. Kruxet ligger inte bara där i standarden utan enheten måste också stödja dess codec. Var en artikel ett tag tillbaka på en annan sida som förklararde det hela. Mycket handlar om hur marknaden vill framhäva AV1 eller det skall fortsätta vara MPEG som styr allt. Med andra ord pengar som styr.

Permalänk
Medlem
Skrivet av sniglom:

Tror många missförstod mitt inlägg. Jag förstår att resultaten är cherry-pickade och icke-representativa. Men jag är fortfarande nyfiken på vilken prestanda denna GPUn kan få. Jag tror inte att Apple byggt en magisk GPU som krossar nvidias flaggskepp.

Jag gissar att du tittat på spelbenchmarks anpassade för x86, samt att de inte använder Apples Metal API? För annars låter 3050ti-nivå lågt för M1 Max.

Nu är det dags för massiv spekulation om prestanda, ta fram era saltkar!

Flera av testerna jag hittat inkluderar prestanda för M1 Pro, som är ungefär som en halv M1 Max, som i sin tur är som en halv M1 Ultra.
M1 Pro 200GB/s 16 GPU-kärnor.
M1 Max 400GB/s, 32 GPU-kärnor.
M1 Ultra 800GB/s, 64 GPU-kärnor.
Jag tänker konservativt gissa att M1 Ultra skalar något lägre än vad M1 Max gör över M1 Pro, men det är möjligt att M1 Ultra skalar bättre än så med tanke på högre TDP.

Låt oss börja med att titta på syntetiska tester för M1 Max, eftersom dessa testerna är anpassade efter både ARM-cpun och GPUns Metal-API.

Det var faktiskt både spel och syntetiska benchmarks, tyvärr är det ju lite svårt att hitta bra test med både Metal och DirectX som faktiskt säger något om prestandan i verkligheten. Jag är väl kanske lite tvärt emot dig här, jag har ingen glädje av teori (jag säger inte det som något negativt, jag förstår definitivt intressant av glädjen där, det är bara inte för mig), endast realiserbar prestanda för mig som användare (som tyvärr använder Photoshop ofta, och får lida av Adobes undermåliga utvecklingsteam 😅). Hade Apple skrivit ”potential in five years with massive software support” hade jag inte haft någon åsikt, för som sagt så tycker jag det är en otroligt grym krets, hade bara vant mig vid att dom gjorde sina relativa siffror mot gamla Mac utan större relevans och tyckte det räckte så.

Permalänk
Medlem
Skrivet av Buddaz112:

Apple är också med på AV1, frågan är bara om de kommer implementera eller köra vidare på det hårt licensierade MPEG. Google är före eftersom de har gått ut med att de rullar ut det. Kruxet ligger inte bara där i standarden utan enheten måste också stödja dess codec. Var en artikel ett tag tillbaka på en annan sida som förklararde det hela. Mycket handlar om hur marknaden vill framhäva AV1 eller det skall fortsätta vara MPEG som styr allt. Med andra ord pengar som styr.

Det här är jävla soppa, men i korthet är det så här: MPEG-standarderna tas fram av en arbetsgrupp inom ISO och välsignas sedan av ett FN-organ (ITU), vilket är skälet till att allt har två namn - HEVC och H.265 till exempel. Denna arbetsgrupp har som mål att ta fram den bästa tänkbara standarden utan att göra den alltför komplex, så de bryr sig inte alls om vad det kommer att kosta att licensiera något. Den kostnaden tas sedan fram av en licenspool, där MPEG-LA är den mest kända. Detta är en förhandling - om någon av patentinnehavarna tycker att avgiften är för låg, drar de sig ur poolen och alla som vill använda deras patent får licensiera dem separat.

Över åren har det varit ett närmast öppet krig om hur höga licensavgifterna skall vara, där man å ena sidan har en grupp människor som inte vill ha licensavgifter på patent alls, och å andra vinstdrivande företag som tycker att om deras patent sparar pengar åt andra så skall de ha betalt för det (bättre kompression = lägre kostnader för bandbredd). Kompromissen var under många år att det är en avgift på kodare eller avkodare men med en maxavgift per företag och år. De stora techbolagen (Apple, MS med flera) betalde denna maxavgift varje år och gav sedan bort programvaran så att de blev gratis för alla att använda - i princip, de betalade alla för att slippa gnället. Det enda gnäll som var kvar var de som inte gillar patent rent principiellt, och de är ganska få (om än högljudda) och marknaden ignorerar dem.

Problemet nu är att de nyaste standarderna innehåller väldigt många patent - folk trycker in funktioner som inte riktigt behövs, för att de vill få betalt - så de som har flest patent och faktiskt gör ett jobb för att utveckla standarderna får allt mindre betalt. Med H.264 försökte de därför få en avgift per ström istället för per dekoder, för att försöka få in mer pengar. Detta misslyckades, kort sagt, och man fortsatte med upplägget att dekodern kostar pengar.

När H.265 var klart ställdes allt på sin spets. Licensavgiften från MPEG-LA var förhandlad och klar när ett antal stora licensgivare meddelade att de inte ställde upp utan startade sin egen pool, HEVC Advance, med smått absurt höga avgifter. Detta var antagligen menat som ett öppningsbud och man backade snart, men det tog hus i helvete. Flera företag som tidigare hade licensierat patent, däribland Google och Cisco, tyckte att nu var måttet rågat. De drog ihop flera andra användare (MS, Amazon, Netflix, Mozilla - samt Intel, som säljer en massa dekoderblock i sina processorer) av videokodning - de som skulle få betala avgifterna - och började bygga AV1, en ny standard som enbart existerar för att undvika avgifterna. Apple stod till en början utanför hela kriget, men är idag med i gruppen som gör AV1.

Frågan är nu vad som händer framöver. H.265 är nog att klassa som död, men det finns H.266 (VVC) på gång. Vågar någon satsa på den? Det är helt klart så att många av de klassiska licenstagarna inte vill vara med längre. HEVC Advance lyckades bränna ner decennier av samarbete på nån vecka, och det är ingen som vill prata med de medlemmarna längre. Samtidigt är det en risk att vara en liten spelare här - den som använder AV1 kan bli utsatt för en patentstämning, och om man ändå licensierar MPEG-standarderna finns det inga pengar att spara.

Dessutom håller de sista patenten för H.264 på att gå ut, så den är snart gratis. För områden som videosamtal räcker den alldeles utmärkt också 2022.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Fick äntligen äntligen chansen att göra ett real-life test på en M1 Mac Mini i DaVinci Resolve på jobbet då vi nuförtiden har en i ägo och den stod oanvänd för sitt vanliga syfte (agera databas) under en dag. Jag gjorde en render/export på ett svenskt tv-program på ca en timme. 1080p. Källcodec XAVC-I 100mbit på det mesta, propert gradeat med alla noder och plugins som typiskt används och körde ut det på tre datorer. Utcodec DNxHR HQX.

Intel 7900X, Titan X Pascal: 23 minuter
Min Macbook pro (Intel 8-kärnig, 5500M): 55 minuter
Mac Mini M1 (16GB): 50 minuter

Hade faktiskt förväntat mig snäppet mer, även om 50 min utan att spotta och fräsa som min macbook såklart var ett bra resultat. Det var GPU-belastning (beräkningen av färgförvandlingen) som låg pinnad på max. Själva videoencode till DNxHR skedde rimligtvis i mjukvara och lästes som en 500% belastning där. I MacOS så är en kärna 100%.

Stationära datorn från 2017 ger den storsmisk och ger indikation på att det sannolikt är M1 Max som behövs minst för att faktiskt klå den. Men frågan är om det faktiskt blir ett tillräckligt stort lyft eller om man egentligen vill lägga ut för Ultra. Nog läge att låna in faktiskt hårdvara när den finns tillgänglig. Givet prestandan i 1080p så kändes det inte som särskilt givande att testa 4K.

Sen spelar det sannolikt in om man kör ut det som ProRes (dock ingen accelerator för det i M1) istället för DNxHR. Hade vi nog accepterat att byta till ifall det ger en prestandamässig fördel.

Visa signatur

i7-2700K 5 GHz | 16 GB DDR3-1600 | ASUS Maximus V Gene Z77 | GTX 980
i7-4790K 4.8 GHz | 32 GB DDR3-2133 | ASUS Maximus VII Gene Z97 | GTX 980