Intel avtäcker grafikkorten Arc för bärbara datorer

Permalänk
Melding Plague

Intel avtäcker grafikkorten Arc för bärbara datorer

Klockan 17:00 drar Intel bort skynket från första halvan av bolagets grafikkortssatsning och presenterar Arc "Alchemist" för bärbara datorer.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

3050 duger för mig i bärbara. Bättre dränerar bara batteriet. Ser fram emot bärbar Arc. Kommer nog köpa en, bara för att liksom

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem

Industry First Full AV1 Support

- Wohoo

Permalänk
DingDongerMcDongface

Måste säga att Galaxy Book med Arc såg riktigt nice ut. Nu har jag ju en typ helt ny bärbar, men hade inte varit fel att klämma lite på den åtminstone!

Permalänk
Inaktiv
Skrivet av talonmas:

3050 duger för mig i bärbara. Bättre dränerar bara batteriet. Ser fram emot bärbar Arc. Kommer nog köpa en, bara för att liksom

Bärbara speldatorer kör man ju ändå inkopplade i eluttaget så det har väl mindre betydelse imo men jag håller med om att man kan klara sig med nämnvärd lägre prestanda. Är jag t.ex. på ett arbetsprojekt så kan jag nöja mig med att spela Warzone på 1080p low om kvällarna haha.

Däremot oroar det mig att vi hör så lite om Intels desktop GPUs, jag hade hoppats på att få bygga en Intel maskin i år..

Permalänk
Medlem

Snygg design på grafikkortet, ska bli spännande att se hur det presterar i sommar!

Visa signatur

Rigg: Intel i7 4790K @ 4,7 GHz delid | Noctua NH-U12S | Asus Z97-A | Corsair 2x4+2x8 GB 2133 MHz DDR3 RAM | EVGA RTX 2080 XC Ultra GPU | Intel SSD 2x 800 GB | Acer Predator XB271HU IPS skärm | M-Audio AV42 monitorer | HyperX Cloud 2-lurar | HyperX Pulsefire FPS mus

Permalänk
Medlem

Grafikkortet som visades i slutet liknar så mycket RTX 2000/3000 på olika sätt.

RTX 2000 på färgen.
RTX 3000 på storleken.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
DingDongerMcDongface

Hade hoppats på lite mer djupdykning, men var ändå en hel del intressant i början där.
Kändes dock lite lagom taskigt att avsluta med äääännu en teaser. Intel pls

För den som missade:

Permalänk
Snusfri

Mycket vackert kort, ska bli riktigt intressant att se prestandatester i sommar.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem

Hoppas de kommer fungera bra i Linux. Undviker nvidia av just denna anledning.

Permalänk
Medlem

tråkigt att de inte visade upp dedikerade GPUerna...

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk

Nja. Men bra med mer konkurrens det kan senare bli riktigt bra.

Permalänk
Avstängd
Skrivet av Oneone:

tråkigt att de inte visade upp dedikerade GPUerna...

Building hype! 🚀

Permalänk
Hedersmedlem
Skrivet av ronnylov:

Hoppas de kommer fungera bra i Linux. Undviker nvidia av just denna anledning.

Det är väl lite av Intels paradgren, så chansen är nog god.

Permalänk
Medlem

1kr per kort och 1788% mer prestanda över 3090 ti oc. Man kan ju hoppas 😁

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

kunde inte hitta några laptops med detta i?

Hittade bara Galaxy Book 2 Pro med XE grafik? Är jag blind?

mvh Lazze

Permalänk

Performance per watt?

Permalänk
Medlem
Skrivet av ronnylov:

Hoppas de kommer fungera bra i Linux. Undviker nvidia av just denna anledning.

Vad är det med Nvidia som inte funkar i Linux?

Visa signatur

ASUS ROG STRIX B450-F GAMING - AMD Ryzen 5 3600 3.6 GHz 35MB - Cooler Master - Hyper 212 Black Edition - Corsair 16GB (2x8GB) DDR4 3200Mhz CL16 Vengeance LPX - Kingston A2000 500GB M.2 NVMe - Fractal Design Define C Svart - 2 X Noctua NF-P14s redux-1200 140mm PWM - Corsair RM650X 650W v2 - ASUS GeForce GTX 1060 6GB DUAL OC - Raijintek Morpheus II Heatpipe VGA Cooler - 2 X Noctua NF-P12 120mm PWM - OS Debian 10 Stable

Permalänk
Medlem

Känns lite fel att de jämför med integrerad grafik, samtidigt verkar prestandan tillräcklig för många spel. Rädd att 4GB är för lite bara.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Lite trist med deras vanliga i3 i5 i7 & att bara i3 dyker upp först men sen e jag ju totalt ointresserad av bärbart i vilket fall ser fram mot deras kort på teasern där dock (om det nu inte är en ned-skalad variant & inte deras största krets för spelande)
vore skönt med ett helt intel bygge & slippa både amd & nvidia & deras fanboyism på vad som gäller, speciellt amd på denna sidan ! blivit smått allergisk de sista åren ja sen bulldozer & framåt innan körde jag amd själv (kör amd fortfarande på konsollen som e det sämsta köp någonsin konsoll! sen blir det ju även amd på steam deck så tillräckligt amd för mig. i riktiga datorn e det intel & nvidia i nuläget

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Herr Kantarell:

Känns lite fel att de jämför med integrerad grafik, samtidigt verkar prestandan tillräcklig för många spel. Rädd att 4GB är för lite bara.

4 GB kommer nog att vara tillräckligt eftersom Arc 3 är marginellt snabbare än deras snabbaste iGPU.

Här är det nog ingen högoddsare att det är lågt pris som blir den primära lockelsen.

Permalänk
Medlem
Skrivet av Sveklockarn:

4 GB kommer nog att vara tillräckligt eftersom Arc 3 är marginellt snabbare än deras snabbaste iGPU.

Här är det nog ingen högoddsare att det är lågt pris som blir den primära lockelsen.

Kan de släppa något med TBP < 70W, prestanda i GTX 1650 nivå och ett pris under 2500kr så finns det nog en marknad för det.

Permalänk
Medlem
Skrivet av GuessWho:

Kan de släppa något med TBP < 70W, prestanda i GTX 1650 nivå och ett pris under 2500kr så finns det nog en marknad för det.

Det finns säkert en hel del att göra i low end-segmentet som du säger. Om de kan erbjuda något som är billigt men klarar att nå 60 FPS i några populära titlar utan alltför stora visuella kompromisser så kan de säkert etablera sig på marknaden.

Allmänt ska det bli intressant att se hur väl deras implementation av VESA Adaptive Sync fungerar, samt hur Speed Sync (visar bara senaste kompletta framen för att undvika tearing) fungerar i praktiken. Det känns intressant att de bakat in en AV1-encoder, men märkligt att de inte verkar stödja HDMI 2.1 eller DisplayPort 2.0 på ett grafikkort som släpps 2022.

Permalänk
Medlem

Trist att XeSS tydligen enbart kommer att ha stöd för ARC och dess XMX i början och inte DP4a som det pratats om, dvs. inte fungera på Nvidia eller AMD från det att funktionen lanseras. Detta stöd kommer "senare" och gör förmodligen XeSS mer svårmotiverat nu när även FSR2.0 är nära.
Att kretsen även saknar stöd för HDMI2.1 gör den dessutom mindre optimal för att anslutas till moderna TVs än AMD och Nvidias konkurrerande produkter känns inte helt bra. På det stora hela är jag ännu inte imponerad av det Intel visat av ARC, hoppas dock att framtida tester kan göra mig mer positiv.

Permalänk
Medlem
Skrivet av ronnylov:

Hoppas de kommer fungera bra i Linux. Undviker nvidia av just denna anledning.

Intel bidrar flitigt med kod till både kärnan och Mesa. Arc kommer antagligen funka jättebra på Linux. AMD och Intel delar dessutom en del kod. Open Source <3

Permalänk
Datavetare
Skrivet av Sveklockarn:

4 GB kommer nog att vara tillräckligt eftersom Arc 3 är marginellt snabbare än deras snabbaste iGPU.

Här är det nog ingen högoddsare att det är lågt pris som blir den primära lockelsen.

Skulle säga att det är högst relevant att jämföra dessa mot de snabbaste iGPU:erna, men man borde även lagt in vad som rimligen är huvudkonkurrenten: Nvidia MX450 och MX550.

Vad alla dessa har gemensamt är att de är kan användas i den väldigt populära "thin-and-light" kategorin av bärbara, d.v.s. där man använder AMD/Intels U-serie CPUer (15 W till 28 W, trenden här har dock kraftigt gått mot 25-28 W, vare sig Intel eller AMD verkar lägga någon energi att pusha det nedre spektrat längre).

AMD har med släppet av deras 6000-serie en iGPU (Radeon 680M) som i syntetiska tester drar hyfsat jämt med MX550/GTX1650M, fast det i modellerna med 45 W TDP vilket fungerar för "gaming-laptops", men inte det man normalt förknippar med "thin-and-light".

Värt att notera här är dock att i spel ser man det vi "alltid" sett med AMD/Intels iGPUer: här jobbar CPU och GPU betydligt mer än i syntetiska tester, vilket medför att även klena dGPU som MX550/GTX1650M drar ifrån då iGPUer delar både TDP och framförallt minnesbandbredd mellan CPU+GPU. Från att dra jämt med GTX1650 i syntetiska tester ligger ofta GTX1650 25-40 % högre i prestanda jämfört med 680M i moderna spel (MX550 är så pass ny att det knappt finns några resultat från den än, men lär se ut på liknande sätt).

Vi vet inte i nuläget om samma gäller Intel ARC, men rimligt att anta att man ser samma fördelar där då det likt MX450/MX550 handlar om kretsar med TDP från 25 W med separat VRAM. Är lättare att kyla två kretsar på ~25 W vardera än att kyla en krets som utvecklar 40-45 W + även med 64-bit buss (vilket även Nvidias MX-serien har) är bandredden högre än mot DDR4/DDR5 utöver att den inte delas med CPU.

Det som dock är Nvidias stora fördel och där det verkligen är upp till bevis för Intel är det snabbt ökade stödet för GPU-accelerering i datorprogram. Nvidias CUDA är de facto standard för den här typen av acceleration, stöds något stöds CUDA. Det verkar som Intel fattar detta och de verkar jobba väldigt hårt med att få in GPU-acceleration (typiskt via deras OneAPI) i viktiga ramverk för maskininlärning, 3D-modellering och videoacceleration (den sista har redan rätt bra stöd för Intel).

Intel visade rätt nyligen upp stöd för GPU-acceleration i Blender (Cycles), som referens är ett RTX3090 10-30 gånger snabbare än 12900K/5950X och även med relativt klena GPUer kommer bärbara datorer upp i 12900K/5950X nivå (M1Pro som har "mellannivån" på GPUn är redan förbi 12900K/5950X i detta fall, det trots att Metal-stödet i Blender är i sin första revision och Apple säger att man med tiden förväntas ungefär dubbla dagens prestanda på samma HW).

Edit: kommentar till min egen förstarad här

Är huvudsyftet med systemet att kunna köra lite enklare spelande är en enkel dGPU väldigt interessant. Separat VRAM samt enklare kylning är vinsten här. Så är för detta användarfall det är högst relevant att jämföra iGPU med enkla dGPUer.

Är huvudsyftet med systemet att använda GPU för GPGPU är iGPU betydligt mer spännande än en dGPU med väldigt lite VRAM, Nvidias MX550 må ha stöded tack vare CUDA, men 4 GB VRAM är en flaskhals i många lägen och samma kommer gälla för Intel. iGPU har här en fördel även mot starkare dGPU, då de delar RAM med CPU har de väldigt mycket "VRAM" + Apple har visat på synergieffekter där CPU+iGPU effektivt kan hjälpas åt (så fungerar t.ex. Blender med Metal, samt PixelMator pro där CPU+NPU hjälps åt).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Edit: kommentar till min egen förstarad här

Är huvudsyftet med systemet att kunna köra lite enklare spelande är en enkel dGPU väldigt interessant. Separat VRAM samt enklare kylning är vinsten här. Så är för detta användarfall det är högst relevant att jämföra iGPU med enkla dGPUer.

Är huvudsyftet med systemet att använda GPU för GPGPU är iGPU betydligt mer spännande än en dGPU med väldigt lite VRAM, Nvidias MX550 må ha stöded tack vare CUDA, men 4 GB VRAM är en flaskhals i många lägen och samma kommer gälla för Intel. iGPU har här en fördel även mot starkare dGPU, då de delar RAM med CPU har de väldigt mycket "VRAM" + Apple har visat på synergieffekter där CPU+iGPU effektivt kan hjälpas åt (så fungerar t.ex. Blender med Metal, samt PixelMator pro där CPU+NPU hjälps åt).

Hur bra / dåligt fungerar det att grafikkort kan låna RAM ?

Säg att ett grafikkort har 4GB dedikerat VRAM.
Utöver det kan det låna 4GB av datorns RAM.

Hade det inte kunnat låna minne så hade det öht inte gått att köra något som kväver mer än 4GB.
Men säg att man kör något som använder 6GB.
Då använder GPU först sina egna 4GB VRAM och sen lånar 2GB RAM för det som behövs extra.
Men minnesbandbredd och accesstider är bättre till dedikerat VRAM än lånat RAM.

Men säg i ett sånt scenario, är inte dedikerad GPU + 4GB dedikerat VRAM + 2GB lånat RAM fortfarande bättre än iGPU där allt minne är delat med samma minne som CPU använder?

Permalänk
Datavetare
Skrivet av GuessWho:

Hur bra / dåligt fungerar det att grafikkort kan låna RAM ?

Säg att ett grafikkort har 4GB dedikerat VRAM.
Utöver det kan det låna 4GB av datorns RAM.

Hade det inte kunnat låna minne så hade det öht inte gått att köra något som kväver mer än 4GB.
Men säg att man kör något som använder 6GB.
Då använder GPU först sina egna 4GB VRAM och sen lånar 2GB RAM för det som behövs extra.
Men minnesbandbredd och accesstider är bättre till dedikerat VRAM än lånat RAM.

Men säg i ett sånt scenario, är inte dedikerad GPU + 4GB dedikerat VRAM + 2GB lånat RAM fortfarande bättre än iGPU där allt minne är delat med samma minne som CPU använder?

Bra fråga!

Sedan Pascal finns något som Nvidia kallar "unifined memory", vilket är lite förvirrande när iGPU-er egentligen bara har denna typ av minne (och Apple kallar sin design just för "unified memory").

Vad "unified memory" gör i Pascal och framåt är att man kan använda "vanligt" RAM från GPUn, det logiskt sett i alla fall... I praktiken upptäcker GPUn att en viss adress inte fanns i VRAM och laddar då över detta, effekten bli ändå att programmet som kör på GPU kan använda mer minne än VRAM.

I praktiken måste dock ändå VRAM vara tillräckligt stort för att få plats med "working-set", d.v.s. det minne man frekvent jobbar med. Annars blir prestanda bedrövligt då det begränsas av både latens och bandbredd över PCIe. I sådana lägen kommer iGPUer fungera bättre då de inte får kostanden i att kopiera RAM fram och tillbaka över RAM.

Vidare, ska man göra det Apple gör i t.ex. Blender där CPU och GPU samarbetar så måste de i praktiken jobba mot samma fysiska RAM (just detta är något som CXL, något som kommer med PCIe5, kan råda bot på!!).

Rimligen har ARC samma typ av stöd för "unified memory" som Pascal och senare har.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

När det gäller laptop för mig så kan gärna precis allt förutom ram och ssd sitta i ett chip. Men för vissa laptop vill man ha mer grafikprestanda i och man tvingas välja extern gpu utanför chippet.

För att man ska ta detta extra steg så vill man få en markant förbättring av prestandan/funktionerna, annars känns det mer bara dumt.
Det är ingen skillnad på detta och vilken produkt som helst. Ska man från mainstream cpu gå över till hedt, gå från laptop till desktop, mobiltelefonens inbyggda kamera till en klumpig extern. Så för att detta ska bli intressant för en större skara så vill denna skara ha en "större tydlig märkbar skillnad" annars försätter de med den lilla kompakta.

Och det är just detta jag upplever kan vara ett problem med grafikkort Arc att skillnaden är för liten emot iGpuer. Men man får inte glömma att man får lite minne på köpet. Köper man en dator med 16GB ram och inbyggd igpu så kommer iGpu ta lite av det minne som man redan hade för lite av. Köper man samma dator med ett A550M, så har denna eget 8GB eget minne. Och detta kan ta med i prisberäkningen.
Frågan är även hur en iGPU belastar ramminne och segar ner det för annat?

*edit*
Jag har ett vagt minne att för runt 15år sedan så var det typ en ny användare varje månad som pratade på att den hade köpt en ny dator och allt ramminne inte sågs. Där folk sa att ramminnet roffade åt sig viss. Det borde vara samma sak idag, men windows visar det nog inte på samma sätt.

Permalänk

Märks att Intel har stora problem. Förmodligen pga drivrutinerna. Stationära ARC kommer inte förrän Q3 kanske så sent som Q4.