Intel vill förse miljontals spelare med grafikkort

Permalänk
Medlem

Jag kan tänka mig att köpa någon form av instegskort från Intel som kan vara rimligt prissatt. Något mellanting mellan deras highend och deras integrerade. Kör på ett UHD 770 nu och det gör allt jag kräver av det, men lite mer pulver vore trevligt.
Krav är att det finns inbyggt quicksync. Tror att ett sådant kort skulle attrahera många. Långt ifrån alla spelar spel men behöver ändå viss prestanda i olika grafikprogram m.m och man vill inte alltid slänga ut hutlösa mängder pengar för prestanda man inte använder bara för att det ska funka bra i vissa program som kräver lite gpu men inte lika som spel..

Visa signatur

WS: Mac Studio M1 Max | 32 GB | 1TB | Mac OS
WS: Intel i5 12600K | 64 GB DDR4 @3600 Mhz | 2x1TB nvme 2x1TB SSD SATA | Windows 11 & Manjaro Linux
Bärbar: Macbook Pro 14" | M1 Pro | 16GB RAM | 512GB SSD | Mac OS
Servrar: Intel i7 10700K | 64 GB DDR4 @3600Mhz | 3 TB SSD + 22TB HDD | Unraid |
4x Raspberry pi 4b 8Gb | Dietpi |

Permalänk
Medlem
Skrivet av anon333222:

Vi som är så pass gamla minns ju vad Intel gjorde för att hålla AMD nere. Betala Dell och HP för att INTE använda AMD-prylar. hehehe.

Ja usch ja. Det var en riktigt ädel strategi 🤮

Permalänk
Medlem
Skrivet av Dem8n:

Intel kommer få förtur då de är en väldigt viktig kund.

Kan du ge lite mer detaljer om exakt hur sådana deals görs?
Betalar Intel även mer för denna förtur eller väljs de bara för att TSMC bara tycker om dem så att säga?

Ett par punkter som skulle antyda motsatsen -

Intel och TSMC är i princip direkta konkurrenter.
Intel investerar i nya fabriker och har därmed tydligt inga planer på att bli "fabless"
AMD är uppenbart en stor kund/partner till TSMC som kopplar dem till Microsoft och Sony med deras konsoler.
Det är tydligt att det finns mer demand än lines just nu även typ bara med AMDs combo av CPU, GPU och konsoller.

Även på 3nm måste Intel buda mot apple om kapacitet hos TSMC.

Varför exakt skulle intel då få förtur över de andra tillverkarna när de även är en direkt konkurrent, vars vinster på allt de tillverkar hos TSMC går dels till att bygga upp sitt eget utbud från egna fabriker?

Det låter lite bakvänt tycker jag.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Nyhet:

Intel vill förse miljontals spelare med grafikkort

Vi vill ha 1 miljon spelare betalande kunder. Som när Nvidia sa att de kommer göra miningkort för att de älskar alla spelare. VD snack är fan pinsamt.

Permalänk
Datavetare

Blir självklart kul att se hur Intels GPUer presterar i spel. Men ser själv långt mer fram emot hur Intel klarar av att konkurrera med Nvidias CUDA för GPGPU, det med deras OneAPI.

Intel har en rejäl uppförsbacke, proppen har riktigt gått ur användningen av GPGPU (som i praktiken är CUDA och till mindre utsträckning Metal på MacOS). Även rätt klena GPUer kan ge stor vinst, ett exempel är Blender där iGPU hos M1 ger 3-4 gånger prestandaboost i Cycles (finns Metal stöd från 3.1 som nu är i beta).

Ovanpå det kan man numera göra ”normal programmering” i t.ex. Python och få brutala prestandaförbättringar (får att få upp mot x100 prestandaökningar även mot ”high-end” desktop CPUer) i ”rätt” fall, vilket typiskt är de fall som går att sprida över kärnor (så långt ifrån alla fall, men går det att beskriva med matriser så går det att accelerera).

Klicka för mer information

CuPY är en CUDA-accelererad variant av Python biblioteket NumPy, som i sin tur är en väldigt välanvänt bibliotek för AI/ML, bildanalys etc.

Visa mer

Det krävs tyvärr rätt stora arbetsinsatser för att nå den mognadsgrad vi nu ser för CUDA-integration. Det kommer aldrig hända om inte Intel själva skjuter till rejäla resurser. Nvidia har ungefär 10 gånger fler som jobbar med programvara mot de som jobbar med HW-design.

För datacenter börjar man redan nu se rätt bra OneAPI stöd, får se hur det tar sig för konsumentmarknaden…

Klicka för mer information

Varför har vissa en önskan att externt (sett från slutkundens sida) styra hur en produkt ska användarnas? Känns märkligt att se sådana ”krav” på ett ställe som SweC.

Använder själv i allt större utsträckning grafikkortet som en accelerator för ”arbete”, känner ändå inget agg mot de som ”drar upp priserna på grafikkort genom att köpa dessa för spel och lek till sitt PC-baserade TV-spel”.

Eller borde vi önska att alla grafikkort som saknar ”Gaming” i namnet (samt har färre en femtielva RGB-LEDs) drar ned prestanda om de märker att man försöker spela på kortet?

Ett sätt att garanterat komma till rätta med ”problemet” vore att PC-applikationer får samma granskning som iOS/Android appar har innan de får publiceras i respektive app-store…..

Visa mer
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Blir självklart kul att se hur Intels GPUer presterar i spel. Men ser själv långt mer fram emot hur Intel klarar av att konkurrera med Nvidias CUDA för GPGPU, det med deras OneAPI.

Intel har en rejäl uppförsbacke, proppen har riktigt gått ur användningen av GPGPU (som i praktiken är CUDA och till mindre utsträckning Metal på MacOS). Även rätt klena GPUer kan ge stor vinst, ett exempel är Blender där iGPU hos M1 ger 3-4 gånger prestandaboost i Cycles (finns Metal stöd från 3.1 som nu är i beta).

Ovanpå det kan man numera göra ”normal programmering” i t.ex. Python och få brutala prestandaförbättringar (får att få upp mot x100 prestandaökningar även mot ”high-end” desktop CPUer) i ”rätt” fall, vilket typiskt är de fall som går att sprida över kärnor (så långt ifrån alla fall, men går det att beskriva med matriser så går det att accelerera).

Klicka för mer information

CuPY är en CUDA-accelererad variant av Python biblioteket NumPy, som i sin tur är en väldigt välanvänt bibliotek för AI/ML, bildanalys etc.
https://i.imgur.com/r7YghY3.png

Visa mer

Det krävs tyvärr rätt stora arbetsinsatser för att nå den mognadsgrad vi nu ser för CUDA-integration. Det kommer aldrig hända om inte Intel själva skjuter till rejäla resurser. Nvidia har ungefär 10 gånger fler som jobbar med programvara mot de som jobbar med HW-design.

För datacenter börjar man redan nu se rätt bra OneAPI stöd, får se hur det tar sig för konsumentmarknaden…

Klicka för mer information

Varför har vissa en önskan att externt (sett från slutkundens sida) styra hur en produkt ska användarnas? Känns märkligt att se sådana ”krav” på ett ställe som SweC.

Använder själv i allt större utsträckning grafikkortet som en accelerator för ”arbete”, känner ändå inget agg mot de som ”drar upp priserna på grafikkort genom att köpa dessa för spel och lek till sitt PC-baserade TV-spel”.

Eller borde vi önska att alla grafikkort som saknar ”Gaming” i namnet (samt har färre en femtielva RGB-LEDs) drar ned prestanda om de märker att man försöker spela på kortet?

Ett sätt att garanterat komma till rätta med ”problemet” vore att PC-applikationer får samma granskning som iOS/Android appar har innan de får publiceras i respektive app-store…..

Visa mer

Borde man inte kunna göra en ’rosetta’-liknande lösning för att köra cuda på andra arkitekturer?

Permalänk
Datavetare
Skrivet av Shiprat:

Kan du ge lite mer detaljer om exakt hur sådana deals görs?
Betalar Intel även mer för denna förtur eller väljs de bara för att TSMC bara tycker om dem så att säga?

Ett par punkter som skulle antyda motsatsen -

Intel och TSMC är i princip direkta konkurrenter.
Intel investerar i nya fabriker och har därmed tydligt inga planer på att bli "fabless"
AMD är uppenbart en stor kund/partner till TSMC som kopplar dem till Microsoft och Sony med deras konsoler.
Det är tydligt att det finns mer demand än lines just nu även typ bara med AMDs combo av CPU, GPU och konsoller.

Även på 3nm måste Intel buda mot apple om kapacitet hos TSMC.

Varför exakt skulle intel då få förtur över de andra tillverkarna när de även är en direkt konkurrent, vars vinster på allt de tillverkar hos TSMC går dels till att bygga upp sitt eget utbud från egna fabriker?

Det låter lite bakvänt tycker jag.

En sådan deal är rätt exakt det Apple har med TSMC. Motivationen för TSMC är att de får pengar i förskott vilket minskar risken för dem medan motivationen för Apple i det läget är att de får förtur.

om Intel har en sådan deal även för 6 nm (vet inte om det är så, allt pekar på att det är exakt vad deal:en på 3 nm bygger på) har Intel fått betalat för privilegiet.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Shiprat:

Kan du ge lite mer detaljer om exakt hur sådana deals görs?
Betalar Intel även mer för denna förtur eller väljs de bara för att TSMC bara tycker om dem så att säga?

Ett par punkter som skulle antyda motsatsen -

Intel och TSMC är i princip direkta konkurrenter.
Intel investerar i nya fabriker och har därmed tydligt inga planer på att bli "fabless"
AMD är uppenbart en stor kund/partner till TSMC som kopplar dem till Microsoft och Sony med deras konsoler.
Det är tydligt att det finns mer demand än lines just nu även typ bara med AMDs combo av CPU, GPU och konsoller.

Även på 3nm måste Intel buda mot apple om kapacitet hos TSMC.

Varför exakt skulle intel då få förtur över de andra tillverkarna när de även är en direkt konkurrent, vars vinster på allt de tillverkar hos TSMC går dels till att bygga upp sitt eget utbud från egna fabriker?

Det låter lite bakvänt tycker jag.

Det är mycket samarbete inom branschen, många använder diverse komponenter från varandra. Men ja Intel måste ju buda för att få kapacitet, det kan tyckas kontraproduktivt att vilja göra så att en konkurrent får pengar för att bygga fabs, men det finns ju också en poäng för TSMC att diversifiera deras inkomstkällor. Intel kanske gav tillräckligt bra bud å kommer få lägre marginaler på grafikkorten pga detta som straff, men med tanke på efterfrågan på grafikkort kanske marginalerna och blir tillräckligt bra ändå. Även om Intel bygger fler fabs kanske de resonerar så att efterfrågan är tillräckligt hög för dom båda.

Permalänk
Datavetare
Skrivet av medbor:

Borde man inte kunna göra en ’rosetta’-liknande lösning för att köra cuda på andra arkitekturer?

Det är exakt vad AMDs HIP är. Eller det är enklare än så, HIP är i stort sätt AMDs implementation av CUDA (d.v.s man implementerar samma API, behövs därför ingen "översättning" när man kör).

Kan verka som en bra strategi då kostnaden att komma igång blir mycket lägre då man kan utnyttja det som redan finns.

Fast problemen är många

  • HIP kommer alltid ligga efter CUDA då det inte finns någon information kring vad som läggs till i nästa version, i praktiken ligger HIP 3-5 generationer efter CUDA

  • CUDA är enbart designat med utgångspunkt kring vad som är optimalt för Nvidias GPU-design. På hög nivå fungerar alla GPUer rätt lika, men på mikroarkitekturnivå finns flera rätt fundamentala skillnader mellan Nvidias, AMDs och även Intels GPU-designer

  • Om "originalet" är ungefär lika dyrt som kopian, varför skulle man då inte köpa originalet?

Nämnde CuPY ovan och där kan man rätt snabbt se exakt vilka problem en sådan lösning får i praktiken. Kollar man på projektsidan ser det riktigt lovande ut för Radeon, man listar stöd för totalt 3 st ROCm versioner.

ROCm är namnet på Linux-drivaren som implementerar bl.a. HIP, så ett problem är avsaknad av Windows stöd (CUDA fungerar både på Linux och Windows).

Men det riktigt stora problem hittar man under sektionen Limitations. Det är ett totalt minfält att försöka använda en GPU som kör HIP i stället för CUDA. Finns flera saker som inte fungerar, det är nog svårt att skriva problem utan ha sådana problem... Vissa fungerar inte för att det ännu inte är implementerat, det skulle kunna lösa sig i framtiden. Men andra saker är inte implementerat då CUDA som sagt är designat för Nvidias HW och det finns inget vettigt sätt att implementera motsvarande på AMDs GPUer.

Intels väg kräver betydligt mer arbete up-front, men det är hur man rimligen måste gå tillväga om på allvar ska utmana Nvidias CUDA-dominans.

Specifikt för GPGPU använder OneAPI Khronos SyCL. Nvidia är nog måttligt intresserade att stödja det, och utan stöd på Nvidia GPUer är GPGPU i nuläget rätt DoA. Så Intel har inte bara implementerat stöd för sina egna GPUer, man har även implementerat stöd för Nvidias GPUer (det genom att använda CUDA "under huven").

Det är bara en förutsättning för att man ska ha någon chans. OpenCL var chanslös mot CUDA då den senare var långt enklare att jobba med. Här har Khronos lärt sig, SyCL är lika lätt och i vissa fall enklare än CUDA att jobba med på ett effektivt sätt.

Ovan är ändå inte garanti för framgång. Problemet är att massor med viktig projekt är idag specifikt byggda mot CUDA, dessa projekt lär fortsätta med det fram till att Intel (för ingen annan lär göra jobbet i nuläget) kan få liknande stöd med OneAPI. Best-case (för Intel) är att OneAPI/SyCL blir vägen framåt, teoretisk möjligt då det även fungerar på Nvidia GPUer. Mer realistiskt finns i alla fall också stöd för OneAPI (är det vi börjar se mer och mer för Metal, program stödjer Metal på MacOS utöver att stödja CUDA på Windows/Linux).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Största problemet torde bli alla drivrutinsproblem med tillhörande random crasher. Som sedan tar en mindre evighet att få fixar till.

Permalänk
Inaktiv
Skrivet av Yoshman:

Varför har vissa en önskan att externt (sett från slutkundens sida) styra hur en produkt ska användarnas? Känns märkligt att se sådana ”krav” på ett ställe som SweC.

Använder själv i allt större utsträckning grafikkortet som en accelerator för ”arbete”, känner ändå inget agg mot de som ”drar upp priserna på grafikkort genom att köpa dessa för spel och lek till sitt PC-baserade TV-spel”.

Eller borde vi önska att alla grafikkort som saknar ”Gaming” i namnet (samt har färre en femtielva RGB-LEDs) drar ned prestanda om de märker att man försöker spela på kortet?

Ett sätt att garanterat komma till rätta med ”problemet” vore att PC-applikationer får samma granskning som iOS/Android appar har innan de får publiceras i respektive app-store…..

Förmodligen för att användarbasen har förändrats med tiden. Trots mitt nya konto så har jag ju varit här i över 20 år. Gamers sågs ju som skamligt. Spela gjorde ju bara nördar (som var ett skällsord) och töntar. Var man en riktigt datorentusiast så skapade man något, antingen programmera, göra musik eller grafik.

Sen hände något och det blev inne att hålla på med spel och dylikt. Förr i tiden kunde man flytta på ett par resistorer på nvidias grafikkort för att låsa upp double precision för FP64 eller var det FP32.

Permalänk
Medlem
Skrivet av Vangen:

Okej dom lovorden ska jag ha i minnet till nästa år på den här dagen och se om förutsägelsen stämde.

Skrivet av DevilsDad:

LOL..
Intel: vårt mål är att..
Swec: YOU PROMISED!!!11ONE

Sen kan det också vara så att "det känns som om" man bara har sålt 10 kort, när man i själva verket har sålt flera miljoner. En miljon är i själva verket inte jättemycket det heller. (Bara 10% av Sveriges befolkning)

Visa signatur

AMD Ryzen 7 5800X3D | EVGA GeForce RTX 3080 10GB FTW3 ULTRA | ASUS ROG Strix B450-F Gaming | Corsair RM750X V2 | Crucial Ballistix Sport LT 3200MHz 16GB | Samsung 980 Pro 1TB | Crucial MX500 2TB | NZXT H500

Permalänk
Medlem
Skrivet av Yoshman:

En sådan deal är rätt exakt det Apple har med TSMC. Motivationen för TSMC är att de får pengar i förskott vilket minskar risken för dem medan motivationen för Apple i det läget är att de får förtur.

om Intel har en sådan deal även för 6 nm (vet inte om det är så, allt pekar på att det är exakt vad deal:en på 3 nm bygger på) har Intel fått betalat för privilegiet.

Det är min känsla med- inte riktigt förtur att betala för kapacitet, och har svårt att se att TSMC skulle prioritera intel bara pga goodwill. Och om intel kan binda sig till en mängd kapacitet över tid eller en mängd enheter så är det väl mer attraktivt än ett avtal som är mer rörligt, för TSMC. Och om Intel vet att de har en bra produkt på GPU-sidan så finns det ju i nuvarande marknad goda skäl med en sådan deal.

Skrivet av Matvraket:

Det är mycket samarbete inom branschen, många använder diverse komponenter från varandra. Men ja Intel måste ju buda för att få kapacitet, det kan tyckas kontraproduktivt att vilja göra så att en konkurrent får pengar för att bygga fabs, men det finns ju också en poäng för TSMC att diversifiera deras inkomstkällor. Intel kanske gav tillräckligt bra bud å kommer få lägre marginaler på grafikkorten pga detta som straff, men med tanke på efterfrågan på grafikkort kanske marginalerna och blir tillräckligt bra ändå. Även om Intel bygger fler fabs kanske de resonerar så att efterfrågan är tillräckligt hög för dom båda.

Yup, var lite ute efter det- är inte kontraproduktivt egentligen att arbeta med konkurrenter, men vore konstigt om intel skulle få förtur bara för att de är intel, har väldigt svårt att se. Men att de betalar för det kan jag absolut tänka mig, Och som jag svarade yoshman ovan så kan jag tänka mig att de finns gott om sätt att få en deal som passar båda- men ändå bara helt vanlig förhandling. Om det handlade om att ge kunder "förtur" till lines där alla är villiga att erbjuda mycket så tvivlar jag att intel skulle ha förtur över andra aktörer som inte är direkta konkurrenter. Vore väldigt konstigt.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av ronnylov:

Du menar att grafikkorten är för billiga?

Priset spelar liten roll så länge du tjänar pengar på de. Även om det ska ta ett år att tjäna igen ett kort för 25k.

Permalänk
Medlem
Skrivet av Moton:

Priset spelar liten roll så länge du tjänar pengar på de. Även om det ska ta ett år att tjäna igen ett kort för 25k.

Exakt. Högre pris på grafikkort innebär endast högre ROI för en miner. Vinsten kommer fortfarande komma, bara lite senare.

Permalänk
Medlem

Hoppas verkligen att de gör en ordentlig genomgång av drivrutinerna för i dagsläget är de kassa. Vissa spel går klockrent, vissa krashar och vissa går inte alls.

Visa signatur

R&D Elektronikingenjör

Permalänk
Medlem

Raja, nu kan jag inte vänta på de här korten längre. Fick beställa ett instegs RX6600 för att hålla ner förlusterna pga överpris till ca 1800 kr. Jag vet att grafikprestandan är undermålig mina övriga komponenter, men det ger i varje fall möjlighet att korta av back loggen. Få se när jag uppgraderar på "riktigt", men kommer Battlemage att slå RTX 3090 spelprestanda till ett rimligt pris så kan jag vänta/tänka mig det.

Ett alternativ hade nu varit RX 6900 XT, men ska man betala norr om 14000 kr för ett gammalt kort så ska nog 4k prestandan vara bättre.

Skrivet av SanTeoX:

Jag kan tänka mig att köpa någon form av instegskort från Intel som kan vara rimligt prissatt. Något mellanting mellan deras highend och deras integrerade. Kör på ett UHD 770 nu och det gör allt jag kräver av det, men lite mer pulver vore trevligt.
Krav är att det finns inbyggt quicksync. Tror att ett sådant kort skulle attrahera många. Långt ifrån alla spelar spel men behöver ändå viss prestanda i olika grafikprogram m.m och man vill inte alltid slänga ut hutlösa mängder pengar för prestanda man inte använder bara för att det ska funka bra i vissa program som kräver lite gpu men inte lika som spel..

Går från ett UHD Graphics 770 jag nu också.

Epic fail (av mig) är det trots allt. Ett 19000 kr PC bygge kommer inte i närheten av min Xbox Series X i spelprestanda. Det enda som kommer nära är ljudnivån.

Permalänk
Medlem

De flesta arcs blir väl ändå uppköpta av cryptofarms och så står gamers utan kort igen ... Jag ger inte mycket för hans ord ...

Visa signatur

TE Computer-1|B550|5600X|NH-D9L|2x8GB|980 Pro|RTX 3060|SF600|Benq 21:9|B&W MM-1|B&O H95

Permalänk
Medlem
Skrivet av Marcsod:

De flesta arcs blir väl ändå uppköpta av cryptofarms och så står gamers utan kort igen ... Jag ger inte mycket för hans ord ...

Fast det hänger ju på om dom är bra på just krypto brytning.
Visar det sig att dom är bra på någon krypto så är vi ju tillbaka på ruta ett....