Intels satsning på grafikkort heter "Xe" – lanseras år 2020

Permalänk
Medlem
Skrivet av tumvanten:

Jag tror inte de kommer komma förbi AMD ens.
Efter 5-6 generationer kommer de nog kunna konkurrera med AMD.

Håller med här.
Finns inte en chans att dom kommer helt från ingenting och plötsligt kan producera något kan konkurera med Nvidia när inte ens AMD som har hållit på länge med grafikkort kan göra det. Visst dom har pulat med integrerad grafik, men ett dedikerat grafikkort är lite mer än så.

Sedan är ju grafikkort så mycket mera än bara grafik numera. Förutom drivrutiner, där intel knappast imponerat hittills, så är det massa lulllull som encoding, decoding, spela in video, diverse beräkningar (cuda/dc), olika fysik grejor för spel typ physX/hairworks. Ansel, mao en jävla massa extra som man alltså skulle välja bort med ett intel kort. Något som kommer ta intel ett bra tag att bygga upp, och developers att implementera i sina spel.
Mao, även om prestandan är där så saknas mycket av det som nvidia/amd har.
Men,, Intel har jobbat på detta och det kommer nog inte ta så lång tid för dom att kunna erbjuda samma. så jag skulle nog gissa 1-2 generationer om dom inte klantar sig, för att kunna konkurera i de lägre segmenten. typ under 2500 kr.

Jag skulle bli jävligt förvånad om dom släpper något som kan konkurera med rtx2050.

Permalänk
Medlem

Xe = Xenon = Den CPU som satt i XBox 360. Verkar vara svårt med orginella namn

Permalänk
Medlem
Skrivet av Ozzed:

Det du beskriver verkar snarare som sådant som är smart att göra när man redan har 60-80% av marknaden. Inte när man är en "nobody" i sammanhanget som verkligen måste slita dag och natt för att bli kundernas gunstling. Jag tror det du beskriver kan ske på sikt, men är det en strategi som de har för att slå sig in på marknaden så är det en usel sådan. Inget av det du beskriver skulle kunna få mig att byta från AMD eller Nvidia, utan vad som behövs är ett erbjudande som kunden inte kan motstå, och då är det nästan bara "billigast och snabbast" som fungerar.

Det är ju grejen, Intel har redan en stor del av marknaden, bara inte just i GPUs. Och menade inte att det nödvändigtvis skulle göra använda dessa metoder mot privatpersoner som köper komponenter, utan mot tillverkare. De behöver inte sänka sina pris med 60% för att vinna över dig om de kan vinna över tillverkare som utger en mycket mycket större procent av marknaden än entusiaster. Om du tror att high-performance är det enda segmentet som spelar roll- titta på hur AMD levt i ett par år på enbart mid-end och built to order grejer för konsoler samt kontrakt med Apple... Intel ägde den absoluta majoriteten av systembyggare, laptoptillverkare osv fram tills deras problem att få fram hårdvara nyligen, och Ryzen serien, de har sin kundbas right there, de behöver bara hala fram en produkt.

Jag har ägt mängder av GPUs från både AMD och Nvidia, om Intel erbjuder en jämförbar prestanda för ungefär samma peng, eller även lite dyrare när jag köper min nästa GPU så kommer jag nästan garanterat köpa den trots att jag just nu föredrar AMD i CPU-sammanhang bara för att testa något nytt- jag har ägt 10+ AMD kort och 20+ Nvidiakort, jag skulle köpa ett grafikkort från ICA om de av någon anledning hade ett som var okej bara för att testa något annat än grönt/rött för en gångs skull

De behöver inte övertyga de svårtövertygade- det räcker med de lättövertygade. De svårövertygade kommer sannolikt dyka upp sen när de är etablerade.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Laxpudding:

Öppen vs. proprietär/sluten lösning är en väldigt förenklad syn på det hela.

"Freesync" eller VESA Adaptive är redan de facto idag på nya skärmar. Funktionen är inbyggd i de flera kretsuppsättningar. Vem som helst kan aktivera denna på nya skärmar. Så ungefär 90% av (senast jag kollade på prisjakt) av alla skärmar med adaptiv sync har "Freesync" därför att funktion redan finns där. Troligtvis är det ännu fler skärmar som har funktionen med skillnaden att inte alla skärmtillverkaren bryr sig om att specificera eller garantera funktionen.

VESA Adaptive Sync är en generisk funktion som i stort sett bara finns där på en färdig systemkrets. Så den "kampen" är vunnen sedan länge. Ifall man nu måste betrakta detta som en kamp mellan vita eller svarta hattar då? Jag är lite för pragmatisk för det.

G-Sync är en annan approach där Nvidia ihop med paneltillverkaren optimerar bland annat overdrive efter den specifika panelens beteende och respons vid olika frekvenser. Detta för att undvika flimmer, ghosting och andra typer av overdriveproblem. En skärmtillverkare kan inte bara sätta ihop en G-Syncskärm hux flux. Nvidia styr över urvalet.

Nvidias approach använder separat programmering för varje sorts panelmodell vilket förklarar varför G-Syncmodulen är på FPGA (och kostar en del). Men Nvidias kontroll gör också att endast specifika och utvärderade LCD-paneler kommer att förses med G-Sync. Tanken är att det ska finnas en konsekvens i beteendet hos produkten. Likt att synkroniseringen ska fungera inom 30–144 Hz eller vad som nu är teknisk övre gräns för panelen – utan att flimmer eller ghosting tar över bilden. Vilket också stämmer. De fåtal G-Sync-skärmarna som finns är på gott och ont också tämligen konsekventa i sitt beteende, vilka funktioner som finns – eller inte finns – och hur skärmen beter sig.

Med VESA Adaptive/Freesync kan det vara precis hur som helst. Men eftersom kretsuppsättningen och funktionen är genereisk är effekten också godtycklig på olika paneltyper. Då kan det vara en flimmerfest eller långa släpande overdriveskuggor eller för den delen ryckig bild ifall skärmen meddelar ett frekvenspann som den inte kan reproducera. Att det är AMD:s egen kvalitetsstämpel, alltså "AMD Freesync" på det hela garanterar heller ingenting. Vi har ju haft flera tester där Freesync är oanvändbar pga flimmer, hack och eftersläp, märkliga intervall som 120–144 Hz eller vad som helst. Det är en liten överraskning varje gång man testar en skärm med "Freesync".

Eller så fungerar Freesync som väntat. Händer det med. Fast man vet inte vad man får innan någon har testat.

Riktigt intressant läsning och mycket välunderbyggd kommentar. Intressant att se saker i sina rätta sammanhang.

Tack Thomas!

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Medlem
Skrivet av backfeed:

Precis, särskilt eftersom även Nvidia har en mycket lojal kundbas.

För övrigt är Intel verkligen inga mästare på grafikdrivrutiner (till Windows, för deras iGPU:er), så personligen kommer jag högst sannolikt hålla mig undan i början, tills de blivit varmare i kläderna.

Jo, håller med.

Det största problemet är nog att Intel är så genuint usla på mjukvara, och drivrutiner. Inte direkt deras starkaste sida om man säger så. Detta är ju ett område som Nvidia traditionellt är riktigt straka på ofta (oftast mer så än AMD).

Hoppas dock att vi oroar oss i onödan, och att Intel inser vikten av att leverera även på detta område.

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk

Det viktiga är att bokstaven X är med i namnet.

Visa signatur
Permalänk
Medlem
Skrivet av Lordsqueak:

Håller med här.
Finns inte en chans att dom kommer helt från ingenting och plötsligt kan producera något kan konkurera med Nvidia när inte ens AMD som har hållit på länge med grafikkort kan göra det. Visst dom har pulat med integrerad grafik, men ett dedikerat grafikkort är lite mer än så.

Sedan är ju grafikkort så mycket mera än bara grafik numera. Förutom drivrutiner, där intel knappast imponerat hittills, så är det massa lulllull som encoding, decoding, spela in video, diverse beräkningar (cuda/dc), olika fysik grejor för spel typ physX/hairworks. Ansel, mao en jävla massa extra som man alltså skulle välja bort med ett intel kort. Något som kommer ta intel ett bra tag att bygga upp, och developers att implementera i sina spel.
Mao, även om prestandan är där så saknas mycket av det som nvidia/amd har.
Men,, Intel har jobbat på detta och det kommer nog inte ta så lång tid för dom att kunna erbjuda samma. så jag skulle nog gissa 1-2 generationer om dom inte klantar sig, för att kunna konkurera i de lägre segmenten. typ under 2500 kr.

Jag skulle bli jävligt förvånad om dom släpper något som kan konkurera med rtx2050.

Jag förväntar mig att Intel levererar mer uppgifts anpassade grafikkort för servrar så som de gör med CPU:er.
Jag tror inte entusiaster och fps jagande spelgalningar är den kundgruppen Intel kommer satsa hårdast på men jag förväntar mig bättre grafik i mainstream APU:er.

Permalänk

@loefet: Javisst vore det bra men de har lång väg att gå. Det var många år sedan VIA hade nåt spännande. VIA Nano kunde slå Atom men idag krävs mer!

Permalänk
Medlem
Skrivet av Lordsqueak:

Håller med här.
Finns inte en chans att dom kommer helt från ingenting och plötsligt kan producera något kan konkurera med Nvidia när inte ens AMD som har hållit på länge med grafikkort kan göra det. Visst dom har pulat med integrerad grafik, men ett dedikerat grafikkort är lite mer än så.

Sedan är ju grafikkort så mycket mera än bara grafik numera. Förutom drivrutiner, där intel knappast imponerat hittills, så är det massa lulllull som encoding, decoding, spela in video, diverse beräkningar (cuda/dc), olika fysik grejor för spel typ physX/hairworks. Ansel, mao en jävla massa extra som man alltså skulle välja bort med ett intel kort. Något som kommer ta intel ett bra tag att bygga upp, och developers att implementera i sina spel.
Mao, även om prestandan är där så saknas mycket av det som nvidia/amd har.
Men,, Intel har jobbat på detta och det kommer nog inte ta så lång tid för dom att kunna erbjuda samma. så jag skulle nog gissa 1-2 generationer om dom inte klantar sig, för att kunna konkurera i de lägre segmenten. typ under 2500 kr.

Jag skulle bli jävligt förvånad om dom släpper något som kan konkurera med rtx2050.

Dock fungerar ju hairworks på Nivida kort också, så det borde fungera även på Intels kort. Vet inte om Intels inbyggda gpu i cpu:er klarar det idag (kanske är för klena för ens prova )

Intel har ju inte heller legat i dvala, utan har ju redan en gpu (fast till servers), intel har även haft en gpu som går köra spel på (men den lanserades aldrig).

Så helt på noll kommer inte intel vara, men vi får se om intel kommer gå efter hårdvarulösning eller mjukvarulösning i grafikkorten för olika funktioner ((mjukvarulösning) som sina tidigare kort dom hade tänkt lansera).

___________

Vilken fantasi Intel har på namn Sen äntligen free sync stöd:)

@Laxpudding vist adaptive-sync kanske redan vunnit, men märks inte på Nvidias kort (förstår dock hur du tänker/menar). Men flesta vill ha en funktion som fungerar oavsett märke på grafikkorten.

Är tråkigt att adaptive-sync inte fungerar hela vägen, trots free-sync märkning. Men skärmar masstillverkas och få kvalitetskontroller görs, så man är ju inte förvånad att saker inte fungerar som tänkt. Känns ju som AMD är rätt slappa med sina krav också (vet inte om dom inte vill lägga sig i tillverkningen eller råd/tid att kolla så skärmen lever upp till kraven), känns som om AMD ofta lämnar över ansvaret till tredjepart att fixa (vi lanserar en funktion, ni får fixa buggarna typ).

Vist när man kör öppen standard vägen, är det betydligt svårare att fixa problemen längs vägen när flera parter är inblandade. Med just skärmar är troligen inte standarden problmet, utan AMD som vart för givmilda och gett märkningen till skärmar som inte fungerar helt 100% (eller om det är så illa att tillverkaren själv kan sätta på klisterlappen om denne tycker att den lever upp till AMD´s krav).

Väntar i alla fall på riktigt IPS med adaptive-sync som klarar 30-144 HZ som Nvidias klarar.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Shiprat:

Vad skulle du definera som prestandasegmentet? 1080Ti och uppåt?

Håller med dig om att det nog är en rätt normal definition på det, så kan absolut köpa den.

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Medlem

Hoppas på kort anpassade för machine/deep learning.

Permalänk
Medlem
Skrivet av Snubb1:

Jag förväntar mig att Intel levererar mer uppgifts anpassade grafikkort för servrar så som de gör med CPU:er.
Jag tror inte entusiaster och fps jagande spelgalningar är den kundgruppen Intel kommer satsa hårdast på men jag förväntar mig bättre grafik i mainstream APU:er.

Japp, precis, om Intel gör det smart nu så kommer detta fungera fint till content creation och mid-range spel tom, på en hyfsat låg strömbudget. Ja, egentligen allt utom hardcore gaming. (lämnar det öppet exakt hur krutiga dera top end kort blir eller inte blir)

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|