Intel ska stödja VESA Adaptive Sync med framtida grafikkretsar

Permalänk
Melding Plague

Intel ska stödja VESA Adaptive Sync med framtida grafikkretsar

Intels Chris Hook bekräftar att bolaget inte har lagt ned planerna på stöd för adaptiv bildsynkronisering, där VESA Adaptive Sync ska användas för kommande grafikkretsar.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Låter bra då det redan finns gott om freesync skärmar på marknaden.
Det vore dumt med en ny standard och NIH tänk

Permalänk
Medlem

Betyder det här att det automatiskt funkar med freesync skärmar eller måste intel även lägga in det?

Permalänk
Medlem

Riktigt trevligt. Ser fram emot det!

Nu skall Intel bara se till att lära sig skriva riktigt bra drivrutiner...

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Hedersmedlem
Skrivet av Squallie:

Betyder det här att det automatiskt funkar med freesync skärmar eller måste intel även lägga in det?

Det fungerar med nuvarande freesyncskärmar vill jag påstå.

Freesync är inte en teknik AMD byggt in i skärmarna.
Tekniken i skärmarna heter adaptive sync och adaptive sync är fritt fram för alla att använda.

När det står Freesync på en skärm så är det mer av en kvalitetsstämpel att AMD tycker att skärmen har så pass bra nivå av adaptive sync att AMD sätter sin Seal of approval på skärmen - kallad just freesync.

Med det sagt så är väl namnet freesync inte bara en kvalitetsstämpel utan för att det ska fungera med adaptiv bildsynkronisering så behöver det finnas en del teknik även i grafikkortet som fungerar och kan leverera detta. Tekniken i AMDs grafikkort är också en del av namnet Freesync och här handlar det väl om både mjukvara och hårdvara som AMD bygg för att det ska lira väl mot standarden Adaptive sync.

Eller ja, det är så jag har förstått det iaf.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Permalänk
Inaktiv

Jättebra, jag vill inte se olika skärmar för Nvida, Intel och AMD.

Permalänk
Medlem
Skrivet av martinot:

Riktigt trevligt. Ser fram emot det!

Nu skall Intel bara se till att lära sig skriva riktigt bra drivrutiner...

Och efter det får dem börja med att göra vettiga grafikkort.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Avstängd

En del av mig vill skrika JA!! För det är det här som jag hela tiden velat se! Äntligen!
En annan del av mig, muttrar... äntligen det var på tiden, fan vad det dröjer!

Permalänk
Medlem

Jäkla konstigt, vad har stoppat dem från att göra det tidigare, stolthet pga att de själva inte kommit fram med någon teknik för detta?
Finns ju inget skäl till att inte inkludera den här tekniken i GPUer, förutom om man är Nvidia och vill skapa en egen teknik för att tjäna pengar på det.

Permalänk
Medlem

@GuuFi: Precis, finns redan ett r*vh*l till företag som skor sig, hade Intel dragit igång en tredje "standard" tror jag folk hade blivit fullkomligt vansinniga. Jag hade blivit lite trött iaf. Samtidigt ska man inte underskatta människans dumhet, sista ordet är inte sagt. Kan bli kul att följa.

Visa signatur

Kids, always eat your vegetables and ALWAYS check run as administrator.

Permalänk
Medlem

@GuuFi: Intel har inte gjort någon stor uppdatering av sin arkitektur på väldigt länge nu, den iGPU vi har in dagens Intel processorer är i stora drag identiskt vad Skylake levererades med 2015. Intel sa redan för något år sedan att adaptive sync skulle komma med 10nm generationerna.

Permalänk
Medlem
Skrivet av rektor:

En del av mig vill skrika JA!! För det är det här som jag hela tiden velat se! Äntligen!
En annan del av mig, muttrar... äntligen det var på tiden, fan vad det dröjer!

Fast båda dina uttalanden betyder samma sak. Oavsett så är det fan något vi behöver och förtjänar.

Visa signatur

Ryzen 5900X | 32GB G.Skill CL14 3866MT/s | 7900 XTX | Asus Strix X470-F

Permalänk
Avstängd

@martinot: kanske händer det en dag ?

Permalänk
Skrivet av KalBumling:

@GuuFi: Intel har inte gjort någon stor uppdatering av sin arkitektur på väldigt länge nu, den iGPU vi har in dagens Intel processorer är i stora drag identiskt vad Skylake levererades med 2015. Intel sa redan för något år sedan att adaptive sync skulle komma med 10nm generationerna.

Precis

Kan ju hoppas det äntligen blir press på nvidia.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Defender:

Och efter det får dem börja med att göra vettiga grafikkort.

Jag räknar inte med att de kommer upp i klass med bästa nvidia eller AMD. 😊

Däremot så skulle jag ju uppskatta om deras iGPUer i tex. bärbara fick både adaptiv synk, men framför allt bättre drivrutiner än de hyfsat usla som vi tyvärr får dras med ifrån Intel idag!

Visa signatur

macOS: MacBook Air 13" [M1/16/256GB], MacBook Pro 16" [M2/32/512GB], iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 6 44mm [LTE], W10: Surface Book 3 15" [Core i7/GTX1660Ti/32/512GB], LG 77" OLED C2 [OLED77C25LB]
The purpose of morality is to teach you, not to suffer and die, but to enjoy yourself and live. --Ayn Rand
Skriv under ett upprop för en grönare energipolitik: https://energiupproret.se/

Permalänk
Medlem

Har Intel ens nåt grafikchip som klarar ens 10fps i gamla spel? Sist jag provade att spela nåt på en Intel-krets så var det pinsamt dåligt... Men Intel är kanske ute efter den magiska "Cinematic Experience" 24fps :). Får se vad alla deras tekniker och snillen kan skaka fram när de ska in på GPU-marknaden, dock så tror jag mer att det blir nåt general purpose-jox för workstations och inget som man kan spela på.

Permalänk
Livsnjutare 😎

Har man tagit över en grafikingenjör från AMD, så kanske inte det var helt oväntat...

Visa signatur

Citera eller Svara för respons! •
• Life is a playground {|;^) •

Permalänk
Medlem
Skrivet av KoAoL:

@GuuFi: Precis, finns redan ett r*vh*l till företag som skor sig, hade Intel dragit igång en tredje "standard" tror jag folk hade blivit fullkomligt vansinniga. Jag hade blivit lite trött iaf. Samtidigt ska man inte underskatta människans dumhet, sista ordet är inte sagt. Kan bli kul att följa.

Det r*vh*let till företag har ju lyckats lite bättre än sin konkurrent. G-sync funkar ju. Freesync, ja där får man hålla tummarna och hoppas på det bästa. R*vh*let till företag kan ju tyvärr diktera villkor vad gäller t.ex pris då dess konkurrent är helt impotent på grafikkortssidan.

Visa signatur

9900K | Gigabyte Z390 Auros Pro Wifi | 32 GB Corsair V LPX 3200 | 1TB Evo Plus 2TB 660P | 3090 Asus Tuf Oc | Acer XB271HU

Permalänk
Medlem

@cyprus: Precis, de använder sin marknadsposition lite skitigt i mina ögon. De hade sålt lika många kort med en gemensam sync-standard eftersom konkurrensen haltar. Därav epitetet.

Visa signatur

Kids, always eat your vegetables and ALWAYS check run as administrator.

Permalänk
Medlem

Dom säger detta 2015, och säger samma sak 3 år senare. Vad gjorde dom under den tiden?

Permalänk
Medlem
Skrivet av NaturMackan:

Dom säger detta 2015, och säger samma sak 3 år senare. Vad gjorde dom under den tiden?

Inga grafikkort du har nytta av Adaptive sync iaf.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem

Två mot en då. Jag tror det är en tidsfråga tills Nvidia ger med sig. Det betyder inte nödvändigtvis att G-Sync upphör utan kan stanna kvar som något high-end för dem.

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Datavetare
Skrivet av mrpijey:

Har Intel ens nåt grafikchip som klarar ens 10fps i gamla spel? Sist jag provade att spela nåt på en Intel-krets så var det pinsamt dåligt... Men Intel är kanske ute efter den magiska "Cinematic Experience" 24fps :). Får se vad alla deras tekniker och snillen kan skaka fram när de ska in på GPU-marknaden, dock så tror jag mer att det blir nåt general purpose-jox för workstations och inget som man kan spela på.

Om man inser att Intels "normal" grafikkretsar har ungefär 40 % av den teoretiska kapaciteten hos GT 1030(!) (GT2 har halva FLOPS-kapacitet per MHz och är klockade ~20 % lägre) så presterar kretsen rätt mycket på den nivå som kan förväntas.

Går att spela saker som DOTA2, Rocket League, TF2. På absolut lägsta inställningar kan man i någon mån hävda att saker som Overwatch inte är totalt ospelbart, men lär knappast vara någon större upplevelse.

Skulle säga att modellerna utan eDRAM kan bara köra väldigt enkla spel, t.ex. Cannon Brawl fungerar alldeles utmärkt på en i7-5600U (d.v.s. 15 W TDP Broadwell med HD5500, d.v.s. en GT2 krets) som kör Ubuntu.

Däremot fungerar inte ett spel som Gauntlet Slayer Ed speciellt väl, men det fungerar däremot finfint på i7-6650U som är utrustad med Iris Graphics 540 (GT3e som har 64 MB eDRAM och ~80 % högre teoretisk kapacitet jämfört med GT2, TDP på 15 W är dock en flaskhals här).

Intels iGPUer är primärt designade för att vara energieffektiva samt vara kapabla att köra "vanliga" program även i riktigt höga upplösningar då de lite bättre ultratunnan bärbara ofta kommer med högupplösta skärmar. AAA-spel är bara att glömma då det inte finns i närheten tillräckligt minnesbandbredd, inte i närheten tillräckligt med textur-cache och inte alls den TDP som skulle behövas.

Det som fungerar över förväntat på Intels GPUer är OpenCL, d.v.s. att använda GPUn för mer generella beräkningar. Intels OpenCL stöd är riktigt bra, både under Windows och under Linux! Här finns trots allt en hel del saker som till skillnad från spel inte är superberoende av hög minnesbandbredd (vilket är akilleshälen för alla iGPU-lösningar).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av NaturMackan:

Dom säger detta 2015, och säger samma sak 3 år senare. Vad gjorde dom under den tiden?

Misslyckats med att få ut en enda nya grafikkrets. Skylake, som kom 2015, had Gen 9-grafik. Intel kallade Kaby Lake "Gen 9.5", men det handlar om buggfixar (fixed function-dekodern hanterar lite fler codecar). Sedan dess har det inte hänt något, för Gen 10 satt i Cannonlake och gjordes på 10nm. Nu börjar det visst komma hårdvarufixar för Meltdown och Spectre, kan tänka mig att Intel fick prioritera att få ut det.

Vad Intel borde ha gjort är att förbereda Icelake (designen efter Cannonlake, inklusive Gen 11) på 14nm för att ha något nytt i värsta fall att det inte får ut något ur 10nm, men det är kanske lätt att vara efterklok.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

@Yoshman: Alltid kul att läsa dina inlägg. Man lär sig något nytt varje gång

Visa signatur

Send me out... with a bang.