Intel kör Battlefield V på bärbar dator med integrerad Xe-grafik

Permalänk
Medlem

@Triton242: På 90 talet körde vi seta com_maxfps "125" på Nvidia GeForce 256.
Skämt och sidor hur många lyckades med det innan det klockan slog 2000.

Men 85hz skärmar körde vi sedan flera och i de spel som stödde det.

On:
Jag tror på deras drv då jag ser dem. Skulle ju vara kul att se att de lyckats så här "snabbt" då de inte lyckas fixa andra buggar tidigare på ett decennium eller två.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av hACmAn:

@Triton242: På 90 talet körde vi seta com_maxfps "125" på Nvidia GeForce 256.
Skämt och sidor hur många lyckades med det innan det klockan slog 2000.

Men 85hz skärmar körde vi sedan flera och i de spel som stödde det.

Haha 256 kom i andra halva av 1999. det är nymodigheter som kom precis i sista stund på 90 talet.
Hade ett sådant själv som ja lödde om
Så det blev ett quadro kort.

Permalänk
Medlem
Skrivet av Yoshman:

Inser att Intel vill visa lite spelprestanda för att peka på att de nu jobbar mer aktivt med en GPU. Men visar inte detta precis vad alla andra "starka" iGPUer visat innan: begränsningar i TDP och minnesbandbredd jämfört med även enklare dGPUer gör att iGPUer bara kommer fungera ihop med enklare titlar.

För att sätta detta i relation till iGPU i Ryzen 4900HS

"AdoredTV editor Matthew Connatser commented that his Asus ROG Zephyrus G14 with AMD Ryzen 9 4900HS, running Battlefield V with the same settings, achieved an average 25fps in the same scene."

Så det är ett riktigt bra resultat för att vara en iGPU, framförallt om Intel körde på en 1165G7 som har cTDP på 12-25 W, d.v.s. man lär i så fall kört på 25 W (finns rykten om en 1168G7 på 28 W TDP, vet inte vilken cTDP den maximalt har). 4900HS är en 35 W TDP krets. Går ändå inte att komma ifrån att ~30 FPS är inte superspännande.

Det skulle vara roligt veta vad för minne de använder. Om de använder exempelvis LPDDR4(X) 4266 eller vanligt DDR4 3200. Med LPDDR4(X) skulle bandbredden vara ca 30% högre vilket skulle kunna ge en fördel (men behöver inte vara det). Skulle va roligt att jämföra 4800u med LPDDR4 4266 vs DDR4 3200 se om det gör någon skillnad.
MX250 med GDDR5 på 25W ligger väl på ungefär 23FPS i BFV 1920x1080 high och har ungefär samma bandbredd som DDR4.
LPDDR4 4266 @ 128Bitar ~ 68GB/s
DDR4 3200 @ 128Bitar ~51.2GB/s
GDDR5 7000 @ 64Bitar ~56GB/s

Som sagt skulle vara roligt och veta vad som är störst flaskhalsen TDP eller bandbredden.

Skrivet av Yoshman:

Så GPGPU är den killer-app:en "stark" iGPU letat efter, för att det ska realiseras krävs egentligen långt mer jobb på programvarusidan än på kiselsidan! Intel kan ha fått till den delen med oneAPI.

Skulle vara på tiden, känns om det finns en ganska stor outnyttjad potential

Visa signatur

"Gravity is a myth, the earth sucks."

Permalänk
Inaktiv

"flyter på bra"

Permalänk
Skrivet av Yoshman:

Även program som Matlab kommer kunna dra väldigt fin nytta av Xe då Intel kör med 1:4 mellan FP32 och FP64 jämfört med AMDs 1:16 och Nvidias 1:32.
[...]
Intel kan ha fått till den delen med oneAPI.

Bye bye Volta@30-90kkr
Bye bye alla dom dyraste Quadro kort med 1:2/1:4 FP64

Om Intel konsekvent kan hålla 1:4 även i mid-end och high-end till hyffsat pris, kan nog Nvidia säga bye bye till dessa ockerpriser som alltid dyker upp så fort man vill ha en bättre ratio i FP64 än 1:32.
Speciellt om oneAPI slår sig in o blir en CUDA dödare.

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av Triton242:

Du har ju inte varit med på 90 talet det märker jag ;=)

Skämt o sido. Håller med att 30fps är ganska nära den hastighet jag själv kan skyffla diabilder med vilket inte räcker till denna genre med mus som inmatningsenhet.

Även om jag blivit bortskämd med 60+ fps på äldre dagar, så minns jag Doom på min 386 DX40 med 5mb ram. Descent gick det med med låga inställningar.

Jag va en nöjd prick bara över att ha en pc som kunde köra doom.

Idag är det omöjligt att ligga under 144fps utan att skrika sig hes över hur dum världen är.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

@serverfel:
jag önskar nästan att jag aldrig gick över till 144hz lol.. nu blev delarna så mycket dyrare. har köpt cappad fps i msi afterburner/rivatuner till 60fps och spelade till och med på en 40 tummare! sen en dag fick ja för mig att köpa en 144hz skärm. tempsen gick upp avsvevärt, och nu med min gaming laptop på 60hz känns det hackigt... i-lands problem lolol

Visa signatur

My rig 144hz 1440p 27" samsung g5, xfx 6950xt, 11900K, TM Peerless assassin,Gigabyte z590 UD, 32GB 3200MHz Vengeance, 1tb nv2, 2TB SSD 4TB HDD, corsair750 vengeance, Lancool 215.
GFs rig 144Hz samsung 1080p, Palit 3060Ti, 10400F,corsair H60 , B560 Auros, 16GB 3000MHz, 500GB NV1, 480GB A400, 2TB+750GB HDD, Seasonic 650 gold, Kolink Void Laptop Lenovo Legion 5, 2060, 4800H, 16GB, 1,5TB NVME HTPC 3060, 10400F, 16GB, 500GB NVME, 960GB A400 3rd PC 3060Ti, 3700X, Hyper 212, 16GB, 250GB SSD, 2TB HDD, 650w gold, P300A

Permalänk
Datavetare
Skrivet av lastninja:

Bye bye Volta@30-90kkr
Bye bye alla dom dyraste Quadro kort med 1:2/1:4 FP64

Om Intel konsekvent kan hålla 1:4 även i mid-end och high-end till hyffsat pris, kan nog Nvidia säga bye bye till dessa ockerpriser som alltid dyker upp så fort man vill ha en bättre ratio i FP64 än 1:32.
Speciellt om oneAPI slår sig in o blir en CUDA dödare.

Nåja, tror nog Nvidia inte behöver frukta instegsvarianten av Xe. Quadro Volta är från 2018 har ju ungefär en tio gånger högre FP64 kapacitet plus att Nvidias CUDA idag är de-facto standard för GPGPU medan Intel behöver bevisa att oneAPI är något att bry sig om i praktiken.

Men tror på oneAPI. Dels håller man sig inom standard C++ och dels finns en riktigt bra story kring att hantera både system som har kompatibel GPU samt de som saknar sådan, det med en och samma kodbas. CUDA är riktigt bra, men det kräver att man skriver en separat version av programmet om man vill stödja system som saknar Nvidia GPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer