Intel bekräftar – släpper första dedikerade grafikkortet år 2020

Permalänk
Medlem
Skrivet av Garderoben:

G-sync är ju oftast bättre dock. Vem vill ha Freesync i 75hz liksom.

Aja hoppas verkligen det kommer lite kort i den högre klassen så det blir tryck på Nvidia inte bra när någon part får dominera fritt.

Varför skulle man köpa Freesync i 75hz annat än om man har en låg budget? Jag köpte en skärm med Freesync 40-144hz och när jag jämför med en kompis som har en liknande skärm med G-sync ser jag ingen skillnad.

Permalänk
Medlem
Skrivet av triDave:

Sound på engelska betyder aldrig sund som i Kalmar sund...

Det gör det visst. https://en.wikipedia.org/wiki/Sound_(geography)

Permalänk
Medlem
Skrivet av Durkadur:

Intel är väl redan på Freesync-tåget med sina intrigerade grafikkort? Det borde vara en no-brainer att lägga in de dedikerade också. Vore mycket bra för Freesync och sätta ytterligare press på Nvidia att stödja standarden.

De har sagt att de skall stödja det, men gör det inte än.

Skrivet av Fulci:

Det är roligt att en del klagar på Nvida har vissa egna innovationer låsta via IP.

Men samtidigt ignorerar att CPU på Windows PC är en helt låst marknad för Nvidia eller någon annan på grund av Intel och AMD oligopolet x86-64.

Första Surface körde Windows på en nVidia Tegra-processor, så visst kan man köra Windows på nVidia-processorer om man vill...

(Jag har inga större problem med att nVidia inte licensierar G-sync till AMD. Det ligger i varje företags intresse att hålla det som är deras kärnkompetens för sig själva - även ett företag som Google, som kör mycket med öppen källkod, håller koden till sökmotorn privat. De som tycker att G-sync är fantastiskt får gärna betala mer för det, det är inte mina pengar, och det driver utvecklingen framåt om den som uppfunnit något får betalt för det.

Vad jag inte gillar är att nVidia inte stödjer DisplayPort Adaptive Sync i sina desktop-GPUer. De skulle lätt kunna fixa det, eftersom stödet fungerar i GPUer i bärbara, men har valt att låsa bort den funktionen.)

Skrivet av triDave:

Sound på engelska betyder aldrig sund som i Kalmar sund...

Dictionary.com listar den betydelsen. Det är absolut inte en vanlig användning, men det förekommer i enskilda namn.

http://www.dictionary.com/browse/sound?s=t

Visa signatur

5900X | 6700XT

Permalänk
Skrivet av Durkadur:

Varför skulle man köpa Freesync i 75hz annat än om man har en låg budget? Jag köpte en skärm med Freesync 40-144hz och när jag jämför med en kompis som har en liknande skärm med G-sync ser jag ingen skillnad.

Kamrat! visa mig en 3840x2160 skärm i 144hz med FreeSync.

Visa signatur
Permalänk
Medlem
Skrivet av Durkadur:

Intel är väl redan på Freesync-tåget med sina intrigerade grafikkort? Det borde vara en no-brainer att lägga in de dedikerade också. Vore mycket bra för Freesync och sätta ytterligare press på Nvidia att stödja standarden.

Jag tror inte de har aktiverat det än. De har sagt att de ska stödja FreeSync på sina iGPUs, men jag tror det fortfarande är tyst på den fronten utöver det löftet.

Skrivet av Garderoben:

Kamrat! visa mig en 3840x2160 skärm i 144hz med FreeSync.

...vad skulle det där bevisa? På grund av att de första skärmarna med 4K144Hz (som ju nyss kommit ut) har G-Sync så är FreeSync värdelöst? Vad är... vad är ens tanken här? Självklart kommer den allra yppersta skärmklassen fokusera på G-Sync eftersom att om man nu har råd med en skärm för tjugo lök så har man nästan garanterat ett 1080 Ti eller bättre. Detta skulle inte ens antyda att man inte skulle vilja ha FreeSync på sin skärm, eftersom det finns många skärmar med bra FreeSync-intervall nuförtiden. Det var mycket sämre i början, när FreeSync i princip var en eftertanke.

Sen har du ju FreeSync 2 som har mycket tajtare restriktioner, exempelvis att man inte får ha en minimigräns för FreeSync-intervallet. Jag hoppas verkligen att Intel får tummen ur och börjar stödja FreeSync - eller ja, HDMI VRR och VESA Adaptive-Sync. Öppna standarder där det bara är att tuta och köra.
G-Sync är direkt konsumentfientligt då hela poängen är att låsa in användaren i Nvidias ekosystem. Det är helt enkelt Applefasoner. Fy fan.

Visa signatur

Ryzen 7 7800X3D | RTX 3070 | 2x32GB DDR5-5600 | B650M Pro RS WiFi
Define R5 Blackout | Noctua NH-U14S | EVGA G2 SuperNOVA 850W
G502 Proteus Spectrum | Vortex Pok3r RGB

Permalänk
Medlem
Skrivet av Garderoben:

visa mig en 3840x2160 skärm i 144hz med FreeSync.

Visa mig en GPU att driva en sån med först.

Permalänk
Skrivet av Sveklockarn:

Visa mig en GPU att driva en sån med först.

Är väl inga problem frågan är väl vad?

Visa signatur
Permalänk
Medlem
Skrivet av Garderoben:

Kamrat! visa mig en 3840x2160 skärm i 144hz med FreeSync.

Kamrat! Du specificerade aldrig någon upplösning Det var rätt extrema krav som jag inte kan tänka mig att speciellt många G-sync-skärmar stödjer heller. Jag kan se 2 st på Prisjakt för 25 000 kr styck och ingen av dem är i lager någonstans. Så jag skulle inte kalla det "dominera fritt". Tror du helt enkelt är för tidigt ute och betyder inte att Freesync är sämre än G-sync.

Skrivet av mpat:

De har sagt att de skall stödja det, men gör det inte än.

Du har helt rätt. Än så länge bara snack och ingen verkstad.

Permalänk
Medlem
Skrivet av Garderoben:

Är väl inga problem frågan är väl vad?

Nej det klart, Minecraft går säkert, men det är flera generationer grafikkort bort innan vi har någon singel-GPU där en sån skärm kan utnyttjas fullt ut ens för ”gårdagens” AAA-titlar typ GTA V. Vid det laget har det helt säkert kommit ut några bättre produkter som inte kostar 25k, samt att man slipper sitta med en fem år gammal produkt.

Early adopter i all ära, men de skärmarna är så långt från vanliga dödliga gamers man kan komma just nu. Det finns säkert några hipsters som kör 5-way SLI med Titan XP som kommer tycka att det är current year, men ändå.

Jag har bara haft Nvidia sedan tidigt 2000-tal, och älskar G-Sync, men det är ganska meningslöst att hävda att detta skulle vara en sån fördel mot AMD.

Permalänk
Skrivet av Sveklockarn:

Nej det klart, Minecraft går säkert, men det är flera generationer grafikkort bort innan vi har någon singel-GPU där en sån skärm kan utnyttjas fullt ut ens för ”gårdagens” AAA-titlar typ GTA V. Vid det laget har det helt säkert kommit ut några bättre produkter som inte kostar 25k, samt att man slipper sitta med en fem år gammal produkt.

Early adopter i all ära, men de skärmarna är så långt från vanliga dödliga gamers man kan komma just nu. Det finns säkert några hipsters som kör 5-way SLI med Titan XP som kommer tycka att det är current year, men ändå.

Jag har bara haft Nvidia sedan tidigt 2000-tal, och älskar G-Sync, men det är ganska meningslöst att hävda att detta skulle vara en sån fördel mot AMD.

Hz tillämpas på fler ställen än enbart i spel. Kollar man på skärmar så är det rätt många Freesync skärmar som har kass Hz support.
I slutändan är det väl kanske lika många som har G-Sync dock så det går väl runt.

Båda är väl bra men att hävda att G-Sync är dåligt/skitoch hylla Freesync är ett skämt, lite mer det som var min poäng.

Visa signatur
Permalänk
Medlem

Bättre sent än aldrig. Behövs mer konkurens. Intel behöver nog pengar då de halkat efter. Men kan gpu-branschen få dom på banan?

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av zetruz:

Jag tror inte de har aktiverat det än. De har sagt att de ska stödja FreeSync på sina iGPUs, men jag tror det fortfarande är tyst på den fronten utöver det löftet.

...vad skulle det där bevisa? På grund av att de första skärmarna med 4K144Hz (som ju nyss kommit ut) har G-Sync så är FreeSync värdelöst? Vad är... vad är ens tanken här? Självklart kommer den allra yppersta skärmklassen fokusera på G-Sync eftersom att om man nu har råd med en skärm för tjugo lök så har man nästan garanterat ett 1080 Ti eller bättre. Detta skulle inte ens antyda att man inte skulle vilja ha FreeSync på sin skärm, eftersom det finns många skärmar med bra FreeSync-intervall nuförtiden. Det var mycket sämre i början, när FreeSync i princip var en eftertanke.

Sen har du ju FreeSync 2 som har mycket tajtare restriktioner, exempelvis att man inte får ha en minimigräns för FreeSync-intervallet. Jag hoppas verkligen att Intel får tummen ur och börjar stödja FreeSync - eller ja, HDMI VRR och VESA Adaptive-Sync. Öppna standarder där det bara är att tuta och köra.
G-Sync är direkt konsumentfientligt då hela poängen är att låsa in användaren i Nvidias ekosystem. Det är helt enkelt Applefasoner. Fy fan.

Vill tillägga att 1440 144-165Hz skärmar kostar 1500-2000kr mer för en gsync variant än en fsync. Efterforskade skärmar för 2 månader sen åt en bekant. Då räknar man grafikkort + skärm så är inte vega56 / 64 med fsync så dyrt helt plötsligt. (om man kan få tag i dem).

@Garderoben Två skärmar jag har testat har en jämn 30-144Hz fsync intervall och har fungerat helt klanderfritt.
Kanske är det så att de skärmar jag har testat är AOC skärmar och att de vet hur man implementerar fsync.

Permalänk
Medlem
Skrivet av Sveklockarn:

”It’s a sound investment.”

Haha, ja, framtiden kanske utvisar hur de tänkte där. Rätt lustigt i vilket fall, och absolut inte fel ur ett marknadsföringsmässigt perspektiv, kan vara enda gången jag lagt ett kodnamn på minnet på första försöket

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Medlem

Topp! Då är det bara för nvidia att ta sig in på CPU-marknaden så är triangeldramat komplett.

Permalänk
Medlem
Skrivet av HappyPie:

Vill tillägga att 1440 144-165Hz skärmar kostar 1500-2000kr mer för en gsync variant än en fsync. Efterforskade skärmar för 2 månader sen åt en bekant. Då räknar man grafikkort + skärm så är inte vega56 / 64 med fsync så dyrt helt plötsligt. (om man kan få tag i dem).

Det är lätt att glömma att G-Sync har hårdvara som man får betala dessa ca 1500 kr för, vilket inte gör jämförelsen helt rättvis även om båda åstadkommer adaptiv synkronisering. Lösningen att ha hårdvara i skärmen som kontrolleras av GPU-tillverkaren (snarare än några tweaks som någon klurig korean kom på vid fabriken) är långt mer idiotsäker än Freesync någonsin kommer bli.

Alla är givetvis olika, men för mig är det så att grejerna ska fungera direkt samt varje gång. När jag hängde dit min PG279Q så aktiverades G-Sync automagiskt utan att jag behövde göra någonting, och funkade helt sömlöst med alla spel utan att sitta en halvdag och harva igenom forum med massa döda trådar av folk som har samma problem.

Jag köper hellre grejer för 20k som funkar direkt, än grejer för 2k som behöver ”slutbearbetas” av kund. Nu är ju skillnaden inte tio gånger priset, men jag tror min poäng går hem.

Permalänk
Medlem
Skrivet av Garderoben:

Hz tillämpas på fler ställen än enbart i spel. Kollar man på skärmar så är det rätt många Freesync skärmar som har kass Hz support.
I slutändan är det väl kanske lika många som har G-Sync dock så det går väl runt.

Båda är väl bra men att hävda att G-Sync är dåligt/skitoch hylla Freesync är ett skämt, lite mer det som var min poäng.

Freesync är ju sämst, G-Sync ska’re va’! [skölj/upprepa]

En del skuld hamnar nog på skärmtillverkarna, och där kommer vi tillbaka till min poäng om varför ”inlåst” hårdvarustöd (som i G-Sync) är långt bättre än något hopkok-hittepå som blir rena vilda västern för konsumenten i slutändan.

Permalänk
Skrivet av Sveklockarn:

Freesync är ju sämst, G-Sync ska’re va’! [skölj/upprepa]

En del skuld hamnar nog på skärmtillverkarna, och där kommer vi tillbaka till min poäng om varför ”inlåst” hårdvarustöd (som i G-Sync) är långt bättre än något hopkok-hittepå som blir rena vilda västern för konsumenten i slutändan.

Japp! vi kan ju bara hoppas på att det kommer en gemensam plattform. Typ Nvidia och AMD går ihop och gör en G-Sync variant tillsammans det hade varit något.

Visa signatur
Permalänk
Medlem
Skrivet av Sveklockarn:

Det är lätt att glömma att G-Sync har hårdvara som man får betala dessa ca 1500 kr för, vilket inte gör jämförelsen helt rättvis även om båda åstadkommer adaptiv synkronisering. Lösningen att ha hårdvara i skärmen som kontrolleras av GPU-tillverkaren (snarare än några tweaks som någon klurig korean kom på vid fabriken) är långt mer idiotsäker än Freesync någonsin kommer bli.

Alla är givetvis olika, men för mig är det så att grejerna ska fungera direkt samt varje gång. När jag hängde dit min PG279Q så aktiverades G-Sync automagiskt utan att jag behövde göra någonting, och funkade helt sömlöst med alla spel utan att sitta en halvdag och harva igenom forum med massa döda trådar av folk som har samma problem.

Jag köper hellre grejer för 20k som funkar direkt, än grejer för 2k som behöver ”slutbearbetas” av kund. Nu är ju skillnaden inte tio gånger priset, men jag tror min poäng går hem.

Klart det är rättvist, 1500kr för en krets (som säkert kostar drygt 50lappen) som nvidia kräver på är ju bättre ekonomiskt för nvidia än om nvidia skulle ta 50000-100000kr för validering per modell/krets som skärmtillverkaren själv skulle fixa.
I slutändan är det konsumenten som får betala dessa till nvidia. På AMDs sida så har de varit för slappa i valideringen/krav, vilket fsync2 förhoppningsvis ska lösa.
Däremot så har AOC skärmarna jag testat fungerat perfekt och jag sparar 1500 på det, bara efterforska lite så slipper du betala extra i onödan.

Om du gör en liten efterforskning så kan du spara 10ggr budgeten, om man ska använda ditt räknesätt

Permalänk
Medlem
Skrivet av Sveklockarn:

Det är lätt att glömma att G-Sync har hårdvara som man får betala dessa ca 1500 kr för, vilket inte gör jämförelsen helt rättvis även om båda åstadkommer adaptiv synkronisering. Lösningen att ha hårdvara i skärmen som kontrolleras av GPU-tillverkaren (snarare än några tweaks som någon klurig korean kom på vid fabriken) är långt mer idiotsäker än Freesync någonsin kommer bli.

Alla är givetvis olika, men för mig är det så att grejerna ska fungera direkt samt varje gång. När jag hängde dit min PG279Q så aktiverades G-Sync automagiskt utan att jag behövde göra någonting, och funkade helt sömlöst med alla spel utan att sitta en halvdag och harva igenom forum med massa döda trådar av folk som har samma problem.

Jag köper hellre grejer för 20k som funkar direkt, än grejer för 2k som behöver ”slutbearbetas” av kund. Nu är ju skillnaden inte tio gånger priset, men jag tror min poäng går hem.

Så vad påstår du är så svårt med Freesync?

Jag har en Freesync skärm, jag slår på det i AMD Settings och så fungerar det i alla spel. Japp bara sådär.

I vissa spelmotorer funkar det inte så bra, kan bli "brightness flickering". Exempelvis i Guild Wars 2 eller spel som bygger på Paradox Clausewitz Engine. Där slår jag av Freesync genom att trycka ALT+R för att få fram Radeon Overlay och sedan klicka på en knapp för att stänga av Freesync. Inte speciellt svårt heller. G-sync har väl kanske mindre problem med brightness flickering men är inte immun mot det problemet heller.

Permalänk

Har dom löst alla problemen med freesync än eller är det fortfarande problem med tearing och hela den idiotin med att skärmarna bara synkar i ett visst span? Jag körde på G-Synk för det var bara det som funkade och tänker inte överväga ett byte innan dom kan garantera en tear fri upplevelse från 0 till max refresh rate.

Permalänk
Medlem
Skrivet av Garderoben:

Japp! vi kan ju bara hoppas på att det kommer en gemensam plattform. Typ Nvidia och AMD går ihop och gör en G-Sync variant tillsammans det hade varit något.

Nej, vad ska man då ha för fördel mot snåla bönder?!

Skrivet av HappyPie:

Klart det är rättvist, 1500kr för en krets som nvidia kräver på är ju bättre ekonomiskt för nvidia än om nvidia skulle ta 50000-100000kr för validering per modell/krets som skärmtillverkaren själv skulle fixa.

Det blir alltid en större soppa ju fler kockar som är inblandade.

Sen är det ju knappast så att tillverkaren betalar några 1500 kr till Nvidia för grejerna som kunderna betalar 1500 kr för, vilket jag antar att du också fattar, utan är ett påslag de räknat ut att de kan lägga på skärmen samtidigt som de behåller en viss förväntad försäljningsvolym. Utöver det får sannolikt även de bästsäljande producenterna ett extra volymrabatter m.m. så kostnaden att utrusta en skärm för G-Sync är antagligen ganska liten.

Skrivet av ”HappyPie”:

AOC

Det är inte ett märke jag skulle befatta mig med ändå.

Skrivet av ”HappyPie”:

Om du gör en liten efterforskning så kan du spara 10ggr budgeten, om man ska använda ditt räknesätt

Det handlar om olika kundkretsar.

Jag tillhör kundkretsen som vill köpa färdiga produkter.

Permalänk
Medlem
Skrivet av zetruz:

G-Sync är direkt konsumentfientligt då hela poängen är att låsa in användaren i Nvidias ekosystem. Det är helt enkelt Applefasoner. Fy fan.

Håller helt med dig, tycker heller inte om att man blir låst till ett eko-system. Men tyvärr så kör jag med nVidia GPU och G-sync skärm. För mig blev det, det enda valet. Hatar när man ej kan välja utan man blir låst.

Dock tror jag att Intels intåg på dedikerade GPU:s på marknaden gynnar oss konsumenter i alla högsta grad.

Visa signatur

Dator 1: CPU i7 5820K@4.6Ghz|GIGABYTE X99 Gaming 5|Crucial ballistic 2x4GB 2400MHz, 2x8GB Crucial ballistic 2400MHz|Corsair AX750|ASUS Strix GTX 1070 |Intel 520 120GB|Intel 330 180GB |Intel 335 180GB |Seagate 1000GB | Phanteks Enthoo Primo |Kingston V300 240GB | Creative SB X-Fi

Permalänk
Hedersmedlem
Skrivet av Garderoben:

Japp! vi kan ju bara hoppas på att det kommer en gemensam plattform. Typ Nvidia och AMD går ihop och gör en G-Sync variant tillsammans det hade varit något.

Det finns redan. Eller iaf en platform som alla parter kan använda. Adaptive sync ;).
Alltså den tekniken AMD använder för sin freesync.

Men ja, nvidia har med all klarhet visat att de inte är intresserade av en standard som är öppen och kan användas av andra.

Nvidia kan fortfarande behålla certified by nvidia-nivå mot tillverkarna om de önskar hålla en viss nivå på skärmar om de så önskar så den delen hade de inte heller behövt missa.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Skrivet av Söderbäck:

Det finns redan. Eller iaf en platform som alla parter kan använda. Adaptive sync ;).
Alltså den tekniken AMD använder för sin freesync.

Men ja, nvidia har med all klarhet visat att de inte är intresserade av en standard som är öppen och kan användas av andra.

Nvidia kan fortfarande behålla certified by nvidia-nivå mot tillverkarna om de önskar hålla en viss nivå på skärmar om de så önskar så den delen hade de inte heller behövt missa.

Fast den tillämpas sjukt olika av alla parter. Men som du säger skulle Nvidia kunna certifiera skärmar fortfarande.

Visa signatur
Permalänk
Medlem

Bilden är orelaterad gissar jag eller ska även Intel börja med dom horribla refernskylarna.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av Garderoben:

Fast den tillämpas sjukt olika av alla parter. Men som du säger skulle Nvidia kunna certifiera skärmar fortfarande.

Det hade gått alldeles utmärkt. AMD gör det med Freesync 2.

Apropå vår tidigare diskussion; dennaär ingen för dig?

Permalänk
Hedersmedlem
Skrivet av hakd:

Bilden är orelaterad gissar jag eller ska även Intel börja med dom horribla refernskylarna.

Nog lite tidigt att säga något relevant om kylarlösningarna som Intel tänkt använda.

Däremot är det väl inte helt otroligt att de framöver kommer anamma samma upplägg som amd/nvidia där de själva bygger en grundlösning och sedan låter tillverkare som asus, xfx och liknande bygga egna kyllösningar och sätta ihop kort.
Bra sätt att ge ett brett utbud utan att själv behöva ta fram alla alternativa lösningar/designs som kunderna kan tänkas vilja ha.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Söderbäck:

Nog lite tidigt att säga något relevant om kylarlösningarna som Intel tänkt använda.

Däremot är det väl inte helt otroligt att de framöver kommer anamma samma upplägg som amd/nvidia där de själva bygger en grundlösning och sedan låter tillverkare som asus, xfx och liknande bygga egna kyllösningar och sätta ihop kort.
Bra sätt att ge ett brett utbud utan att själv behöva ta fram alla alternativa lösningar/designs som kunderna kan tänkas vilja ha.

Så dom ska alltså slå sig in på marknaden helt utan nytänk, kommer floppa totalt isf.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Hedersmedlem
Skrivet av hakd:

Så dom ska alltså slå sig in på marknaden helt utan nytänk, kommer floppa totalt isf.

Det där tror jag är för tidigt att säga något om också.

Den delen jag tagit upp är bara möjliga alternativ för just kylningen. Det är ju inte riktigt allt ;). Energieffektivitet, prestanda, prissättning, samarbeten, och alla andra möjliga features med VRstöd, utgångar, kopplingsmöjligheter, specialberäkningsenheter, mjukvarulösningar och liknande har jag inte ens nämnt vilket antagligen kan ha en viss inverkan på huruvida de lyckas.

Men nä, jag tror ju inte att Intel är helt körda redan om de inte är ensamma om att bygga alla varianter av kyllösningar till deras kort. Det där kan andra leverantörer sköta också vilket vi ser i dagsläget. Fungerar ju inte helt olikt för deras processorer i nuläget dessutom.

Edit: Aja. Oavsett vad så är det nog lite tidigt att dra några längre slutsatser kring de kyllösningar de visar upp i nuläget.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Skrivet av Durkadur:

Det hade gått alldeles utmärkt. AMD gör det med Freesync 2.

Apropå vår tidigare diskussion; dennaär ingen för dig?

1080 pixlar på höjden nej tack det är 2018 inte 2005

Visa signatur