Intels satsning på grafikkort heter "Xe" – lanseras år 2020

Permalänk
Bildexpert 📺

Öppen vs. proprietär/sluten lösning är en väldigt förenklad syn på det hela.

"Freesync" eller VESA Adaptive är redan de facto idag på nya skärmar. Funktionen är inbyggd i de flera kretsuppsättningar. Vem som helst kan aktivera denna på nya skärmar. Så ungefär 90% av (senast jag kollade på prisjakt) av alla skärmar med adaptiv sync har "Freesync" därför att funktion redan finns där. Troligtvis är det ännu fler skärmar som har funktionen med skillnaden att inte alla skärmtillverkaren bryr sig om att specificera eller garantera funktionen.

VESA Adaptive Sync är en generisk funktion som i stort sett bara finns där på en färdig systemkrets. Så den "kampen" är vunnen sedan länge. Ifall man nu måste betrakta detta som en kamp mellan vita eller svarta hattar då? Jag är lite för pragmatisk för det.

G-Sync är en annan approach där Nvidia ihop med paneltillverkaren optimerar bland annat overdrive efter den specifika panelens beteende och respons vid olika frekvenser. Detta för att undvika flimmer, ghosting och andra typer av overdriveproblem. En skärmtillverkare kan inte bara sätta ihop en G-Syncskärm hux flux. Nvidia styr över urvalet.

Nvidias approach använder separat programmering för varje sorts panelmodell vilket förklarar varför G-Syncmodulen är på FPGA (och kostar en del). Men Nvidias kontroll gör också att endast specifika och utvärderade LCD-paneler kommer att förses med G-Sync. Tanken är att det ska finnas en konsekvens i beteendet hos produkten. Likt att synkroniseringen ska fungera inom 30–144 Hz eller vad som nu är teknisk övre gräns för panelen – utan att flimmer eller ghosting tar över bilden. Vilket också stämmer. De fåtal G-Sync-skärmarna som finns är på gott och ont också tämligen konsekventa i sitt beteende, vilka funktioner som finns – eller inte finns – och hur skärmen beter sig.

Med VESA Adaptive/Freesync kan det vara precis hur som helst. Men eftersom kretsuppsättningen och funktionen är genereisk är effekten också godtycklig på olika paneltyper. Då kan det vara en flimmerfest eller långa släpande overdriveskuggor eller för den delen ryckig bild ifall skärmen meddelar ett frekvenspann som den inte kan reproducera. Att det är AMD:s egen kvalitetsstämpel, alltså "AMD Freesync" på det hela garanterar heller ingenting. Vi har ju haft flera tester där Freesync är oanvändbar pga flimmer, hack och eftersläp, märkliga intervall som 120–144 Hz eller vad som helst. Det är en liten överraskning varje gång man testar en skärm med "Freesync".

Eller så fungerar Freesync som väntat. Händer det med. Fast man vet inte vad man får innan någon har testat.

Permalänk
Medlem

Så det är bra att Intel ska få ännu mer marknadsandelar på grafikkortsmarknaden eller tvinga Nvidia att sänka sina priser så det blir billigare att köpa Nvidia?

Allt för att inte köpa AMD am I right?

Mer konkurrens my ass.

Permalänk
Medlem

Varför skulle man heja på några rebeller nu när Imperiet äntligen övertagit galaxen?

- All makt åt Jensen, vår befriare!

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

Är försiktigt positiv till detta. Hoppas bara inte Intel hamnar i samma prestanda segment som AMD och sätter för hög press enbart på AMD.
Det bästa vore om Inte kunde pressa in prestanda som är i top segment till ett lägre pris.
Hamnar dom i mellansegmentet och vill ta marknadsandelar så kommer det bli tufft för AMD, om nu inte AMD har ett ESS i rockärmen till 2020.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Skrivet av Laxpudding:

Öppen vs. proprietär/sluten lösning är en väldigt förenklad syn på det hela.

"Freesync" eller VESA Adaptive är redan de facto idag på nya skärmar. Funktionen är inbyggd i de flera kretsuppsättningar. Vem som helst kan aktivera denna på nya skärmar. Så ungefär 90% av (senast jag kollade på prisjakt) av alla skärmar med adaptiv sync har "Freesync" därför att funktion redan finns där. Troligtvis är det ännu fler skärmar som har funktionen med skillnaden att inte alla skärmtillverkaren bryr sig om att specificera eller garantera funktionen.

VESA Adaptive Sync är en generisk funktion som i stort sett bara finns där på en färdig systemkrets. Så den "kampen" är vunnen sedan länge. Ifall man nu måste betrakta detta som en kamp mellan vita eller svarta hattar då? Jag är lite för pragmatisk för det.

G-Sync är en annan approach där Nvidia ihop med paneltillverkaren optimerar bland annat overdrive efter den specifika panelens beteende och respons vid olika frekvenser. Detta för att undvika flimmer, ghosting och andra typer av overdriveproblem. En skärmtillverkare kan inte bara sätta ihop en G-Syncskärm hux flux. Nvidia styr över urvalet.

Nvidias approach använder separat programmering för varje sorts panelmodell vilket förklarar varför G-Syncmodulen är på FPGA (och kostar en del). Men Nvidias kontroll gör också att endast specifika och utvärderade LCD-paneler kommer att förses med G-Sync. Tanken är att det ska finnas en konsekvens i beteendet hos produkten. Likt att synkroniseringen ska fungera inom 30–144 Hz eller vad som nu är teknisk övre gräns för panelen – utan att flimmer eller ghosting tar över bilden. Vilket också stämmer. De fåtal G-Sync-skärmarna som finns är på gott och ont också tämligen konsekventa i sitt beteende, vilka funktioner som finns – eller inte finns – och hur skärmen beter sig.

Med VESA Adaptive/Freesync kan det vara precis hur som helst. Men eftersom kretsuppsättningen och funktionen är genereisk är effekten också godtycklig på olika paneltyper. Då kan det vara en flimmerfest eller långa släpande overdriveskuggor eller för den delen ryckig bild ifall skärmen meddelar ett frekvenspann som den inte kan reproducera. Att det är AMD:s egen kvalitetsstämpel, alltså "AMD Freesync" på det hela garanterar heller ingenting. Vi har ju haft flera tester där Freesync är oanvändbar pga flimmer, hack och eftersläp, märkliga intervall som 120–144 Hz eller vad som helst. Det är en liten överraskning varje gång man testar en skärm med "Freesync".

Eller så fungerar Freesync som väntat. Händer det med. Fast man vet inte vad man får innan någon har testat.

Det är så härligt med dina inlägg som på ett enkelt sätt förklarar "teknisk mumbojumbo som konsumenten inte förstår" (minuspoäng om man inte tar referensen)! Borde fnula ut något bra smeknamn till dig, så som Steve Burke från GN är Tech Jesus, men kommer inte på något passande för stunden. Tack för din kunskap och pedagogiska förklarande (än en gång).

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem

Xe är ju hälften av Xeon.
Det betyder att Xe kommer att kosta 50% av vad en Xeon kostar

Permalänk
Medlem
Skrivet av jwte:

De har redan CPUer: Tegra

Men du tänkte väl på desktop. Nu tror jag inte att de kommer få en x86 licens av Intel, men skulle behövas andra arkitekturer som ARM på skrivbordet.

Hade du fått det hade nog Samsung också gett sig in i leken skulle jag tro.

Skrivet av ThomasLidstrom:

Xe är ju hälften av Xeon.
Det betyder att Xe kommer att kosta 50% av vad en Xeon kostar

Inte så Intel fungerar.
Du får betala 2x mer per bokstav + jobbet att korta ner namnet, så räkna med 2,5X högre kostnad /S

Permalänk
Medlem
Skrivet av jwte:

De har redan CPUer: Tegra

Men du tänkte väl på desktop. Nu tror jag inte att de kommer få en x86 licens av Intel, men skulle behövas andra arkitekturer som ARM på skrivbordet.

Jag tror faktiskt inte det är så enkelt, jag tror det hade vart svårt för Intel att neka att licensera ut x86 när det har en sån dominant position på marknaden. Hade de gjort det så lär de sätta igång en rätt rejäl rättsprocess.

Permalänk
Snusfri

Trevligt, kanske det blir en helt Intel-baserad burk sen då.

Skickades från m.sweclockers.com

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av Laxpudding:

Öppen vs. proprietär/sluten lösning är en väldigt förenklad syn på det hela.

"Freesync" eller VESA Adaptive är redan de facto idag på nya skärmar. Funktionen är inbyggd i de flera kretsuppsättningar. Vem som helst kan aktivera denna på nya skärmar. Så ungefär 90% av (senast jag kollade på prisjakt) av alla skärmar med adaptiv sync har "Freesync" därför att funktion redan finns där. Troligtvis är det ännu fler skärmar som har funktionen med skillnaden att inte alla skärmtillverkaren bryr sig om att specificera eller garantera funktionen.

VESA Adaptive Sync är en generisk funktion som i stort sett bara finns där på en färdig systemkrets. Så den "kampen" är vunnen sedan länge. Ifall man nu måste betrakta detta som en kamp mellan vita eller svarta hattar då? Jag är lite för pragmatisk för det.

G-Sync är en annan approach där Nvidia ihop med paneltillverkaren optimerar bland annat overdrive efter den specifika panelens beteende och respons vid olika frekvenser. Detta för att undvika flimmer, ghosting och andra typer av overdriveproblem. En skärmtillverkare kan inte bara sätta ihop en G-Syncskärm hux flux. Nvidia styr över urvalet.

Nvidias approach använder separat programmering för varje sorts panelmodell vilket förklarar varför G-Syncmodulen är på FPGA (och kostar en del). Men Nvidias kontroll gör också att endast specifika och utvärderade LCD-paneler kommer att förses med G-Sync. Tanken är att det ska finnas en konsekvens i beteendet hos produkten. Likt att synkroniseringen ska fungera inom 30–144 Hz eller vad som nu är teknisk övre gräns för panelen – utan att flimmer eller ghosting tar över bilden. Vilket också stämmer. De fåtal G-Sync-skärmarna som finns är på gott och ont också tämligen konsekventa i sitt beteende, vilka funktioner som finns – eller inte finns – och hur skärmen beter sig.

Med VESA Adaptive/Freesync kan det vara precis hur som helst. Men eftersom kretsuppsättningen och funktionen är genereisk är effekten också godtycklig på olika paneltyper. Då kan det vara en flimmerfest eller långa släpande overdriveskuggor eller för den delen ryckig bild ifall skärmen meddelar ett frekvenspann som den inte kan reproducera. Att det är AMD:s egen kvalitetsstämpel, alltså "AMD Freesync" på det hela garanterar heller ingenting. Vi har ju haft flera tester där Freesync är oanvändbar pga flimmer, hack och eftersläp, märkliga intervall som 120–144 Hz eller vad som helst. Det är en liten överraskning varje gång man testar en skärm med "Freesync".

Eller så fungerar Freesync som väntat. Händer det med. Fast man vet inte vad man får innan någon har testat.

Det är nog inte önskvärt att nvidia ger upp sin metod som på många sätt är bättre då användare vet vad de får. Dock så finns det egentligen inget som hindrar nvidia att även stödja adaptive sync, det är det som är förhoppningen.

Skickades från m.sweclockers.com

Permalänk
Avstängd
Skrivet av Ozzed:

Hur hade du tänkt att de skulle slå sig in på marknaden med en sådant erbjudande? "Köp våra kort. Samma prestanda som Intel men 1.2X dyrare". Man måste vara en fullkomlig idiot för att tycka att det är ett bra erbjudande

Eller;

"köp våra kort, vi erbjuder högsta prestanda med freesync, något som inte AMD gör idag och inte Nvidia heller.

Freesync och hög prestanda är något som inte rimmar idag. Kortet finns inte

Permalänk
Medlem

Det känns som man gör bäst i att hanka sig vidare med still Pascal till 2020 om inte AMD kommer med något revolutionerande nästa år. Bristen på konkurrens har lett till överpriser för relativt små prestandaökningar, och nischade funktioner med tveksamt värde. Kanske lyckas Intel råda bot på det.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av Xcm:

Eller;

"köp våra kort, vi erbjuder högsta prestanda med freesync, något som inte AMD gör idag och inte Nvidia heller.

Freesync och hög prestanda är något som inte rimmar idag. Kortet finns inte

Visst, det kan absolut vara ett säljargument, men jag tror inte folk tycker det är värt ett pris över det redan dyra priset Nvidia tar ut idag, och jag tror inte heller Intel är så intresserad av att endast erbjuda nicheprodukter, som det i så fall blir, utan man vill ta extremt mycket marknadsandelar extremt snabbt, och kommer göra det genom ett extremt reducerat pris son gör att de kommer ha det bästa erbjudandet. Sedan när de dominerar marknaden så kommer de säker ha svindyra produkter igen, som de brukar ha.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Storage Jar:

Hur ska man uttala det här då? X E, kse eller exe?

"Eks upphöjt i E"

Skickades från m.sweclockers.com

Visa signatur

i7 4770k @4.3GHz | Asus z87-pro | Asus 1080 | 16GB RAM | Samsung 840 Pro 256GB | 3TB HDD| Corsair RM850
Thinkpad x60 tablet | 3GB RAM | Crucial M4 128GB
Amiga 500+, Commodore 64/128D

Permalänk
Medlem
Skrivet av Ozzed:

Det bör det göra. Intel är kapitalstarka som satan så de har råd att kraftigt subvensionera sitt intåg i det yppersta prestandasegmentet ett bra tag. Jag ser framför mig hur de kommer leverera 2080TI-prestanda för 4500-5000Kr och riktigt dra ner byxorna på Nvidia.

Sen när de börjat få marknadsandelar så höjer de nog succesivt priserna, så brukar det vara. Men just intåget på marknaden tror jag kommer ske med buller och brak.

Mycket önsketänkande där. Intel har knappt brytt sig om priserna trots att AMD erbjuder ett mycket billigare och prisvärt alternativ. Vi kommer nog med stor sannolikhet aldrig mer se ett toppkort i XX80 klassen kosta 5000 vid släpp tyvärr.

Permalänk
Medlem

Intel: Processorer och (Grafikkort 2020)
AMD: Processorer och Grafikkort.

NVIDIA: Fan vad utanför jag känner mig....

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av martinot:

Spännande!

Ser också verkligen fram emot om Intel kan lyckas konkurrera med nVidia i prestandasegmentet (AMD är ju helt kass och oförmögen där). Skulle verkligen behövas konkurrens på detta området!

Vad skulle du definera som prestandasegmentet? 1080Ti och uppåt?

Skrivet av Xcm:

Eller;

"köp våra kort, vi erbjuder högsta prestanda med freesync, något som inte AMD gör idag och inte Nvidia heller.

Freesync och hög prestanda är något som inte rimmar idag. Kortet finns inte

Well, du kan ju köra en Ryzen APU och ett valfritt nvidiakort om du vill använda en freesyncskärm med nvidia, lite bökigt men om man råkar ha freesync i skärmen kan det ju vara värt det. Har själv en freesync skärm med Vega 64 men använder det knappt då jag inte gillar att ligga under 100FPS ändå, och i overwatch och liknande som jag mest spelar så ligger jag bekvämt med FPS som passar mina 144Hz ändå...

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Kan bli riktigt bra det är. Eftersom de verkar seriösa och då vet dom att om de vill visa sin fina sida är det bra prestanda till bra pris

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Laxpudding:

Öppen vs. proprietär/sluten lösning är en väldigt förenklad syn på det hela.

"Freesync" eller VESA Adaptive är redan de facto idag på nya skärmar. Funktionen är inbyggd i de flera kretsuppsättningar. Vem som helst kan aktivera denna på nya skärmar. Så ungefär 90% av (senast jag kollade på prisjakt) av alla skärmar med adaptiv sync har "Freesync" därför att funktion redan finns där. Troligtvis är det ännu fler skärmar som har funktionen med skillnaden att inte alla skärmtillverkaren bryr sig om att specificera eller garantera funktionen.

VESA Adaptive Sync är en generisk funktion som i stort sett bara finns där på en färdig systemkrets. Så den "kampen" är vunnen sedan länge. Ifall man nu måste betrakta detta som en kamp mellan vita eller svarta hattar då? Jag är lite för pragmatisk för det.

G-Sync är en annan approach där Nvidia ihop med paneltillverkaren optimerar bland annat overdrive efter den specifika panelens beteende och respons vid olika frekvenser. Detta för att undvika flimmer, ghosting och andra typer av overdriveproblem. En skärmtillverkare kan inte bara sätta ihop en G-Syncskärm hux flux. Nvidia styr över urvalet.

Nvidias approach använder separat programmering för varje sorts panelmodell vilket förklarar varför G-Syncmodulen är på FPGA (och kostar en del). Men Nvidias kontroll gör också att endast specifika och utvärderade LCD-paneler kommer att förses med G-Sync. Tanken är att det ska finnas en konsekvens i beteendet hos produkten. Likt att synkroniseringen ska fungera inom 30–144 Hz eller vad som nu är teknisk övre gräns för panelen – utan att flimmer eller ghosting tar över bilden. Vilket också stämmer. De fåtal G-Sync-skärmarna som finns är på gott och ont också tämligen konsekventa i sitt beteende, vilka funktioner som finns – eller inte finns – och hur skärmen beter sig.

Med VESA Adaptive/Freesync kan det vara precis hur som helst. Men eftersom kretsuppsättningen och funktionen är genereisk är effekten också godtycklig på olika paneltyper. Då kan det vara en flimmerfest eller långa släpande overdriveskuggor eller för den delen ryckig bild ifall skärmen meddelar ett frekvenspann som den inte kan reproducera. Att det är AMD:s egen kvalitetsstämpel, alltså "AMD Freesync" på det hela garanterar heller ingenting. Vi har ju haft flera tester där Freesync är oanvändbar pga flimmer, hack och eftersläp, märkliga intervall som 120–144 Hz eller vad som helst. Det är en liten överraskning varje gång man testar en skärm med "Freesync".

Eller så fungerar Freesync som väntat. Händer det med. Fast man vet inte vad man får innan någon har testat.

Innebär Freesync 2/Freesync 2 HDR någon förbättring av funktionaliteten?

Visa signatur

“There will be people that are burdened by only having the capacity to see what has always been instead of what can be.
But don’t you let that burden you.”

Permalänk
Medlem

@CarlosBananos: Då kommer Xander bli förbannad

Visa signatur

Star Citizen ❤

Permalänk
Bildexpert 📺

@FatherOfThree: Syftet med Freesync2 är att tonemapping vid HDR ska kunna ske i hårdvara. Den endas skärmen vi sett där detta används gjorde HDR bilden betänkligt sämre med Freesync 2 HDR: https://www.sweclockers.com/test/26341-benq-ex3203r-32-tums-v...

Annars har vi försökt genom åren att få mer detaljerad teknisk information om både G-Sync och Freesync. Responsen är på nivå av "Öhhh, du aktiverar det i drivrutinen. Här är en skärmdump. Hjälper det?"

Permalänk
Bildexpert 📺
Skrivet av trickeh2k:

Borde fnula ut något bra smeknamn till dig

Laxpudding fungerar. Lager på lager av smarrigheter! Innehåller både lök och smör.

Permalänk
Medlem
Skrivet av FatherOfThree:

Innebär Freesync 2/Freesync 2 HDR någon förbättring av funktionaliteten?

Skrivet av Laxpudding:

@FatherOfThree: Syftet med Freesync2 är att tonemapping vid HDR ska kunna ske i hårdvara. Den endas skärmen vi sett där detta används gjorde HDR bilden betänkligt sämre med Freesync 2 HDR: https://www.sweclockers.com/test/26341-benq-ex3203r-32-tums-v...

Annars har vi försökt genom åren att få mer detaljerad teknisk information om både G-Sync och Freesync. Responsen är på nivå av "Öhhh, du aktiverar det i drivrutinen. Här är en skärmdump. Hjälper det?"

Hade fått för mig att för att få marknadsföra en produkt med Freesync 2 ska den vara kapabel till HDR400 *minst*, den ska har låg input latens, samt något mer, men undrar hur noga dessa saker faktiskt kontrolleras för. Känns mer som en kvalitets-grej, ett certifikat att tillverkaren gjort mer än att bara uppfylla lägsta möjliga spec. Om det inte är mer än vad laxpudding säger så låter det ju rätt onödigt att döpa det till freesync 2 jämfört med att bara säga "Freesync supporting hardware tonemapping", men å andra sidan har AMD sålt samma grafik-kort i några år med nytt namn varje år så vore ju konsekvent marknadsföring iallafall ^^

Har själv en Samsung C32HG70QQ som jag är sjukt nöjd med, men jag köpte den för 144hz, bildkvaliteten och storleken (HDR är även rätt fräsigt i de spel som använder det väl), skulle inte säga att Freesync är någon slags gamechanger såvidare man inte har ett relativt low-end grafikkort som inte klarar av att hålla mer än 50-80 fps som bäst.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av employed:

Mycket önsketänkande där. Intel har knappt brytt sig om priserna trots att AMD erbjuder ett mycket billigare och prisvärt alternativ. Vi kommer nog med stor sannolikhet aldrig mer se ett toppkort i XX80 klassen kosta 5000 vid släpp tyvärr.

Att de fortsätter ta ut hutlösa priser på CPU-marknaden har att göra med deras totala dominans. Kunderna har inte straffat Intel så varför skulle de nöja sig med mindre än att tälja guld när de kan? Det är ingen välgörenhet de driver.

På GPU-sidan däremot är de vid inträdet totalt anonyma och måste verkligen göra allt de kan för att få kundernas välsignelse. Att då gå ut med ett erbjudande som får folk att tänka "Jag kan lika gärna köpa Nvidia/AMD" skulle snabbt göra att de förlorade sin chans att få ordentligt fotfäste. Går de däremot ut med extremt aggresiv prissättning så kan de snabbt nå marknadsdominans, för att så småningo nå samma marknadsandel på GPU-sidan som de har på CPU-sidan idag, och höjer de förmodligen sina priser. Precis som Nvidia gjorde när de åt upp 3DFX.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Att de fortsätter ta ut hutlösa priser på CPU-marknaden har att göra med deras totala dominans. Kunderna har inte straffat Intel så varför skulle de nöja sig med mindre än att tälja guld när de kan? Det är ingen välgörenhet de driver.

På GPU-sidan däremot är de vid inträdet totalt anonyma och måste verkligen göra allt de kan för att få kundernas välsignelse. Att då gå ut med ett erbjudande som får folk att tänka "Jag kan lika gärna köpa Nvidia/AMD" skulle snabbt göra att de förlorade sin chans att få ordentligt fotfäste. Går de däremot ut med extremt aggresiv prissättning så kan de snabbt nå marknadsdominans, för att så småningo nå samma marknadsandel på GPU-sidan som de har på CPU-sidan idag, och höjer de förmodligen sina priser. Precis som Nvidia gjorde när de åt upp 3DFX.

Har svårt att se att det kommer hända då de då förbereder för en situation där kunderna sen lackar över att nästa generation plötsligt är dyr som fan jämfört med första.

Mer sannolika scenarion i min åsikt- de erbjuder förmånliga paketpris, de erbjuder "intel only" features, de ger incentiv till tillverkare att gå med intel för både CPU och dGPU eller förbjuder marknadsföring med vissa av deras brands om man inte har båda gpu och cpu från intel, de erbjuder automatiskt tuning för CPU+GPU på samma ställe (just idag ska ju AMD tydligen lansera auto-undervolt och auto-allting i princip för vega, dock ej testat än..)

Alla dessa skulle jag se som mer sannolika än att Intel helt plötsligt skulle få för sig att ta superlåga priser, det är inte riktigt deras stil...

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Personligen är jag mer nyfiken på Intels drivrutiner och dess UI än dess hårdvara.
Är hårdvaran on par så hänger allt på mjukvaran och kan dom leverera stabila drivrutiner kommer många av oss aldrig köpa AMD eller Nvidia igen. Givet då att vi får vad vi vill ha för pengarna bla bla etc.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av Shiprat:

Har svårt att se att det kommer hända då de då förbereder för en situation där kunderna sen lackar över att nästa generation plötsligt är dyr som fan jämfört med första.

Mer sannolika scenarion i min åsikt- de erbjuder förmånliga paketpris, de erbjuder "intel only" features, de ger incentiv till tillverkare att gå med intel för både CPU och dGPU eller förbjuder marknadsföring med vissa av deras brands om man inte har båda gpu och cpu från intel, de erbjuder automatiskt tuning för CPU+GPU på samma ställe (just idag ska ju AMD tydligen lansera auto-undervolt och auto-allting i princip för vega, dock ej testat än..)

Alla dessa skulle jag se som mer sannolika än att Intel helt plötsligt skulle få för sig att ta superlåga priser, det är inte riktigt deras stil...

Det du beskriver verkar snarare som sådant som är smart att göra när man redan har 60-80% av marknaden. Inte när man är en "nobody" i sammanhanget som verkligen måste slita dag och natt för att bli kundernas gunstling. Jag tror det du beskriver kan ske på sikt, men är det en strategi som de har för att slå sig in på marknaden så är det en usel sådan. Inget av det du beskriver skulle kunna få mig att byta från AMD eller Nvidia, utan vad som behövs är ett erbjudande som kunden inte kan motstå, och då är det nästan bara "billigast och snabbast" som fungerar.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av dlq84:

X to the power of e, om man ska gå efter hur det ser ut på bilderna

Ja, så måste det ju vara.

Permalänk
Medlem
Skrivet av jwte:

De har redan CPUer: Tegra

Men du tänkte väl på desktop. Nu tror jag inte att de kommer få en x86 licens av Intel, men skulle behövas andra arkitekturer som ARM på skrivbordet.

OpenPOWER9 ser redan intressant ut som ersättare för x86 om man kör Linux. Kolla upp "Talos Workstation".

Skickades från m.sweclockers.com

Visa signatur

Mjölnir: Ryzen 9 3900X | X570-I | Ballistix Sport 32GB | Powercolor RX 5500XT 4GB ITX | Kolink Sattelite
Server: Ryzen 5 1400 | X470-F | Ballistix Sport 24GB | ASUS HD 7790 2GB | Sapphire RX 470 8GB ME | NZXT Switch 810

Permalänk
Avstängd

Jag tror inte de kommer komma förbi AMD ens.
Efter 5-6 generationer kommer de nog kunna konkurrera med AMD.