Geforce RTX 3070 försenas – landar tätt inpå Radeon RX 6000

Permalänk
Medlem
Skrivet av Dumbullen:

Hur skulle 14 dagars försening öht kunna påverka tillgängligheten som om det var magi?
3080 kommer i regel in igen 1a dec eller början av nästa år på inet, det är inte som om en försening skulle kunna ändra på det..

Huh? Klart det gör? Förstår inte resonemanget. En hel del 3080 har skeppats. Senast idag sålde inet minst 15 kort som dykt upp i lager. Komplett visade upp en lastpall full med ASUS 3080 TUF igår.

"Beräknade leveransdatum" är dels HÖGST otillitliga men sedan är 3080 helt enkelt ett annat kort än 3070 så att kolla på deras beräknade leveranser känns som en ganska irrelevant datapunkt.

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Medlem
Visa signatur

Windows 11 pro, Corsair 4000D Airflow, MSI PRO B660M-A WIFI D4, Intel Core i5 12600K, Corsair 32GB (2x16GB), PowerColor Radeon RX 6900 XT, Kingston NV1 500GB M.2 NVMe, WD Black SN850 1TB Gen 4, Seasonic Focus GX 850W, LG UltraGear 32GP850

Permalänk
Medlem

Sa ju det.

Permalänk
Medlem
Skrivet av Zirgo:

15 i lager?

Ja, flera butiker har redan listat olika 3070 i lager, men inte till försäljning.

Permalänk
Hjälpsam
Skrivet av Nucky:

NVIDIA tänjer på gränserna för ”Time To Market”

Kan garantera att de fått väldigt tydliga riktlinjer från sina tillverkare om tillgång och dylikt.

De har valt att blunda och enbart lanserat den tillgång tillverkaren kunnat garantera. Och den tillgången var extremt dålig.

Ska bli intressant ifall AMD sysslar med samma sak. Med tanke på att AMD ändå är igång med tillverkning av chipsets till både Sony och Microsoft i enorma kvantiteter och att de även själva ska lansera sina nya serier av grafikkort så känns det som att dom tänkt ett steg längre vad gäller kvantiteten att kunna erbjuda en hungrig marknad.

Tror att det varit lite åt andra hållet, de sponsrar ju korten första månaden, de vill givetvis inte sponsra för många, då blir det allt för dyrt.
Så jag tror att de sagt "vi sponsrar max detta antal".
Om tillgången ökar som fan, efter sponsringen tagit slut, har jag nog haft rätt.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Som jag också trott, lite sämre i vissa, lite bättre i andra. Däremot verkar ju de sämre vara mindre skillnad än de bättre, så det är ju grymt.

Permalänk

Har man nått hum om ungefär prisbild?

Permalänk
Medlem
Skrivet av TimMy2003:

Har man nått hum om ungefär prisbild?

Det finns ett exakt pris på kronan. 5 625 KR i Sverige börjar de från. (FE)

Visa signatur

12900K | 32GB 6000 DDR5 | 3090 FE | PG259QN | Z790 Gaming X AX | SF750 | O11 Mini

Permalänk
Skrivet av RekiN:

Det finns ett exakt pris på kronan. 5 625 KR i Sverige börjar de från. (FE)

Asså kommer det i FE utförande med?
Trevligt.
Tack för svar

Permalänk
Medlem

Vad NVIDIA säger och vad de presenterar säger ju dock inte samma sak.

Doom Eternal, Control, Borderlands 3 och Control RTX var de saker som Digital Foundry fick tillåtelse av NVIDIA att visa.

Såhär såg det ut med 2080ti ställt mot 3080 i deras följande recension. (Tog 4k som ska vara längst från 2080ti. Control RTX testade de bara i 1440p)

Quake2 RTX : 1.47x
Control RTX : 1.43x
Borderlands 3: 1.37x
Doom eternal: 1.34x

Control: 1.34x
AC:O : 1.31x
SoTR : 1.31x
AC:U : 1.30x
Metro exodus RTX: 1.29x
Gears 5: 1.28x
Ghost reacon wildslands: 1.26x
BF5 RTX: 1.26x
Far Cry 5: 1.24x
Metro exodus: 1.24x
Dirt rally 2: 1.24x
Hitman 2: 1.23x
Death stranding: 1.20x

Så av de top 4 bäst presterande, så tog de ut 3st av dem. Av dessa 3 var 3070 endast snabbare i en (Doom eternal). I resterande två var de långsammare än 2080ti. Visserligen med bara 1-3% , men frågan är ju hur det hade sett ut i de sämre presterande titlarna?

Av denna anledning tror jag inte att resultatet i genomsnitt kommer att bli "2080ti eller snabbare" i vanlig rasterprestanda. Med DLSS och RT är den nog snabbare så länge den inte får slut på VRAM.

EDIT: Ska tilläggas att NVIDIA kanske hade låst klockfrekvenser och så innan, och sedan bestämmer sig för att öka dem när de sett 6700XT?

Permalänk
Medlem
Skrivet av Radolov:

EDIT: Ska tilläggas att NVIDIA kanske hade låst klockfrekvenser och så innan, och sedan bestämmer sig för att öka dem när de sett 6700XT?

Dels kan det vara så, dels att de vill undvika negativa rubriker från recensenter som de fick med sitt "dubbelt så bra prestanda som RTX 2080." Då de lätt hade kunna undvika detta och känner att nu måste de faktiskt leverera mer än i två spel för annars kommer ingen ta ett ord de säger seriöst framöver.

Visa signatur

12900K | 32GB 6000 DDR5 | 3090 FE | PG259QN | Z790 Gaming X AX | SF750 | O11 Mini

Permalänk
Skrivet av RunRookieRun:

Nr200p
SF750
RTX 3070

The wait never ends.... Jag kommer blir galen!

Nr200p+
SF750+
RTX 3070 Ti

Moment 22

Permalänk
Medlem

Nvidia har fått veta att AMDs toppkort presterar som ett rtx2080ti och inväntar AMDs presskonferans för att låta folk då köpa rtx3070 istället. Då vet nvidia priset och kan sänka priset på rtx3070 och skriva jebaited?

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Nvidia har fått veta att AMDs toppkort presterar som ett rtx2080ti och inväntar AMDs presskonferans för att låta folk då köpa rtx3070 istället. Då vet nvidia priset och kan sänka priset på rtx3070 och skriva jebaited?

AMDs värsting. Navi21 verkar bli ett monster. AMD var inte imponerade av 3080 och förväntade sig mer enligt Moore's law is dead.
Om jag förstod det rätt så skär AMD ner navi21 till 69-72 CU's i stället för fulla 80. Det behövs helt enkelt inte mer för att konkurrera med 3080, plus att kortet kräver mindre ström. Liknande prestanda till 100w mindre TDP.

Tror nog snarare att nVidia avvaktar lanseringen för att se vilket pris AMD kommer sätta för att den krypa ner under det.
Grattis alla. Nu har vi konkurrens.

Permalänk
Medlem

Varför skulle AMD gå ut och säga att rtx3080 är imponerande?

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av napahlm:

AMDs värsting. Navi21 verkar bli ett monster. AMD var inte imponerade av 3080 och förväntade sig mer enligt Moore's law is dead.

Det var 3090:n de inte var imponerade över. 3080:n kommer de i bästa fall matcha och slå i någon enstaka mätning i 4K om ens det, enligt samma person du refererar till.

Visa signatur

12900K | 32GB 6000 DDR5 | 3090 FE | PG259QN | Z790 Gaming X AX | SF750 | O11 Mini

Permalänk
Medlem
Skrivet av CubaCola:

Varför skulle AMD gå ut och säga att rtx3080 är imponerande?

Menade att dom fick se prestandan och tänkte. Jaha, var det allt?
AMD räknade med att 3080/3090 skulle prestera mycket mer.

Permalänk
Medlem

Jag tolkar det som ett AMDs "mellan och värsting" kommer att konkurrera mot 3070 och Nvidia vill ha marknaden. Släpper man det nu så är alla korten slut tills AMD kommer och får lite av marknaden i avsaknad av Nvidia-kort men nu ser man till att köpa ett AMD-kort ska ge lite avsmak.

Permalänk
Medlem
Skrivet av napahlm:

AMDs värsting. Navi21 verkar bli ett monster. AMD var inte imponerade av 3080 och förväntade sig mer enligt Moore's law is dead.
Om jag förstod det rätt så skär AMD ner navi21 till 69-72 CU's i stället för fulla 80. Det behövs helt enkelt inte mer för att konkurrera med 3080, plus att kortet kräver mindre ström. Liknande prestanda till 100w mindre TDP.

Tror nog snarare att nVidia avvaktar lanseringen för att se vilket pris AMD kommer sätta för att den krypa ner under det.
Grattis alla. Nu har vi konkurrens.

Känns inte alls speciellt trovärdigt att AMD skulle "skära ner" som någon "good will" mot Nvidia.
Hade AMD kunnat släppa ett kort som spöar skiten ur 3080RTX så hade de givetvis gjort det med tanke på hur långt efter man ligger idag.

Permalänk
Medlem
Skrivet av wessmen:

Känns inte alls speciellt trovärdigt att AMD skulle "skära ner" som någon "good will" mot Nvidia.
Hade AMD kunnat släppa ett kort som spöar skiten ur 3080RTX så hade de givetvis gjort det med tanke på hur långt efter man ligger idag.

Hade de? Kan vara så att de jobbar mot redan satta mål när det kommer t.ex. till strömförbrukning och därför valt att skära ned för att hålla det inom rimliga nivåer. Detta ÄR vad som anses vara praxis inom denna marknad och används konstant av både Nvidia och AMD både som PR men även som sätt att hålla kostnaderna nere.

AMD (då ATI) gjorde ju detta t.ex. när de hade störst andel av marknaden på början och mitten av 2000-talet där man sparade in på kretsen så mycket man kunde utan att tappa ledningen. Skulle Big Navi (mot all förmodan) prestera bättre än Nvidias motsvarighet till den grad att man skulle kunna skära ned på kretsen så kommer AMD självfallet göra detta pga. ekonomiska orsaker. Samma anledning varför Nvidia inte spottar ut den fulla kretsen av Ampere.

AMD sitter dessutom i en sits där de måste konkurrera med priset och detta kan enbart göras genom att man inte lanserar dyra kretsar.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Skrivet av RekiN:

Med tanke på att AMD knappt har 20% av grafikkortsmarknaden så är det en matematisk säkerhet att det blir lägre efterfrågan.

Hur tänkte du här?
Spelar det liksom ingen roll hur bra kort AMD kommer med för dom får ändå bara sälja 20%, eller?

Permalänk
Medlem
Skrivet av FattarNiInte:

Hur tänkte du här?
Spelar det liksom ingen roll hur bra kort AMD kommer med för dom får ändå bara sälja 20%, eller?

Jag tänkte att ett företag som har 80% av marknaden har större efterfrågan än ett företag med 20%, hur tänkte du?

Visa signatur

12900K | 32GB 6000 DDR5 | 3090 FE | PG259QN | Z790 Gaming X AX | SF750 | O11 Mini

Permalänk
Medlem
Skrivet av RekiN:

Jag tänkte att ett företag som har 80% av marknaden har större efterfrågan än ett företag med 20%, hur tänkte du?

Det fungerar inte riktigt så. Marknaden visar bara hur man historiskt sett sålt. Inte vad man kommer sälja i framtiden. Låt oss ponera att Big Navi presterar skjortan av ett RTX 3090. Om man följer dina tankegångar så kommer dessa sälja enbart 20% av Nvidias och därför behöver AMD inte lansera fler kort än 1/5 av vad Nvidia behöver. Men detta går inte ihop.

Om AMD kort skulle prestera bättre så kommer deras marknadsandelar öka... förutsatt att folk upptäcker att AMDs produkter presterar bättre dvs. Då kanske de får 35% av marknaden istället för 20%. Vilket i sin tur innebär att fler kort behövs produceras. Att ett företag som har 80% av marknaden skulle ha större efterfrågan i framtiden är inte heller det sant.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

Dock tveksam till 8GB. Kommer det att räcka för att maxa spel i 2560x1440P framöver när konsolerna ökar standarden för minnes användning i spel?

Visa signatur

Chassi: Fractal Design 7 Compact TG Moderkort: ROG STRIX B550-E GAMING Processor: Ryzen 9 5900X Processorkylare: Dark Rock Pro 4 Grafikkort: Reference Radeon RX 6800XT Minnen:G.Skill Trident Z RGB 2x16 3200/14.14.14.34 SSD: WD Blue SN550 1TB Lagringsenhet: Seagate Barracuda Q1 960GB Nätagg: EVGA Supernova G2 850W Ljudkort Sound BlasterX AE-5 Tangentbord: Logitech G413 Headset: DT 990 Pro + ModMic-V4 Mus: Logitech G PRO Wireless

Permalänk
Medlem
Skrivet av jonte6950:

Dock tveksam till 8GB. Kommer det att räcka för att maxa spel i 2560x1440P framöver när konsolerna ökar standarden för minnes användning i spel?

Fast konsoler har ju 16GB totalt. En dator har ju oftast 16GB ram + 8GB Vram = 24GB totalt.
Så det är inte säker att konsolerna kommer att använda mer än 8GB för vram och kanske 4GB för spelmotor, och resterade 4GB används av operativsytemet

Playstation 4 har 8GB, men enbart 5GB är tillgänglig för utvecklare att använda.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av jonte6950:

Dock tveksam till 8GB. Kommer det att räcka för att maxa spel i 2560x1440P framöver när konsolerna ökar standarden för minnes användning i spel?

Definera "framöver".

Spel har 3-5 års ledtid. Idag är 8-11gb fortfarande standard för high end. Även om du stoppar i ett 32gb kort i din dator idag betyder det inte att nästa spel som släppso om nån månad magiskt använder det. 8gb tror jag räcker lätt i 3 år till - det värsta som kan hända är förmodligen att du måste sänka textures från "extreme" till "high" och ser i princip noll skillnad. Det är min åsikt iaf men om du inte gillar 8gb kort, köp ett med mer minne! Det är därför dom finns.

Om ett RX6700 släpps med 16gb i samma prisbracket och prestanda som RTX3070, då har det defintivt en fördel där.

Själv satt jag på 3.5gb kort (vi alla vem som fula) när high end släppts med 11gb, funkade prima i 1080p - jag "uppgraderade" sen lite temporärt till ett 3gb kort för att det pajjade, var lika snabbt det. I slutändan är det oftast inte minnesmängden som gör att man känner sig tvungen att uppgradera - det är hastigheten.

Permalänk
Medlem
Skrivet av CubaCola:

Fast konsoler har ju 16GB totalt. En dator har ju oftast 16GB ram + 8GB Vram = 24GB totalt.
Så det är inte säker att konsolerna kommer att använda mer än 8GB för vram och kanske 4GB för spelmotor, och resterade 4GB används av operativsytemet

Playstation 4 har 8GB, men enbart 5GB är tillgänglig för utvecklare att använda.

Ah då hänger jag med lite bättre! Tänkte mest om 8GB grafikminne kommer räcka för allt ögongodis 3-4 år framöver

Visa signatur

Chassi: Fractal Design 7 Compact TG Moderkort: ROG STRIX B550-E GAMING Processor: Ryzen 9 5900X Processorkylare: Dark Rock Pro 4 Grafikkort: Reference Radeon RX 6800XT Minnen:G.Skill Trident Z RGB 2x16 3200/14.14.14.34 SSD: WD Blue SN550 1TB Lagringsenhet: Seagate Barracuda Q1 960GB Nätagg: EVGA Supernova G2 850W Ljudkort Sound BlasterX AE-5 Tangentbord: Logitech G413 Headset: DT 990 Pro + ModMic-V4 Mus: Logitech G PRO Wireless

Permalänk
Medlem
Skrivet av murklor:

Definera "framöver".

Spel har 3-5 års ledtid. Idag är 8-11gb fortfarande standard för high end. Även om du stoppar i ett 32gb kort i din dator idag betyder det inte att nästa spel som släppso om nån månad magiskt använder det. 8gb tror jag räcker lätt i 3 år till - det värsta som kan hända är förmodligen att du måste sänka textures från "extreme" till "high" och ser i princip noll skillnad. Det är min åsikt iaf men om du inte gillar 8gb kort, köp ett med mer minne! Det är därför dom finns.

Om ett RX6700 släpps med 16gb i samma prisbracket och prestanda som RTX3070, då har det defintivt en fördel där.

Själv satt jag på 3.5gb kort (vi alla vem som fula) när high end släppts med 11gb, funkade prima i 1080p - jag "uppgraderade" sen lite temporärt till ett 3gb kort för att det pajjade, var lika snabbt det. I slutändan är det oftast inte minnesmängden som gör att man känner sig tvungen att uppgradera - det är hastigheten.

Tänker väl ca 4 år framöver. Spelen kommer ju att se bättre ut när utvecklarna inte längre behöver ha PS4/Xbox one i åtanke. Frågan är om 8GB grafikminne kommer att räcka för allt ögon godis i 2560x1440P tex år 2022-2024. När man köper ett nytt kort vill man ju inte behöva tumma på grafikinställningarna tänker jag.

Du har en poäng med minnet där, mitt GTX 1080 8GB börjar ju halka efter prestandamässigt men all minnesmängd används inte än. Kortet hinner bli för gammalt innan all minnesmängd används i normala upplösningar.

Hade velat haft ett 3080 FE men omöjligt att få tag på ett så har hoppet uppe för AMDs lansering

Visa signatur

Chassi: Fractal Design 7 Compact TG Moderkort: ROG STRIX B550-E GAMING Processor: Ryzen 9 5900X Processorkylare: Dark Rock Pro 4 Grafikkort: Reference Radeon RX 6800XT Minnen:G.Skill Trident Z RGB 2x16 3200/14.14.14.34 SSD: WD Blue SN550 1TB Lagringsenhet: Seagate Barracuda Q1 960GB Nätagg: EVGA Supernova G2 850W Ljudkort Sound BlasterX AE-5 Tangentbord: Logitech G413 Headset: DT 990 Pro + ModMic-V4 Mus: Logitech G PRO Wireless

Permalänk
Medlem
Skrivet av Xinpei:

Hade de? Kan vara så att de jobbar mot redan satta mål när det kommer t.ex. till strömförbrukning och därför valt att skära ned för att hålla det inom rimliga nivåer. Detta ÄR vad som anses vara praxis inom denna marknad och används konstant av både Nvidia och AMD både som PR men även som sätt att hålla kostnaderna nere.

AMD (då ATI) gjorde ju detta t.ex. när de hade störst andel av marknaden på början och mitten av 2000-talet där man sparade in på kretsen så mycket man kunde utan att tappa ledningen. Skulle Big Navi (mot all förmodan) prestera bättre än Nvidias motsvarighet till den grad att man skulle kunna skära ned på kretsen så kommer AMD självfallet göra detta pga. ekonomiska orsaker. Samma anledning varför Nvidia inte spottar ut den fulla kretsen av Ampere.

AMD sitter dessutom i en sits där de måste konkurrera med priset och detta kan enbart göras genom att man inte lanserar dyra kretsar.

Ja, det tycker jag.

Du skriver att AMD/ATI gjorde det i en "svunnen tid" för att man kunde göra det, med andra ord precis i den sitsen Intel suttit i många år. Sitter man som herre på täppan så kan man i lugn och ro släppa lite upphottade versioner, snåla in på ström och annat som gör att prestanda inte är viktigast. Men när Intel gör detta så är det "riktigt dåligt", hmm.

AMD har länge varit på efterkälken och det enda som skulle göra att konsumenter byter läger är högre prestanda, allt annat är ganska irrelevant när du "drar igång Crysis".

Du använder flera gånger argumentationen att den ledande parten har råd att snåla in på prestandan för det behövs inte mer, men det kan man inte applicera på AMD som nu är/varit minst en generation bakom i prestanda.

För att göra det klart så jämför jag 5700XT och 1080ti. Priset på grafikkort har väl dessutom visat sig inte vara ett hinder när 2080ti kom som var dubbelt så dyrt som förra generationens toppkort men det såldes friskt ändå.

Permalänk
Medlem
Skrivet av wessmen:

Ja, det tycker jag.

Du skriver att AMD/ATI gjorde det i en "svunnen tid" för att man kunde göra det, med andra ord precis i den sitsen Intel suttit i många år. Sitter man som herre på täppan så kan man i lugn och ro släppa lite upphottade versioner, snåla in på ström och annat som gör att prestanda inte är viktigast. Men när Intel gör detta så är det "riktigt dåligt", hmm.

AMD har länge varit på efterkälken och det enda som skulle göra att konsumenter byter läger är högre prestanda, allt annat är ganska irrelevant när du "drar igång Crysis".

Du använder flera gånger argumentationen att den ledande parten har råd att snåla in på prestandan för det behövs inte mer, men det kan man inte applicera på AMD som nu är/varit minst en generation bakom i prestanda.

För att göra det klart så jämför jag 5700XT och 1080ti. Priset på grafikkort har väl dessutom visat sig inte vara ett hinder när 2080ti kom som var dubbelt så dyrt som förra generationens toppkort men det såldes friskt ändå.

Om vi jämför ATI/AMD med Intel så ser man direkt skillnaderna. Intel valde att aktivt hålla tillbaka marknaden för att de satt i en monopolliknande ställning genom att lansera mer eller mindre samma produkt år in och år ut med lite små förändringar. När ATI var på toppen så fortsatte de trycka utvecklingen för att sedan bli omkörda av Nvidia. Nvidia valde dock inte att göra som Intel utan valde att utveckla vidare och lansera faktiskt nya produkter.

Så kort och gott. Vad som gör Intel till mål av min kritik är ett antal.

1. De valde att aktivt hålla tillbaka utvecklingen för att maximera vinst. Ett exempel är deras skitsnack om hur det skulle bli för dyrt för att lansera mer än fyrkärniga processorer i mainstreamsegmentet, deras BS om att HT kostar stora summor att implementera etc.

2. Deras beteende som ett litet barn i en sandlåda stundtals där de började kasta sand så fort AMD lanserade något som var i närheten av konkurrenskraftigt (Glued die anyone?) för att sekunden senare börja föra fram produkter som bygger på samma princip och sedan låtsas som det regnar.

3. Deras mutskandaler som de än idag vägrar be om ursäkt för.

Kort och gott. Intel har inte gjort mycket för att fixa sitt rykte de senaste åren och därav min kritik.

Skrivet av wessmen:

AMD har länge varit på efterkälken och det enda som skulle göra att konsumenter byter läger är högre prestanda, allt annat är ganska irrelevant när du "drar igång Crysis".

Du använder flera gånger argumentationen att den ledande parten har råd att snåla in på prestandan för det behövs inte mer, men det kan man inte applicera på AMD som nu är/varit minst en generation bakom i prestanda.

Både ja och nej. Att "snåla in" innebär inte att man gör det i absurdum. Att företag skiftar sin produkt efter konkurrenterna är väl bara naturligt. Varför slänga miljarder in i utveckling av en krets om man ändå lyckas både göra kunderna och utvecklingen nöjd om man typ spenderar 85% av den summan?

Sedan verkar du fullständigt missat att jag bygger upp ett scenario där AMD eventuellt SKULLE lansera en ledande produkt. För då vänds ju marknaden upp och ner och AMD börjar ta in marknadsandelar. Att man historiskt sett varit en generation bakom betyder ju inte att man inte kan ta in marknadsandelar idag liksom. Framförallt när AMD faktiskt har medvind på CPU marknaden och därför kan skifta över resurser till deras GPU avdelning.

Dessutom ska man inte glömma att en av de stora orsakerna till varför man låg efter var GCN-arkitekturen vars fokus låg på beräkningsprestanda (Ungefär som Nvidia försökte med Fermi) vilket ledde till strömtörstiga kretsar som dessutom hade nästan noll utvecklingspotential. "Big Navi" kommer att baseras på, för första gången RDNA-arkitekturen.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |