Nvidia: "Moores lag är död"

Permalänk
Medlem

Stackars Ada

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Medlem
Skrivet av Cenorida:

Well. Om man ska lita på vad Nvidia säger så är 4090 två till fyra gånger bättre än 3090 Ti. Om 4060 är två till fyra gånger snabbare än 3060 så är vi en bra bit över 3080. Behöver ju absolut inte bli så, men helt uteslutet är det ju inte.

Den är 2-4x snabbare om du testar med DLSS3, som funkar inte alls med Ampere = marketing BS. Titta snälla igen på vänster sidan av bild: https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/...

Skillnaden mellan 4090 och 3090 Ti i "Today's games", utan DLSS3 ligger på 1.5-1.6x, ej 2-4x...

Visa signatur

| 7800X3D | MSI B650 Tomahawk | 2x16 GB 6400 cl36 | Intel 600p 512GB | RTX 4070 TUF

Permalänk
Medlem
Skrivet av wargreymon:

Tycker det är ganska uppenbart att priserna är som de är om man läst lite (teknik)relaterade nyheter senaste åren. Brist på komponenter, hög press och ökade priser hos kretstillverkare, hög press och dyrare frakt, och sedan inte minst kronans värde som är pissdålig just nu.

Det är vad dom vill att vi ska tro.
Den riktiga anledningen till att priserna på GPU är så dyra är för att marknadspriserna steg tack vare mining boomen och scalpers. Varför ska folk tjäna pengar på deras kort när dom kan tjäna in det själva?

Permalänk
Medlem

Jag hoppas verkligen 4xxx serien säljer uselt och 4080L i synnerhet. Jensen försöker bara normalisera idiotpriser. Jag hoppas verkligen att amd inte tar efter mer än de redan gjort.

De stora pengarna ligger inte ens i gaming så fattar helt ärligt inte hur Nvidia resonerar här nu när mining är på dekis dessutom. Ja alla företag vill maximera vinst trots att klimat och massa annat inte stödjer det i längden men en måste ju sälja sina produkter också. Om ett grafikkort ska bli något för höginkomsttagare bara kan folk lycka till att se sina Nvidia only techs representerade i spel när majoriteten ej har tillgång till dem. Ingen dev kommer orka implementera, ingen producent kommer prioritera osv saker ingen använder och det är ju det som riskeras med den vägen Nvidia nu valt.

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Medlem
Skrivet av Rebe1:

Men vem sa att vi alla behöver dubbel prestanda till samma peng?? Jag tar gärna "bara" 40% mer prestanda om jag kan behålla gamla prislappen för xx80, med lägre strömförbrukning.

Borde inte 40% mer prestanda till lägre effekt vara detsamma som mer än 40% prestanda egentligen?
Jag håller med matt priserna är högre men att säga 40% mer prestanda och sen säga lägre effekt också är off det bör vara mer prestanda/watt för samma peng vi talar om inte overall prestanda

Visa signatur

Desktop
AMD Ryzen 7 5800x @ 4.8 GHz --- ASUS B450-F Gaming --- Kingston Hyperx Fury Black 32 GB DDR4 3000MHz --- ASUS RTX 3080 Rog Strix --- AOC Agon AG352UCG6 35" + ASUS PA238Q 24" --- Thermaltake Core X5 TG --- EVGA SuperNova G2 750W --- Noctua NH-D15

Server
Intel i5 4670K med Be-Quiet Pure Rock --- MSI B85M-E45 --- Crucial BallistiX Sport 16 GB --- Bitfenix Phenom Micro-ATX --- Cooler Master G500 500W

Permalänk
Medlem
Skrivet av anon201296:

Jag menar, du går väl inte heller och klagar att Ferrari och Bugatti är för dyra när du ska ha ny bil?

Jag är inte med att GPU är "premium produkt" som Ferrari/Bugatti. Vad mer, xx80 nivå kort är inte även i Topp-segmentet, xx80 Ti/ xx90 ligger där. Jag kommer ihåg väll hur mycket har jag betalat för gtx 1080 och rtx 3080 och ser ingenting som kan motivera så höga priser på båda 4080-modellerna. Vad jag ser istället är Jensen som vill övertyga mig att 4080/12GB är Ferrari utan Radio/GPS:n och med 14"-fälgar (om man kolla på spec och jämföra med 4090/4080 16GB)...

Visa signatur

| 7800X3D | MSI B650 Tomahawk | 2x16 GB 6400 cl36 | Intel 600p 512GB | RTX 4070 TUF

Permalänk
Medlem
Skrivet av xSean145:

Det är vad dom vill att vi ska tro.
Den riktiga anledningen till att priserna på GPU är så dyra är för att marknadspriserna steg tack vare mining boomen och scalpers. Varför ska folk tjäna pengar på deras kort när dom kan tjäna in det själva?

Givetvis, allt är en konspirationsteori. Att jag inte tänkte på det!

Permalänk
Medlem
Skrivet av Cenorida:

Well. Om man ska lita på vad Nvidia säger så är 4090 två till fyra gånger bättre än 3090 Ti. Om 4060 är två till fyra gånger snabbare än 3060 så är vi en bra bit över 3080. Behöver ju absolut inte bli så, men helt uteslutet är det ju inte.

Alltså...du ska inte lita på Nvidia här. Inte alls. Tänk om tänk rätt. Sagt i all välmening.

De där 2-4 ggr är med DLSS3. Dvs fake fps.

Edit: Ahh missade att jag var sen på bollen. Men låter det stå, Nvidias vidriga marknadsföring ska på alla sätt hängas ut.

Permalänk
Medlem

Något som många missar:
DLSS3 skapar bildrutor mellan de renderade bildrutorna som inte existerar egentligen
DLSS2 skalar upp låg upplösning till något högre

Att försöka jämföra dessa två på FPS-nivå är totalt felaktigt, det är väsenskilda saker

Permalänk
Medlem
Visa signatur

Registrerad 2001-12-24 15:10
Jul med Kalle Anka och Sweclockers

Permalänk
Medlem
Skrivet av ipac:

Alltså...du ska inte lita på Nvidia här. Inte alls. Tänk om tänk rätt. Sagt i all välmening.

De där 2-4 ggr är med DLSS3. Dvs fake fps.

Exakt, 1.4-1.6 ggr är vad jag tror vi kommer se i råprestanda isf.

Visa signatur

| 7800X3D | MSI B650 Tomahawk | 2x16 GB 6400 cl36 | Intel 600p 512GB | RTX 4070 TUF

Permalänk
Medlem

En annan sak som är till Nvidias fördel är gratis PR på Sweclockers. Jag räknar för stunden 8 stycken artiklar med Nvidia på första sidan

Rätt så enkelspårig nyhetssite det blivit... Läsa om grafikkort för konsumenter som man inte har råd att köpa gör det ännu mer ointressant för mig i alla fall.

Visa signatur

ASUS ROG STRIX B450-F GAMING - AMD Ryzen 5 3600 3.6 GHz 35MB - Cooler Master - Hyper 212 Black Edition - Corsair 16GB (2x8GB) DDR4 3200Mhz CL16 Vengeance LPX - Kingston A2000 500GB M.2 NVMe - Fractal Design Define C Svart - 2 X Noctua NF-P14s redux-1200 140mm PWM - Corsair RM650X 650W v2 - ASUS GeForce GTX 1060 6GB DUAL OC - Raijintek Morpheus II Heatpipe VGA Cooler - 2 X Noctua NF-P12 120mm PWM - OS Debian 10 Stable

Permalänk
Medlem

Ärligt talad inte särskilt imponerad över 4090's råprestanda. Om detta stämmer, så är 4090 bara 15-25% snabbare i Cyberpunk 2077, än mitt fabriksöverklockade 3090 Ti, utan DLSS.

https://videocardz.com/newz/nvidia-shows-geforce-rtx-4090-run...

Visa signatur

| Corsair Obsidian 1000D | AMD Ryzen 9 5950x 3.4 GHz(5 GHz boost) med Corsair iCue H170i Elite Capellix | Asus ROG Crosshair VIII Dark Hero | G.Skill Trident Z neo, 2x16GB 3600MHz C16 | ROG Strix LC GeForce 3090 Ti 24GB | 1x Seagate FireCuda 520 1TB, 1x Samsung 850 EVO 250GB, 1x Samsung 970 EVO 1TB, 2x 1TB HDD, 1x Seagate Ironwolf 16TB HDD | Corsair AX860i | ASUS PG279Q & ASUS XG27AQM|

Permalänk
Medlem
Skrivet av danedi:

Om det stämde borde nvidia kunna sälja 7nm 980ti's för 200kr. Han snackar goja och vill öka marginalerna.

Nu förstår jag inte, det han säger är ju precis varför man inte kan tillverka ett kort i 980Ti:s prestandanivå för 200kr. Alltså för att sätta det i perspektiv så har kretsen i 980Ti 8 miljarder transistorer, som referens så är 7nm CCX CPU-klustret i en 5800X på 4miljarder transistorer, och sen en 12nm IO del på 2miljarder. 980Ti har alltså fler transistorer och betydligt fler komponenter än en 5800X CPU. 4090 GPUn har över 7x så många transistorer som i en 5950X, och även där mycket mer komponenter och faktorer som gör det dyrare.

Permalänk
Medlem
Skrivet av Rebe1:

Den är 2-4x snabbare om du testar med DLSS3, som funkar inte alls med Ampere = marketing BS. Titta snälla igen på vänster sidan av bild: https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/...

Skillnaden mellan 4090 och 3090 Ti i "Today's games", utan DLSS3 ligger på 1.5-1.6x, ej 2-4x...

Skrivet av ipac:

Alltså...du ska inte lita på Nvidia här. Inte alls. Tänk om tänk rätt. Sagt i all välmening.

De där 2-4 ggr är med DLSS3. Dvs fake fps.

Edit: Ahh missade att jag var sen på bollen. Men låter det stå, Nvidias vidriga marknadsföring ska på alla sätt hängas ut.

Det var bara en tanke, inget som jag var säker på kommer inträffa. Jag tycker mig dock minnas att Nvidia var ärliga när 3000-serien lanserades, bortsett från priset då.

Visa signatur

AMD Ryzen 7 5800X3D | EVGA GeForce RTX 3080 10GB FTW3 ULTRA | ASUS ROG Strix B450-F Gaming | Corsair RM750X V2 | Crucial Ballistix Sport LT 3200MHz 16GB | Samsung 980 Pro 1TB | Crucial MX500 2TB | NZXT H500

Permalänk
Medlem
Skrivet av Cenorida:

Det var bara en tanke, inget som jag var säker på kommer inträffa. Jag tycker mig dock minnas att Nvidia var ärliga när 3000-serien lanserades, bortsett från priset då.

Ja men sen dess har de omdefinerat vad ordet "performance" betyder...

Permalänk
Medlem

Jag förstår inte varför ni är så förvånade...
Bakismannen (Jensen) sa, att 4000-serien kommer att SAMEXISTERA med 3000-serien under en viss tid. För att vi (Plebs) skulle vara mer villiga att tömma föras lager på 3000-serien och betala (fortfarande) fantasi priser, kommer de att (INITIALT) lansera 4000-serien med högre prislappen.
Och här kommer det.
Sedan misstänker jag att nvidia har nu en till papperslansering. Så med sådana överpriser når de 2 mål på en gång.
1) Maskerar papperslansering av 4000-serien.
2) Tömmer på lager på "gamla" grafikkort.

Och finns det rika idioter (ber om ursäkt), som måste, måste, måste ha ett top-end grafik kort vid varje generations skiftet - fine, köp det. Vi (Nvidia) tar gärna era pengar.

Permalänk
Medlem
Skrivet av medbor:

De har ju just gått från en gammal nod till en av de bättre, mer än dubblerat densiteten och därmed motbevisar sitt eget uttalande. Priserna går upp för de vill ha mer pengar (och att folket är villiga att betala det)

Pris per prestanda går ju inte ner alls, ingen räknar längre med 2x gratis, men nu får man ju inte bättre alls. 1080ti för nypris presterar liknande som samma prisklass nu (eller nära nog) så har det aldrig varit förr

Den nya noden är dyrare, plus att råvarupriserna är dyrare. Men helt rätt att Moore lag knappast är död.

Visa signatur

5800X - 2080ti - DDR4 32gb 3200mhz - B550-F - Arctic LF II 240 - RM750X - H510 flow

Permalänk
Medlem
Skrivet av dagas:

Vad menar du med att EU hittat på det? Sverige väljer vad momsen ska vara. Vi har betydligt högre än i många andra EU länder med våra 25% när många länder har runt 15-20%.

Sverige började med momsen eller oms som det var innan under andra världskriget som en temporär åtgärd men Socialdemokraterna tyckte den var så bra att de införde den igen 1960 mot de borgerliga partiernas protester genom att hota avgå om de inte fick igenom den lyckades de få kommunisterna (numera vänsterpartiet) att lägga ner rösterna.

EG (nu EU) införde en moms 1967 och Sverige bytte då till det systemet 1969 men vi hade redan en skatt innan och som sagt så har vi tillsammans med Norge och Danmark den högsta momsen med våra 25% då den höjdes successivt under många års tid fram till den stannade på 25.

Källa: https://www.svd.se/a/JdoBb/skatten-ingen-talar-om-varfor-har-...

I vilket fall är grafikkort för dyra numera men som Nvidia säger så kan vi tyvärr inte förvänta oss så mycket annat om vi inte vill ha prestandaökningar som är för små.

Men ingen som tvingar en ha bästa kortet. Man kan spela mycket spel med ett 1060 fortfarande speciellt om man inte måste köra på höga grafikinställningar.

Vi i sverige har 25% / 12% / 6% beroende på varutyp.
I Ungern så har dom 27% / 18% / 5% beroende på varutyp.
Finland har 21% / 14% / 10% beroende på varutyp.
Danmark har 25% helt oberoende av varutyp.

12% har vi på bland annat baslivsmedel, 6% på transport och tidningar.

Så den högsta momsen har vi knappast
Givetvis så har inte EU hittat på momsen, eller Sverige för den delen. Moms är äldre än så...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
AKA AudioBamse

Jag är inte så insatt i detta, så kan inte uttala mig riktigt om det är bullshit från Nvidia eller inte, men skulle inte förvåna mig om dem testar sig fram, dem ser väl att folk köper trots höjda priser så dem fortsätter på det spåret.

Om detta stämmer, då är min rekommendation till alla som tycker att det börjar bli väl dyrt att sluta köpa deras överpris-GPUer, annars kommer bara grafikkortstillverkarna att behålla / höja priserna.

Själv betalar jag aldrig mer än ca 4000kr för en enskild GPU.

Permalänk
Skrivet av Rebe1:

Exakt, 1.4-1.6 ggr är vad jag tror vi kommer se i råprestanda isf.

Det är vad vi ser i Cyberpunk 1440p.

3090 Ti: 37 fps
4090: 59 fps

1,6x prestanda.

https://www.youtube.com/watch?v=KX4kToZhvHk

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk

Först när allt liv är dött kommer människan upptäcka att pengar inte går att äta. #misantrop

Permalänk
Medlem

Vet inte om tidsstämpeln på YouTube funkar i detta forum men för 7 år sedan kom Titan X som alla tyckte var svindyr. 10 000 kr + inflation t.o.m 2021 tror jag blir 11 500 kr.

Visa signatur

[AMD Ryzen 9 3900X] [ASUS GeForce RTX 2080 Ti] [LG OLED 55 C9 som skärm] [Samsung HW-Q96R till ljudet]

Permalänk
Avstängd
Skrivet av yrfhar:

Vet inte om tidsstämpeln på YouTube funkar i detta forum men för 7 år sedan kom Titan X som alla tyckte var svindyr. 10 000 kr + inflation t.o.m 2021 tror jag blir 11 500 kr.

https://youtu.be/AA4tqWvcHFA?t=793

Ju äldre gamers blir ju mer pengar har de. Då efterfrågan fortsätter öka med nya generationer är det inte så konstigt att man kan få betala 20k eller dylikt för att köpa det bästa.

Permalänk
Skrivet av yrfhar:

Vet inte om tidsstämpeln på YouTube funkar i detta forum men för 7 år sedan kom Titan X som alla tyckte var svindyr. 10 000 kr + inflation t.o.m 2021 tror jag blir 11 500 kr.

https://youtu.be/AA4tqWvcHFA?t=793

Nej, bara nej.
https://www.youtube.com/watch?v=yq4OjFDyc-c

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem

Marknaden för grafikkort med priser över 10´000kr till privatpersoner när man inte kan gräva är liten. När du lätt kunde få tillbaka via grävande 5000kr på ditt grafikkort så var det många som köpte dyra grafikkort.

De som köpte 3090 för +20`000kr och vill uppgradera kommer att få lägga över 15000kr i mellan för att få ett 4090

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av yrfhar:

Vet inte om tidsstämpeln på YouTube funkar i detta forum men för 7 år sedan kom Titan X som alla tyckte var svindyr. 10 000 kr + inflation t.o.m 2021 tror jag blir 11 500 kr.

https://youtu.be/AA4tqWvcHFA?t=793

Skrivet av källarinvånare:

Vad 10 000 SEK 2015 är värda 2021 har ju dock inte så mycket med Nvidia att göra. Inflationsjusterat så motsvarar en 999USD produkt 2015 runt 17 000Kr i dagsläget (999*1,25*11*1,25=17 170Kr (MSRP*inflation*valuta*moms))

Skrivet av Saligt:

Men helt rätt att Moore lag knappast är död.

Är väl inte nödvändigtvis sant, det här det ursprungliga citatet från Moore:

"The complexity for minimum component costs has in-
creased at a rate of roughly a factor of two per year (see
graph on next page). Certainly over the short term this rate
can be expected to continue, if not to increase. Over the
longer term, the rate of increase is a bit more uncertain, al-
though there is no reason to believe it will not remain nearly
constant for at least 10 years. That means by 1975, the num-
ber of components per integrated circuit for minimum cost
will be 65,000."

Notera minimum cost, man pratar alltså om den billigaste noden. Vilket varken är samma som den definition som Jensen använder; att densiteten fördubblas vid en relativt liknande kostnad (det är dock inte ovanligt att prata om Moores Law på det sättet). Eller en något bredare definitionen där man bara pratar om densitet. I det fallet Jensen syftar på så är det stendött, punkt slut, det är också den aspekten av halvledarutvecklingen som har gjort att vi historiskt har fått så mycket bättre å bättre prestanda/kr hela tiden, speciellt på GPU-sidan där man skalar så mycket av prestandan med fler transistorer.

Det är inte speciellt lätt att hitta konkreta siffror för transistorkostnader (det är också komplext beroende på hur man slår ut kostnader för att faktiskt kunna börja tillverka en krets på en nod, vilket också sticker iväg
), men det finns en hel del källor och analyser om att det dog på 28nm om man går efter Moores ursprungliga analys, en t ex i videon jag länkade tidigare i tråden, eller om t ex dessa priser från marvell stämde:

Permalänk
Medlem

Detta är repris på 2080 lanseringen. Jag säger bojkott, så har vi vettigare priser vid nästa gen

Visa signatur

E2160 @ 3,2 , scyte infinity, p35 ds3, 4gb corsair 800mhz, Sapphire 5850 1gb. Intel x-25 V 40gb, 1x western digital black. /laptop amd x2 2.2ghz 3gb 5730.

Permalänk
Datavetare
Skrivet av ThomasLidstrom:

Nu har inte jag läst alla inlägg, men...
Förutspådde inte den så kallande More's lag att "transistordensiteten kommer fördubblas var 18de månad"?
Ingenting om prestanda och ingenting om kostnader

Jag förstår inte Jensen Huangs utspel:
A 12-inch [silicon] wafer is a lot more expensive today than it was yesterday, and it’s not a little bit more expensive, it is a ton more expensive. Moore’s Law’s dead.

Att tillverka IC-krestar idag är mycket, mycket dyrare idag än igår, så därför dubbleras inte antalet transitorer var artonde månad?

Jag tolkar detta som ett taffligt försök att motivera sjukt höga överpriser innan launch.
Så att man 6 månader senare kan göra sk revolutionerande prissänkningar, eller när nu AMD släpper RDNA3

De flesta har koll på det, men skriver det ändå: Moores lag är egentligen ingen lag, utan en skarpsynt observation som råkade vara relativ korrekt under flera årtionden.

Finns flera sätt att beskriva samma sak mot bakgrund av den observation som gjordes då det länge var ungefär samma kostnad att tillverka integrerade kretsar räknat per kretsyta.

Moores lag kan då både beskrivas som: transistordensiteten fördubblas ungefär var 18-24 månad
eller som: kostnad för att tillverka en krets med X antal transistorer halveras ungefär var 18-24 månad

Det som började spåra ur när man gick under 30 nm strecket var att kostnad per area-enhet inte längre var närheten konstant, det är betydligt dyrare att tillverka en 100 mm2 krets på 5 nm än på 7 nm.

Ovanpå det "dog" en annan lag runt 40-60 nm, Dennard scaling, som sa att energieffektiviteten fördubblades i takt med ökning av transistordensitet. När denna lag "dog" blev det inte längre hållbart att öka frekvenserna med nya noder då det ökade effekten.

Så går fortfarande att tillverka allt mer komplexa kretsar, men det blir tyvärr dyrare och strömtörstigare räknat med mm2 kisel om man bara krymper. I praktiken kan man använda en mer komplex design till att göra den mer energieffektiv, men "fria lunchen" man hade med Dennard scaling är borta. Och nu är även kostnadbesparingen nästan borta.

Säger inte att Nvidia exakt följt prisutvecklingen, de verkar ha skruvat upp marginalerna (vilket de tyvärr kan göra då de bl.a. är så totalt dominerade på programvarusidan), men framåt kommer det tyvärr bara bli dyrare och dyrare att tillverka kretsar av en viss storlek

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av cruZZade:

Det är ju en helt sinnessjuk bruttomarginal de har. Jämför med tex Apple som väl också får sägas ligga i absolut framkant med teknisk utveckling, de ligger på en marginal på ca 36 %, vilket i sig är en väldigt bra siffra.

Apple ligger på 43% bruttomarginal just nu.

Det här är på en egen planet dock. Marginalen är liknande som Microsofts. Som huvudsakligen säljer mjukvara och tjänster dessutom....

Det är avsaknad av konkurrens som är problemet här. De ser inte AMD som ett hot alls uppenbarligen. Eller så är de inte längre intresserade av att sälja kort till gamers helt enkelt.

Visa signatur

||Wintel PC|3*Mac mini|Xbox One S|Synology DS918+||