Nvidia förvärvar ARM – lovar att behålla befintlig affärsmodell

Permalänk
Medlem

Puh, med den här takten på Nvidia-nyheter får man snart köpa en egen popcornmaskin.

Jag har sagt det förr och säger det igen; Nvidia är kompetenta att bedriva affärsverksamhet. Om det är ARMs affärsmodell som gjort dem stora och framgångsrika så är det extremt osannolikt att den ändras.

Såna här trådar spårar ju tyvärr alltid ur till att börja handla om "världens orättvisa".

Permalänk
Medlem
Skrivet av StarChild42:

Jag tycker det är en dålig ide att sälja till Nvidia.

Ja, förra gången de köpte upp ett stort företag lade de bara ned den verksamheten. Det ser inte bra ut för ARM.

Permalänk
Medlem
Skrivet av Yoshman:

Mängden dravel i det du citerar är ju slående... Varför har ARM64 (lanserades så sent som 2011) kunna gå från att lanseras till att endast 9 år senare ha en mognadsgrad på utvecklingsverktyg och OS-stöd som ingenting annat lär varit i närheten av på samma tidsrymd?

Kanske därför att mega-corps med astronomiska rikedomar (Blade runner känns på något sätt aktuellt...) i form av Apple, Google, Facebook och nu också Amazon (räkna ut market-cap på den kvartetten...) plöjt ner enorma summor. HW är värdelös utan ett ackompanjerande brett och starkt stöd i programvara.

Nvidia kan definitivt tillföra något just på programvarubiten givet att trenden just nu går starkt mot s.k. heterogena system. Problemet med heterogena system är deras komplexitet, utan riktigt bra ramverk och verktyg går det i praktiken inte att utnyttja kraften i dessa system. Får man till dessa ramverk och verktyg är fördelen ett prestandahopp som får de 5-20 % prestandalyft vi idag ser mellan generationer på PC-sidan att totalt blekna. Hoppet från CPU till GPGPU-rendering i program som Blender är ett smakprov vad man kan vänta sig.

Tror därför Jensen är seriöst oroad för Intel oneAPI satsning, Jensen har kommenterat detta med att "slideware är enkelt, att designa programvara som fungerar är svårt". Hade lite missat att Nvidia faktiskt har ett liknande projekt (vilket indikerar att Jensen inser att modellen som sådan faktiskt är helt rätt).

Så vad svamlar jag om här? Jo, att the future is fusion var verkligen helt rätt! Men också just att ha HW är totalt värdelöst om man inte löser de kritiska bitarna i programvara.

Ett smakprov kring vad Nvidia (och Intel i form av oneAPI) jobbar på

#include <execution> #include <iostream> #include <numeric> #include <vector> template<typename T> T average(const std::vector<T>& v) { return std::transform_reduce(std::execution::par_unseq, v.begin(), v.end(), T{}, std::plus<T>(), [](const T& sum) { return sum; }) / v.size(); } int main() { // This could be a _very_ large array std::vector<int> vals{100,99,50,75}; std::cout << "Average is " << average(vals) << '\n'; }

Detta är ett leksaksexempel, poängen är: med det Nvidia och Intel nu jobbar med kommer koden ovan köra på CPU, SIMD eller GPU beroende på vilken HW (samt vilket stöd HW har från ramverk) som finns i systemet. Programmeraren skriver enbart ISO C++ (i detta fall ISO C++17).

Nvidia kommer säkerställa att motsvarande stöd nu också hamnar i ARM systemkretsarna -> högre prestanda och långt bättre perf/W jämfört med att bara hamra in allt fler CPU-kärnor med allt högre frekvens i CPU!

Får mig att tänka på robot makare dom interjuvade. De sa samtliga att själva roboten bara tar några månader att bygga. Men att få den att gå frammåt kan ta årtionden, vilket det också gjort. Spe iellt om den är 2 bent och inte ska ramla.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Det här kan bli riktigt bra.

Om Nvidia fortsätter med ARM;s affärsmodell och satsar på utveckling kan vi se riktigt goda framsteg framöver.

Skulle inte kunderna vara nöjda kan det bli en intressant utveckling genom att enorma resurser investeras i alternativ.

Intel och AMD borde också vara riktigt skitnödiga nu.

På det hela taget är detta något som lär driva på utvecklingen ordentligt.

Permalänk
Datavetare

När man läser kommentarerna i denna tråd undrar man om man läser en sida för konservativa teknikpessimister!

Är det ingen som ser de potentiella fördelarna med detta?

  • Nvidia gör faktiskt var de säger: vi som kunder får äntligen en ersättare för x86, något som kommer ge oss snabbare och framförallt långt mer energieffektiva datorer

  • Nvidia gör vad rätt många tror de kommer göra: vi som kunder lär se en kraftig uppgång för RISC-V och en oanad snabba övergång till en modern ISA som samtidigt också är helt öppen

Andra fallet kräver i praktiken att något företag likt Intel går all in på RISC-V. RISC-V är faktiskt ett år äldre än ARM64, men mognadsgraden hos verktyg och operativsystem är idag inte i närheten vad det är hos ARM64. Det behövs någon likt Intel, Nvidia, Apple eller liknande som historiskt ha lagt enorma resurser på just förbättra verktyg och OS-stöd för "deras" CPU-arkitektur!

Värsta som kan hända i min värld är att Apple misslyckas med Apple silicon, Arm affären havererar på ett sätt som blir förödande för Arm CPUer och vi blir sittande ett par årtionden till med en CPU-design som med råge passerat sitt bäst-före datum. Var är alla nu som tjatade om att framtiden är flera CPU-kärnor och liknande? Om det är framtiden är det kanske lämpligt att basera den framtiden på ARM64 eller RISC-V som faktiskt är specifikt designade runt de idéer man anser vara optimala för att programmera multitrådade program.

Personligen ser jag största vinsten i att ARM64 (och RISC-V men kan tyvärr vara i något mindre uträckning, vi vet inte innan det börjar dyka upp "high-end" RISC-V) är att man designat ISA runt att maximera ILP. Det verkar också fungerar givet att både Apple och Arm har CPUer som utför >50 % mer än topp-modellerna av x86 räknat per cykel.

Skrivet av Bernd_P1:

RIP ARM. blir väl säkert så att vi inom dem närmaste åren få läsa att Nvidia lägga ner ARM och sen lite senare släpper en egen, mer nerlåst version på det.

Varför i hela friden skulle de göra det? Värdet i Arm är bl.a.

"An astounding 180 billion computers have been built with Arm — 22 billion last year alone. Arm has become the most popular CPU in the world."

Det lär vara minst 20-30 gånger fler än totala antalet x86 CPUer som någonsin sålts. Lär faktiskt sålts fler Arm-baserde CPUer senaste året än det sålts x86 CPUer totalt.

Sen är det tyvärr så att Arm aldrig har varit öppet, från dag 1 har Arm ISA kontrolleras av ett enda företag. Fördelen är att finns en väldefinierad specifikation som alla måste hålla sig till (ett krav Arm ställer på de som licensierar tekniken är att man inte skapar egna utökningar), nackdelen är att det alltid varit ett enda företag som helt kontrollerar utvecklingen av det som länge blivit världens mest använda CPU-arkitektur.

Apple verkar ha en licens utan tidsgräns för Arm ISA, då de tillverkar sin egen mikroarkitektur är riktningen Arm Cortex serie tar helt irrelevant för Apples del. Men de måste ändå rätta sig efter den riktning ISA tar, fast finns i.o.f.s. noll anledning för Arm (oavsett vem som äger dem) att inte lyssna på kunderna runt vad de borde stoppa in i ISA.

Att ISA fortsätter vara helt koherent är kritiskt då det säkerställer att oavsett vem som stoppar in resurser i kompilatorer så gynnas alla. Jämför det med x86 sidan där Intel har egenintresse i att specifikt lägga resurser på de funktioner man är ensam om, är affärsmässigt helt vettig för Intel att pusha AVX512 så hårt (oneAPI, MKL och liknande gör det väldigt enkelt att utnyttja AVX512 i program).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Konsolpleb 🕹
Skrivet av Niolator:

Ja, förra gången de köpte upp ett stort företag lade de bara ned den verksamheten. Det ser inte bra ut för ARM.

Vilket bolag tänker du på?

Visa signatur

240p är livet

Permalänk
Avstängd
Skrivet av Yoshman:

...

Det lär vara minst 20-30 gånger fler än totala antalet x86 CPUer som någonsin sålts. Lär faktiskt sålts fler Arm-baserde CPUer senaste året än det sålts x86 CPUer totalt.

...

Det är imponerande definitivt. Samtidigt så kan man inte riktigt jämföra försäljningen med x86/64 rakt av, Apple har ju exempelvis en ARM SoC i deras lightning-kablar och det finns massvis av liknande lösningar där det aldrig hade varit fråga om att peta in en "klassisk" CPU.

Permalänk
Hjälpsam

AMD använde befitlig teknik över PCIe bussen för Crossfire, när Nvidia tillverkade chipset till AMD CPUr blockerade dess drivrutiner tekniken, om de detekterade två AMD kort i burken.
Jag ägde ett PhysX kort, kort efter det att Nvidia köpt PhysX, slutade kortet fungera om PhysX programvaran, detekterade ett AMD kort, med ett Nvidia kort fungerade det utmärkt.
Likadant för de som köpte köper ett dedikerat Nvidakort för att köra PhysX.

Jag liter inte på Nvidias öppenhet för fem öre.

edit ändrat köpte till köper, det fungerar fortfarande inte.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av UndaC:

Vilket bolag tänker du på?

Vi som varit med ett tag tänker nog främst på 3DFx. Kanske inte riktigt samma sak då det var en konkurrent men de hade några riktigt innovativa lösningar som bara dog när NVidia la ner dem.

Permalänk
Medlem
Skrivet av Niolator:

Vi som varit med ett tag tänker nog främst på 3DFx. Kanske inte riktigt samma sak då det var en konkurrent men de hade några riktigt innovativa lösningar som bara dog när NVidia la ner dem.

Vilka lösningar var det som bara dog?

Permalänk
Medlem
Skrivet av Yoshman:

När man läser kommentarerna i denna tråd undrar man om man läser en sida för konservativa teknikpessimister!

Tror vissa drar sin fanboy-ism lite för långt och identifierar sig själva med AMD eller Intel...
...eller så är det bara vanligt förändringsmotstånd. Nytt är läskigt och ska därmed bekämpas!

Jag är hype:ad, men så är jag också tillräckligt gammal för att ha sett liknande teknikskiften förr så jag förstår att detta inte är det sista teknikskiftet inom IT och jag älskar förändring/utveckling. Det är väl därför man är tekniknörd?! Så "bring it on", mer cool teknik med nya möjligheter!!

Visa signatur

Dator: Mac

Permalänk
Medlem
Skrivet av DasIch:

Vilka lösningar var det som bara dog?

Jag tänker på Multi-GPU, men de var långt framme nom andra områden också. Var det något som 3DFx satsade hårt på var det flera GPU på ett kort. Voodoo 5 5000 hade t.ex. 4 GPU på ett grafikkort. Flera GPU har varit ett sorgebarn inom grafikkortsindustrin sedan 3DFx försvann. Sedan den affären har jag haft aversion mot NVidia och främst köpt ATi/AMD även om de inte alltid varit bäst.

Att det finns drivrutiner till Amiga för moderna AMD-kort gör även det att de är mer attraktiva för mig.

Permalänk
Medlem
Skrivet av Niolator:

Vi som varit med ett tag tänker nog främst på 3DFx. Kanske inte riktigt samma sak då det var en konkurrent men de hade några riktigt innovativa lösningar som bara dog när NVidia la ner dem.

Det finns fortfarande folk från 3DFX som jobbar på Nvidia, t.ex. Gary Tarolli som var en av grundarna till 3DFX. Edit: kanske gått i pension, jag kommer inte åt hans Linkedin.

Permalänk
Medlem

Bra för aktien (:

Permalänk
Datavetare
Skrivet av snajk:

Det är imponerande definitivt. Samtidigt så kan man inte riktigt jämföra försäljningen med x86/64 rakt av, Apple har ju exempelvis en ARM SoC i deras lightning-kablar och det finns massvis av liknande lösningar där det aldrig hade varit fråga om att peta in en "klassisk" CPU.

Sant. Faktum är att man måste dela in Arm i tre separata delar, dessa delar använder i praktiken olika ISA

  • T32 (Thumb2), är detta som används bl.a. av den Arm CPU som sitter i kablar, brödrostar etc (Cortex M, M=micro controller). Tror framtiden för Arm inom detta område ser rätt mörkt ut då licenskostnaden är ett klart minus här, börjar redan dyka upp rejält mycket billigare mikrokontrollers baserade på RV32 (32-bitars RISC-V)

  • A32, är fortfarande det som primärt används i Cortex R (R=real-time) även om man precis lanserat första generationen Cortex R baserad på A64 i år. ISA för 32-bitars Arm är som i princip alla andra ISA innan A64 och RISC-V, ställd mot andra ISA finns fördelar och nackdelar, nackdelarna hos A32 är att det inte alls var lämpligt att används till att designa high-end CPUer som kunde konkurrera mot x86

  • A64, denna har visat att Intels uttalande om "enda som spelar roll är mikroarkitektur, ISA är i stort sett irrelevant" endera pekar på att Intel/AMD har ett gäng clowner som jobbar med CPU-design eller så finns tekniskt relevanta fördelar i A64 ställd mot allt tidigare när det kommer till att designa CPUer med brutal prestanda per kärna

Även om man enbart tittar på Cortex A (A=application, d.v.s. de "högpresterande" Arm CPUerna) lär det fortfarande ha sålts åtskilliga miljarder CPUer bara förra året. Enbart mobilerna står väl för 2-3 miljarder CPUer per år, det samtidigt som det säljs strax under ~300 miljoner x86 per år just nu.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Så... Apple släpper sin första Risc-V laptop 2025?

Visa signatur

"My side, your side! My side, your side! My side, your side! My side, your side! My side, your side! My side, your side!"

Permalänk
Medlem
Skrivet av Niolator:

Jag tänker på Multi-GPU, men de var långt framme nom andra områden också. Var det något som 3DFx satsade hårt på var det flera GPU på ett kort. Voodoo 5 5000 hade t.ex. 4 GPU på ett grafikkort. Flera GPU har varit ett sorgebarn inom grafikkortsindustrin sedan 3DFx försvann. Sedan den affären har jag haft aversion mot NVidia och främst köpt ATi/AMD även om de inte alltid varit bäst.

Att det finns drivrutiner till Amiga för moderna AMD-kort gör även det att de är mer attraktiva för mig.

Vill minnas att det voodoo-kort som satt i första windows datorn min familj hade stödde SLI.
Var lite för ung för att ha koll på något då men minns tydligt en förvirrad session av altavistande några år efter vi fick den för att försöka förstå om det gick att uppgradera med ett till kort. Istället lyckades en polare installera min pentium bredvid hans pentium så han hade två. Spännande tider

Iallafall där lever något kvar även om nvidia bara släckte ursprungliga SLI och återanvände akronymen senare.
Har kört både SLI och Crossfire ett antal gånger inkluderande i en laptop (XPS M1730) och ett dubbelkort i 9800GX2.
Har alltid känns som mer möda än det verkligen var värt då det ofta slutade i att man körde nvidias "single-gpu" mode ändå för att det skulle fungera optimalt. Bäst jag tror att jag någonsin fick det att fungera var med två 6970 i crossfire, men något år senare var det knappt några spel som lanserades där det funkade 100%
Ser coolt ut i en build dock

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Konsolpleb 🕹
Skrivet av Niolator:

Vi som varit med ett tag tänker nog främst på 3DFx. Kanske inte riktigt samma sak då det var en konkurrent men de hade några riktigt innovativa lösningar som bara dog när NVidia la ner dem.

Du trollade nog bort mig när du skrev "förra gången". De har ju som bekant köpt upp i princip hur många företag som helst, till väldigt mycket större värden, sedan 3dfx.

Jag tänker också att det är en enorm skillnad mellan att köpa upp ett konkursbo av misskött företag eller att köpa något som är 100% alive and thriving. Så att dra några paralleller mellan vad Nvidia gjorde med ett konkursbo 2002 och vad de gör med ARM 18 år senare känns inte så givande.

Förutom att Nvidia tog lite hjärnkraft med sig från 3dfx så behöll de ju en del teknik, t.ex. videoavkodning var teknik som de tog direkt ur 3dfx-portföljen. Deras multi-gpu-teknik i all ära för sin tid, Nvidias version av SLI var ju långt mer flexibel.
Missförstå mig rätt jag har lika varma fuzzy memories om 3dfx som the next guy, men Nvidia var inga bovar i det uppköpet IMHO.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av Niolator:

Vi som varit med ett tag tänker nog främst på 3DFx. Kanske inte riktigt samma sak då det var en konkurrent men de hade några riktigt innovativa lösningar som bara dog när NVidia la ner dem.

Så med "förra gången de köpte upp ett stort företag" menade du alltså egentligen "första gången de köpte upp ett stort företag"? 3dfx var ju deras allra första uppköp för 20 år sedan, medan deras senaste uppköp var Mellanox förra året.

Permalänk
Medlem
Skrivet av Niolator:

Jag tänker på Multi-GPU, men de var långt framme nom andra områden också. Var det något som 3DFx satsade hårt på var det flera GPU på ett kort. Voodoo 5 5000 hade t.ex. 4 GPU på ett grafikkort. Flera GPU har varit ett sorgebarn inom grafikkortsindustrin sedan 3DFx försvann. Sedan den affären har jag haft aversion mot NVidia och främst köpt ATi/AMD även om de inte alltid varit bäst.

Att det finns drivrutiner till Amiga för moderna AMD-kort gör även det att de är mer attraktiva för mig.

Nvidia har ju kört på multi GPU sen de köpte 3DFx, bara att det på senare tid blivit mindre relevant (vilket inte bara är Nvidias fel). Det är ju inte som att Nvidia skulle döda tekniken för att jävlas utan de gör givetvis kalkyler på värdet av den.

Permalänk
Datavetare
Skrivet av Niolator:

Jag tänker på Multi-GPU, men de var långt framme nom andra områden också. Var det något som 3DFx satsade hårt på var det flera GPU på ett kort. Voodoo 5 5000 hade t.ex. 4 GPU på ett grafikkort. Flera GPU har varit ett sorgebarn inom grafikkortsindustrin sedan 3DFx försvann. Sedan den affären har jag haft aversion mot NVidia och främst köpt ATi/AMD även om de inte alltid varit bäst.

Att det finns drivrutiner till Amiga för moderna AMD-kort gör även det att de är mer attraktiva för mig.

SLI så som det fungerade på 3DFx hade fördelen att inte lida av de inneboende problemen hos AFR som t.ex. mikrostutter.

Tekniken 3DFx använde blev helt meningslös i samma sekund som T&L flyttande in på GPU-delen då 3DFx SLI bara kunde öka kapaciteten hos rastreringssteget, inte på T&L.

Även om man lyckats lösa problemen med AFR blev den tekniken i sig irrelevant p.g.a. renderingstekniken gick allt mer mot algoritmer där föregående scen behövs som indata till aktuell scen. Att då alternera scener mellan fysiska GPUer gav allt mindre fördel.

Så just det exemplet visar väl mer att Nvidia faktiskt förstår sig på tekniken och anpassade sig än att de bara är rövhattar?

PhysX är ett exempel där Nvidia visat att man kan inse när man gett sig in i en teknikmässig återvändsgränd. Inget fel på grundidén här, men givet utveckling på CPU-sidan med kraftigt ökning av SIMD-kapaciteten samtidigt som GPU-delen tenderar vara primär flaskhals i spel så är det tekniskt vettigt att vare sig köra fysikberäkningar på separata instickskort eller på GPU, det lämpar sig bäst att accelerera med SIMD på CPU! Är exakt så dagens PhysX fungera och tekniken är idag så självklar i många spel att ingen ens bryr sig om att referera över att det kommer från PhysX.

Nvidia har pushat mult-GPU där den faktiskt fungerar, d.v.s. GPGPU! Där har man gjort flera relevanta uppgraderingar både HW- och SW-mässigt de senaste generationerna.

Är en delikat balansgång mellan att ge teknik tillräckligt mycket resurser för att man ska kunna avgöra om det är en återvändsgränd eller ej mot att fortsätta hälla in resurser i /dev/null (ett svart hål som sväljer allt utan att ge något tillbaka för de som inte kör *NIX).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Förhoppningsvis godkänns det inte 😀

Permalänk
Medlem

Problemet är ju just att Nvidia har inte köpt tillgång eller garanterat sin investering i framtiden för ARM. Det som de precis håller på att köpa än nyckeln för att stänga ned den framtida konkurrensen som var på väg att ta fart. Visst kommer Nvidia göra mängder av ARM processorer och många förbättringar av tekniken. Men den möjligheten de precis köpt sig själva är möjligheten att kontrollera konkurrensen. De gjorde inte en Apple köpte möjligheten att själva utveckla tekniken.

Vi var på väg in i en framtid där det inte var AMD/Intel dupolet, utan istället var en uppsjö av tillverkare som gjorde det bästa de kunde på låg nivå medan ARM gjorde de bästa de kunde på arkitektnivå. Om ni seriöst tror att Nvidia lägger 40 miljarder dollar för att sedan konkurrera på samma plan som slumpmässig licenstagare så tror jag ni borde tänka om. Vi kommer inte se en framtid där Qualcomm, Nvidia, Samsung, Rockchip, HiSilicon, Mediatek med mera kan konkurrera på ett jämnt plan. Om det vore Nvidias plan hade de inte varit beredda på att lägga 40 miljarder dollar på det.

Om denna affär går igenom går vi från ett problematiskt dupol inom x86 till ett dupol mellan x86 och Nvidia.

Visa signatur

i5-7600k . GTX 1080 . 16 GB

Permalänk
Medlem
Skrivet av perost:

Så med "förra gången de köpte upp ett stort företag" menade du alltså egentligen "första gången de köpte upp ett stort företag"? 3dfx var ju deras allra första uppköp för 20 år sedan, medan deras senaste uppköp var Mellanox förra året.

Okej, ni har rätt. Slarvigt uttryckt av mig.

Permalänk
Medlem
Skrivet av UndaC:

...Missförstå mig rätt jag har lika varma fuzzy memories om 3dfx som the next guy, men Nvidia var inga bovar i det uppköpet IMHO.

Jag var faktiskt ingen riktigt 3DFx fanboy. Jag klev på 3DFx-tåget rätt sent. Jag hade aldrig en Voodoo 2:a som många 3DFx-fanaster talar sig varma om. Jag skaffade ett Voodoo 3 3000 men Voodoo 5 var för dyrt för mig

Permalänk
Hjälpsam
Skrivet av johanandersson:

Problemet är ju just att Nvidia har inte köpt tillgång eller garanterat sin investering i framtiden för ARM. Det som de precis håller på att köpa än nyckeln för att stänga ned den framtida konkurrensen som var på väg att ta fart. Visst kommer Nvidia göra mängder av ARM processorer och många förbättringar av tekniken. Men den möjligheten de precis köpt sig själva är möjligheten att kontrollera konkurrensen. De gjorde inte en Apple köpte möjligheten att själva utveckla tekniken.

Vi var på väg in i en framtid där det inte var AMD/Intel dupolet, utan istället var en uppsjö av tillverkare som gjorde det bästa de kunde på låg nivå medan ARM gjorde de bästa de kunde på arkitektnivå. Om ni seriöst tror att Nvidia lägger 40 miljarder dollar för att sedan konkurrera på samma plan som slumpmässig licenstagare så tror jag ni borde tänka om. Vi kommer inte se en framtid där Qualcomm, Nvidia, Samsung, Rockchip, HiSilicon, Mediatek med mera kan konkurrera på ett jämnt plan. Om det vore Nvidias plan hade de inte varit beredda på att lägga 40 miljarder dollar på det.

Om denna affär går igenom går vi från ett problematiskt dupol inom x86 till ett dupol mellan x86 och Nvidia.


Kunde inte sagt det bättre själv.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Mindfighter:

x86 är dödare än en slemmig torsk i en brödrost strax. Så snarare Nvidia vs Apple i denna runda då vad gäller CPUer.

Skillnaden är ändå denna gång att det finns en uppsjö med andra tillverkare som också gör Arm-baserade CPU:er. (Fujitsu, Samsung, Qualcomm o.s.v. o.s.v.). Så lite bättre läge än bara Intel och AMD. (sen får vi se om alla de andra försvinner på vägen likt cyrix)

Det är just det som är min poäng. Framtiden med en arkitektur och många licenstagare har just blivit köpt av Nvidia och deras incitament är ju absolut inte att konkurrera som en av många. Om denna affärer går igenom kommer Nvidia tillåta andra aktörer tills ARM blir dominant och sen etablera ett monopol där de kan bestämma sin egna vinst.

Det kommer inte finnas en uppsjö av aktörer när en av de aktörerna just betalat 40 miljarder för möjligheten att stänga ute konkurrenter. Om de planerade att konkurrera som jämlikar hade de inte köpt ARM.

Visa signatur

i5-7600k . GTX 1080 . 16 GB

Permalänk
Medlem
Skrivet av johanandersson:

Det är just det som är min poäng. Framtiden med en arkitektur och många licenstagare har just blivit köpt av Nvidia och deras incitament är ju absolut inte att konkurrera som en av många. Om denna affärer går igenom kommer Nvidia tillåta andra aktörer tills ARM blir dominant och sen etablera ett monopol där de kan bestämma sin egna vinst.

Det kommer inte finnas en uppsjö av aktörer när en av de aktörerna just betalat 40 miljarder för möjligheten att stänga ute konkurrenter. Om de planerade att konkurrera som jämlikar hade de inte köpt ARM.

För att lyckas med det måste Nvidia se till att ARM håller ett tillräckligt högt värde för licenstagarna. Värdet i ARM har varit en bra instruktionsuppsättning och många inflytelserika licenstagare som byggt sina ekosystem kring det. Dummar sig Nvidia kommer knappast licenstagarna finna sig i det. De kan migrera till RISC V eller utveckla sina egna instruktionsuppsättningar, sen kan Jens sitta där själv med ARM.

Permalänk
Medlem
Skrivet av johanandersson:

Det är just det som är min poäng. Framtiden med en arkitektur och många licenstagare har just blivit köpt av Nvidia och deras incitament är ju absolut inte att konkurrera som en av många. Om denna affärer går igenom kommer Nvidia tillåta andra aktörer tills ARM blir dominant och sen etablera ett monopol där de kan bestämma sin egna vinst.

Det kommer inte finnas en uppsjö av aktörer när en av de aktörerna just betalat 40 miljarder för möjligheten att stänga ute konkurrenter. Om de planerade att konkurrera som jämlikar hade de inte köpt ARM.

Nvidia har köpt ARM för att säkra sin framtid. Nu när Intel börjar producera GPU kommer de kunna erbjuda enhetliga datacenter-system där det är Intel överallt i hårdvara och mjukvara. Vinsterna från ARM licensintäkter är väldigt små i jämförelse med Nvidias vinster. Därför finns det väldigt lite att vinna på att chockhöja priser eller stänga in ARM. Det Nvidia kommer tjäna pengar på är enhetliga datacenterlösningar där det sitter Nvidia i alla viktiga komponenter och det finns företag som kan betala stora pengar för dessa helhetslösningar.
https://www.sweclockers.com/nyhet/30229-datacenter-vaxer-sig-...

Hade Nvidia kunna licensera detta på samma sätt som Apple gjort? Kanske det, men Apple och Nvidia är inte riktigt i samma branch. Apple är inte heller konkurrensutsatt ett enda dugg, de har total kontroll på allt. Apple har sannolikt också diskuterat övertagandet med Nvidia, så de känner sig säkra att godkänna detta.

Permalänk
Medlem

På (mycket) längre sikt är det inte helt otänkbart att de vill ge sig in på operativsystem också. Varumärket Geforce är extremt starkt hos PC-gamers, och PC har visat sig vara uthålligare än vad man trott och laptops/surfplattor/mobiler kraftigt överskattats. Men det lär inte stå på dagordningen i 2020-talet, är det någon Nvidia är tvungen respektera så är det Microsoft.