Rykte: Nvidia prioriterar AI-kort framför RTX 50

Permalänk
Medlem

Jag orkar inte ens bli sur längre.

Jag spelar så lite på PC numera.

När jag spelar är det PS5 eller Switch oftast och de PC spel som körs kan drivas av 10 år gammalt kort.

PC hobbyn känns rätt död för min del. Har varken tid lust eller pengar. Följer fortfarande GN och HUB av gammal vana men köper inget.

Enda jag ser fram emot är att bygga något snyggt med RGB till min dotter när hon är lite äldre. Hon spelar nu bara Roblox på en Mac Mini dock.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem
Skrivet av Purgatory:

Bra, även om gaming är en stor hobby så har AI lyft stora delar av mitt liv enormt. Ser framemot fortsatt utveckling.

Samma här. Känns som man fått superkrafter. 💪

Permalänk
Datavetare

Nvidia lär knappast sluta med GPUer. Jensen är högst medveten om varför Nvidia så totalt dominerar all form av GPGPU, där är väldigt hög tillgänglighet på enheters som kan köra CUDA en, av flera, kritiska komponenter.

Andra har vid flera tillfällen haft bättre HW, men ingen har något som kan mäta sig med CUDA. Det är både positivt och samtidigt skrämmande. Positivt då det "bara" handlar om att få tummen ur och fixa lika bra programvara. Skrämmande givet hur länge Nvidia fattat hur kritiskt programvara är, de har under snart två decennier jobbat med programvara kring CUDA så det är ett gigantiskt jobb andra behöver matcha. Borde ändå vara möjligt att börja utmana inom specifika segment.

Givet att VRAM räcker kan man ju utveckla sina CUDA-prylar på ett GXT1030 för att sedan flytta det till datecenter och kunna räkna med att programmet fungerar även där. Vare sig AMD eller Nvidia gjorde en sådan design initialt, båda har rätt nyligen ändrat strategi så det jobbar i alla fall åt rätt håll nu.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Nvidia lär knappast sluta med GPUer. Jensen är högst medveten om varför Nvidia så totalt dominerar all form av GPGPU, där är väldigt hög tillgänglighet på enheters som kan köra CUDA en, av flera, kritiska komponenter.

Andra har vid flera tillfällen haft bättre HW, men ingen har något som kan mäta sig med CUDA. Det är både positivt och samtidigt skrämmande. Positivt då det "bara" handlar om att få tummen ur och fixa lika bra programvara. Skrämmande givet hur länge Nvidia fattat hur kritiskt programvara är, de har under snart två decennier jobbat med programvara kring CUDA så det är ett gigantiskt jobb andra behöver matcha. Borde ändå vara möjligt att börja utmana inom specifika segment.

Givet att VRAM räcker kan man ju utveckla sina CUDA-prylar på ett GXT1030 för att sedan flytta det till datecenter och kunna räkna med att programmet fungerar även där. Vare sig AMD eller Nvidia gjorde en sådan design initialt, båda har rätt nyligen ändrat strategi så det jobbar i alla fall åt rätt håll nu.

Det är bara en tidsfråga innan det endast blir PRO-kort och serverlösningar från Nvidia. CUDA är så dominerande så de som behöver CUDA i jobbet kommer att få betala bra för det.

Visa signatur

R&D Elektronik & Radioingenjör

Permalänk
Medlem

Ser man till lagerhållningen på 5080/5090 skulle det förmodligen inte behöva komma in nya kort på någon månad. Marknaden verkar lite mättad just nu. Men kommer sådan här information kan det säkert få någon/några att köpa kort.

Visa signatur

Desktop: AMD Ryzen 7 9800X3D, AORUS 5090 Master ICE, 64GB RAM DDR5 6000MHz CL30 FURY,
ASUS TUF Gaming X670E-Plus / Monitor/Tv: SAMSUNG G8 OLED/
"Konsol"-Dator: AMD 7950X,GPU: RTX 5080, 32GB DDR 5
ISP:1000/1000 Telenor

Permalänk
Medlem
Skrivet av viller2:

Tråkig utveckling även för den som vill köpa AMD, eftersom de höjer priserna precis lika mycket.

AMD säljer iaf inga kort för 35k

Permalänk
Datavetare
Skrivet av Rebben:

Det är bara en tidsfråga innan det endast blir PRO-kort och serverlösningar från Nvidia. CUDA är så dominerande så de som behöver CUDA i jobbet kommer att få betala bra för det.

Det var ju rätt mycket exakt så AMD hanterat ROCm/HIP, det har inte visat sig vara en bra strategi för sett till HW har AMD flera gånger haft mer VRAM med lika/högre bandbredd. Konsensus har ändå rätt mycket varit: det är ändå billigare att använda Nvidia för deras programvara är bättre och långt mer tillgäng (blir rätt dyrt att köpa datacenter GPUer till utvecklarna...). Med UDMA lär vi få se en "Nvidia strategi" även från AMD.

Intel hade en liknande strategi för OneAPI initialt, även om man där alltid kunna använda SIMD på CPU. Problemet är att CPU och GPU har en del rätt fundamentala skillnader, så man kommer inte hela vägen om man bara jobbar på CPU och tänker rulla ut på GPU. Sedan lanseringen av Arc går det att köra OneAPI från laptop GPUer till datacenter GPUer, sedan Battlemage är det (likt Nvidia) också samma mikroarkitektur från laptop till datacenter.

Är helt hundra på att så länge Jensen sitter kvar lär alla Nvidia GPUer stöda CUDA över hela brädet. För finns gott om exempel där "vinnaren" rent krasst inte varit den som på pappret var bäst, vinnare brukar bli den som är "tillräckligt bra" och är mest tillgänglig.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Någon mer som upplever kvalitén på svaren från kända topp-AI-modeller ha gått ned rejält? Alltså, där de exempelvis glömmer bort basala saker man talat om med den för några meddelanden sedan eller där den typ upprepar precis det du själv har sagt utan att komma med nya idéer. Som att allt den vill nu är att härma dig så mycket som möjligt - även när du säger till så gör den en 180 och "nej, förlåt jag var otroligt dålig och här är anledningen till att du har helt rätt i tvärtom vad jag skrev" fast du egentligen var ute efter mer balanserat svar.

Om man ber den granska ett dokument och försöka komma på vad det finns för brister i innehållet så är den mindre smart än för bara ett halvår sedan. Det är inget jag kan mäta direkt i siffror.

De missförstår mycket också, och följer inte instruktioner som man skrivit dem.

Permalänk
Medlem

Men snälla, vad är RTX för Nvidia idag? 5%? 10%?

Det känns lite som att säga att USA inte längre är intresserade av att leverera muskelbilar till Öst-Timor.
De har annat som de hellre fokuserar på och ärligt talat hade vi alla blivit gladare om vi kunde få tillbaka fler och mindre tillverkare.

Tröttna bara så vi kan få tillbaka vettigare priser

Visa signatur

Krusidullen är stulen

Permalänk
Medlem

Bara inse att Nvidia inte längre är ett grafikkorts företag primärt det är inte ens deras sekundära mål i företaget idag.

Visa signatur

CPU Intel Core i9-10900K 4,9GHz - CPU kylare NZXT Kraken Z73 - Chassi Fractal Design Meshify 2 XL - Ram Corsair Vengeance RGB PRO 32GB - GPU MSI GeForce RTX 3090 24GB SUPRIM X - Moderkort ASUS ROG Z490 Maximus XII HERO (WI-FI) - M.2 Samsung 970 EVO series SSD 500GB - SSD 3x Samsung SSD 860 EVO 2TB - PSU Be Quiet! Dark Power Pro 11 850W

Permalänk
Skrivet av Purgatory:

Bra, även om gaming är en stor hobby så har AI lyft stora delar av mitt liv enormt.

Hur?

Permalänk
Skrivet av Whitepilledoomer:

Någon mer som upplever kvalitén på svaren från kända topp-AI-modeller ha gått ned rejält? Alltså, där de exempelvis glömmer bort basala saker man talat om med den för några meddelanden sedan eller där den typ upprepar precis det du själv har sagt

Frågan är om folk bryr sig om att det man får är av dålig kvalitet?
När jag ställer frågor i smala ämnen där jag har spetskoll på facit så får jag slänga ca 75% av vad GPT kommer med.

För den andel av befolkningen som inte är programmerare så har AI bäst värde för att t ex föreslå ett användningsområde för 4 st gamla lime.

Permalänk
Medlem
Skrivet av Olof_von_Knorring:
Skrivet av Purgatory:

Ökad produktivitet och lär mig nya saker mycket snabbare än innan. Har startat företag som jag driver på sidan om vanligt jobb som jag aldrig känt att jag haft tid med innan. Fick nyligt ett nytt jobb där det efterfrågas implementering av AI lokalt typ LLM RAG som jag nu har viss erfarenhet av vilket är något som inte existerade i mitt liv innan. Finns många fler områden både privat och på jobb.

Kan köpa ett antal 5090 för dom intäkter som AI har skapat för mig så att kostnaden stiger för konsumentkort är inte hela världen för mig personligen. Men förstår att det inte fungerar så för alla.

Permalänk
Skrivet av Olof_von_Knorring:

Frågan är om folk bryr sig om att det man får är av dålig kvalitet?
När jag ställer frågor i smala ämnen där jag har spetskoll på facit så får jag slänga ca 75% av vad GPT kommer med.

För den andel av befolkningen som inte är programmerare så har AI bäst värde för att t ex föreslå ett användningsområde för 4 st gamla lime.

Jo, du har rätt. Tyvärr.

Det finns så mycket potential i dessa och det fick jag smaka på lite förut. Synd.

Permalänk
Skrivet av Purgatory:

Kan köpa ett antal 5090 för dom intäkter som AI har skapat för mig

Hur?

Permalänk
Medlem
Skrivet av Olof_von_Knorring:

Ja om jag kan fakturera ett jobb som vanligtvis tar 10 timmar men som nu tar 5 timmar så kan vi säga att AI ger mig 5 timmar "gratis". Samma som när mining var poppis, grafikkorten betalade för sig själv efter ett tag.

Permalänk
Medlem

Det var väntat att Nvidia har noll prioritering på spelkort, det har varit så i ett antal år redan.
Men det finns andra märken att handla från, vill de ge bort en mångmiljardmarknad bara för att de blivit fartblinda så är det deras förlust.

Permalänk

Elefanten i rummet är som vanligt energi. Om inte fusionskraften helt plötsligt får ett monumentalt genombrott kommer inte alla kärnkraftverk i hela världen räcka till för att täcka vårt samlade energibehov med drift av enorma datacenter ovanpå. Och klimatet kan vi bara säga ajöss till.

Permalänk
Skrivet av Purgatory:

Ja om jag kan fakturera ett jobb som vanligtvis tar 10 timmar men som nu tar 5 timmar så kan vi säga att AI ger mig 5 timmar "gratis". Samma som när mining var poppis, grafikkorten betalade för sig själv efter ett tag.

Och jag gissar vi båda förstår att ganska snart kommer ersättning för arbetet sjunka som en konsekvens.

Permalänk
Medlem
Skrivet av Olof_von_Knorring:

Och jag gissar vi båda förstår att ganska snart kommer ersättning för arbetet sjunka som en konsekvens.

Ja vi får hoppas, det betyder att både AI och användandet går framåt. Det gäller att vara på tå.

Permalänk
Medlem

Jag skulle nog vilja se Nvidia brytas upp så GeForce /gaming som en del och server/AI en egen typ samma som vill göra med Google

Permalänk
Skrivet av Panthro:

Jag skulle nog vilja se Nvidia brytas upp så GeForce /gaming som en del och server/AI en egen typ samma som vill göra med Google

tyvärr så tror jag att de isf nog bara skulle lägga ner konsument gpu tillverkningen om de var tvungna lägga ner eller att sälja av den biten och satsa helt på AI kretsar möjligen med en liten utvecklingsavdelning som designar gpukretsar för "beräkningdkort" typ quadro och liknande som inbringar extremt mycket mer pengar men generellt presterar väldigt dåligt i spel utan mestadels tänkt för storskaliga beräkningsjobb som backup generellt betydligt bättre vinst på dessa då de ofta får lös för 20-100k+ ifall AI bubblan skulle spricka.

Visa signatur

ASUS B550-f-Gaming, R9 5800X3D, HyperX 3200Mhz cl16 128Gb ram, rtx 3070ti.
[Lista] De bästa gratisprogrammen för Windows
[Diskussion] De bästa gratisprogrammen för Windows

Permalänk
Medlem
Skrivet av Piddelito:

Elefanten i rummet är som vanligt energi. Om inte fusionskraften helt plötsligt får ett monumentalt genombrott kommer inte alla kärnkraftverk i hela världen räcka till för att täcka vårt samlade energibehov med drift av enorma datacenter ovanpå. Och klimatet kan vi bara säga ajöss till.

Tror inte det kommer hända nåt med fusion. Det har altid varit “det är bara 10-15 år borta med genombrott” och tror inte det har ändrat sig.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/ASUS PRIME Radeon RX 9070 OC 16GB/Corsair SF750 Platinum/Kingston Fury Beast 2x16GB 3600MHz CL18/

Permalänk
Medlem
Skrivet av Bernd_P1:

Tror inte det kommer hända nåt med fusion. Det har altid varit “det är bara 10-15 år borta med genombrott” och tror inte det har ändrat sig.

Är nog längre bort än så men åtminstone har vi ju haft två stora genombrott där iår med två reaktorer som åtminstone gett energi 😁

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Quizmästare Gävle 2022
Skrivet av Swedishchef_90:

Är nog längre bort än så men åtminstone har vi ju haft två stora genombrott där iår med två reaktorer som åtminstone gett energi 😁

Även om man får tekniken att fungera så är nog den lilla detaljen med tritium en sjuhelvetes utmaning…

Visa signatur
Permalänk
Medlem

Man saknar 3dfx.... vi behöver fler tillverkare som satsar på gaming bara.

Permalänk
Medlem

"Rykte"??!

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem

Så länge Jensen driver Nvidia kommer grafikkort fortsätta, han själv är en gamer.
Även om AI just nu är 10x grafikkort på en omsättning på 60,9 miljarder USD, står grafikkorten fortfarande för väldigt mycket pengar.
Som att Apple skulle sluta göra datorer för att Mac-segmentet(iMac, MacBook) som bara står för ungefär 7,67 % av den totala omsättningen.

Nvidia chipen är stora monoliter och svindyra att tillverka, jag hoppas att vi kommer röra oss mot chiplets som löds ihop likt AMD's 3d cache och vi konsumenter kommer få bättre priser. Samt att dom fixar sina sladdproblem...

Permalänk
Fyndjägare

Fokus på datacenter skedde väl redan för flera år sedan.

Visa signatur

Front Audio porten på ditt mobo = bättre hörlursförstärkare! Bra att veta->Headphone Amp & Impedance, Apple har en 95kr DAC, Hörlursgrafer hos Squig.link, In-Ear Fidelity, AudioDiscourse.
Hörlursrigg: Audeze LCD-2.2/XC/Sine, Hifiman HE-500/560/Edition X/Arya Stealth, Focal Clear, HD6XX, TH-X00 PH, AH-D2000, Fidelio X2, B&W P7, Andromeda, Ikko OH10, EAH-AZ60, Simgot EA500 + 20 DAC/AMP - SS och rör. Och en stereo + hemmabio.

Permalänk
Medlem

Nvidia skulle behöva bryta ut grafikkortsdelen, alltså konsument-kort, i ett eget fristående företag. Då kan det företaget driva utveckling och tillverkning på egen basis med vinstintresse som inte övertrumfas av AI-dito. Nu är jag inte up-to-date på alla fabriker, men visst borde det väl gå att tillverka konsument-GPU i annan fabrik än AI-dito. Då kan båda grenarna av Nvidia fortleva och gynna sina respektive marknader istället för som nu svälta ut varann.

Rambling-varning: Det enda andra som kan vara gynnande för konsumentbranchen är konkurrens. AMD, och Intel behöver steppa upp. Men, det visste vi ju redan. Tyvärr går ju marknaden och hela världens affärsverksamheter bara mot toppstyrda superföretag som egentligen bara har en sak för ögonen och det är vinst. Även om jag inte är politiskt vänster på nåt vis så måste man nog inse att marknadsekonomin gått överstyr nu. Spelstudios läggs ner, små företag köps upp och inlemmas eller läggs ner och allt baseras på de stora jättarna som styr och ställer allt. Politisk reglering och att tvingas dela upp i mindre företag som är fristående och konkurrensdrivande igen är en väg. Men, jag kan ju hoppas att jag har fel och det helt plötsligt poppar upp nya företag som skapar ett eget t.ex grafikkort som verkligen kan ta upp kampen och rebalansera marknaden. Det vore gött.