Nvidia "Ada Lovelace" och AMD RDNA 3 får rekordsnabbt GDDR6

Permalänk
Melding Plague

Nvidia "Ada Lovelace" och AMD RDNA 3 får rekordsnabbt GDDR6

I ett pressmeddelande bekräftar Samsung att nästa generations grafikkort bestyckas med bolagets nya rekordsnabba GDDR6-minne.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Då blir det åka av! Bara priserna ligger på rimliga nivåer.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

Enligt rykten så googlas det fortfarande febrilt på nVidia om varför folk fnissar när dom nämner "Lovelace".

Permalänk
Medlem

Finns en anledning att Nvidia pressar 450W, det är för att det blir åka av

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Det är ju helt galet, har dom nya korten snabbare minnen än dom gamla

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem
Skrivet av Ozzed:

Då blir det åka av! Bara priserna ligger på rimliga nivåer.

Glöm det är min gissning 😂
Hoppas över allt dock att du har rätt.

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem
Skrivet av RVX:

Glöm det är min gissning 😂
Hoppas över allt dock att du har rätt.

<nostradamus>
Jag gissar på att dom släpper 4070 och 4080 först.
Med MSRP på $799 och $999 (vilket ju betyder över 10000:- för 4070 här i svedala).

Och sedan ser dom noga till att korten testas med så mycket RTX som möjligt, för där är dom starkare jämfört med 30 serien.
Att dom tappar i titlar som renderar mer traditionellt ursäktas med att "prestandan räcker ändå".
Gissar även på att testbänkarna världen över bestyckas med >1000 watt nätagg, kanske t.o.m. tillhandahållna med testkorten.

Troligen så sockrar dom även lite ytterligare med någon menlös mjukvarufunktion (minns nu "Ansel"? som kräver RTX och knappt fungerar med tidigare kort.
Artificiellt begränsad såklart vilket snabbt blir klart då någon kines lyckas köra det på ett AMD kort.

Ser redan nu fram mot gamersnexus's fördröjda recension som visar vad alla 1-day recensioner inte gjorde

</nostradamus>

Permalänk
Medlem

Någon som har lite info angående fördelar och nackdelar med GDDR6X (dvs med PAM4-signaler) vs GDDR6 (dvs utan PAM4-signaler). Tänker framförallt om de når samma bandbredd, säg 24 Gbps. Bandbredden är ju isåfall densamma och därmed borde prestandan vara identisk, eller? Skiljer sig strömförbrukningen etc?

Permalänk
Medlem
Skrivet av Svensktiger:

<nostradamus>
Jag gissar på att dom släpper 4070 och 4080 först.
Med MSRP på $799 och $999 (vilket ju betyder över 10000:- för 4070 här i svedala).

Och sedan ser dom noga till att korten testas med så mycket RTX som möjligt, för där är dom starkare jämfört med 30 serien.
Att dom tappar i titlar som renderar mer traditionellt ursäktas med att "prestandan räcker ändå".
Gissar även på att testbänkarna världen över bestyckas med >1000 watt nätagg, kanske t.o.m. tillhandahållna med testkorten.

Troligen så sockrar dom även lite ytterligare med någon menlös mjukvarufunktion (minns nu "Ansel"? som kräver RTX och knappt fungerar med tidigare kort.
Artificiellt begränsad såklart vilket snabbt blir klart då någon kines lyckas köra det på ett AMD kort.

Ser redan nu fram mot gamersnexus's fördröjda recension som visar vad alla 1-day recensioner inte gjorde

</nostradamus>

Känns som realistiska priser 💵💸

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem
Skrivet av PatrickP:

Någon som har lite info angående fördelar och nackdelar med GDDR6X (dvs med PAM4-signaler) vs GDDR6 (dvs utan PAM4-signaler). Tänker framförallt om de når samma bandbredd, säg 24 Gbps. Bandbredden är ju isåfall densamma och därmed borde prestandan vara identisk, eller? Skiljer sig strömförbrukningen etc?

Vi får väl se med strömförbrukningen, men rent allmänt är det just nu så att GDDR6X inte kan nå mer 21Gbps, och det var svårt att nå ens det. Nvidia’s plan verkar ha varit 50% högre klockfrekvens än GDDR6, vilket är varför de accepterade den högre strömförbrukningen. Nu blev det inte så - GDDR6 nådde 16GHz för AMDs launch, och GDDR6X tog slut vid 19,5Gbps vid launchen. Sedan dess har bägge jobba upp sig lite, till 18GHz respektive 21GHz, men det är ju snarast GDDR6 som kommer ikapp. Skulle gissa att nVidia skriver av GDDR6X som ett dyrt misstag och går tillbaka till GDDR6 - fast det har jag ju iofs trott sen Ampere lanserades.

Visa signatur

5900X | 6700XT

Permalänk
Hedersmedlem
Skrivet av Svensktiger:

Enligt rykten så googlas det fortfarande febrilt på nVidia om varför folk fnissar när dom nämner "Lovelace".

Enligt rykten så heter det ju åtminstone Ada Lovelace nu, inte bara "Lovelace" som det ryktades från början.
Hon var ju 134 år före Linda med namnet så man får väl respektera det lite?

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av mpat:

Vi får väl se med strömförbrukningen, men rent allmänt är det just nu så att GDDR6X inte kan nå mer 21Gbps, och det var svårt att nå ens det. Nvidia’s plan verkar ha varit 50% högre klockfrekvens än GDDR6, vilket är varför de accepterade den högre strömförbrukningen. Nu blev det inte så - GDDR6 nådde 16GHz för AMDs launch, och GDDR6X tog slut vid 19,5Gbps vid launchen. Sedan dess har bägge jobba upp sig lite, till 18GHz respektive 21GHz, men det är ju snarast GDDR6 som kommer ikapp. Skulle gissa att nVidia skriver av GDDR6X som ett dyrt misstag och går tillbaka till GDDR6 - fast det har jag ju iofs trott sen Ampere lanserades.

Vissa rykten säger att nästa generation från Nvidia är förberedda för att kunna använda GDDR7 när det väl kommer till marknaden, så finns gissningar på en "super-serie" efter 9-12 månader.

Permalänk
Medlem
Skrivet av meanh:

Vissa rykten säger att nästa generation från Nvidia är förberedda för att kunna använda GDDR7 när det väl kommer till marknaden, så finns gissningar på en "super-serie" efter 9-12 månader.

Om nu AMD lägger sina memory controllers på separata chip, som det ryktas, så kan de mycket lätt göra en sådan uppdatering.

Det bör komma en GDDR7, eftersom varje GDDR är baserad på cellen från en DDR. GDDR6 är baserad på DDR4, så det borde gå att göra en baserad på DDR5.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av RVX:

Glöm det är min gissning 😂
Hoppas över allt dock att du har rätt.

hoppas kan man. Med hemmamining förpassat till historieböckerna och en global ekonomisk depression runt hörnet så är det ju två saker som i alla fall inte talar för att det inte finns så mycket utrymme att tälja guld ur tomma intet den här gången.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av the squonk:

Finns en anledning att Nvidia pressar 450W, det är för att det blir åka av

Det är för att de inte har en chans mot RDNA3 om de inte pressar ur minsta droppe ur sina kretsar

Jag tror att AMD kan köra en repris av när de gick om Intel på CPU marknaden och göra likadant med Nvidia denna generation.

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Medlem
Skrivet av Ozzed:

hoppas kan man. Med hemmamining förpassat till historieböckerna och en global ekonomisk depression runt hörnet så är det ju två saker som i alla fall inte talar för att det inte finns så mycket utrymme att tälja guld ur tomma intet den här gången.

Hehe ja, jag tror på det när jag ser det. Är allt jag säger 😁

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem

men mitt 3090 kör i 21000 så endast 14% snabbare. Vad är det att snacka om?

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

men mitt 3090 kör i 21000 så endast 14% snabbare. Vad är det att snacka om?

Jag får bara upp mitt 3080 i 20.5k stabilt, måndagsexemplar

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av Aeig:

Det är för att de inte har en chans mot RDNA3 om de inte pressar ur minsta droppe ur sina kretsar

Jag tror att AMD kan köra en repris av när de gick om Intel på CPU marknaden och göra likadant med Nvidia denna generation.

Mvh

Folk sa samma sak förra generation.

Visa signatur

Nada.

Permalänk
Medlem
Skrivet av Sarg:

Folk sa samma sak förra generation.

6900XT och 6950XT är redan snabbare än 3090 och 3090Ti i en del spel så på sätt och vis är AMD nästintill ikapp, FSR 2.0 kommer lösa det tillsammans med samma teknik med chiplets som de använder för sina CPUs

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED

Permalänk
Avstängd
Skrivet av Aeig:

6900XT och 6950XT är redan snabbare än 3090 och 3090Ti i en del spel så på sätt och vis är AMD nästintill ikapp, FSR 2.0 kommer lösa det tillsammans med samma teknik med chiplets som de använder för sina CPUs

Mvh

AMDs svaghet är RT. Där hoppas man de blir bättre.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Datavetare
Skrivet av Kaleid:

AMDs svaghet är RT. Där hoppas man de blir bättre.

Nvidias styrka är programvara. Om AMD/Intel presterar lika bra som Nvidia i spel måste de förra vara billigare för att ha samma konsumentvärde. För CUDA (programvaran) är ohälsosamt dominant (fast den är dominant på goda grunder, så här långt är den bäst).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hedersmedlem
Skrivet av sesese:

men mitt 3090 kör i 21000 så endast 14% snabbare. Vad är det att snacka om?

Det är ju dock GDDR6X, inte GDDR6. Och detta är en pressrelease från Samsung, som legat efter GDDR6X tills nu.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Yoshman:

Nvidias styrka är programvara. Om AMD/Intel presterar lika bra som Nvidia i spel måste de förra vara billigare för att ha samma konsumentvärde. För CUDA (programvaran) är ohälsosamt dominant (fast den är dominant på goda grunder, så här långt är den bäst).

Exakt, jag kommer inte att köra en "All AMD"-rig om inte priset blir sensationellt bra, annars väger nyttan av Nvidias funktioner över

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av the squonk:

Jag får bara upp mitt 3080 i 20.5k stabilt, måndagsexemplar

ok då är det 17% snabbare än ditt kort fortfarande inte så stor skillnad.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Skrivet av the squonk:

Exakt, jag kommer inte att köra en "All AMD"-rig om inte priset blir sensationellt bra, annars väger nyttan av Nvidias funktioner över

Vilka funktioner?

Nu vi ändå pratar grafikkort vill jag ta upp att Nvidias kontrollpanel är oerhört ålderstigen när ska de uppdatera den?

Permalänk

Jaha jag som trodde HBM var framtiden. Varför satsar de inte på den tekniken. Är inte det egentligen bättre än GDDR
Om nu Samsung har utvecklat tekniken varför finns det då inte i deras senaste telefon. Är ingen expert. Allt låter lite udda när du läser. Vi är i framkant, tyvärr få du som kund vänta till santa existerar för att se tekniken. Bara en långsökt fundering.

Permalänk
Medlem
Skrivet av Buddaz112:

Jaha jag som trodde HBM var framtiden. Varför satsar de inte på den tekniken. Är inte det egentligen bättre än GDDR
Om nu Samsung har utvecklat tekniken varför finns det då inte i deras senaste telefon. Är ingen expert. Allt låter lite udda när du läser. Vi är i framkant, tyvärr få du som kund vänta till santa existerar för att se tekniken. Bara en långsökt fundering.

Känslan jag fick var iaf att HBM inte verkade löna sig för konsumentprylar, typ grafikkort för spel, det var mer kostnadseffektivt att vrida upp farten på GDDR och ha lite smart cachehantering.
Nu verkar ju HBM mest leva vidare i mer krävande applikationer med rejäl prislapp, typ datacenterprylar.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av Dinkefing:

Vilka funktioner?

Nu vi ändå pratar grafikkort vill jag ta upp att Nvidias kontrollpanel är oerhört ålderstigen när ska de uppdatera den?

Tycker nvidias kontrollpanel nästan är buggig. Sparar man en ändring så glappet hela sidan 3 gånger för att sedan bli som vanligt igen. Kan säga att mina förväntningar inte var detta när jag gick över till team green.

Visa signatur

Ryzen 7800X3D, be quiet! pure rock 2, RTX 4070 Ti Super, Corsair 32GB 6000MHz CL36, Corsair TX850M

Permalänk
Inaktiv
Skrivet av Svensktiger:

<nostradamus>
Jag gissar på att dom släpper 4070 och 4080 först.
Med MSRP på $799 och $999 (vilket ju betyder över 10000:- för 4070 här i svedala).

</nostradamus>

Vi kan hoppas det inte blir värre än så men jag förbereder mig på att 4070 kommer vara med god marginal över 10k och eventuellt ännu högre en månad senare när de märker att allt säljer slut på en gång (igen).