Samsungs nya GDDR5 möjliggör grafikkort med 32 GB videominne

Permalänk
Melding Plague

Samsungs nya GDDR5 möjliggör grafikkort med 32 GB videominne

Koreanska Samsung blåser nytt liv i GDDR5-minnesstandarden med övergången till 20 nanometer, som möjliggör en rekordhög kapacitet per minneskapsel såväl som högre bandbredd.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Jag gillar inte att grafikkort har mer minne än vad jag har ram haha

Visa signatur

The game | Fraktfritt Inet

Ebolaexpressen är under uppbyggnad, sleeve och 240 rad i ett Silverstone SG05B

Permalänk
Master of Overkill

Nu snackar vi :3

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Avstängd

16384 megabyte texturer: Ja tack!

Visa signatur

https://mega.nz/#!xNBjAJKA!OQctTR0tY5EK1Dk68MV0loIyCD3ftwL_KI...
(DX-11 DLL-fil till SweetFX/Reshade som är kompatibel med GTA 5)

Permalänk
Avstängd

8K texturer med 16 bitar per färgkanal. 48-bit bpp.

MexaTexture som John Carmack på id software utvecklade för id Tech 5 motorn med texturer i storlek upp till 128000×128000 pixlar.

Permalänk
Medlem

haha daaaaaaaaaaaamn , mer GPU minne är RAM , nu snackar vi grymma kort slutet på året kanske? lär ju kosta också...

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem

Damn son... Quad SLI med ett nytt GTX Titan som har 32 GB VRAM. 128 GB VRAM totalt alltså. Kommer nog ändå inte räcka för att köra Assassins Creed Unity med 60 FPS, men men...

Visa signatur

Stationär: Ryzen 5 3600 | Asus GTX 980
Bärbar: Razer Blade 15 Advanced 2020 | 4K OLED | RTX 2080 Super

Permalänk
Avstängd
Skrivet av DanneCool:

Damn son... Quad SLI med ett nytt GTX Titan som har 32 GB VRAM. 128 GB VRAM totalt alltså. Kommer nog ändå inte räcka för att köra Assassins Creed Unity med 60 FPS, men men...

128GB totalt? Det kommer ju fortfarande bara vara 32GB även om du kör Quad SLI

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem
Skrivet av DanneCool:

Damn son... Quad SLI med ett nytt GTX Titan som har 32 GB VRAM. 128 GB VRAM totalt alltså. Kommer nog ändå inte räcka för att köra Assassins Creed Unity med 60 FPS, men men...

Spelar ingen roll om du har ett grafikkort som släpps 2020 .Man kommer aldrig få 60 fps i det j...a spelet

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem

Snart kanske hårdvaran börjar bli redo för 4K gaming hypen!

Visa signatur

[ASUS P8Z77-V] [INTEL Core i5-3570K@4.2ghz] [HyperX1600/16gb]
[Asus GTX1070] [Samsung 830 256gb x2 ]
[BENQ XR3501] [Logitech G27] [Logitech 3D PRO]

Permalänk

Ja ha. Tur att jag läste detta. För jag tänkte köpa 980 nu inom en månad hade jag tänkt. Men jag är ju sen innan lite tveksam att köpa 4 G kort nu i dessa dagar när spel kräver det redan nu. 6 G kort skulle kännas bättre då.

Men sen detta med nya saker. VAD kommer detta kosta suck.

Permalänk
Medlem
Skrivet av Rajat:

128GB totalt? Det kommer ju fortfarande bara vara 32GB även om du kör Quad SLI

Det kommer endast gå att utnyttja 32 GB, visst, men sett från datorns perspektiv tar väl korten upp 128 GB, så att säga? Är inte helt "high" på det här med SLI tyvärr.

Visa signatur

Stationär: Ryzen 5 3600 | Asus GTX 980
Bärbar: Razer Blade 15 Advanced 2020 | 4K OLED | RTX 2080 Super

Permalänk
Medlem

Med tanke på hur mycket dom höjjer priserna i vanliga fall när det är mer minne men samma krets så lär det bli hutlöst nu då

Visa signatur

Mvh Milky - citera för svar
Fractal Meshify C - Ryzen 7 7800X3D - Thermalright Peerless Assassin 120SE - Kingston Fury Beast 6000 MHz 2x16 GB - Asus TUF Gaming B650-Plus - AMD 7900 XTX - Corsair RM1000X Shift
Köp/sälj-betyg Sweclockers marknad; 1, 2, 3, 4, 5

Permalänk
Avstängd
Skrivet av DanneCool:

Det kommer endast gå att utnyttja 32 GB, visst, men sett från datorns perspektiv tar väl korten upp 128 GB, så att säga? Är inte helt "high" på det här med SLI tyvärr.

Det blir lite som att tro att en QUAD CPU med 2,66GHZ per kärna ger dig en CPU på 10,64GHz.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem
Skrivet av Rajat:

Det blir lite som att tro att en QUAD CPU med 2,66GHZ per kärna ger dig en CPU på 10,64GHz.

Fast nej, det är det inte alls. Och du ignorerade totalt det som jag skrev till dig. Från datorns perspektiv borde du ha 128 GB VRAM, även om du kan utnyttja 32 GB då du spelar. Om du använder alla korten till olika uppgifter, kan man ju säga att du har 128 GB, om det jag nämnde tidigare är fallet.

Visa signatur

Stationär: Ryzen 5 3600 | Asus GTX 980
Bärbar: Razer Blade 15 Advanced 2020 | 4K OLED | RTX 2080 Super

Permalänk
Medlem

Helt sjukt va grafikmarknaden går snabbt framåt. Lycka till Sony och Microsoft att ha ps4 och xbone i 4 år till eller vad dom hade tänkt sig.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av milky81:

Med tanke på hur mycket dom höjjer priserna i vanliga fall när det är mer minne men samma krets så lär det bli hutlöst nu då

Eller så lär grafikkort med lägre minne bli billigare

Permalänk
Avstängd
Skrivet av Osten92:

Helt sjukt va grafikmarknaden går snabbt framåt. Lycka till Sony och Microsoft att ha ps4 och xbone i 4 år till eller vad dom hade tänkt sig.

Skickades från m.sweclockers.com

Är nog inga problem, bara för att teknik finns som gör att man KAN ha 32GB VRAM så är inte det samma sak som att grafikkortstillverkarna slänger sig över det och tillverkar kort med det ifall det inte finns något som kräver det, arkitekturen på Intel's Pentium 4 processorer klarade av hastigheter upp till 10GHz, inte tillverkade de någon CPU med det för det för det behövdes inte.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem

Dubbelt så mycket som hela burkfan har, wow...

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Medlem
Skrivet av Osten92:

Helt sjukt va grafikmarknaden går snabbt framåt. Lycka till Sony och Microsoft att ha ps4 och xbone i 4 år till eller vad dom hade tänkt sig.

Skickades från m.sweclockers.com

De klarar sig nog fint i många år skall du se. Däremot kanske det underlättar för portningarna från xbone/ps4 till PC?

Permalänk
Skrivet av Rajat:

Är nog inga problem, bara för att teknik finns som gör att man KAN ha 32GB VRAM så är inte det samma sak som att grafikkortstillverkarna slänger sig över det och tillverkar kort med det ifall det inte finns något som kräver det, arkitekturen på Intel's Pentium 4 processorer klarade av hastigheter upp till 10GHz, inte tillverkade de någon CPU med det för det för det behövdes inte.

Nja, stor sanning med modifikation. Prescot kanske klarar 10GHz i simuleringar med perfekta chip men det var omöjligt att nå dit med chip i verkligheten pga energiförbrukningen och därmed värmeutveklingen. Hade det varit möjligt att fortsätta höja frekvensen så hade Intel garanterat gjort det men det är helt enkelt inte praktiskt ur ett energiförbrukningsperspektiv att gå långt över 4GHz.

Som exempel så ligger Värdsrekordet med en celeron på 8.5GHz med 2.16V i Vcore, det motsvarar 650W i energiförbrukning och skulle resulterat i en död CPU på allt under LN2. Samtidigt är det rätt ovanligt med chip som gör över 7GHz ens på LN2.

Permalänk
Medlem
Skrivet av DanneCool:

Fast nej, det är det inte alls. Och du ignorerade totalt det som jag skrev till dig. Från datorns perspektiv borde du ha 128 GB VRAM, även om du kan utnyttja 32 GB då du spelar. Om du använder alla korten till olika uppgifter, kan man ju säga att du har 128 GB, om det jag nämnde tidigare är fallet.

Fast om du utnyttjar alla kärnorna till olika uppgifter, så kan man ju säga att "en QUAD CPU med 2,66GHZ per kärna ger dig en CPU på 10,64GHz." också, på exakt samma sätt...

I praktiken dock så används aldrig minnet i grafikkort eller CPU kärnorna på det viset, förutom i viss beräkning/rendering. Om något så används flerkärniga CPU:er betydligt mer frekvent flera av sina kärnor än vad flera grafikkort har nytta av allt sitt minne när de sitter kopplade i SLI.

Permalänk
Skrivet av ottoblom:

Spelar ingen roll om du har ett grafikkort som släpps 2020 .Man kommer aldrig få 60 fps i det j...a spelet

Jag har ju fan 58-60fps stabilt på högsta med bara ett gtx 970 o en 4670k? Har jag missat något? Lol

Skickades från m.sweclockers.com

Visa signatur

APB: Reloaded <3

Permalänk
Medlem

Jag får vibbar att AMD kommer ha mycket minne på sin graffen

Permalänk
Avstängd
Skrivet av lanbonden:

Nja, stor sanning med modifikation. Prescot kanske klarar 10GHz i simuleringar med perfekta chip men det var omöjligt att nå dit med chip i verkligheten pga energiförbrukningen och därmed värmeutveklingen. Hade det varit möjligt att fortsätta höja frekvensen så hade Intel garanterat gjort det men det är helt enkelt inte praktiskt ur ett energiförbrukningsperspektiv att gå långt över 4GHz.

Som exempel så ligger Värdsrekordet med en celeron på 8.5GHz med 2.16V i Vcore, det motsvarar 650W i energiförbrukning och skulle resulterat i en död CPU på allt under LN2. Samtidigt är det rätt ovanligt med chip som gör över 7GHz ens på LN2.

"Intel claimed that NetBurst would allow clock speeds of up to 10 GHz; however, severe problems with heat dissipation (especially with the Prescott Pentium 4) limited CPU clock speeds to a much lower 3.8 GHz"

http://en.wikipedia.org/wiki/Pentium_4

Prescott i sig var ett värmeproblem, Northwood var en bättre CPU än vad Prescott var på alla sätt
Sen slutade de även med 3.6 & 3.8GHz eftersom de inte gav någon prestandavinst.

Skrivet av biorrith:

Jag får vibbar att AMD kommer ha mycket minne på sin graffen

Varför då? Finns inget som kommer utnyttja det och då är det bara onödigt.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Skrivet av Rajat:

"Intel claimed that NetBurst would allow clock speeds of up to 10 GHz; however, severe problems with heat dissipation (especially with the Prescott Pentium 4) limited CPU clock speeds to a much lower 3.8 GHz"

http://en.wikipedia.org/wiki/Pentium_4

Prescott i sig var ett värmeproblem, Northwood var en bättre CPU än vad Prescott var på alla sätt
Sen slutade de även med 3.6 & 3.8GHz eftersom de inte gav någon prestandavinst.

Att Northwood var bättre är där nog ingen som säger emot, men Prescott överklockade klart högre om man hade kylning till det. Som referens är den snabbaste frekvensen (alltså printscreen stabilit men inte mer) som uppnåtts med en Northwood runt 5.2 GHz vilket är hälften av de där 10GHzen.

Sen att det inte skulle ge en prestanda vinst är bara bullshit då prestandan skalar väldigt nära linjärt med klockfrekvensen. De blev helt enkelt för varma och svåra att kyla om de gick högre samtidigt som Netburst började bli väldigt omodern när bättre tillverkningstekniker kom.

Med det sagt så är det nog inte alls omöjligt utan snarare väldigt troligt att arkitekturen skulle kunna nått 10 GHz om de fortsatte med den i CPUer med lite färre transistorer med dagens mått så avstånden hölls korta och den inte utveckla så mycket värme samtidigt som den tillverkades i tex 20nm istället för 65nm? som de sista Pentium D var i. Men då skulle det oavsett varit en riktigt usel CPU som inte uppfyllde något annat än att bevisa att det gick att köra en Netburst i 10GHz (på flytande kväve mest troligt men ändå).

Permalänk
Medlem
Skrivet av ottoblom:

Spelar ingen roll om du har ett grafikkort som släpps 2020 .Man kommer aldrig få 60 fps i det j...a spelet

Inte till konsoler nej, nej. Men PC i alla fall.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Quizmaster Malmö 22

Bra, då var det löst.

Fast nu var det ju aldrig minnesmängden som var problemet....vi behöver mycket snabbare kort också om vi nu ska kunna driva en 4K skärm i 144FPS i nåt snabbt lir.

Folk säger att 2GB e helt för lite o här sitter man med 1280MB....>_<

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av Ixos:

Fast om du utnyttjar alla kärnorna till olika uppgifter, så kan man ju säga att "en QUAD CPU med 2,66GHZ per kärna ger dig en CPU på 10,64GHz." också, på exakt samma sätt...

I praktiken dock så används aldrig minnet i grafikkort eller CPU kärnorna på det viset, förutom i viss beräkning/rendering. Om något så används flerkärniga CPU:er betydligt mer frekvent flera av sina kärnor än vad flera grafikkort har nytta av allt sitt minne när de sitter kopplade i SLI.

Det håller jag med om till 100%. Det jag sa var:

>Det är inte samma sak att tro att en flerkärnig processors klockfrekvens/kärna "stack:as", som att tro att om du har flera grafikkort så adderas deras minnen.

Visa signatur

Stationär: Ryzen 5 3600 | Asus GTX 980
Bärbar: Razer Blade 15 Advanced 2020 | 4K OLED | RTX 2080 Super

Permalänk
Avstängd

Skulle inte Nvidia också göra en övergång till staplade minnen på sina nästa kort precis som AMD gör med sin 390-serie nu? Om så är fallet, vem ska då använda dessa minnen ifrån samsung?