Geforce RTX 4060 kan begränsas till åtta banor PCI Express

Permalänk
Melding Plague

Geforce RTX 4060 kan begränsas till åtta banor PCI Express

Nvidia uppges gå samma väg som AMD och bestycka nästa generations grafikkort i mellanklassen med färre banor PCI Express än tidigare.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

And nothing of value was lost

Permalänk

Ska bjässen hänga i en 8x slot också? Eller blir det en 16x där hälften av banorna inte används?

Visa signatur

MSI z170a SLI-Plus - i7 6700K @ 4,6GHz - RTX 2060 - 32GB HyperX Fury DDR4 2666Mhz - Fractal Design arc midi r2 - Noctua UH-14S

Permalänk
Medlem
Skrivet av mortelsson:

Ska bjässen hänga i en 8x slot också? Eller blir det en 16x där hälften av banorna inte används?

Andra alternativet. Finns väl knappt några konsumentkort med 8x-slots. 1x och 4x brukar finnas typ, men inte 8. Och även om det skullve vara en fysiskt 8x på GPU så passar den ändå i 16x, dock utan låset.

Permalänk
Medlem
Skrivet av mortelsson:

Ska bjässen hänga i en 8x slot också? Eller blir det en 16x där hälften av banorna inte används?

Det lär bli en x16-kontakt där bara hälften används, annars kommer det inte gå att låsa fast kortet i en x16-port på moderkortet (moderkorten har ju i stort sett bara x16 och x1).

Permalänk
Hedersmedlem
Skrivet av mortelsson:

Ska bjässen hänga i en 8x slot också? Eller blir det en 16x där hälften av banorna inte används?

Det sistnämnda. Det finns andra kort som har x8 och till och x4 (RX 6500 t ex) idag, och det syns bara om man kollar på ledningsbanorna till PCIe-kontakten.

Frågan är väl som sagt om det är är PCIe 5.0 x8 eller 4.0 x8. Det förstnämnda gör ju att det kan bli en nämnvärd flaskhals om man skulle sätta i ett RTX 4060 i en dator med PCIe 4.0, eller ännu värre 3.0.
Om kortet däremot är designat för 4.0 x8 så är det väl förhoppningsvis ingen nämnvärd flaskhals där om man har 4.0-stöd.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem

Kan det bidra till att hålla med priset är det bra. Kraven för kortet kommer inte öka med tiden. Värre är det om budget moderkort hade börjat skeppas med 8x portar då det begränsar framtida uppgraderingar.

Permalänk
Medlem

Känns inte som något optimalt kort att sätta i en äldre burk med PCI-E 3.0...

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem

Hade varit sjukt smidigt OM det bara vara en x8 slot, "behöva" låset i en x16-slot är inget måste, drog av mina lås sedan begynnelsen, sitter fast ändå

Visa signatur

Intel i5 12600K | 128 GB DDR4 3600 Mhz
ASUS TUF Z690-PLUS D4 | ASUS TUF VG32VQ 32" 1440p
XFX 6900 XT Merc 319 Black Limited
HP ProLiant DL380p Gen8 | HP MicroServer Gen 8 |
Mikrotik 10 GbE Networking

Permalänk

Detta blir en långsam historia det här.

Permalänk
Medlem
Skrivet av Dinkefing:

Detta blir en långsam historia det här.

Precis som alla läckor och släpp. Man ska ta saker och ting med en nypa salt.

Visa signatur

Intel i5 12600K | 128 GB DDR4 3600 Mhz
ASUS TUF Z690-PLUS D4 | ASUS TUF VG32VQ 32" 1440p
XFX 6900 XT Merc 319 Black Limited
HP ProLiant DL380p Gen8 | HP MicroServer Gen 8 |
Mikrotik 10 GbE Networking

Permalänk
Keeper of the Bamse
Skrivet av Pepsin:

Känns inte som något optimalt kort att sätta i en äldre burk med PCI-E 3.0...

Jag kommer ju inte köpa 4060 när det kommer, men jag som har en 10700K på Z490-chipset har ju bara PCIE 3.0 för grafikkort, så jag måste ju säkert ha full 16x för att få ut det mesta ur mitt kommande 4080/4090.

Visa signatur

i7 10770K, NH-D15. 16GB corsair. RTX 3080. 3TB nvme. Samsung G9. Fractal Torrent Compact. Corsair RM850.
Logitech G pro wireless mouse. Logitech TKL915 wireless. Logitech Pro X Wireless.
Macbook pro M1 (16GB, 512GB). HP Reverb G2.
www.bamseclockers.com

Permalänk
Medlem

Gör det avtryck i form av kraftigt sänkt pris kan det nog förlåtas av de flesta. Annars vetifan.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Pepsin:

Känns inte som något optimalt kort att sätta i en äldre burk med PCI-E 3.0...

Håller med, om man bara får ut x8 pcie 3 så är det en viss begränsning, vilket ju är synd på ett kort som kan hamna i lite äldre datorer.
X8 pcie 4 lär dock inte vara en nämnvärd flaskhals alls.
*edit* och x8 pcie 5 är verkligen ett totalt ickeproblem

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem

PCI-E 5.0 x8 motsvarar ju PCI-E 4.0 x16 fast det dubbla (32x) så det lär väl inte vara sån jättenedgradering.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem

Att AD107 har 8 banor är inte ett dugg konstigt. GA107 har också bara 8, det är bara att det chippet är så sällsynt att det inte synts till på desktop. 3050 är byggt så att det räcker med en GA107, men nVidia verkar mest sälja nedkapade GA106 i det kortet och spara GA107 till mobil-chip.

Om AD106 får det så är det mer förvånande, men inte alls omöjligt. Blir väl surt för de som uppgraderar en dator med Skylake (+++) eller gamla Zen, eftersom de bara har PCIe 3.0, men samtidigt tror jag inte att det påverkar så mycket. Nvidia har branschens bästa driver-team, och de kommer säkert att dölja kunna dölja det tappet.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Kan någon förklara vad man förlorar om man stoppar i detta i min z390 rigg med en 9600k @ 4.8
Är less på mitt 1080gtx.. spelar i 1080

Permalänk
Medlem
Skrivet av Tauri85:

Kan någon förklara vad man förlorar om man stoppar i detta i min z390 rigg med en 9600k @ 4.8
Är less på mitt 1080gtx.. spelar i 1080

Svårt att säga på förhand. 3050 var inte speciellt begränsat av 8x men RX 6500 var väldigt begränsat av 4x.

Sitter också med Z390 så PCIx 3.0. Tycker det är dåligt att korten inte får 16x numera. De som köper grafikkort i lägre klasserna är kunde som är minst sannolikt att de har senaste systemet med PCIx 5 eller ens 4.

Blir nog uppgradera moderkort och CPU innan man byter ut grafikkortet. Inte för att jag behöver nytt ändå. Spelar mest på PS5 och Xbox som det ser ut nu.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem

Känns som ett bra sett att hålla nere förbrukningen på kortet och att begränsa prestandan i högre upplösning. Sedan tror jag på max 30% ökad prestanda mot 3060. (prestandan är redan mer än ok för 50% av alla som kommer köpa nya grafikkort)

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av dagas:

Svårt att säga på förhand. 3050 var inte speciellt begränsat av 8x men RX 6500 var väldigt begränsat av 4x.

Sitter också med Z390 så PCIx 3.0. Tycker det är dåligt att korten inte får 16x numera. De som köper grafikkort i lägre klasserna är kunde som är minst sannolikt att de har senaste systemet med PCIx 5 eller ens 4.

Blir nog uppgradera moderkort och CPU innan man byter ut grafikkortet. Inte för att jag behöver nytt ändå. Spelar mest på PS5 och Xbox som det ser ut nu.

Håller med, sitter man med ett X470 från 2019 eller ett ännu nyare från Intel, kanske från våren 2021, bara 1 1/2 år gammalt, har man bara PCIe3, och det är de systemen som ev kommer att begränsas av nedbantade specifikationer, men ändå vara de användare som är mest intresserade av de här korten. Ingen bra ekvation, man får hoppas det kommer att testas i äldre system också av Sweclockers. Troligen kommer det bara att märkas i en del spel, men det är inte bra ändå.

Ett liknande fall var GTX 1060 3 GB, som presterade hyfsat i Sweclockers då hypermoderna testsystem med 16 GB RAM, där systemet i sig dolde bristerna med bara 3 GB VRAM, (där bara mängden 16 GB RAM kostade mer än grafikkortet) men som presterade sämre i den klass av datorer med mycket mindre mängd RAM det egentligen var riktat emot. Så är det iofs alltid, att testsystem är bättre, men de som köpte kortet fick nog inte den prestanda de hade förväntat sig, och det var inte uppenbart. Grafikkort borde alltid också testas för det marknadssegment av system som de troligaste köparna befinner sig i.

Permalänk
Hedersmedlem
Skrivet av Vangen:

PCI-E 5.0 x8 motsvarar ju PCI-E 4.0 x16 fast det dubbla (32x) så det lär väl inte vara sån jättenedgradering.

5.0 x8 och 4.0 x16 är bara likvärdiga i bandbredd om man faktiskt har PCIe 5.0-stöd på moderkortet, dock.
Uppgraderar man en existerande dator kanske man har ett 4.0-moderkort, och då får man hälften av den bandbredd som är tänkt (4.0 x8).

De har ju dock inte sagt om det är 4.0 x8 eller 5.0 x8 som gäller.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av dagas:

Svårt att säga på förhand. 3050 var inte speciellt begränsat av 8x men RX 6500 var väldigt begränsat av 4x.

Sitter också med Z390 så PCIx 3.0. Tycker det är dåligt att korten inte får 16x numera. De som köper grafikkort i lägre klasserna är kunde som är minst sannolikt att de har senaste systemet med PCIx 5 eller ens 4.

Blir nog uppgradera moderkort och CPU innan man byter ut grafikkortet. Inte för att jag behöver nytt ändå. Spelar mest på PS5 och Xbox som det ser ut nu.

Märker man inte av tappet mer i högre upplösningar i krävande spel eller är det inte så pci-e begränsningen fungerar kanske

Permalänk
Medlem
Skrivet av Tauri85:

Märker man inte av tappet mer i högre upplösningar i krävande spel eller är det inte så pci-e begränsningen fungerar kanske

Man märker av det när GPUn måste hämta data från RAM, vilket beror ganska mycket på hur många stora texturer man har laddade. Att RX 6500 påverkas så starkt beror delvis på att den bara har 4GB VRAM, så det är rätt lätt att få den att fylla det.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

@mpat Aha på det viset

Permalänk
Medlem

Beroende på hur snabbt det är spelar det väl ingen större roll om det är PCIe 4/5. Även om man kör PCIe 3.0 x8 så kommer man inte förlora speciellt mycket, vill minnas att 2080Ti precis flaskade lite grann på PCIe 2.0 x16. Ett 2080Ti är ju runt 40% snabbare än 3060, så gissar väl på att ett 4060 hamnar runt den prestandan.

Permalänk
Medlem
Skrivet av Vangen:

PCI-E 5.0 x8 motsvarar ju PCI-E 4.0 x16 fast det dubbla (32x) så det lär väl inte vara sån jättenedgradering.

Grejen är väl att de lägre korten i serien ofta är populära bland budgetmedvetna köpare som kanske vill köpa ett nytt grafikkort för att blåsa liv i ett äldre system utan att behöva uppgradera allt på en gång. I ett sådant system med 3.0 kommer bristen på bandbredd med X8 bli en flaskhals, medan ett X16 kort hade fungerat utan några sådana problem.
För de som har nyare moderkort/CPU med 4.0/5.0 är det inga problem då även X8 ger tillräckligt med bandbredd för att inte vara en flaskhals.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem

Specsen på mitt Z390-F säger
3 x PCIe 3.0/2.0 x1
2 x PCIe 3.0/2.0 x16 (x16 or dual x8)
1 x PCIe 3.0/2.0 x16 (max at x4 mode)
Betyder inte det att jag har en x16 och att allt är frid och fröjd?

Permalänk
Medlem
Skrivet av Tauri85:

Specsen på mitt Z390-F säger
3 x PCIe 3.0/2.0 x1
2 x PCIe 3.0/2.0 x16 (x16 or dual x8)
1 x PCIe 3.0/2.0 x16 (max at x4 mode)
Betyder inte det att jag har en x16 och att allt är frid och fröjd?

Ja, du har en port som klarar x16 (likt 99.9% av alla konsumentmoderkort). Men det spelar ingen roll om moderkortet klarar x16 om grafikkortet bara använder x8. Problemet i ditt fall är snarare att du bara har PCIe 3.0, och PCIe 3.0 x8 är på gränsen till där man börjar se försämrad prestanda.