Rykte: PCI Express 5.0 introducerar ny strömkontakt för grafikkort

Permalänk
Medlem
Skrivet av RVX:

Hmmm, just för KFA2 hade man ju trott att deras HAF kort skulle vara dom dyraste

Du menar HOF? Möjligt att det är tänkt att vara dyrare, men det verkar inte säljas i Sverige för tillfället.

Permalänk
Medlem
Skrivet av perost:

Du menar HOF? Möjligt att det är tänkt att vara dyrare, men det verkar inte säljas i Sverige för tillfället.

Of course, HOF. THX

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem

Härligt, bara grafikkortet kommer alltså dra mer än hela min gamla dator...det är utveckling det...kanske EU borde stifta lagar angående pref/w....

Visa signatur

"Jag är så gammal att jag brukade styra med piltangenterna"
StoppaCopySwede
Fraktrfitt:Inet

Permalänk
Permalänk
Medlem
Skrivet av andreas_dock:

Spräcker vi nya gränser för vad ett grafikkort kan/ska kosta med, hör jag några bud på 30k ?

Med rykten på tredubbla prestanda jäntemot förra generationen vågar jag buda på 50k

Permalänk
Medlem
Skrivet av PeCe:

450W? Börjar gå lite väl långt, man försöker ju göra de flesta produkter energisnålare. Fortsätter det så här så får snart grafikkort säljas bundlade med utsläppsrätter som tillåter köparens elbolag att producera den el som krävs...

Man kan väl anta att dom försökt så långt det går. Antingen det eller sämre presterande grafikkort. Underklocka är väl ett alternativ om man inte tycker om strömförbrukningen.

Visa signatur

Ryzen 7800X3D, be quiet! pure rock 2, RTX 4070 Ti Super, Corsair 32GB 6000MHz CL36, Corsair TX850M

Permalänk
Medlem

Att kunna steka ägg på grafikkortets backplate är en feature. Dessutom är äggtracing framtiden.

Visa signatur

AMD RYZEN 5 5600X | RTX 3060Ti | MSI B450 GAMING PRO CARBON AC

I ett tidigare liv:
AMD 2600X | AMD 8350 | AMD Phenom II X2 555 Black edition | AMD Athlon 64 3700+ | Intel® Pentium® II | Intel® 486DX2-66

Permalänk
Medlem

450W? Yes! Jag köpte precis 1 048 576 aktier i vattenfall.

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Medlem
Skrivet av Swedman18:

Med rykten på tredubbla prestanda jäntemot förra generationen vågar jag buda på 50k

Var kommer dessa rykten ifrån?

Permalänk
Medlem

Fick läsa tråden några gånger, men lycka till snillen spekulerar

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Medlem
Visa signatur

⚙️ Asus ROG Strix Maximus 13 Hero; Core i9, (11900K); ASUS ROG Ryujin 360mm; RTX 3090 ROG Strix; G.Skill Trident Z Royal DDR4-4600 CL20 DC - 64GB ; Samsung 980 Pro 2TB M.2; PSU: ASUS ROG Thor 1200W. CASE: ASUS ROG Strix Helios GX601. 🖥️Asus ROG PG279Q 2560x1440 🖥️, 🖥️🖥️HTC Vive Cosmos Elite, Vive Wireless. ⌨️Steelseries Apex Pro 🖱️Steelseries Rival 600

Permalänk
Medlem
Skrivet av Kladdpapper:

Man kan väl anta att dom försökt så långt det går. Antingen det eller sämre presterande grafikkort. Underklocka är väl ett alternativ om man inte tycker om strömförbrukningen.

En väsentlig del av prestandaökningen är avhängig effektökningen. Problemet är fundamentalt att utvecklingen av litografitekniken inte längre lånar sig till den sorts prestandaökningar som vi vande oss vid upp till för 10-15 år sedan. Och naturligtvis att små prestandaökningar är meningslösa för spel, få är intresserade av att betala för helt nya grafikkort och bara få prestandaförbättringar som motsvarar att skruva ett steg på någon setting.

Det finns ingenting som tyder på bättre framtidsutsikter litografimässigt, tvärtom. Som konsument vet man vad det betyder - produkterna kommer att säljas på hype istället för (pris/)prestanda.

Ser fram emot gamer-svettdukar med röda fartränder och text som ”vengeance” eller ”raptor” för att hantera värmeböljan från grafikkorten. 🙄😀

Permalänk
Medlem

Enligt dessa rykten får man för 29% högre watt förbrukning 2% fler cuda kärnor och 8% snabbare minnen.

Hur skalar prestanda på dessa nivåer; där man pressar ut det sista ur grafikarkitekturen? Jag har en känsla att det inte är linjärt. Och då talar vi om prestandaökning på några enstaka procent från rtx 3090. Och så var det det här med priset

Permalänk

När man maxat kortet under en spelsession.

Permalänk

Intressant utveckling man får se vad som händer och hur PCI Express 5.0 utnyttjas. Så många personer som sågade NVME ssd för några år sedan. Och vops så blev leksakerna xbox och ps5 beroende av dessa och på en dag så blev snabba ssd bra saker.

Nå vi får se med PCI Express 5.0, jag tror att det dröjer många år innan vanliga svenssonsanvändare utnyttjar dessa. Det jag upplever är att många idag kör med laptops och usb 3.2 eller Thunderbolt är en begränsning. Usb 4.0 går trögt, men det är typ gamla Thunderbolt. Så börja med PCI Express 5.0, fixa sedan till vettig prestanda usb.

Och ja usb 4.0 är en flaskhals för många. Ska man koppla in laptoppen i en docka och ha 3st 4k skärmar i över 60Hz så räcker bandbredden med en usb 4.0 kabel inte till. Och alla dessa laptops som säljs med pyttesmå ssd så behöver folk snabba portar för att kunna utöka det med externa.

*edit*
Dockor till laptops har varit ovanligt bland svenssonsanvändare. Det var mer förut exklusivare datorer som hade en speciell anslutning på undersidan. Sedan kom usb 3.2/Thunderbolt och typ alla nya laptops som har orgialdockor kör med detta idag.
Om några år kanske en docka blir mer eller mindre var persons egendom, jag hoppas så. Men snabb bandbredd är en försättning för att typ alla ska klara sig med dockor. Som det är idag, så är det nog ytterst få gamers som köper dockor. Och gamers brukar vara dem som köper de dyrare konsumentlapptoparna.

Permalänk
Medlem

Nya kontakter, backplates med kylfunktion. 5-slot tjocka kort osv. GPUerna kommer snart behöva ett eget chassi och nätaggregat.

Permalänk
Medlem
Skrivet av employed:

Nya kontakter, backplates med kylfunktion. 5-slot tjocka kort osv. GPUerna kommer snart behöva ett eget chassi och nätaggregat.

Under förutsättning att man kan ordna snabb kommunikation till det externa chassit är detta ett rimligt evolutionärt antagande. Kompressorkylning (som med ett litet kylskåp) ryms mycket väl inom budgeten för framtida grafikkort. Enda frågetecknet ligger i just kommunikationskanalen.

Och naturligtvis - är det en utveckling vi faktiskt vill ha?

Permalänk
Medlem
Skrivet av RVX:

Inget behov av ett element i vinter om har detta kort i samma rum snart.

Min 3080 sköter värmen här hemma...doc blir det jobbigt på sommaren 😅

Permalänk
Medlem

Får se hur det blir.
Kan ju ev bli bättre på något sätt.

Hindrades när jag nyligen skulle montera ett 3090 i en märkesmaskin. Maskinen hade nätagg så det räckte men bara två 8-pin och några 6-pin, grafikkortet krävde 3 st 8-pin.

Men nog börjar de ju ligga lite väl högt i både strömförbrukning och pris.

Permalänk
Medlem
Skrivet av aines:

Min 3080 sköter värmen här hemma...doc blir det jobbigt på sommaren 😅

Ge det till mig under sommarmånaderna då.
Nya lägenheten är avsevärt svalare än min förra 😂

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Medlem
Skrivet av D.:

Får se hur det blir.
Kan ju ev bli bättre på något sätt.

Hindrades när jag nyligen skulle montera ett 3090 i en märkesmaskin. Maskinen hade nätagg så det räckte men bara två 8-pin och några 6-pin, grafikkortet krävde 3 st 8-pin.

Men nog börjar de ju ligga lite väl högt i både strömförbrukning och pris.

2x6-pin = 2x75W = 150W = 1x8-pin

Går utan problem med en adapter

Permalänk
Medlem
Skrivet av EntropyQ3:

En väsentlig del av prestandaökningen är avhängig effektökningen. Problemet är fundamentalt att utvecklingen av litografitekniken inte längre lånar sig till den sorts prestandaökningar som vi vande oss vid upp till för 10-15 år sedan. Och naturligtvis att små prestandaökningar är meningslösa för spel, få är intresserade av att betala för helt nya grafikkort och bara få prestandaförbättringar som motsvarar att skruva ett steg på någon setting.

Det finns ingenting som tyder på bättre framtidsutsikter litografimässigt, tvärtom. Som konsument vet man vad det betyder - produkterna kommer att säljas på hype istället för (pris/)prestanda.

Ser fram emot gamer-svettdukar med röda fartränder och text som ”vengeance” eller ”raptor” för att hantera värmeböljan från grafikkorten. 🙄😀

Skalar nog inte ritktigt linjärt längre när man pressar kortet så.
Jag tror att man löser problemet med nya tekniker som MCM och att man fokuserar på förenkla och prispressa tillverkningen.
Man börjar få till tät integration av flera kretsar nu, och får man ner priset ordentligt på att pussla ihop dem så kan det vara riktigt värt att lägga sig på en pris/prestanda-optimerad tillverkningsteknik och storlek på kretsarna och lägga ihop ett flertal av dem.

AMD, Intel och nVidia har ju kort baserade på flera kretsar i pipen. Men jag tror att det är dit vi är på väg i större utsträckning och att det har en större roll för utvecklingen än vad många insett.

Permalänk
Medlem
Skrivet av medbor:

2x6-pin = 2x75W = 150W = 1x8-pin

Går utan problem med en adapter

Det går ja, men kräver ju som sagt en adapter som måste införskaffas separat. Som beroende på var man befinner sig (=ort) och till vad det är (privat el företag) kan vara lite olika att få tag på.
I det aktuella fallet löstes det genom att det beställdes in en sådan adapter, som kom inom en vecka (en del formaliteter först då det gällde företag).

Permalänk
Medlem
Skrivet av andreas_dock:

Spräcker vi nya gränser för vad ett grafikkort kan/ska kosta med, hör jag några bud på 30k ?

Ja, det var NVIDIA Founders...på Tradera lär de ligga över 100-papp. Men vad fan...endast det "bästa" är gott nog.

Visa signatur

MB: Asus ROG Strix Z370-E Gaming // CPU: Intel Core i7-8700K
GPU: Asus RTX 3080 TUF OC // Acer Predator XB271HU
RAM: Corsair 16GB DDR4 3000Mhz // PSU: Corsair 750W HX
SSD: Samsung 840 Pro 128GB + 850 EVO 250GB + 850 EVO 500GB

Permalänk
Medlem
Skrivet av Thomas:

Låter skumt att 3090 Ti skulle få PCIe 5.0. Vad vore fördelen? Är det inte för mycket jobb att byta standard "mitt i" en existerande produktserie (Ampere alltså)?

Ingen als, de hade behövt ändra om delarna som sköter pci express. Verifierings prossesen mm. Nöste som du påpekar skulle vara vettigt. Om inte för dx DirectStorage p, inte annat. Kör xbox och ps5 det så hoppas jag det kommer bli lite standrad på pc också. Tror däremeto att vi pratar minst 1,5-2år fram innan AAA titlar kommer som gör att fler skaffar konstiga m2 enheter till konsolerna. Sedan portning till PC. Skulle iofs inte förvåna mig om DICE lagt till det som beta kod i senaste frostbyte för att spara CPU prestanda på konsolerna.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

Dum fråga:
Har Intel berättat varför de hoppade över PCIe 4 och gick på 5 direkt?

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Skrivet av hACmAn:

Dum fråga:
Har Intel berättat varför de hoppade över PCIe 4 och gick på 5 direkt?

Har absolut ingen aning, men siffran 4 är förknippad med otur i Kina (eftersom det låter väldigt likt ordet för död), så skulle kunna ha nåt med det att göra!

Visa signatur

Ny burk: 7600x, X670E-plus, RTX3080, 32GB DDR5, 2 TB NVMe, 8TB 3.5"
Pensionerad burk: x5650@3.5 GHz, GTX 670, 12 GB DDR3

Permalänk
Datavetare
Skrivet av hACmAn:

Dum fråga:
Har Intel berättat varför de hoppade över PCIe 4 och gick på 5 direkt?

Intel hoppade inte över PCIe 4, den används i Ice Lake Xeons samt Rocket Lake. Intel hade introducerat PCIe 4 stöd på servers ungefär samtidigt som AMD och IBM om Ice Lake Xeon inte blivit så försenad (p.g.a. problemen med Intels 10 nm).

Men sedan en tid tillbaka har det varit uppenbart att PCIe 4 skulle bli en ganska kortvarig historia.

Orsaken är flera, de viktigaste är att utvecklingen av PCIe 4 standarden drog ut rejält på tiden och vissa tekniker som verkligen ser nytta av den högre bandbredden, som t.ex. CXL, designades för PCIe 5 då dessa inte var klara för PCIe 4 om man hållit ursprungliga planen (det gick hela 7 år mellan PCIe 3 och PCIe 4 p.g.a. flertalet förseningar).

Känns inte väldigt sannolikt, men om nu Nvidia länger in PCIe 5 stöd i Ampere-korten skulle orsaken kunna vara för att få med CXL stöd. GPGPU är en teknik som definitivt kommer dra nytta av CXL.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Jag tror att teknikindustrin har sneglat för mycket på mobilmarknadens spelutveckling. Den nya försäljningsstrategin kommer luta mer åt "loot-boxes" då det har visat sig vara ett sådant "populärt" konsumentkoncept. Nästa gång du vill köpa en datorkomponent som t.ex ett grafikkort så köper du bara ett "Graphic Pack"!

Majoriteten av dessa kommer såklart innehålla restlagerkort från tidigt 2000-tal, men har man tur kan man hitta ett mer ovanligt exemplar i stil med ett RTX 3070. Naturligtvis kommer några få lyckliga satar utöver Whales lyckas lägga vantarna på ett NextGen-kort, men vanligtvis då behövs det åtskilliga "Best Value" (10-pack) innan man statistiskt sätt har chansen på ett av de mer "Ultra Rare" i det senaste produktledet. De konsumenter som inte lyckas kamma hem de önskade produkterna kan nu inte längre lägga skulden på tillverkarna och deras "papperslanseringar", nu har man helt enkelt bara haft lite "otur"...eller rent av varit snål?

Denna betalningsmodell kommer med alla tänkbara fördelar, där inte bara aktieägarna är vinnare! Nej, det kommer bli jättespännande att köpa nya komponenter till sitt system för konsumenten, samtidigt som det förhindrar mining av crypto-valutor och öppnar upp för större företagsamhet inom andrahands- och samlarmarknaden också! Borta är köerna utanför återförsäljarnas butiker och sönderhamrade F5-knappar kring nya releaser. Inom en kort framtid kan du när som helst kliva in på närmaste teknikombud och köpa vad som kan bli just Din nästa uppgradering!

Visa signatur

MB: Asus ROG Strix Z370-E Gaming // CPU: Intel Core i7-8700K
GPU: Asus RTX 3080 TUF OC // Acer Predator XB271HU
RAM: Corsair 16GB DDR4 3000Mhz // PSU: Corsair 750W HX
SSD: Samsung 840 Pro 128GB + 850 EVO 250GB + 850 EVO 500GB

Permalänk
Medlem
Skrivet av Yoshman:

Intel hoppade inte över PCIe 4, den används i Ice Lake Xeons samt Rocket Lake. Intel hade introducerat PCIe 4 stöd på servers ungefär samtidigt som AMD och IBM om Ice Lake Xeon inte blivit så försenad (p.g.a. problemen med Intels 10 nm).

Men sedan en tid tillbaka har det varit uppenbart att PCIe 4 skulle bli en ganska kortvarig historia.

Orsaken är flera, de viktigaste är att utvecklingen av PCIe 4 standarden drog ut rejält på tiden och vissa tekniker som verkligen ser nytta av den högre bandbredden, som t.ex. CXL, designades för PCIe 5 då dessa inte var klara för PCIe 4 om man hållit ursprungliga planen (det gick hela 7 år mellan PCIe 3 och PCIe 4 p.g.a. flertalet förseningar).

Känns inte väldigt sannolikt, men om nu Nvidia länger in PCIe 5 stöd i Ampere-korten skulle orsaken kunna vara för att få med CXL stöd. GPGPU är en teknik som definitivt kommer dra nytta av CXL.

Det förklarar en del. Tror inte nvidi skulle behöva det i serverparker men små/mindre wokstation plattformer så låter det vettigt.
Jag tror PCIe 4kommer leva knar lite väll lång tid pga konsolerna.

CXL er ut som ett tillräckligt bra anledning för att implementera det.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.