Framtidens grafikkort får upp till 600 watt över 16 pinnar

Permalänk
Medlem
Skrivet av anon134512:

Så länge inte alla spel går att köras i minst 144 fps på ultra så finns det inte tillräckligt med prestanda.

Om du inte vill ta del av prestandan, så kan du ju bara köpa ett billigare grafikkort som inte drar så mycket? Om nu prestandan räcker och blir över?

Dit kommer vi troligtvis inte.
Behöver inte vara det visuellt snyggaste spelet som inte kan köras i 144+ fps.
Kan vara ett spel som bara är dåligt optimerat.
Kan vara någon inställning som tar massa extra kraft men som inte har någon större inverkan på det visuella.
Spel kan vara låst 60 fps eller kanske låst till bara 30 fps. Kanske arv från konsol sidan.

Sen med alla spel... alla som någonsin har gjorts?

Att kunna spela ALLA spel i 144+ fps skulle inte ens vara möjligt med ett hypotetiskt grafikkort med oändlig prestanda.

Finns bl.a. en del äldre spel där fysik och framerate är kopplade till varandra, som inte fungerar något bra om de körs med för hög framerate. Handlar inte om brist på prestanda. Handlar om dåliga designval.

Permalänk
Medlem
Skrivet av GuessWho:

Dit kommer vi troligtvis inte.
Behöver inte vara det visuellt snyggaste spelet som inte kan köras i 144+ fps.
Kan vara ett spel som bara är dåligt optimerat.
Kan vara någon inställning som tar massa extra kraft men som inte har någon större inverkan på det visuella.
Spel kan vara låst 60 fps eller kanske låst till bara 30 fps. Kanske arv från konsol sidan.

Sen med alla spel... alla som någonsin har gjorts?

Att kunna spela ALLA spel i 144+ fps skulle inte ens vara möjligt med ett hypotetiskt grafikkort med oändlig prestanda.

Finns bl.a. en del äldre spel där fysik och framerate är kopplade till varandra, som inte fungerar något bra om de körs med för hög framerate. Handlar inte om brist på prestanda. Handlar om dåliga designval.

Oblivion och Skyrim är bra exempel på detta.

Visa signatur

Fractal Design Define 7 | MSI MAG X570 Tomahawk Wifi | AMD Ryzen 9 5900x | ASUS Prime RX 9070 XT OC | Noctua NH-D15 | Samsung 970 Evo Plus 1TB | G.Skill Trident Z RGB 2x16GB 3200MHz CL14

Permalänk

Har man 3x8pin på sitt grafikkort har man en riktig best, det vet ju alla. Minns när jag köpte powercolor 7990 med 3x8pin, snyggare setup har jag nog aldrig haft. Nya 12pin kan ju slänga sig i väggen.

Visa signatur

- MOTHERBOARD: MSI Z690 Edge wifi
- CPU: Intel Core i9-12900KS
- GPU: Asus RTX 2070 Super ROG Strix Advanced
- PSU: CoolerMaster V1000 1000W 80+ Gold
- RAM: G.Skill 32GB (4x8GB) DDR4 3000MHz CL16 Trident Z RGB

Permalänk
Inaktiv
Skrivet av GuessWho:

Dit kommer vi troligtvis inte.
Behöver inte vara det visuellt snyggaste spelet som inte kan köras i 144+ fps.
Kan vara ett spel som bara är dåligt optimerat.
Kan vara någon inställning som tar massa extra kraft men som inte har någon större inverkan på det visuella.
Spel kan vara låst 60 fps eller kanske låst till bara 30 fps. Kanske arv från konsol sidan.

Sen med alla spel... alla som någonsin har gjorts?

Att kunna spela ALLA spel i 144+ fps skulle inte ens vara möjligt med ett hypotetiskt grafikkort med oändlig prestanda.

Finns bl.a. en del äldre spel där fysik och framerate är kopplade till varandra, som inte fungerar något bra om de körs med för hög framerate. Handlar inte om brist på prestanda. Handlar om dåliga designval.

Exakt, det är inte alltid möjligt med dagens teknik. Det är sånt som driver utvecklingen framåt. Det känns som att du missförstår poängen lite med flit.

Permalänk
Medlem

Var inte meningen med ATX att man skulle bli av med onödiga kablar? Kanske dags att gå till ritbordet igen.

Skrivet av GuessWho:

Dit kommer vi troligtvis inte.
Behöver inte vara det visuellt snyggaste spelet som inte kan köras i 144+ fps.
Kan vara ett spel som bara är dåligt optimerat.
Kan vara någon inställning som tar massa extra kraft men som inte har någon större inverkan på det visuella.
Spel kan vara låst 60 fps eller kanske låst till bara 30 fps. Kanske arv från konsol sidan.

Sen med alla spel... alla som någonsin har gjorts?

Att kunna spela ALLA spel i 144+ fps skulle inte ens vara möjligt med ett hypotetiskt grafikkort med oändlig prestanda.

Finns bl.a. en del äldre spel där fysik och framerate är kopplade till varandra, som inte fungerar något bra om de körs med för hög framerate. Handlar inte om brist på prestanda. Handlar om dåliga designval.

Antalet FPS begränsas väl även av vad som visas? Gamla spel som DOOM etc kan ha 350+ FPS och ibland så lågt som <30 FPS då det i princip inte händer något på skärmen. Verkar märkligt att vissa scener skulle vara så krävande när 90% av resterande tid har hundratals FPS.

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Medlem
Skrivet av medbor:

Hur menar du då? Grafikkorten är väl de som drar mest i en dator (med råge) och har störst kylflänsar.

Vad är svårare att kyla menar du? Chipset? RAM?

CPUn exempelvis är en svårare komponent att kyla. På en GPU har du väldigt mycket yta att använda till skillnad från lilleman som sitter straxt norrut på moderkortet. Samt att du har en bra mycket större die på GPU vilket gör att du lättare kan flytta värmen bort från källan. Inte lika enkelt på processorn.

Tror jag aldrig sett en gpu med kylflänsar som bräcker en nh-d15 men jag kan ha fel.

Visa signatur

PSU: Corsair HX1200i Case: Phanteks NV9
GPU:
RTX 4090 TUF OC CPU: Ryzen 9800X3D RAM: Corsair Dominator 96GB
Motherboard: Asus TUF X870-Plus Wifi Cooler: Noctua NH-D15 G2

Permalänk
Medlem
Skrivet av cyklonen:

1. Detta ska införas på PCIe 5.0-kort. Det innebär helt nydesignade moderkort också, så det är inget hinder.
2. Man hade enkelt kunnat bygga en kanal enbart för ändamålet, med skärmade kablar, på baksidan av moderkortet. En rak kanal från kontakt på nån närliggande kant, till en kontakt på varje kortplats.
3. Med mitt förslag skulle ju kontakten sitta direkt på moderkortet, bara på baksidan, mot moderkortet. Ingen sladd behövs!

Man måste ju ändå ansluta en sladd till moderkortet då för att få strömmen genom denna kabel till kontakterna vid grafikkortet. Så skillnaden i praktiken blir att istället för att ha en PCI-E anslutning mellan PSU och GPU har man den mellan PSU och moderkort, och sedan en kontakt på moderkortet. Frågan är vad man vinner på det.

Det låter som en Bodge Wire plus en extra kontakt. Det skulle öka tillverkningskostnaden eftersom man inte kan använda samma automatiserade tillverkningsteknik som för SMT-komponenterna. Bättre då om chassitillverkarna fixar en sådan kanal i chassit som man kan leda sladden igenom än att lägga det på moderkortstillverkarna...

Visa signatur

Phanteks XT Pro Silent | Phanteks PH-TC14PE | Seasonic Core GX V2 850W | Asus Prime X370 Pro | Ryzen 9 5950X | Corsair 32GB 3600 MT/s | ASRock RX 9070 XT Steel Legend 16GB | WD Blue SN550 NVMe SSD 1TB

Permalänk
Medlem
Skrivet av 13ers3rk:

CPUn exempelvis är en svårare komponent att kyla. På en GPU har du väldigt mycket yta att använda till skillnad från lilleman som sitter straxt norrut på moderkortet. Samt att du har en bra mycket större die på GPU vilket gör att du lättare kan flytta värmen bort från källan. Inte lika enkelt på processorn.

Tror jag aldrig sett en gpu med kylflänsar som bräcker en nh-d15 men jag kan ha fel.

Trodde alla moderna grafikkort hade kylflänsyta motsvarande tornkylare. Jaja, jag håller inte (alls) med om att cpu är särskilt svårkylt, om man inte försöker slå rekord såklart, men alla får ha sina åsikter.

De jag pratade om var dock 600W som denna kontakt ska klara av, det är typ dubbla värdet mot normalen idag och också dubbla mot de flesta CPUer har i peakförbrukning...

Finns det några processorer som faktiskt behöver D15?

Permalänk
Medlem
Skrivet av GuessWho:

Dit kommer vi troligtvis inte.
Behöver inte vara det visuellt snyggaste spelet som inte kan köras i 144+ fps.
Kan vara ett spel som bara är dåligt optimerat.
Kan vara någon inställning som tar massa extra kraft men som inte har någon större inverkan på det visuella.
Spel kan vara låst 60 fps eller kanske låst till bara 30 fps. Kanske arv från konsol sidan.

Sen med alla spel... alla som någonsin har gjorts?

Att kunna spela ALLA spel i 144+ fps skulle inte ens vara möjligt med ett hypotetiskt grafikkort med oändlig prestanda.

Finns bl.a. en del äldre spel där fysik och framerate är kopplade till varandra, som inte fungerar något bra om de körs med för hög framerate. Handlar inte om brist på prestanda. Handlar om dåliga designval.

Sedan finns det ingen logik bakom om man känner att man måste ha allt på ultra med 144 Hz. Har sett vissa förut som skrivit att dom är besvikna över att deras kort inte klarar senaste spelet med allt på ultra 120 fps. Hade dom vart glada om spelets high var ultra? Är väl snarare bättre om man kan ha så pass höga inställningar att fpsen blir 10 så har man mer valfrihet.

Angående ditt sista stycke så är beyond good and evil ett sådan exempel. Kör man 120 fps på det åker dialoger och bild ur sync då allt måste hända i 60 fps. Blev nästan skallig då jag inte förstod vad som var problemet.

Permalänk
Medlem

Nåja, vi får väl se om PSU tillverkarna hoppar på tåget eller inte, för utan PSU'er med dessa kontakter så är det ju poänglöst om man ska ha converters med 3x8pin. typ!

Permalänk
Medlem
Skrivet av DasIch:

Utvecklingen har inte stått stilla. Här ser du t.ex. att 3070 är drygt 20% effektivare än 2080 mätt i FPS/Effekt.
https://www.tomshardware.com/features/graphics-card-power-con...

Utöver det finns en trevlig aspekt i att många kort trivs bra av att undervoltas vilket ger en bra ökning av effektiviteten.

RTX 3070 ligger ju ungefär två snäpp ner i hierarkin jämfört med 2080, så det är inte konstigt att den ligger rätt okej till i jämförelse. Till stor del handlar det om att 2080 inte är ett bra jämförelse. Tittar man på GTX 1080 så blir det annorlunda:

Kort - Effektivitet vs RX 6800
RTX 3080 - 76,8%
RTX 2080 - 78,5%
GTX 1080 - 68,9%

Så en förbättring på under 12%, med ett steg ner från 2080 till 3080. Och det är med 4,5 års utveckling och ett steg från 16nm till 8nm. Jag skulle säga att det är en stor besvikelse.

Visa signatur

Instead, why don't you go get me a big cup of coffee with so much fake sugar that the coffee itself gets cancer?

Louqe Ghost S1 MkII Limestone | Intel Core i5 11400F | Noctua NH-L12 Ghost S1 | Asrock B560M-ITX/AC | Crucial Ballistix 16gb 3466Mhz Cl16 | HP 3060 Ti Arctic Mod | WD Blue Nvme 1Tb | Corsair SF600 Platinum

Permalänk
Medlem

Snart kommer grafikkorten med inbyggd PSU. No joke

Visa signatur

CPU: AMD Ryzen 7 5800X3D | GPU: PowerColor RX 6800 Red Dragon 16GB | MB: Asrock B550m Pro4 | RAM: 32GB Kingston Fury Beast 3600mhz CL18 | SSD: Corsair Force MP510B 480GB - 2x Kingston A400 480GB | PSU: Fractal Ion Gold 750W | DSP: Acer 27" Nitro XV272UV QHD IPS 170 Hz | CH: Fractal Design Meshify Mini C | M: Steelseries Aerox 5 Wireless | TB: Logitech G413

Permalänk
Inaktiv

Jag hänger inte riktigt med här på klagoropen, om man nu tar fram en ny kontakt för strömförsörjning för att slippa ha flera separata kontakter och kablar, och ha overhead, och framtididssäkra osv, varför skulle man då snåla på dimensionerna? Gamla 8pin som är specat till 150W har ju knappast begränsat grafikkorten till att dra den mängden, utan då har man bara satt på fler kontakter. Själv tycker jag det låter toppen med att bara behöva en kontakt/kabel. Det är ju dessutom inte bara för konsumentbruk...

Om ni nu vill ha ett kort som drar mindre, köp då ett kort som drar den mängd du är bekväm med? Eller om man nu har nå klimatåsikter så är det väl bättre att reglera ATX-standarden att konsument PSUer inte ska kunna ge mer än en viss effekt så får produkter anpassa sig efter det. För man kan ju redan kunnat pressa in mängder av strömtörstiga produkter i sin dator, med eller utan denna kontakt.

Permalänk
Medlem

”3090 Ti kan sörpla i sig 450w”, det för ju ett 3080 idag. Ett Ti kommer nog bra närmre 600w skulle jag tro.

Visa signatur

AMD Ryzen 7 9800X3D 5.4Ghz +NH-D15 Chromax
MSI RTX 5080 Gaming Trio OC 3390mhz
Asus ROG Strix X870-F Gaming WIFI
Corsair Dominator Platinum 6200mhz 32GB CL36
Samsung G9 49”/240hz, NZXT H9 Flow, Corsair RM850X ATX 3.1

Permalänk
Medlem
Skrivet av Sando:

RTX 3070 ligger ju ungefär två snäpp ner i hierarkin jämfört med 2080, så det är inte konstigt att den ligger rätt okej till i jämförelse. Till stor del handlar det om att 2080 inte är ett bra jämförelse. Tittar man på GTX 1080 så blir det annorlunda:

Kort - Effektivitet vs RX 6800
RTX 3080 - 76,8%
RTX 2080 - 78,5%
GTX 1080 - 68,9%

Så en förbättring på under 12%, med ett steg ner från 2080 till 3080. Och det är med 4,5 års utveckling och ett steg från 16nm till 8nm. Jag skulle säga att det är en stor besvikelse.

Skrev fel och menade 3070 vs 2070, och där är skillnaden större. Kollar man 60- och 70-korten är det en bra ökning:

1070 71.3% | 1060 64.3%
2070 76.8% | 2060 77.5%
3070 95.7% | 3060 87.6%

Det säger mer om den faktiska utvecklingen än att titta på toppsegmentet där energieffektiveten får stå tillbaka till förmån för maximal prestanda. Sen är det ju välkänt att 3080 eldar en del för kråkorna. Det svarar i regel väldigt bra på undervoltning och går lätt att öka effektiveten.

Permalänk
Medlem

Inte intresserad av högre strömförbrukning utan jag vill hellre se lägre strömförbrukning.
Både på GPU och CPU sidan.

Permalänk
Medlem
Skrivet av trickeh2k:

Snart får man börja snegla på ett DIY kärnkraftverk för privat bruk.

hahah aa.. det blir så att när man kommer fram till kassan efter att ha lagt ett kort i korgen så frågar dom: Behöver du köpa extra HEDP till reaktorn?? vi har 4 till priset för 3 nu under en kort period.

Visa signatur

"Resistance is futile."

- Georg Ohm

Permalänk
Medlem
Skrivet av medbor:

Trodde alla moderna grafikkort hade kylflänsyta motsvarande tornkylare. Jaja, jag håller inte (alls) med om att cpu är särskilt svårkylt, om man inte försöker slå rekord såklart, men alla får ha sina åsikter.

De jag pratade om var dock 600W som denna kontakt ska klara av, det är typ dubbla värdet mot normalen idag och också dubbla mot de flesta CPUer har i peakförbrukning...

Finns det några processorer som faktiskt behöver D15?

Njae inte riktigt, men ska man ha något värre än 5950x eller köra en hårdare OC så kan det vara på fisen. Men om man då leker med tanken att ~190w är svårkylt med en NH-D15 och 350w kyls med en inte så over-the-top 3090-kylare så ser man ju att skillnaden är stor. Vad skulle behövas för att kyla en processor av samma kaliber?

Visa signatur

PSU: Corsair HX1200i Case: Phanteks NV9
GPU:
RTX 4090 TUF OC CPU: Ryzen 9800X3D RAM: Corsair Dominator 96GB
Motherboard: Asus TUF X870-Plus Wifi Cooler: Noctua NH-D15 G2

Permalänk
Medlem
Skrivet av Yatagarasu:

Tycker fortfarande att RTX 3090 är ett för klent kort ärligt talat.
Den dagen jag kan spela de nyaste spelen i 4K UHD med stadiga 120 FPS som minimum, då är vi snart i mål för godtycklig prestanda. Allt under det och mer kan fortfarande hämtas, även om strömförbrukningen åker upp.

Detta kommer dessvärre aldrig att hända, såvida inte den breda massan bestämmer sig för att allt under 120 fps är fullkomligt oacceptabelt, och organiserar en global köpstrejk!

Utveckling av grafikkort och spel går ju hand i hand. Skulle det släppas ett grafikkort med 10x prestanda av 3090 imorgon, så skulle det inom kort finnas spel som utnyttjar detta för att leverera mer komplexitet (fler polygoner, större texturer, bättre AI, mer allt...), tills att bilduppdateringen åter igen halkar ner till ~60fps för maxinställningar.

Permalänk
Skribent
Skrivet av Mikael07:

Detta kommer dessvärre aldrig att hända, såvida inte den breda massan bestämmer sig för att allt under 120 fps är fullkomligt oacceptabelt, och organiserar en global köpstrejk!

Utveckling av grafikkort och spel går ju hand i hand. Skulle det släppas ett grafikkort med 10x prestanda av 3090 imorgon, så skulle det inom kort finnas spel som utnyttjar detta för att leverera mer komplexitet (fler polygoner, större texturer, bättre AI, mer allt...), tills att bilduppdateringen åter igen halkar ner till ~60fps för maxinställningar.

Hehe såklart

Mitt inlägg var en smutta 'hyperbole' för sakens skull. Poängen jag ville framföra var att det finns inget som heter "tillräckligt med prestanda". Program kan alltid köras snabbare, spel kan alltid se bättre ut, skalan kan alltid göras större o.s.v. - hårdvaran leker bara katt-och-råtta för att försöka hålla jämna steg med mjukvaran hela tiden

Med det sagt vore det trevligt med ett grafikkort som inte kostade en månadslön och lite till för att kunna kräma på i spelen som finns redan idag. Sitter själv på ett RTX 3070 i dagsläget och tycker det är på tok för klent för mina önskemål ärligt talat. Dock är det sjukt omotiverat att spendera de pengarna som "krävs" för den upplevelsen jag söker i dagsläget - Även om jag hade fått mitt 3080 till MSRP (bokade hos Elgiganten.. HA!) så är det gränsfall för 1440p@144Hz, i alla fall om man ska dra reglagen hela vägen upp.

Visa signatur

< R5 7600X | 32 GB 6000 MT/s | RX 9070 XT >

< Redmi Note 14 Pro | Redmi Pad SE 11" >

Permalänk
Medlem
Skrivet av Yatagarasu:

Med det sagt vore det trevligt med ett grafikkort som inte kostade en månadslön och lite till för att kunna kräma på i spelen som finns redan idag. Sitter själv på ett RTX 3070 i dagsläget och tycker det är på tok för klent för mina önskemål ärligt talat. Dock är det sjukt omotiverat att spendera de pengarna som "krävs" för den upplevelsen jag söker i dagsläget - Även om jag hade fått mitt 3080 till MSRP (bokade hos Elgiganten.. HA!) så är det gränsfall för 1440p@144Hz, i alla fall om man ska dra reglagen hela vägen upp.

Du får sätta dig och spela lite wolfenstein 3d på någon gammal 386:a en månad, så ska du se att du blir nöjd med ditt 3070 igen

Men jag vet vad du menar. Håller mest på med diverse beräkningar, simuleringar och rendering, men samma gäller där. Det finns liksom ingen övre gräns där man är nöjd, om man inte settlar för typ two-body problem.