3080 Strix OC 3x8-PIN?

Permalänk
Medlem

3080 Strix OC 3x8-PIN?

Hej,

Har precis fått och installerat mitt Strix OC, men är nyfiken på koppling.
Tidigare kort med 2x8-Pin har inte varit några problem.

Jag kör i nuläget som i bilden med röd rektangel runt sig (se länk)

I mitt fall kör jag tvärtom på kabeln till höger. Den längre/förgrenade kabeln (som hänger fritt på bild) är den som jag kopplat in.
Men det kan inte spela någon roll va?
Det blir inte sämre för att kablar går in i den kontakten jag inte använder för att sedan gå vidare till den kontakt jag använder?
Tack på förhand!

https://www.reddit.com/r/nvidia/comments/ioxnqb/would_this_co...

Permalänk
Medlem

Nää det spelar ingen roll, optimalt är ju 3st separata kablar, men det lär funka utmärkt. Kör du 2 kablar dock skulle jag köra den kabeln du inte splittar i första uttaget, jag tror det är den längst in på kortet, och splitta de andra två på en kabel. Verkar som korten drar mest från det uttaget^^

Edit: såg nu att det är precis det de gjort på bilden.

Permalänk
Medlem
Skrivet av PeoplesMC:

Nää det spelar ingen roll, optimalt är ju 3st separata kablar, men det lär funka utmärkt. Kör du 2 kablar dock skulle jag köra den kabeln du inte splittar i första uttaget, jag tror det är den längst in på kortet, och splitta de andra två på en kabel. Verkar som korten drar mest från det uttaget^^

Edit: såg nu att det är precis det de gjort på bilden.

Ledsen för medioker bild

Men min undran var om A behöver vara inkopplad eftersom B känns som en "förgrening"
Såhär kör jag nu:

Permalänk
Medlem
Skrivet av griid:

Ledsen för medioker bild

Men min undran var om A behöver vara inkopplad eftersom B känns som en "förgrening"
Såhär kör jag nu:
https://i.ibb.co/W6CgtLQ/3080.jpg

Nej den behöver inte vara inkopplad.

Permalänk
Medlem

Nu var jag lite fundersam själv över mitt 1080ti ifall jag kör lite kräm till det?
Mitt kort kräver 2st 8pin. Jag kör en kabel från nätagget mitt som spittas i två i grafikkortet?
Jag har alltså inte en kabel från nätagget per 8pin på GPUn, har jag haft fel i snart 4 års tid? https://ibb.co/gdfLTTw

Permalänk
Medlem
Skrivet av griid:

Ledsen för medioker bild

Men min undran var om A behöver vara inkopplad eftersom B känns som en "förgrening"
Såhär kör jag nu:
https://i.ibb.co/W6CgtLQ/3080.jpg

Som ovan skrev så , nej, men jag skulle skifta runt det så den kabeln som är solo sitter i uttaget längst in på kortet

Permalänk
Medlem
Skrivet av rewoX:

Nu var jag lite fundersam själv över mitt 1080ti ifall jag kör lite kräm till det?
Mitt kort kräver 2st 8pin. Jag kör en kabel från nätagget mitt som spittas i två i grafikkortet?
Jag har alltså inte en kabel från nätagget per 8pin på GPUn, har jag haft fel i snart 4 års tid? https://ibb.co/gdfLTTw

Om jag minns rätt så kan väl vissa modeller av 1080ti dra upp emot 360w, vet att mitt strix 1080ti hade en gräns på 330w.
Har du extra kablar skulle jag testa 2 separata, ditt nättagg har väl så det räcker. Lär väl inte bli någon skillnad, tror de flesta moderna nätagg kan trycka ut mycket mer än 150w per kabel.

Permalänk
Medlem
Skrivet av PeoplesMC:

Om jag minns rätt så kan väl vissa modeller av 1080ti dra upp emot 360w, vet att mitt strix 1080ti hade en gräns på 330w.
Har du extra kablar skulle jag testa 2 separata, ditt nättagg har väl så det räcker. Lär väl inte bli någon skillnad, tror de flesta moderna nätagg kan trycka ut mycket mer än 150w per kabel.

Jag har extra, men aldrig reflekterat över det förut förrens denna tråd kom upp... Mitt grafikkort har även en diod per strömingång som lyser vitt, båda två. Så då har jag alltid trott att den har tillräckligt, men det kanske den också ha.

Ska testa med en till kabel

Permalänk
Medlem

Jag har med tänkt mycket på det just när man bygger dator.
Jag har alltid kör med två sladdar. Man det ska räcka med en. Testa köra bara med en några dagar. Märkte inte något alls. Bara det att man har mindre med sladdar som är då snyggare. Men det optimala är att kör med två. Om man tänker på logiken.

Permalänk
Medlem
Skrivet av rewoX:

Jag har extra, men aldrig reflekterat över det förut förrens denna tråd kom upp... Mitt grafikkort har även en diod per strömingång som lyser vitt, båda två. Så då har jag alltid trott att den har tillräckligt, men det kanske den också ha.

Ska testa med en till kabel

Man har tillräckligt med ström och då amper m.m på en.

Permalänk
Medlem
Skrivet av Paul50:

Jag har med tänkt mycket på det just när man bygger dator.
Jag har alltid kör med två sladdar. Man det ska räcka med en. Testa köra bara med en några dagar. Märkte inte något alls. Bara det att man har mindre med sladdar som är då snyggare. Men det optimala är att kör med två. Om man tänker på logiken.

Skrivet av Paul50:

Man har tillräckligt med ström och då amper m.m på en.

Begränsningen sitter i själva kabeln och hur mycket den är specad att klara av.
Klart du kan skicka på rejält med effekt, men förr eller senare så kommer kabeln att brinna.
Finns en hel del skrivet om detta och finns fina förklaringar i detta inlägg på superuser.

https://superuser.com/questions/1577923/how-much-power-output...

Permalänk
Medlem
Skrivet av Tarasus:

Begränsningen sitter i själva kabeln och hur mycket den är specad att klara av.
Klart du kan skicka på rejält med effekt, men förr eller senare så kommer kabeln att brinna.
Finns en hel del skrivet om detta och finns fina förklaringar i detta inlägg på superuser.

https://superuser.com/questions/1577923/how-much-power-output...

Så du menar att tillverkarna tillverkar ett Nätaggregat som som kan spotta ut upp till 70A.
Men sen följer deras kablar med som då bara klarar 50A ?
Tror inte det.
Sen ligger mitt Nätaggregat som klarar av 70A men mitt grafikkort behöver bara 18A
Tror inte ens de blir varma, ännu mindre börja brinna.
Så köra en sladd. Funkar för de flesta personer.

Permalänk
Medlem

Personligen skulle jag koppla precis som Nvidia rekommendera att man ska göra. Det borde ju finnas en anledning till det, tänker jag.

Permalänk
Medlem
Skrivet av Paul50:

Så du menar att tillverkarna tillverkar ett Nätaggregat som som kan spotta ut upp till 70A.
Men sen följer deras kablar med som då bara klarar 50A ?
Tror inte det.
Sen ligger mitt Nätaggregat som klarar av 70A men mitt grafikkort behöver bara 18A
Tror inte ens de blir varma, ännu mindre börja brinna.
Så köra en sladd. Funkar för de flesta personer.

Du tror en himla massa, men vet exakt 0

Förklara då varför man ens behöver extra strömkablar, bara att skicka allt genom PCI-E och moderkortet, har man bara tillräckligt mycket effekt i sin PSU så är det lugnt sen, eller hur?.... Jag menar, du har ju en kabel från PSU till moderkortet, räcker väl så?

Skrivet av walkiii:

Personligen skulle jag koppla precis som Nvidia rekommendera att man ska göra. Det borde ju finnas en anledning till det, tänker jag.

Precis så är det. Finns väldigt bra anledningar och det finns anledningar till varför man specificerar vilken maxeffekt en kabel klarar av.

Permalänk
Medlem
Skrivet av Tarasus:

Du tror en himla massa, men vet exakt 0

Förklara då varför man ens behöver extra strömkablar, bara att skicka allt genom PCI-E och moderkortet, har man bara tillräckligt mycket effekt i sin PSU så är det lugnt sen, eller hur?.... Jag menar, du har ju en kabel från PSU till moderkortet, räcker väl så?

Precis så är det. Finns väldigt bra anledningar och det finns anledningar till varför man specificerar vilken maxeffekt en kabel klarar av.

PCI-E slotten fixar ju bara 75W. Det var länge sen som gaminggrafikkort drog så lite ström. Därför kom det 6-pin, dubbla 6 pin, 8 pin och dubbla och sen trippla 8pin. Man ska inte fuska med kablar. En kabelbrand är ju katastrof för datorn och kanske i längden hela lyan man bor i. Finns det 3 8pins så bör man ha 3 separata kablar från nätagget. Även om det är rätt ofta är en enkel 12V-rail.

Permalänk
Medlem

Tidigare var det helt OK att koppla en enkel sladd med dubbla pluggar, men 3080 drar mer ström än nåt kort någonsin gjort.

Permalänk
Medlem
Skrivet av Auris:

PCI-E slotten fixar ju bara 75W. Det var länge sen som gaminggrafikkort drog så lite ström. Därför kom det 6-pin, dubbla 6 pin, 8 pin och dubbla och sen trippla 8pin. Man ska inte fuska med kablar. En kabelbrand är ju katastrof för datorn och kanske i längden hela lyan man bor i. Finns det 3 8pins så bör man ha 3 separata kablar från nätagget. Även om det är rätt ofta är en enkel 12V-rail.

Nej då, du har missat hela hans resonemang. Om ett nätaggregat klarar av 750 watt så klarar allt man kopplar in efteråt också 750 watt. Jag har hänvisat till ATX standarden men den gäller inte enl. honom.

Det är helt fel person du citerar nu...

Permalänk
Medlem
Skrivet av Tarasus:

Nej då, du har missat hela hans resonemang. Om ett nätaggregat klarar av 750 watt så klarar allt man kopplar in efteråt också 750 watt. Jag har hänvisat till ATX standarden men den gäller inte enl. honom.

Det är helt fel person du citerar nu...

Hans resonemang är ju helt galet. Tjockleken på tråden och karaktäristiken är ju avgörande.

Permalänk
Medlem

Har inte ens reflekterat över detta innan jag såg den här tråden. Har ett 3070 med 2 utgångar som jag kopplat med en Y kabel. Borde jag lägga om strömförsörjningen på 2 kablar? Har fungerat utan problem i en dryg månad nu så antar att det inte är några konstigheter? 3070 drar visserligen mindre ström än ett 3080

Permalänk
Medlem

De 4 pinnarna med spänning på 8pin-kontakten är alla drygt 0.75mm2 i de flesta fall
Dessa klarar typ 6A styck utan problem.
Detta borde ge oss 4*6A vilket blir 24A, på 12V blir det alltså 288W och då ligger kabeln på Max.
Addera 75W från PCI-E bussen i sig så får vi 363W.
Vilket torde vara Ok för ett 3080 då det inte drar mer än så vid normal användning (men kan peaka på betydligt mer).

Vill man vara säker på att inte få spänningsfall vid peakarna så bör man alltså köra två separata kablar även om kablarna i sig hanterar normalfallet väl.

Dubbla kablar för att vara säker alltså!
Ett 1080TI peakar väl på 300W i korta stunder och har alltså absolut inga problem med 1 kabel med Y-koppling

Permalänk
Medlem
Skrivet av Auris:

Hans resonemang är ju helt galet. Tjockleken på tråden och karaktäristiken är ju avgörande.

I knooooow.

Men grundläggande elkunskaper när man diskuterar detta är visst inte av vikt, tror vissa