Jaha så nu gick mitt andra gtx 980 sönder

Permalänk
Medlem
Skrivet av HandSolo:

@Sveklockarn: När jag satte ihop sli första gången med kortet från netonnet och körde igång ett benchmark så gick de 5 sek sen sprakade det till och datorn dog

Du ska nog inte bygga dina egna datorer i framtiden, i vart fall inte förrns du lär dig vad man bör och inte bör göra, när något "sprakar" så är ju något givetvis fel...

Rätta mig om jag har fel, men om jag förstog dig rätt så använde du kablar från ett annat nätagg till ett nyare nätagg. Detta borde du förstå att det inte är en sak man ska göra om man nu inte vet att kablarna är kompatibla, det borde vara uppenbart.

Jag säger inte detta för att vara elak, snarare för att det kan vara direkt livsfarligt att koppla saker fel även om det nu är ganska osannolikt.

Visa signatur

Sweclockers 2024:
"
Eftersom vi tillhandahåller en öppen diskussionsplattform har vi ett berättigat intresse av att behålla användargenererat innehåll även efter en eventuell radering eller anonymisering av ditt användarkonto. Vi kommer även att fortsätta lagra vissa uppgifter för att upprätthålla säkerheten och förhindra missbruk av våra tjänster.
"

Permalänk
Medlem

@Pathway: jo de gjorde jag och åkte ner med kortet direkt efter jag hade fått fram att de inte funkade, allt annat fungerade ju som de skulle då men jag var tveksam att den smällen som blev bara tog kortet och tydligen hade jag rätt

Permalänk
Medlem

@Thor: Agree håller med, de visste jag inte och borde vetat de med aggets kablar.
Hade dock inte bytt nätagg förren efter smällen som blev.

Permalänk
Medlem
Skrivet av HandSolo:

@Thor: Agree håller med, de visste jag inte och borde vetat de med aggets kablar.
Hade dock inte bytt nätagg förren efter smällen som blev.

Och du tänkte dig inte tanken att kablarna kunde ha tagit stryk med??

Skickades från m.sweclockers.com

Visa signatur

R7 5800X3D / RTX 4070 / 32GB Ram / 1 + 2 TB M.2 SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk
Skrivet av HandSolo:

När jag kom hem igår kväll och satte mig för o "spekulera" lite så upptäckte jag till min förvåning att då hade OS hittat båda korten igen och sli funkade, då testade jag båda korten i ett annat system och där funkar dem så jag drog slutsatsen att de måste vara mobo då så har bestältt ett.
Hade ni dragit samma slutsats?

Jag har en tanke som jag inte vet om det stämmer men... Har för mig att SLI kräver ett 'kompatibelt' moderkort som har stöd för just SLI. Crossfire (AMD's motsvarighet) fungerar utan någon speciell extra komponent(er) om man har 2 pci-express portar, men så är inte fallet med SLI. (Om jag minns rätt)

Så om 'SLI' fungerar i ett annat system du har men inte på detta moderkort så kan detta vara förklaringen? Kan ha missat något du skrivit, va lite lång tråd

Visa signatur

nVidia Titan X (Pascal), Intel i9 9900K, 32 GB DDR4@3200 MHZ, Samsung 970 EVO 1TB, Asus Maximus Gene XI.

Acer Predator X34 @100hz
Logitech G903 (mus), G513 (tangentbord).
PRO X 2 Lightspeed (hörlurar).

Permalänk
Festpilot 2020, Antiallo
Skrivet av Hassel fd Jompenleet:

Om det är fel på PCI lanen så kan det leverera för mycket ström till grafikkortet som tillslut ev skulle kunna leda till att du bränner/kortsluter grafikkortet.
OT:Radeon blev ju av med deras PCI cert nu till deras RX480 då de kunde begära för mycket ström för pci lanen och därav kortsluta både moderkort och cpu. Nvidia o andra sidan brukar vara duktiga på att hålla tillbaks med strömmen så jag skulle lägga min röst på att det är ditt moderkort som det är fel på.
Får jag fråga om du har ett Asrock moderkort? har personligen bara haft strul med dem

Oj, din beskrivna situation går emot fysikens lagar.

Du kan inte "leverera för mycket ström" - Ströms dras beroende på lasten och endast genom att ändra på lasten kan du ändra mängden ström.

RX 480 var för aggressiva och drog för mycket ström från moderkortet. Detta då det inte finns en spärr i moderkortet utan det är bara ett par kopparbleck som är kopplade till jord respektive 12 V.

Om man drar för mycket ström finns det risk att man smälter ledningsbanorna pga Ohmska förluster. Detta innebär inte att man "kortsluter Moderkort & CPU" men en bieffekt av att man smälter samman jord och 12 V på moderkortet. Detta innebär ju att man kortslutit 12 V och jord i hela datorn precis på den punkten.

Räknat på tvärsnittsarean och kontaktarean på ett modernt moderkort är det mycket osannolikt att ens 120W är problematikt för en PCIe port. Dock förekommer det ju OEM och billiga moderkort som har tunnare kopparlager mellan glasfiberlagren.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk

'NVIDIA SLI intelligently scales graphics performance by combining multiple GeForce GTX GPUs on an SLI certified motherboard. With over 1,500 supported games, and day-of-release SLI profiles for the latest titles, SLI is the technology of choice for gamers who demand the very best.'

'Motherboard
> An SLI motherboard is required for all SLI configurations. NVIDIA recommends a PCI-E 2.0 x16 motherboard for the best performance. Please make sure you have updated your motherboard SBIOS to the latest version.

> Dual-GPU graphics cards such as GeForce GTX TITAN Z cards do not require an SLI motherboard and work on all compatible motherboards.'

Från nVidia's hemsida.
Så 'dual-kort' så fungerar 'SLI' på ett 'vanligt' moderkort men med 2 kort så måste moderkortet ha stöd för detta.

Visa signatur

nVidia Titan X (Pascal), Intel i9 9900K, 32 GB DDR4@3200 MHZ, Samsung 970 EVO 1TB, Asus Maximus Gene XI.

Acer Predator X34 @100hz
Logitech G903 (mus), G513 (tangentbord).
PRO X 2 Lightspeed (hörlurar).

Permalänk
Medlem

Tittat på en hel del BIOS för 970/980 och tycker man inte ser att dom drar mer än högst 90W från PCI-E banan, där det finns ett OC läge och det är aktiverat. T.ex via switch/dubbla bios.

Annars ser man ju ganska tydligt att det får sugas ut högst 75W från PCI-E banen i standard BIOS profilerna för 970/980, sedan runt 90W för PCI-E 6/8pin #1 och 110W från PCI-E 6/8pin #2. Sedan ligger förstås W/TDP gränsen lägre än den totala summan tillåten åtgången högsta W för samtliga strömkällor i default BIOS som grafikkorten kommer med. Så kanske är ditt moderkort som är boven i detta olyckliga drama?

Permalänk
Medlem

@Oliver91: Nej inte då de funkade ju... först dagen efter jag bytte dem, bytte nätagg rätt kvickt för att utesluta psun.

Permalänk
Medlem

@Rixxz: De ska ni inte göra och nej jag kan inte mina saker just därför tycker jag de är kul. Sen finns de ju billigare sätt att lära sig på meen de drabbar ju ingen fattig

Permalänk
Hedersmedlem

*Tråd rensad i enlighet med §1.1/§1.6 (trams)*
/moderator

Visa signatur

Danskjävel så krattar som en skrivare...

Permalänk
Medlem

@Tomika: Ja de tror jag också, tror första kortet jag fick var sönder och då pajade den moderkortet i processen även ev skadade de andra kortet men vi får se, bara att byta och testa sig fram