Nvidia påstås utrusta grafikkort med 48 GB GDDR6X

Permalänk

Kanske vill Nvidia hävda sig mer nu eftersom Intel är på gång....

Visa signatur

Fractal Design Define C, ASUS PRIME Z370-A
Intel Core i7 8700K 3.7 GHz 12MB
HyperX Predator DDR4 3200MHz 16GB( PC4-25600 CL16 16-18-18 )
Palit GTX 1070 TI, Samsung NVMe SSD 960 EVO M2
Seasonic Focus+ 750W 85+ GOLD PSU

Permalänk
Medlem
Skrivet av Peterrrrr:

Kanske vill Nvidia hävda sig mer nu eftersom Intel är på gång....

Skämtar du och glömde lägga till på slutet?

Permalänk
Medlem
Skrivet av pv2b:

Alla ni som inte gillar grafikkort som har för högt effektuttag - ni vet väl att det går utmärkt att inte köpa grafikkort alls, alternativt köpa grafikkort i en mer rimlig prestandaklass? Nvidia kommer inte direkt överge den stora marknaden av mer rimliga grafikkort. De kanske inte kommer ut i första vändan av RTX 4000-serien, så man får väl vänta lite. Vill man inte vänta så är grafikkort i nuvarande generation relativt rimligt prissatta och köpbara just nu.

Nvidia har fattat att det finns ett segment av köparna som köper "det bästa" de kan erbjuda, kosta det vad det vill, oavsett hur mycket effekt det drar. Man behöver inte automatiskt rätta in sig i det ledet bara för att man köpt toppkortet år efter år. Jag lovar, du blir inte en sämre människa av att du köper ett kort i "70"-serien, eller ännu lägre, t.ex.

Det här är en naturlig konsekvens av att SLI numera är dött, vägen till den sortens extremprestanda går numera inte via multipla GPU:er, utan genom en stor fet sådan.

Det är väl här problemet kommer. Eftersom det finns en begränsning på hur mycket el vi har så kommer det även påverka de som inte köper ett nytt grafikkort. Varför skall jag betala ännu mer än vad jag redan gör för min ström bara för att nåt företag i usa säljer jättetörstiga kort till europa och på så vis tvingar upp kostnaden på strömmen, även för de som inte ens har någon dator? Lite samma sak som att vi tvingar bilutvecklare att inte släppa ut mer skit än nödvändigt då utsläppen är skadliga både för natur och kropp.

Hade varje person haft sin egen el så hade jag däremot hållit med dej.

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem
Skrivet av Nikodemous:

Det är väl här problemet kommer. Eftersom det finns en begränsning på hur mycket el vi har så kommer det även påverka de som inte köper ett nytt grafikkort. Varför skall jag betala ännu mer än vad jag redan gör för min ström bara för att nåt företag i usa säljer jättetörstiga kort till europa och på så vis tvingar upp kostnaden på strömmen, även för de som inte ens har någon dator? Lite samma sak som att vi tvingar bilutvecklare att inte släppa ut mer skit än nödvändigt då utsläppen är skadliga både för natur och kropp.

Hade varje person haft sin egen el så hade jag däremot hållit med dej.

Köp ett enklare kort då om tillgång/kostnad för el är ett sånt problem, ingen hindrar dig. Om du tror att grafikkort utgör en betydande eller ens mätbar del av effektförbrukningen i elnäten så behöver du nog stänga av datorn och gå ut och kolla på den riktiga världen en sväng.

Permalänk
Medlem
Skrivet av Dinkefing:

Snarare x2.5 gånger snabbare. RTX 3070 är redan dubbelt så snabbt som ett GTX 1070. Jag väntar själv på en riktig ersättare för GTX 1650 som idag är tre år gammal men Nvidia har inte släppt någon än. Kanske kör AMD denna gång.

Jag jämför alltid kort mellan generationer som har samma effektuttag. Det är det som påverkar resten av systemet med kylning och PSU. Den raka uppgraderingen från GTX 1070 är RTX 3060. Låt dig inte luras av inflationen i modellnamnet. 1060 blev 1660, 1070 blev 2060 och sedan 3060.

Visa signatur

AMD Ryzen 5800X | MSI RTX 3060 Ti Gaming X Trio | Cooler Master HAF 912 Plus

Permalänk
Medlem
Skrivet av Sveklockarn:

Köp ett enklare kort då om tillgång/kostnad för el är ett sånt problem, ingen hindrar dig. Om du tror att grafikkort utgör en betydande eller ens mätbar del av effektförbrukningen i elnäten så behöver du nog stänga av datorn och gå ut och kolla på den riktiga världen en sväng.

Vad trött jag är på sådana kommentarer, menar du att man ska stå ut med 3050 prestanda för att få ner strömförbrukningen? Många vill ha streamprocessorer, bred minnesbuss samt mycket VRAM, ska man behöva köpa ett 30 000 kr kort som drar 800w för att få det?

Nvidia nerfar korten ganska rejält när man går ner från xx90, xx80 osv, säkert ännu mer så i 4000-serien.

De kunde väll erbjuda alternativ. Se bara på 3080 som initialt släpptes med väldigt lite minne, dessa köpare lär inte vara så glada speciellt länge när de väl slår i minnestaket, det är ändå ett rätt dyrt kort. Annars är Nvidia bra på att släppa kort med minnesbussen som flaskhals.

Permalänk
Medlem
Skrivet av Defender:

vattnas i munnen.

Sura uppstötningar?

Visa signatur

Phanteks P400A RGB : Asus Prime X570-P : Ryzen 9 5900X : Corsair H100X : 32GB G.Skill Trident Z Neo 3600CL14 : Sapphire Nitro+ 6800 XT : Xiaomi 34" Curved 3440x1440 : Playseat Evolution Alcantara : Thrustmaster T300RS GT / Ferrari SF1000 Edition Add-on : HP Reverb G2

Permalänk
Medlem
Skrivet av Dalton Sleeper:

Vad trött jag är på sådana kommentarer, menar du att man ska stå ut med 3050 prestanda för att få ner strömförbrukningen? Många vill ha streamprocessorer, bred minnesbuss samt mycket VRAM, ska man behöva köpa ett 30 000 kr kort som drar 800w för att få det?

Ja, det är streamprocessorer, breda minnesbussar och VRAM som kostar chipyta och därför pengar. Däremot behöver det inte dra 800 W. Du kan ju klocka ner det till 200 W om du vill.

Är det verkligen så svårt att förstå att prestanda kostar, i både kronor och watt?

Visa signatur

AMD Ryzen 5800X | MSI RTX 3060 Ti Gaming X Trio | Cooler Master HAF 912 Plus

Permalänk
Skrivet av Patriksan:

Jag jämför alltid kort mellan generationer som har samma effektuttag. Det är det som påverkar resten av systemet med kylning och PSU. Den raka uppgraderingen från GTX 1070 är RTX 3060. Låt dig inte luras av inflationen i modellnamnet. 1060 blev 1660, 1070 blev 2060 och sedan 3060.

OK då förstår jag. Skulle gissa att kommande RTX 4050 ligger runt 150W så det kommer bli intressant. Effektaget mellan generationerna har sakta krypt uppåt undantaget var Maxwell.

Skrivet av Peterrrrr:

Kanske vill Nvidia hävda sig mer nu eftersom Intel är på gång....

Ja om man nu som gamer älskar stuttering och drivrutiner i alfa stadiet. Arc är inget annat än för de som gillar att betatesta grafikkort.

Permalänk
Medlem

Skulle vara trevligt om det kommer med uttag så man kan koppla grafikkortet till värmepumpen för att kyla det samt att få ut värmen smidigt i huset.

Permalänk
Medlem

Om man köper ett 4090ti och drar ner power limit till 70% eller mindre är jag övertygad om att man får utmärkt prestanda och effektivitet. Om Nvidia, Intel eller AMD kunde uppbringa ett kort som hade typ samma prestanda men bara drog 100w, och inte kostade så mycket mer att tillverka hade de ju gjort det naturligtvis så ser inte poängen med att hetsa upp sig. Jag kör själv mitt 3090 med 75% power limit för tillfället, man förlorar mycket mindre prestanda än man kan tro. Visst de kunde helt enkelt satt power limit mycket mindre, och med sämre prestanda, men de skulle säkerligen förlora pengar på det.

Visa signatur

ASUS ROG STRIX Z790-E GAMING WiFi * I9-14900K
DDR5 64GB 6800 CL32 * NVIDIA RTX 3090 PNY XLR8 REVEL
Samsung NVMe M.2 990 PRO 2 TB & Samsung SATA 960 EVO 2 TB
Sound Blaster AE-7 * AW3423DW * Win 11 Pro

Permalänk
Medlem
Skrivet av Kaleid:

Exakt. Det är väl ingen här som t.ex. tror att Nintendo kommer att göra nästa Switch till en stor o högljudd klump som kräver tunga batterier? Knappast, de kommer att slänga in en hypereffektiv chip och ändå fixa grafik som de flesta är helt OK med.

Switch är ju ändå ämnad att kunna bäras omkring på varav vikt är en stor faktor samt effektivitet. Ett grafikkort ska bara sitta i datorn.

Visa signatur

Ryzen 7800X3D, be quiet! pure rock 2, RTX 4070 Ti Super, Corsair 32GB 6000MHz CL36, Corsair TX850M

Permalänk
Skrivet av UMC:

Om man köper ett 4090ti och drar ner power limit till 70% eller mindre är jag övertygad om att man får utmärkt prestanda och effektivitet. Om Nvidia, Intel eller AMD kunde uppbringa ett kort som hade typ samma prestanda men bara drog 100w, och inte kostade så mycket mer att tillverka hade de ju gjort det naturligtvis så ser inte poängen med att hetsa upp sig. Jag kör själv mitt 3090 med 75% power limit för tillfället, man förlorar mycket mindre prestanda än man kan tro. Visst de kunde helt enkelt satt power limit mycket mindre, och med sämre prestanda, men de skulle säkerligen förlora pengar på det.

Jag trodde det inte gick att undervolta Nvidiakort? Sådant har man ju bara hört om folk gör med Radeon kort som typ RX 500-serien etc.

Permalänk
Skrivet av Sveklockarn:

Skämtar du och glömde lägga till på slutet?

Visste har Intel problem med drivrutiner m.m. just nu, men det är Intel vi pratar om nu
Det kommer ordna sig....

Visa signatur

Fractal Design Define C, ASUS PRIME Z370-A
Intel Core i7 8700K 3.7 GHz 12MB
HyperX Predator DDR4 3200MHz 16GB( PC4-25600 CL16 16-18-18 )
Palit GTX 1070 TI, Samsung NVMe SSD 960 EVO M2
Seasonic Focus+ 750W 85+ GOLD PSU

Permalänk
Medlem
Skrivet av Dalton Sleeper:

Vad trött jag är på sådana kommentarer, menar du att man ska stå ut med 3050 prestanda för att få ner strömförbrukningen? Många vill ha streamprocessorer, bred minnesbuss samt mycket VRAM, ska man behöva köpa ett 30 000 kr kort som drar 800w för att få det?

Nvidia nerfar korten ganska rejält när man går ner från xx90, xx80 osv, säkert ännu mer så i 4000-serien.

De kunde väll erbjuda alternativ. Se bara på 3080 som initialt släpptes med väldigt lite minne, dessa köpare lär inte vara så glada speciellt länge när de väl slår i minnestaket, det är ändå ett rätt dyrt kort. Annars är Nvidia bra på att släppa kort med minnesbussen som flaskhals.

Fast det här kortet är ju helt uppenbart inte riktat till vanliga konsumenter, utan snarare riktat till en liten skara som ska ha det värsta man kan köpa. Det är då inte många som behöver 48GB VRAM till gamingdatorn i varje fall. Bara det är ju en hint om att Nvidia gasar på utav helvete med det här kortet. Sen snackar ryktena om uppemot dubbla strömförbrukningen jämfört med de mindre korten.

Det är helt uppenbart ett mastodontkort för den som inte bryr sig om priset, så jag har svårt att se vad det finns att klaga på.

Permalänk
Avstängd
Skrivet av Kladdpapper:

Switch är ju ändå ämnad att kunna bäras omkring på varav vikt är en stor faktor samt effektivitet. Ett grafikkort ska bara sitta i datorn.

Det kan likväl det med optimeras för hög effektivitet vilket är inte vad vi ser numera. Gäller att ta i bara för att få prestandatronen och tyvärr verkar alltför många vara helt ok med denna "utveckling".

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Testpilot

Ja de lär väl rättfärdiga den kommande super-höga prislappen på något vis antar jag.

Bästa sättet är att slänga på onödigt mycket minne för en konsumentprodukt.

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Medlem
Skrivet av Dinkefing:

Jag trodde det inte gick att undervolta Nvidiakort? Sådant har man ju bara hört om folk gör med Radeon kort som typ RX 500-serien etc.

Jo det går, enklast med MSI Afterburner. Bara att dra ner power limit, enda man behöver göra. Mycket smidigare än att använda curve editor.

Visa signatur

ASUS ROG STRIX Z790-E GAMING WiFi * I9-14900K
DDR5 64GB 6800 CL32 * NVIDIA RTX 3090 PNY XLR8 REVEL
Samsung NVMe M.2 990 PRO 2 TB & Samsung SATA 960 EVO 2 TB
Sound Blaster AE-7 * AW3423DW * Win 11 Pro

Permalänk
Medlem

Effektförbrukningen på 800W det är den fullspäckade kretsen. Korten som de flesta köper kommer med största sannolikhet inte ligga så högt.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Skrivet av Sveklockarn:

Köp ett enklare kort då om tillgång/kostnad för el är ett sånt problem, ingen hindrar dig. Om du tror att grafikkort utgör en betydande eller ens mätbar del av effektförbrukningen i elnäten så behöver du nog stänga av datorn och gå ut och kolla på den riktiga världen en sväng.

Ok. Vi räknar lite då för att få en släng av "riktiga världen".

Ponera att du idag sitter med ett grafikkort som drar 400W. Det är mycket redan där, men vi kör på det. En casual spelare kanske bara snittar 1 h om dagen medans en annan kanske sitter 6-7 h om dagen. Vi säger 3h fär att få ut en siffra. Med endast GPUN på 400 w x 3 timmar om dagen = 0.4x3= 1.2 kWh. Låt oss ta det 365 dagar per år. 365 x 1.2= 438 kWh. Om vi nu tar ett kort på 800 w, dvs 0.8 kw och gör samma beräkning så är vi uppe 876 kwh per år för endast GPUN.

Nu säger inte den siffran ett smack utan att jänföra med någor annat. Vi tar en vanlig villa som har en någorlunda ny panna och bra isolering. De brukar ligga på 10 000-20 000 kwh om året. Låt oss igen ta ett medel på 15 000 kwh på ett hushåll under ett år. Då pratar vi alltså att i detta räkneexemplet att du gör av med 876/15 000= nästan 5.9% av din totala hushållsel på enbart ett grafikkort om du bor i en villa.

För de som sätter upp solceller så uppfattas det som en bra affär om dessa ger ungefär 1 kw i timmen vilket avlastar vattenkraften under sommaren som sedan kan säljas under vintern. Detta är klimatsmart och om vi tillsammas hjälps åt så kan vi hålla nere elkostnaden för de stackare som inte har råd att byta från direktverkande el, men ännu värre om elen faktiskt tar slut. Om då vissa bränner på som tusan och inte bryr sig vad som händer i resten av europa så blir det givetvis svårare att klara detta mål.

Ja, en gpu på 800 w är definitivt mätbart anser jag.

OT om gas borttaget /Vzano, Mod
Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem
Skrivet av Defender:

vattnas i munnen.

Nej.. Wattnas i munnen

Visa signatur

SPELA: 13900K - Gaming X Trio 4090
LEVA: OnePlus 12 - MacBook Air M2 13"
PLÅTA: Canon C70, R3, 1DX mkII, BMPCC6K
LYSSNA: KRK Rokit RP8 G4, Beyerdynamic DT 1990 PRO
FLYGA: DJI FPV, Avata

Permalänk
Medlem
Skrivet av Dalton Sleeper:

De kunde väll erbjuda alternativ. Se bara på 3080 som initialt släpptes med väldigt lite minne, dessa köpare lär inte vara så glada speciellt länge när de väl slår i minnestaket, det är ändå ett rätt dyrt kort. Annars är Nvidia bra på att släppa kort med minnesbussen som flaskhals.

Kan du ge ett exempel på ett sånt Nvidia-kort utan att dra upp "problemet" med GTX 970? Det kortet släpptes i september 2014, vilket snart är 8 år sedan, så jag rankar den delen av din kommentar som trams.

I vilket scenario har RTX 3080 10 GB för lite VRAM?

Permalänk
Hedersmedlem
Skrivet av Nikodemous:

Det är väl här problemet kommer. Eftersom det finns en begränsning på hur mycket el vi har så kommer det även påverka de som inte köper ett nytt grafikkort. Varför skall jag betala ännu mer än vad jag redan gör för min ström bara för att nåt företag i usa säljer jättetörstiga kort till europa och på så vis tvingar upp kostnaden på strömmen, även för de som inte ens har någon dator? Lite samma sak som att vi tvingar bilutvecklare att inte släppa ut mer skit än nödvändigt då utsläppen är skadliga både för natur och kropp.

Hade varje person haft sin egen el så hade jag däremot hållit med dej.

För det första, är det få som kommer köpa dessa grafikkort i 800 W. Detta är topp-produkter, som spelar i ett toppsegment som inte riktigt existerar idag. Du kommer se detta i ungefär lika många datorer som körde SLi "back in the day", om inte färre. Min poäng är att vi inte bör se någon stor marknad för den här sortens kort. Hoppas jag i alla fall, ser vi en rusch till denna till den grad att halva Sweclockers sitter på ett grafikkort i 800W-klassen, så vore jag förvånad till det negativa.

För det andra, jämför toppeffekten på 800 W med hur mycket energi en bil drar.

Detta är väldigt ungefärliga siffror, så ta detta med en nypa salt, men enligt EVDatabase.org så drar en Polestar 2 (som jag bara valde på måfå som en random elbil) en effektivitet på 176 Wh/km. Om vi räknar på en hastighet på 100 km/h så blir detta cirka 17 600 W. (Detta är att betrakta som en storleksordning, inte en exakt siffra.)

En bil drar alltså ungefär 20 ggr så mycket energi per timme (och en bensinbil säkert betydligt mer) än ett grafikkort.

Att jämföra ett extremt grafikkorts energikonsumption, som bara kommer hamna i händerna på några få entusiaster, med bilar som var och varannan kör runt med varje dag är verkligen bara en liten droppe i ett vattenglas. Det kommer inte ha någon mätbar effekt på elpriserna och vårt samhälle i stort, vad en liten nisch inuti en liten nisch köper, jämfört med t.ex. omställningen till elbilar.

Permalänk
Medlem
Skrivet av Sveklockarn:

Kan du ge ett exempel på ett sånt Nvidia-kort utan att dra upp "problemet" med GTX 970? Det kortet släpptes i september 2014, vilket snart är 8 år sedan, så jag rankar den delen av din kommentar som trams.

I vilket scenario har RTX 3080 10 GB för lite VRAM?

Jag vet att watchdog legion I 4k ultra med ray tracing på har recommended requirement 11gb.... Men det är en promille antar jag av alla spel...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Nikodemous:

Ja, en gpu på 800 w är definitivt mätbart anser jag.

Nu är inte alla nolifers som sitter och blåser timme ut och timme in på Chris Roberts senaste sekt/moneygrab. Företaget jag jobbar på drar lokalt ca 4 Mega[miljoner]watt effekt ur elnätet mer eller mindre konstant dygnet runt, vilket då skulle vara 5000 såna grafikkort dygnet runt på full belastning.

Hur många tror du kommer ha ett sånt i Sverige?

Som sagt, folks hobbydatorer är en fjärt i rymden i jämförelse med industriella förbrukare. Spillvärmen från en dator tas dessutom tillvara som uppvärmning av fastigheten, så det mesta kommer till nytta ändå.

Permalänk
Hedersmedlem
Skrivet av Sveklockarn:

Spillvärmen från en dator tas dessutom tillvara som uppvärmning av fastigheten, så det mesta kommer till nytta ändå.

På vintern ja. På sommaren krävs det att du istället kyler bort denna extra värme, vilket flerdubblar den totala energiförbrukningen.

Permalänk
Medlem
Skrivet av Swedishchef_90:

Jag vet att watchdog legion I 4k ultra med ray tracing på har recommended requirement 11gb.... Men det är en promille antar jag av alla spel...

Jo, vilken framerate får man där med ett 3080? Antagligen ingenting som är representativt för en PC åtminstone. Sist var det någon i en tråd som hävdade att 10 GB var för lite för att "moddat Skyrim kan dra mer". Ridå.

Permalänk
Medlem
Skrivet av Ozzed:

Beror på. Alla använder ju inte samma kylpasta men det man siktar på är att den skall prestera likadant dag ett som dag tusen. Samt klara temperaturväxlingar under transporten och allt vad det är. Men att sådan pasta "torkar" är en myt. Jag hittar inte videon nu men Der8auer går igenom det där med Gamers Nexus när Steve är på något år av LTX. Stockpastan är "torr" redan från början, så att stockpasta skulle torka och då tappa prestanda över tid är en myt.

Det som skaver är att en skillnad på 20c inte känns rimlig. Mitt 1080 TI har en kylare som tar upp 2,7 slottar, så absolut inget speciellt i dagens landskap, men när jag bytte till Kryonaut extreme så blev det en skillnad på 21C under load. Det är för mycket.

Så antingen är stockpastan jävligt dålig eller så är trycket från fabrik dåligt och ojämt. Svårt att säga vilket. Men jag tycker i vilket fall inte att "likadan prestanda om 10 år" kan få motivera att pastan i övrigt är såpass dålig. Det måste finnas en bättre lösning, även för "hårda" pastor.

Jag förstår fullt ut att man gärna vill ha en pasta som håller mycket länge, då en majoritet av de som anväbder grafikkort säket inte ens vet vad kylpasta är, och då är ju inte en "rinnig" pasta typ Kryonaut en optimal lösning, men bättre än 3-4W/MK borde vara nåbart även för pasta som är tänkt att hålla i 10 år.

Och ja, vore kanom med ett test av olika kylpastor. Det är ju tack och lov fortfarande en rätt levande marknad där det händer grejer och släpps nytt då och då

Jag hittade videon med gamersnexus och derbauer
De säger att det är pumpout effect och att den inte blir torr. Och att det är pumpout effekten som medför att prestandan blir sämre redan efter ett år och att de rekommenderar att om man har lite mer flytande pasta så borde man byta den varje år.

Att pastan utöver den här effekten faktiskt torkar ut tror jag de flesta som har bytt kylpasta på en väldigt gammal dator kan intyga. En gång bytte jag på en laptop som hade fått sämre och sämre prestanda år efter år (kanske ca 5-6 år gammal vid bytet av pasta). Mot slutet kunde den knappt hålla 800 MHz utan att gå upp till 100 grader. Den kylpastan var helt uttorkad och helt fast, ungefär så man fick använda en mejsel för att få bort den. Pasta på laptops efter 3-4 år har jag aldrig sett såhär torr.

Efter att tittat på videon känns det mer som att man får välja mellan bra kylprestanda i ett år eller möjligen två vs okej kylprestanda i 3-5 år. Känns som det kan bli många returnerade kort inom 2-3 år om man börjar använda kylpasta som håller ännu sämre (mer ger bättre prestanda initialt)

Om du bytte på ett 1080 TI hyfsat nyligen (dvs kortet var i storleksordningen några/många år gammalt) så låter det ju som att man enligt derbauer hade sett ännu större prestandaskillnad om det ursprungligen var "bättre" kylpasta, eftersom de verkar åldras ännu fortare, eller?

Permalänk
Medlem
Skrivet av Peterrrrr:

Visste har Intel problem med drivrutiner m.m. just nu, men det är Intel vi pratar om nu
Det kommer ordna sig....

Nog för att jag är en Intel-fantast men det enda de har illustrerat är att drivrutiner till grafikkort plötligt är något helt annat när de ska fungera med en uppsjö olika speltitlar, till skillnad från rena desktop-miljöer som deras grafikprodukter huvudsakligen hållit sig till. De saknar decennier av erfarenhet vilket inte kommer gå att köpa sig fri ifrån tyvärr, så de kommer nog harva i budgetsegmentet för överskådlig framtid är jag rädd.

Permalänk
Medlem
Skrivet av RazorKrist:

Hur kyler man ett sånt kort egentligen? inbyggd vattenkylning med 3 fläktplatser?

Seriös fråga, R9 295X2 behövde 500w och det mest ström intensiva koret jag hittat på Swec var Asus Ares ii https://www.sweclockers.com/test/16383-asus-rog-ares-ii/8 där hela systemt drog upp till 1200w i spel och det var ett kort med dubbla GPUer.

Haha, det var goda tider med 295X2

Jag körde 2 st i quadfire samt en Intel i7 5960X, det krävdes ett 1600W nätagg och blev hyfsat varmt i rummet under tester.

Lösningen för Nvidia om 800W blir nog en AIO eller block, eller en luftkylare som tar upp 4 platser.

Mvh

Visa signatur

Asus ROG Strix B650E-F - AMD Ryzen 7 7800X3D - 32GB DDR5 - Galax RTX 4090 Hall Of Fame OC Lab - Corsair MP700 - WD Black SN850 - WD Black SN850X - Samsung QVO 870 - WD Black HDD - Noctua NH-U12A Chromax - Fractal Design Define 7 - Seasonic Prime Ultra Gold 1000W - Alienware AW3423DWF QD-OLED