AMD spärrar överklockning av HBM-minnet med Radeon "Fiji"

Permalänk
Master of Overkill
Skrivet av Donkey:

Klart det påverkar minnet men behöver man verkligen köra full MSAA i 4K?

Nä, jag bara konstatera varför man inte toppar minnet.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Entusiast
Skrivet av Thomas:

Ah jo, jag länkade till fel nyhet. Den som var i maj (som löstes inom några dagar) var den jag hade i åtanke. Hittade första bästa SweC-nyhet men tänkte inte på att det var mera nyligen än i februari.

Men jo, de verkar ha rätt stora problem att bestämma sig där. Andra gången påstod de ju dock att det var en miss, som de lagade sen i en hotfix-driver... sedan om det var sant eller inte kan man ju diskutera.

Jag misstänker att det var någon som inte tänkte hela vägen i första omgången och att det var någon som slarvade andra gången. Men vem vet vad som händer internet på de stora jättarna. Tror inte Nvidia är dumma nog att aktivt försöka lura kunderna genom att smyga ut den typen av ändringar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Syhndel:

Vi får se om ett par dagar. Jag är helt övertygad om att fury inte har en chans att mäta sig emot Titan X.

Skulle rekommendera en edit medans det fortfarande finns tid och ingen redan citerat dig kompis, oups sorry too late..

För mig är det iaf skit samma vilken som "spöar" den andra för jag har inte råd iaf lol, dock är ny tektik alltid kul att läsa om så kommer följa med spänning.

Permalänk
Medlem

Läste på arstechnica

Citat:

Despite using two 8-pin power connectors, the Fury X's power consumption isn't as high as some feared: the TDP is 275W, just a tad higher than the R9 290X's, although it's worth bearing in mind that in real-world usage, the R9 290X was much closer to 300W. The Fury X supports up to 375W of power for overclocking.

Känns som dom lämnat väldigt mycket rum för överklockning på gpu.
Ingen ny artikel men inte noterat detta tidigare.

Visa signatur

MediaCen= Playstation 4, Playstation 3, Xbox 360, Proj= Epson TW700, Projduk= Grandview Cyber 100" tab-tension, Receiver= Marantz SR-6005, Front= Jamo S708, Cen= Jamo D8CEN, Surr= Jamo D8SUR, Surr bak= Jamo D8SUR, Sub= REL T3 + Audiovector K-Sub Signature, Köpta filmer= 1000++ och stiger stadigt

Permalänk
Avstängd

Borde väl ha något med komplikationer att göra. Alltså att om man börjar mixtra med minnet så kan det bli problem. Sedan att klockning av minnet sällan ger någon märkbar prestandaboost är ju en helt annan femma. Tråkigt men antagligen behövligt.

Skrivet av Syhndel:

Vad bra AMD har lyckats, 4gb vram och dessutom kan man inte överklocka den lilla vram man har. Jag tycker det här kortet verkar riktigt uselt, och skulle aldrig år 2015 köpa ett kort med endast 4gb vram.

Med tanke på tidigare kommentarer från dig så tvivlar jag att dessa två faktorer är orsaker till ditt "vägrande" av AMD produkter.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av RainesX:

Läste på arstechnica

Känns som dom lämnat väldigt mycket rum för överklockning på gpu.
Ingen ny artikel men inte noterat detta tidigare.

Under lanseringen på E3 sa AMD att fury är gjort för att överklocka.

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Medlem

Får hoppas att detta bara sker under "testfasen" av minnena. Vore väldigt tråkigt om det är en trend...

Permalänk
Medlem
Skrivet av Zotamedu:

"bara" 25 % högre minnesbandbredd än ditt klockade 290X...

För mig är det lite under 18% med helt stabil överklockning. Nu säger jag inte att HBM/Fury är kasst alls, är helt imponerad utav det och ser fram emot dess lansering. Säger bara att Hawaii's minnes överklockning är helt otrolig och är ingenting att titta ner på. 435.2GB/s per kärna för mig, verkligen inte fy skam. Kan nå ~450GB/s, men är inte helt och hållet stabilt då och viss data behövs refetch'as även om hyfsat sällan. Detta utan att öka någon volt alls.

Kan däremot säga att vinsten för VRAM klockning är exponentiellt mindre lönsam för spel, OpenCL program däremot tjänar en hel del på det även i så höga nivåer och skulle fortsätta tjäna på det i ännu högre nivåer, beroende på programmet i fråga. Självklart så kommer ett kraftfullare kort som Fiji kunna utnyttja bandbredden mer än hawaii, men tror den redan ur fabriken är rätt nära gränsen där vinsten blir nära obefintlig. 512GB/s är riktigt mycket.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem
Skrivet av Storage Jar:

Under lanseringen på E3 sa AMD att fury är gjort för att överklocka.

Visseligen ja men 100W headroom är ganska löjligt mycket!

Visa signatur

MediaCen= Playstation 4, Playstation 3, Xbox 360, Proj= Epson TW700, Projduk= Grandview Cyber 100" tab-tension, Receiver= Marantz SR-6005, Front= Jamo S708, Cen= Jamo D8CEN, Surr= Jamo D8SUR, Surr bak= Jamo D8SUR, Sub= REL T3 + Audiovector K-Sub Signature, Köpta filmer= 1000++ och stiger stadigt

Permalänk
Medlem

Prototyperna hade väll 640 GB/s om man ska tro alla tidigare rumors, anledningen till att dom sänkte till 512GB/s lär väll då vara att det var svårt att tillverka minnen som klarade den hastigheten generellt. Förmodligen också anledningen till att dom disablar överklockningen...

Permalänk
Medlem

Frågan är hur momentant värmeutvecklingen ökar vid belastning - Fiji har ju minnescellerna vid GPU:n numera. Kan vara en så pass simpel anledning.

Permalänk
Master of Overkill
Skrivet av RainesX:

Visseligen ja men 100W headroom är ganska löjligt mycket!

Fast 780ti 980 980ti titan x titan klockar också satan.

Mina Titan jag hade kan dra runt 400W + utan problem.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av RainesX:

Visseligen ja men 100W headroom är ganska löjligt mycket!

Arstechnicas påstående baseras väl helt på PCIe-kontakterna:

8 + 6 pin = 300W
8 + 8 pin = 375W

25W hade varit "ganska löjligt lite" för ett vattenkylt top-of-the-line-kort.
(Dvs, om man har lite hum om, hur överklock och övervoltning påverkar effektförbrukningen.)

Visa signatur

“There will be people that are burdened by only having the capacity to see what has always been instead of what can be.
But don’t you let that burden you.”

Permalänk
Medlem
Skrivet av Syhndel:

Vad bra AMD har lyckats, 4gb vram och dessutom kan man inte överklocka den lilla vram man har. Jag tycker det här kortet verkar riktigt uselt, och skulle aldrig år 2015 köpa ett kort med endast 4gb vram.

Mycket är ibland inte bättre, med 4Gb ram så klarar det ju att driva Dirt Rally i 3x 4k skärmar ( 3 840 x 2 160) för en effektiv upplösning på 11 520 x 2 160 pixlar och en konstant bildfrekvens på 60 bilder per sekund.
Vilket kort med 8/12/24Gb ram klarar det?
http://www.nordichardware.se/Grafik/radeon-r9-fury-x-driver-d...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av tvelander:

Fast 780ti 980 980ti titan x titan klockar också satan.

Mina Titan jag hade kan dra runt 400W + utan problem.

Viste att dom klocka bra men att du kunde musta ut så pass mycket i effektåtgång trodde jag faktiskt inte :\

Skrivet av FatherOfThree:

Arstechnicas påstående baseras väl helt på PCIe-kontakterna:

8 + 6 pin = 300W
8 + 8 pin = 375W

25W hade varit "ganska löjligt lite" för ett vattenkylt top-of-the-line-kort.
(Dvs, om man har lite hum om, hur överklock och övervoltning påverkar effektförbrukningen.)

Där ser man. Då har jag lärt mig något nytt.
Kan ärligt säga att jag aldrig skaffat något att mäta energiåtgång vid vägg ännu.
Kanske skulle göra det och mäta min burk före och efter fury x (290x just nu).

Visa signatur

MediaCen= Playstation 4, Playstation 3, Xbox 360, Proj= Epson TW700, Projduk= Grandview Cyber 100" tab-tension, Receiver= Marantz SR-6005, Front= Jamo S708, Cen= Jamo D8CEN, Surr= Jamo D8SUR, Surr bak= Jamo D8SUR, Sub= REL T3 + Audiovector K-Sub Signature, Köpta filmer= 1000++ och stiger stadigt

Permalänk
Medlem
Skrivet av Zotamedu:

Den fysiska porten är ju identisk så det är inte problemet. De hade väl inte tid eller tyckte inte att det var värt att utveckla en ny kontroller för HDMI 2.0 för Fiji. Det är ju inte bara att trycka in en ny kontakt på grafikkortet så är det bra sen. De måste designa om grejer i GPUn också. Nu har de antagligen bara lyft ut skärmkontrollerna från de andra grafikkorten och så fick det vara bra. Nuvarande kort är ju lite konstigt placerade i tiden då både AMD och Nvidia sitter och väntar på 16 nm som väntas dra igång volymproduktion nu i sommar. Så alla räknar med nya grafikkort i början av nästa år. Då förhoppningsvis med både HDMI 2.0 och DP 1.3.

Sen kan jag tycka att HDMI borde gå och dö i ett hörn. HDMI 2.0 har samma bandbredd som DP 1.2 har och den släpptes för fem år sedan. HDMI 2.0 var föråldrad redan innan den släpptes och de måste antagligen uppdatera den igen rätt snart. Det har ju redan börjat dyka upp skärmar med högre upplösning än 3840x2160. 5120x2880 har ju redan hittat ut och det klarar inte HDMI 2.0. Med DP 1.3 dual-mode finns det ganska exakt noll anledningar att använda HDMI 2.0.

Liknande skrev jag i ena annan tråd, kul att även du spekulerar i att dom lånat grejer från 290x korten

Skrivet av 2good4you:

Kan det tänkas att detta inlägget blir mer intressant att läsa om 2 dagar?

Jag har skrivit det flera gånger nu, men ingenjörerna på AMD är inte dumma, och dom har garanterat bollat mellan 8GB GDDR5 och 4GB HBM och kommit fram till vad som är bäst på Fury serien. Det kan särskilt tänkas när dom redan har kort med 8GB VRAM samtidigt i sitt produktsortiment i form av 290X/390X korten.

Överklockningen av minnet kan man lösa enkelt, men jag tvivlar på att du kommer behöva det på Fury med 512GB/s bandbredd...

Utan HBM hade inte Fury kortet lanserats, Vad jag fattar för så bygger det på GCN med och 290x var ju på bristningsgränsen för hur mycket ström kortet kunde dra (även stora delar av Fury bygger på hawaii misstänker jag). Nu kunde dom lägga på 45% mer shaders, utan att dra över 300 watt. Så hela GDDR5 klumpen med kontroller och allt drar oförsvarligt mycket ström (vad det verkar).

Därför kortet även fick endast HDMI 1.4, finns inget stöd i hawaii för HDMI 2.0.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Entusiast
Skrivet av Broken-arrow:

Liknande skrev jag i ena annan tråd, kul att även du spekulerar i att dom lånat grejer från 290x korten

Utan HBM hade inte Fury kortet lanserats, Vad jag fattar för så bygger det på GCN med och 290x var ju på bristningsgränsen för hur mycket ström kortet kunde dra (även stora delar av Fury bygger på hawaii misstänker jag). Nu kunde dom lägga på 45% mer shaders, utan att dra över 300 watt. Så hela GDDR5 klumpen med kontroller och allt drar oförsvarligt mycket ström (vad det verkar).

Därför kortet även fick endast HDMI 1.4, finns inget stöd i hawaii för HDMI 2.0.

Det är så man designar processorer. Speciellt något så modulärt som en GPU. Har man designat ett block för videoavkodning så använder man ju samma block i alla designer man kan. Bara dumt att designa om något som fungerar. Jag är övertygad om att Fiji delar kisel med betydligt fler GPUer än bara Hawaii. Alla GCN lär dela en del av de övriga funktionerna och de kan mycket väl ha plockat med sig saker från äldre designer än så.

Edit: angående strömförbrukning och minne så har AMD sagt att GDDR5 ger ca 10 GB/s per watt, så om vi tittar på 290X med dess 320 GB/s minnesbandbredd så får vi att minnet drar strax över 30 W. AMD har även tidigare sagt att 15-20 % av de 250 W 290X drar går åt till minne och minneskontroller. HBM ska ge 35+ GB/s per watt så vi landar på ca 15 W för Fiji. Titan X uppskattas också tugga i sig 30 W för minnet.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Det är så man designar processorer. Speciellt något så modulärt som en GPU. Har man designat ett block för videoavkodning så använder man ju samma block i alla designer man kan. Bara dumt att designa om något som fungerar. Jag är övertygad om att Fiji delar kisel med betydligt fler GPUer än bara Hawaii. Alla GCN lär dela en del av de övriga funktionerna och de kan mycket väl ha plockat med sig saker från äldre designer än så.

Självklart kan det vara så, men innan kortet är släppt så vet man ju inte exakt Men gissar att kortet kommer påminna om just 290x , även om den säkert lånar från andra kort med som 285 t.ex.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Entusiast
Skrivet av Broken-arrow:

Självklart kan det vara så, men innan kortet är släppt så vet man ju inte exakt Men gissar att kortet kommer påminna om just 290x , även om den säkert lånar från andra kort med som 285 t.ex.

Jag är inte helt övertygad om att det kopierat designen rakt av. Jag får inte riktigt uppgifterna om antalet kärnor och strömförbrukningen att gå ihop då. Det är en ökning med 1280 kärnor samtidigt som de bara ökar TDP med 25 W. Även om man generöst lägger till 20 W för HMB så är det väldigt mycket mer kisel på rätt lite extra effekt. Ännu mer intressant blir det om man tittar på Fury Nano. De måste gjort något mer än att bara byta ut minneskontrollern för att deras siffror ska gå ihop. Fast det hindrar ju inte att multimediaacceleratorer och skärmkontroller är direkta kopior.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av FatherOfThree:

Arstechnicas påstående baseras väl helt på PCIe-kontakterna:

8 + 6 pin = 300W
8 + 8 pin = 375W

25W hade varit "ganska löjligt lite" för ett vattenkylt top-of-the-line-kort.
(Dvs, om man har lite hum om, hur överklock och övervoltning påverkar effektförbrukningen.)

Däremot finns det väll ingenting som hindrar en från att dra mer än PCI-E standarden förutsatt att PSU'n klarar det? Är ju exakt vad 295x2 gör med 8+8pin medans den drar rätt många fler hundra watt än 375, speciellt vid överklockning. PCI-E standarden är väll bara minimum kraven för vad kablarna ska kunna klara/försörja för att få kallas PCI-E strömkablar? Någon får gärna ge mer information om PCI-E standarden, vet däremot att ingenting hindrar en från att dra mer än 375W med 2x 8pin + MB.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
99:e percentilen
Skrivet av Bad Habit:

För upp till 1440p så räcker 4gb helt utmärkt. Man använder inte AA i de upplösningarna ändå (drar massa vram) då det är helt onödigt.

Otroligt långt ifrån onödigt med AA i 1440p @ 27 tum.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av Bengt-Arne:

Mycket är ibland inte bättre, med 4Gb ram så klarar det ju att driva Dirt Rally i 3x 4k skärmar ( 3 840 x 2 160) för en effektiv upplösning på 11 520 x 2 160 pixlar och en konstant bildfrekvens på 60 bilder per sekund.
Vilket kort med 8/12/24Gb ram klarar det?
http://www.nordichardware.se/Grafik/radeon-r9-fury-x-driver-d...

Syhndel skulle aldrig bli nöjd oavsett vad AMD skulle ha presenterat så det är inte lönt. För honom är kortet redan benchat och klart, en klar förlorare mot Supreme Green

Hans egna review av Fury X går att läsa här:

Visa signatur

Speldator: Intel i7 4770k - 16 GB DDR3 - GeForce GTX 1060 EVGA SC MiniITX - Samsung 850 Pro 256GB (OS) - Samsung 840 EVO 500GB (Install) - 3x4TB Seagate (Mix) - Fractal Node 304

Permalänk
Medlem

Jag tolkar nyheten som att AMD vill ha ut stabila, pålitliga kort, som levererar fördefinierad prestanda. Jag har av principiella skäl vägrat köpa AMD-produkter för personligt bruk sedan 1999, men jag är nog faktiskt ganska intresserad av att byta mitt GTX 980 mot ett Fury i höst förutsatt att de levererar hårdvarumässigt solida kort med stabila drivrutiner.

Permalänk
Medlem
Skrivet av Zotamedu:

Jag är inte helt övertygad om att det kopierat designen rakt av. Jag får inte riktigt uppgifterna om antalet kärnor och strömförbrukningen att gå ihop då. Det är en ökning med 1280 kärnor samtidigt som de bara ökar TDP med 25 W. Även om man generöst lägger till 20 W för HMB så är det väldigt mycket mer kisel på rätt lite extra effekt. Ännu mer intressant blir det om man tittar på Fury Nano. De måste gjort något mer än att bara byta ut minneskontrollern för att deras siffror ska gå ihop. Fast det hindrar ju inte att multimediaacceleratorer och skärmkontroller är direkta kopior.

Sa bara påminna inte någon kopia Troligen delar dom rätt många olikheter och jag håller med om att dom måste gjort något mer än tagit GDDR5 (även om AMD klaga på den tog för mycket ström, men bara visat hur mycket minnena drar, inte kontroller och annat runt detta drar).

Skrivet av philipborg:

Däremot finns det väll ingenting som hindrar en från att dra mer än PCI-E standarden förutsatt att PSU'n klarar det? Är ju exakt vad 295x2 gör med 8+8pin medans den drar rätt många fler hundra watt än 375, speciellt vid överklockning. PCI-E standarden är väll bara minimum kraven för vad kablarna ska kunna klara/försörja för att få kallas PCI-E strömkablar? Någon får gärna ge mer information om PCI-E standarden, vet däremot att ingenting hindrar en från att dra mer än 375W med 2x 8pin + MB.

Är en standard som man inte bör gå över, drar ju viss mängd från moderkortet också och den belastningen ökar ju mer kortet drar (så man bör ha ett moderkort av bra kvalité och eventuellt extra ström till moderkortet). Överbelastning blir inget troligt, AMD har med flit gått utanför spex, men då gäller det att kunder är medvetna om att dom bör ha bra moderkort och agg

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Entusiast
Skrivet av philipborg:

Däremot finns det väll ingenting som hindrar en från att dra mer än PCI-E standarden förutsatt att PSU'n klarar det? Är ju exakt vad 295x2 gör med 8+8pin medans den drar rätt många fler hundra watt än 375, speciellt vid överklockning. PCI-E standarden är väll bara minimum kraven för vad kablarna ska kunna klara/försörja för att få kallas PCI-E strömkablar? Någon får gärna ge mer information om PCI-E standarden, vet däremot att ingenting hindrar en från att dra mer än 375W med 2x 8pin + MB.

PCIe-kontakten kan leverera max 75 W enligt specifikation. Mycket mer än så vill du nog ändå inte dra genom moderkortet. Effekten på kontakterna från nätagget är vad själva kontaktdonen är specade för. Det är klart att det går att peta in mer ström men då är man utanför vad sakerna är designade för.

Edit: för att förtydliga. Rent tekniskt går det att dra så mycket ström som grafikkortet klara av att dra, nätagget klarar av att mata ut eller som kablarna/kontakterna klarar av att hantera innan något brinner upp. Specarna på kontaktdon brukar vara väl tilltagna av säkerhetsskäl så du kan dra mer ström genom dem utan att något brinner upp men det är inte rekommenderat. Vid riktigt extrem överklockning kan grafikkortet dra upp mot 800 W men då är det flytande kväve inblandat. Då drar du 10 A genom varje ledare ungefär. Bortom vad kontakterna är specade för men borde vara inom ramen för vad kablarna klarar. Så i praktiken är det kylningen av grafikkortet som sätter stopp. Men ingen kan officiellt gå ut och säga att man kan mata grafikkortet med så mycket ström eftersom det är utanför specarna.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Broken-arrow:

Är en standard som man inte bör gå över, drar ju viss mängd från moderkortet också och den belastningen ökar ju mer kortet drar (så man bör ha ett moderkort av bra kvalité och eventuellt extra ström till moderkortet). Överbelastning blir inget troligt, AMD har med flit gått utanför spex, men då gäller det att kunder är medvetna om att dom bör ha bra moderkort och agg

Max 75 W från moderkortet, och det lär AMD absolut inte gå över.

Strömkablar 8+8 pin ger max 300 W, och då har vi en total om 375 W.

Permalänk
Medlem
Skrivet av Broken-arrow:

Är en standard som man inte bör gå över, drar ju viss mängd från moderkortet också och den belastningen ökar ju mer kortet drar (så man bör ha ett moderkort av bra kvalité och eventuellt extra ström till moderkortet). Överbelastning blir inget troligt, AMD har med flit gått utanför spex, men då gäller det att kunder är medvetna om att dom bör ha bra moderkort och agg

Rörande AMD så är dem väldigt tydliga med att man bör ha ett bra nätaggregat med X amp per lina och Y amp totalt för 295x2, variablar jag inte minns i huvudet just nu. De nämner däremot inte så mycket om MB, men känns som om folk som skaffar såpass dyra grafikkort inte sitter med moderkort från Clas Ohlsson, om nu dem säljer moderkort.

Verkar helt enkelt som så länge man vet vad man gör är det ingen fara att dra 500-650W ur 2x 8pin + MB, om inte ännu mer.
Ser alltså inte PCI-E specifikationerna som en begränsning för överklockning, för vem skaffar Fury kort och moderkort från Clas Ohlsson och försöker överklocka riktigt rejält? Satsar man på överklockning hoppas jag man har saker som man vet klarar det. Dem flesta moderkort är väll idag ändå av såpass hög kvalité att oftare än inte är det möjligen PSU'n som sätter stopp för ström försörjningen först?

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem
Skrivet av Zotamedu:

PCIe-kontakten kan leverera max 75 W enligt specifikation. Mycket mer än så vill du nog ändå inte dra genom moderkortet. Effekten på kontakterna från nätagget är vad själva kontaktdonen är specade för. Det är klart att det går att peta in mer ström men då är man utanför vad sakerna är designade för.

När du pratar om spec på kontaktdon, pratar du om honan på grafikkortet eller PSU'ns kapacitet? Självklart bör man hålla sig inom vad PSU'n klarar, men klarar det mer än 375W på 2st 8pin+övrigt(MB som i sin tur får ström från PSU) så ser jag inte några hinder från att sträcka sig över det utöver det.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Entusiast
Skrivet av philipborg:

När du pratar om spec på kontaktdon, pratar du om honan på grafikkortet eller PSU'ns kapacitet? Självklart bör man hålla sig inom vad PSU'n klarar, men klarar det mer än 375W på 2st 8pin+övrigt(MB som i sin tur får ström från PSU) så ser jag inte några hinder från att sträcka sig över det utöver det.

Kontaktdonet, alltså plastbiten i slutet på kabeln som man stoppar in i motsvarande plastbit i grafikkortet. Honan på grafikkortet och hanen på sladden har samma specifikationer, nämligen 150 W styck. Eller ja, de är specade för 13 A, 150 W dyker upp eftersom spänningen är 12 V. De klarar upp till 60 V om jag inte minns helt fel men det är inte relevant här eftersom spänningen är fix.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem
Skrivet av Zotamedu:

Kontaktdonet, alltså plastbiten i slutet på kabeln som man stoppar in i motsvarande plastbit i grafikkortet. Honan på grafikkortet och hanen på sladden har samma specifikationer, nämligen 150 W styck. Eller ja, de är specade för 13 A, 150 W dyker upp eftersom spänningen är 12 V. De klarar upp till 60 V om jag inte minns helt fel men det är inte relevant här eftersom spänningen är fix.

Borde däremot inte 295x2's 8pin hona vara speccad för minst 28AMP eftersom det är vad de rekommenderar? Även om PCI-E standarden säger 13A så speccar fortfarande AMD högre?

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.