AMD spärrar överklockning av HBM-minnet med Radeon "Fiji"

Permalänk
Entusiast
Skrivet av philipborg:

Borde däremot inte 295x2's 8pin hona vara speccad för minst 28AMP eftersom det är vad de rekommenderar? Även om PCI-E standarden säger 13A så speccar fortfarande AMD högre?

Det är inte bara PCI-SIG som specar på 13 A. Det är MOLEX som tillverkar kontakterna. De är inte specialdesignade för PCIe utan det är en standardkontakt från deras sortiment. Den finns i ett antal olika utföranden. Tekniskt sett är 2x8-pin inte del av PCIe-standarden heller så redan där är de utanför specen. AMD litar väl på att kontakterna klarar mer än de är specade för och att nätagg som är kraftiga nog att mata ut så mycket ström på 12 V inte använder billig skit som riskerar att överhetta.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd
Skrivet av Syhndel:

Vi får se om ett par dagar. Jag är helt övertygad om att fury inte har en chans att mäta sig emot Titan X.

Mhmmm..... Med tanke på att Fury X kostar 2/3 av vad Titan X gör så är det en seriös framgång om den presterar i närheten av Titan X.

Skrivet av philipborg:

Däremot finns det väll ingenting som hindrar en från att dra mer än PCI-E standarden förutsatt att PSU'n klarar det? Är ju exakt vad 295x2 gör med 8+8pin medans den drar rätt många fler hundra watt än 375, speciellt vid överklockning. PCI-E standarden är väll bara minimum kraven för vad kablarna ska kunna klara/försörja för att få kallas PCI-E strömkablar? Någon får gärna ge mer information om PCI-E standarden, vet däremot att ingenting hindrar en från att dra mer än 375W med 2x 8pin + MB.

Kan ju säga att de flesta multigpu kort drar en bra bit över vad PCI-E standarden har "som tak".

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Zotamedu:

Det är inte bara PCI-SIG som specar på 13 A. Det är MOLEX som tillverkar kontakterna. De är inte specialdesignade för PCIe utan det är en standardkontakt från deras sortiment. Den finns i ett antal olika utföranden. Tekniskt sett är 2x8-pin inte del av PCIe-standarden heller så redan där är de utanför specen. AMD litar väl på att kontakterna klarar mer än de är specade för och att nätagg som är kraftiga nog att mata ut så mycket ström på 12 V inte använder billig skit som riskerar att överhetta.

Aah, det förklarar det. Trodde det var AMD/partnertillverkare som tillverkade kontaktdonen men om det är MOLEX (trodde dem bara gjorde MOLEX kontakter ) som tillverkar dem så förstår jag vad du menar. Känns däremot som AMD och Molex har bättre sammarbete än att AMD bara gissar att dem klarar det, snarare att Molex garanterar det privat.

Verkar däremot finnas bra mycket mer än 13A.
http://www.molex.com/molex/products/family?key=megafit_power_...
Vet däremot verkligen inte om det är "vanlig" pci ström anslutning eller om det är en större variant. Ser ut som en vanlig iaf.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem
Skrivet av Tumnus:

Kan ju säga att de flesta multigpu kort drar en bra bit över vad PCI-E standarden har "som tak".

Jo självklart, använder bara 295x2 som typ exempel då det är nog det kortet som slukar mest ström per 8pin jack utav alla jag vet iaf.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem

"Nämnvärt är att spärren inte ska sitta i hårdvaran utan AMD:s drivrutiner, vilket för att överklockning av HBM-minnet kan bli möjligt längre fram i tiden"

Sitter det bara i drivrutinerna så har jag svårt att tro att ingen lyckas ta sig förbi detta.
Detta ser man tex med AMDs drivare Catalyst 15.5 till 15.15 iof inte samma sak men tvingat 300 serien till 200 serien

http://www.pcper.com/news/Graphics-Cards/AMD-Catalyst-155-151...

Folk kommer alltid vilja göra tokiga saker och bryr sig inte om tex garantin rycker eller inte.

Permalänk
Medlem

Med en sådan bandbredd förstår jag inte problemet, ger varken till eller från på mitt Titan X. 1-2 fps som mest när jag har testat.

Visa signatur

Louqe Ghost S1 + L TopHat | ASRock Phantom Gaming ITX | Intel Core i9-9900K | Corsair Vengeance LPX 32GB | Gigabyte GeForce RTX 2080 Ti 11GB | Corsair SF750 Platinum | Samsung 970 EVO Plus 500GB | Intel 660P 2TB | Custom Vattenkylning CPU/GPU | Windows 11 Pro x64

Permalänk
Medlem
Skrivet av Syhndel:

Vi får se om ett par dagar. Jag är helt övertygad om att fury inte har en chans att mäta sig emot Titan X.

Jag är övertygad om att nvidia inte har problem med drivrutiner, det är bara amd som har det.
wtf...

From Nvidia drivers notes. Is better have off Sli for the moment.

Windows 8.1 Issues

 [SLI, Batman: Arkham Knights] With a 4K display, a TDR occurs after the in-game
resolution is toggled and the application is exited. [200116725]
 [SLI, Batman: Arkham Knights] Heavy flickering occurs in game after Alt+Tab if SLI is
enabled. [200116723]
 [SLI, Batman: Arkham Knights] Severe stuttering seen, especially in indoor scenes,
when the game is running at 4K resolution and NVIDIA Gameworks settings are
turned on. [200116722]
 [SLI, Batman: Arkham Knights] Random flickering occurs in the game if SLI is
enabled. [200116717]
 [GM206, SLI, Batman: Arkham Knights] Stuttering occurs and performance drops
after shadow quality settings are toggled. [200116694]
 [GK180, SLI, Batman: Arkham Knights] When SLI is enabled, a crash points to
ntdll.dll shortly after the game is exited. [200116717]

http://www.neogaf.com/forum/showthread.php?t=1068628&page=7

Så bra funkar det o köra sli för 20k +..
Ne men seriöst vem bryr sig vilket som presterar bäst? Inte direkt många som köper kort för 4000kr och uppåt.
Ibland presterar nvidia bättre, ibland amd. Köp det som passar din plånbok o va glad.
Det enda som skiljer är att amd i princip alltid ger mer prestanda för pengarna.

Permalänk
Medlem
Skrivet av Jonathanknet:

Jag är övertygad om att nvidia inte har problem med drivrutiner, det är bara amd som har det.
wtf...

From Nvidia drivers notes. Is better have off Sli for the moment.

Windows 8.1 Issues

 [SLI, Batman: Arkham Knights] With a 4K display, a TDR occurs after the in-game
resolution is toggled and the application is exited. [200116725]
 [SLI, Batman: Arkham Knights] Heavy flickering occurs in game after Alt+Tab if SLI is
enabled. [200116723]
 [SLI, Batman: Arkham Knights] Severe stuttering seen, especially in indoor scenes,
when the game is running at 4K resolution and NVIDIA Gameworks settings are
turned on. [200116722]
 [SLI, Batman: Arkham Knights] Random flickering occurs in the game if SLI is
enabled. [200116717]
 [GM206, SLI, Batman: Arkham Knights] Stuttering occurs and performance drops
after shadow quality settings are toggled. [200116694]
 [GK180, SLI, Batman: Arkham Knights] When SLI is enabled, a crash points to
ntdll.dll shortly after the game is exited. [200116717]

http://www.neogaf.com/forum/showthread.php?t=1068628&page=7

Så bra funkar det o köra sli för 20k +..
Ne men seriöst vem bryr sig vilket som presterar bäst? Inte direkt många som köper kort för 4000kr och uppåt.
Ibland presterar nvidia bättre, ibland amd. Köp det som passar din plånbok o va glad.
Det enda som skiljer är att amd i princip alltid ger mer prestanda för pengarna.

SLI och CFX är bedrövligt att använda, aldrig att jag går tillbaka till SLI/CFX efter flera år med fippel och strul. Jag börjar bli gammal nu, jag orkar inte! Med en gpu tycker jag det är hugget som stucket mellan Nvidia och AMD, det enda jag inte gillar med AMDs drivrutiner är att det tar så fruktansvärt långt tid mellan skarpa släpp av Catalyst.

Visa signatur

Louqe Ghost S1 + L TopHat | ASRock Phantom Gaming ITX | Intel Core i9-9900K | Corsair Vengeance LPX 32GB | Gigabyte GeForce RTX 2080 Ti 11GB | Corsair SF750 Platinum | Samsung 970 EVO Plus 500GB | Intel 660P 2TB | Custom Vattenkylning CPU/GPU | Windows 11 Pro x64

Permalänk
Avstängd
Skrivet av Kvickstick:

SLI och CFX är bedrövligt att använda, aldrig att jag går tillbaka till SLI/CFX efter flera år med fippel och strul. Jag börjar bli gammal nu, jag orkar inte! Med en gpu tycker jag det är hygget som stycket mellan Nvidia och AMD, det enda jag inte gillar med AMDs drivrutiner är att det tar så fruktansvärt långt tid mellan skarpa släpp av Catalyst.

Kan ju säga att stuttering är ganska hemskt emellanåt även med mitt single GTX 970 i Batman Arkham Knight bland annat.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Swedish Berserk:

AMD till skillnad från Nvidia säger innan grafikkortet är släppt att det kommer vara spärrat så med andra ord vet alla innan vad som gäller och vill man kunna överklocka får man kolla efter något annat. AMD försöker därmed inte smyga in förändringar i drivrutiner eller undanhålla hur kortet kommer att fungera vilket jag tycker är väldigt bra gjort speciellt mot konsumenterna som kan tänkas köpa det.

Fast Nvidia har inte släppt något grafikkort som blockerade överklockning, de blockerade det i en drivrutin som förvisso var avsiktlig men som de sedan drog tillbaka. Eller finns det något annat fall som jag inte känner till?

Sen när är överklockning onödigt? Om någon lyckas överklocka sin frys här så får de 5 stjärnor i galleriet. Givetvis ska överklockning vara tillgängligt.

En annan intressant aspekt är attityden mot de som kritiserar AMD för detta. De får tillbaka en hög med hästskit för att de är Nvidia fanboys. Men kritiken mot Nvidia är inte nådig i denna tråden.

Låt mig lyfta ut några citat i löpande ordning

"först 3.5GB och nu detta."

"Nvidia är galna."

"Vad i... Verkar som Nvidia försöker bli hårdvaruvärldens Ubisoft."

"Detta vinner dom kunder på ju... NOT!"

"Försöker Nvidia kopiera EA?"

"Vad håller de på med? Käkat svamp?"

.......... Det pågår någon illusion om att Nvidia målas upp som gudar medan AMD kastas till råttorna hela tiden.

Edit: Oj glömde!!! Du har ju kommenterat Nvidia också!!!!

"Varför ens stänga av en sådan här sak? Finns verkligen ingen mening med det." - Swedish Berserk, 2015-02-12 18:12

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av Tumnus:

Kan ju säga att stuttering är ganska hemskt emellanåt även med mitt single GTX 970 i Batman Arkham Knight bland annat.

Finns fan inget värre än strul med drivare... Inget jag märkt av på mitt Titan X eller frugans 980. Jag har ett 970 i htpcn som jag inte testat på än.

Skickades från m.sweclockers.com

Visa signatur

Louqe Ghost S1 + L TopHat | ASRock Phantom Gaming ITX | Intel Core i9-9900K | Corsair Vengeance LPX 32GB | Gigabyte GeForce RTX 2080 Ti 11GB | Corsair SF750 Platinum | Samsung 970 EVO Plus 500GB | Intel 660P 2TB | Custom Vattenkylning CPU/GPU | Windows 11 Pro x64

Permalänk
Inaktiv
Skrivet av FredrikMH:

Fast Nvidia har inte släppt något grafikkort som blockerade överklockning, de blockerade det i en drivrutin som förvisso var avsiktlig men som de sedan drog tillbaka. Eller finns det något annat fall som jag inte känner till?

Sen när är överklockning onödigt? Om någon lyckas överklocka sin frys här så får de 5 stjärnor i galleriet. Givetvis ska överklockning vara tillgängligt.

En annan intressant aspekt är attityden mot de som kritiserar AMD för detta. De får tillbaka en hög med hästskit för att de är Nvidia fanboys. Men kritiken mot Nvidia är inte nådig i denna tråden.

Låt mig lyfta ut några citat i löpande ordning

"först 3.5GB och nu detta."

"Nvidia är galna."

"Vad i... Verkar som Nvidia försöker bli hårdvaruvärldens Ubisoft."

"Detta vinner dom kunder på ju... NOT!"

"Försöker Nvidia kopiera EA?"

"Vad håller de på med? Käkat svamp?"

.......... Det pågår någon illusion om att Nvidia målas upp som gudar medan AMD kastas till råttorna hela tiden.

Edit: Oj glömde!!! Du har ju kommenterat Nvidia också!!!!

"Varför ens stänga av en sådan här sak? Finns verkligen ingen mening med det." - Swedish Berserk, 2015-02-12 18:12

Nu är de olika situationerna väldigt olika. Lösningarna mobila Geforce använder är gammal och beprövad. Så gott som alla risker är kända. Låset dyker upp med tiden och var inte med från början. Sedan har det återkommit och försvunnit en gång till sedan dess.

HBM som Fury använder är ny teknik där man högst troligen ännu inte vet hur komponenterna håller över tid, speciellt när man går över officiella frekvenser. Då minnet är stackat kommer temperaturer och förmodligen elektriskt läckage att påverka annorlunda mot exempelvis GDDR5.

Nu är inte överklockning av minnet hårdvarulåst utan mjukvarulås och kommer att gå att kringgå. Jag uppfattar låset som ett sätt att skydda produkten inledningsvis, antingen pga osäkerhet vad som händer vid OC eller för att minska användarfel och RMA. Vi borde veta snart nog troligen.

Som tidigare sagts i tråden, minnes OC på ett HBM-kort är inte speciellt relevant. Mer så med GDDR5-kort men även där är det GPU-OC som ger prestanda.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av FredrikMH:

Fast Nvidia har inte släppt något grafikkort som blockerade överklockning, de blockerade det i en drivrutin som förvisso var avsiktlig men som de sedan drog tillbaka. Eller finns det något annat fall som jag inte känner till?

Sen när är överklockning onödigt? Om någon lyckas överklocka sin frys här så får de 5 stjärnor i galleriet. Givetvis ska överklockning vara tillgängligt.

En annan intressant aspekt är attityden mot de som kritiserar AMD för detta. De får tillbaka en hög med hästskit för att de är Nvidia fanboys. Men kritiken mot Nvidia är inte nådig i denna tråden.

Låt mig lyfta ut några citat i löpande ordning

"först 3.5GB och nu detta."

"Nvidia är galna."

"Vad i... Verkar som Nvidia försöker bli hårdvaruvärldens Ubisoft."

"Detta vinner dom kunder på ju... NOT!"

"Försöker Nvidia kopiera EA?"

"Vad håller de på med? Käkat svamp?"

.......... Det pågår någon illusion om att Nvidia målas upp som gudar medan AMD kastas till råttorna hela tiden.

Edit: Oj glömde!!! Du har ju kommenterat Nvidia också!!!!

"Varför ens stänga av en sådan här sak? Finns verkligen ingen mening med det." - Swedish Berserk, 2015-02-12 18:12

Håller med i båda fallen att det är tråkigt med låsningar:/
Sedan förstår jag inte riktigt vad du vill komma med resten av inlägget. Detta är ju också en begränsning i drivrutinen och dessutom så är ju inte detta en total låsning av oc. Här kan du klocka gpun och få prestanda medan nvidia blockade allt.

Du kan ju saxa skitinlägg från vilken amd/nvidia-tråd du än kollar i...

Skickades från m.sweclockers.com

Visa signatur

Define R3 | Asrock P67 PRO3 Rev B3 | I5 2500K@4,5GHz | Xigmatek Gaia | Corsair Vengeance LP 8GB 1866MHz | EVGA GTX 970 SSC | XFX core edt. 550W| Intel 320 120GB, Crucial MX100 256GB, WD caviar black 750GB

Permalänk
Medlem
Skrivet av anon5930:

Nu är de olika situationerna väldigt olika. Lösningarna mobila Geforce använder är gammal och beprövad. Så gott som alla risker är kända. Låset dyker upp med tiden och var inte med från början. Sedan har det återkommit och försvunnit en gång till sedan dess.

Överklockning har ALLTID varit en stor påfrestning på komponenterna och vet man inte vad man sysslar med kan man absolut förstöra dem. Så jag tycker det är exakt samma sak. Man överklockar på egen risk och med full medvetenhet om att garanter slutar gälla.

Ja Nvidias lås kom tillbaka men den andra gången var knappast medvetet utan med största sannolikhet ett misstag.

Vill man få ut mer FPS i spel så behöver man inte röra minnet alls på Fury, men det kan väl användarna själv få komma fram till. Dessutom kanske det finns scenarion där man hade kunnat gynnas av mer minnesbandbredd (inte i spel då).

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av Heinel:

Håller med i båda fallen att det är tråkigt med låsningar:/
Sedan förstår jag inte riktigt vad du vill komma med resten av inlägget. Detta är ju också en begränsning i drivrutinen och dessutom så är ju inte detta en total låsning av oc. Här kan du klocka gpun och få prestanda medan nvidia blockade allt.

Du kan ju saxa skitinlägg från vilken amd/nvidia-tråd du än kollar i...

Ja det finns uppenbarligen ett block cheerleaders för båda lagen. Men attityden och debattnivån skiljer sig avsevärt i Nvidia vs. AMD trådar nu. Det irriterar mig likt en e-noobie som går igång på vad trollen skriver. Jag kan inte hjälpa att det känns som man kommit in i någon religiös sekt där frälsaren AMD inte ska ifrågasättas medan djävulen Nvidia får man inte tala gott om.

Kolla t.ex. mängden likes på de negativa kommentarerna om Nvidia och jämför med de negativa om AMD här. Jag tycker det är exakt samma sak det handlar om men debattklimatet skiljer sig så enormt. Det är ett hyckleri i så fall. Och jag hatar hyckleri för det går inte att bygga någon seriös debatt på det.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Inaktiv
Skrivet av FredrikMH:

Överklockning har ALLTID varit en stor påfrestning på komponenterna och vet man inte vad man sysslar med kan man absolut förstöra dem. Så jag tycker det är exakt samma sak. Man överklockar på egen risk och med full medvetenhet om att garanter slutar gälla.

Ja Nvidias lås kom tillbaka men den andra gången var knappast medvetet utan med största sannolikhet ett misstag.

Vill man få ut mer FPS i spel så behöver man inte röra minnet alls på Fury, men det kan väl användarna själv få komma fram till. Dessutom kanske det finns scenarion där man hade kunnat gynnas av mer minnesbandbredd (inte i spel då).

Nej, jag håller inte med. Det är skillnad på beprövad teknik och ny teknik som inte har testats. GDDR5 är riktigt gammal i dagsläget medans HBM är helt ny och första gången den används på ett grafikkort.

Som jag och flera andra skrivit i tråden redan så kommer det gå runt på egen risk. Flasha firmware eller kanske via inställningar i Afterburner eller (dolt) i CCC.

Principiellt håller jag med de som tycker att det borde vara möjligt att överklocka och det lär det även gå med Fury-kort framöver. Hade HBM öht inte gått att klocka så hade minnet troligen varit hårdvarulåst redan från början. Jag räknar dessutom med att HBM2 borde kunna vara olåst från början. När den versionen är aktuell bör man veta mer om hur minnet fungerar i fler scenarion samt över tid.

Skickades från m.sweclockers.com

Permalänk
Skrivet av FredrikMH:

Fast Nvidia har inte släppt något grafikkort som blockerade överklockning, de blockerade det i en drivrutin som förvisso var avsiktlig men som de sedan drog tillbaka. Eller finns det något annat fall som jag inte känner till?

Sen när är överklockning onödigt? Om någon lyckas överklocka sin frys här så får de 5 stjärnor i galleriet. Givetvis ska överklockning vara tillgängligt.

En annan intressant aspekt är attityden mot de som kritiserar AMD för detta. De får tillbaka en hög med hästskit för att de är Nvidia fanboys. Men kritiken mot Nvidia är inte nådig i denna tråden.

Låt mig lyfta ut några citat i löpande ordning

"först 3.5GB och nu detta."

"Nvidia är galna."

"Vad i... Verkar som Nvidia försöker bli hårdvaruvärldens Ubisoft."

"Detta vinner dom kunder på ju... NOT!"

"Försöker Nvidia kopiera EA?"

"Vad håller de på med? Käkat svamp?"

.......... Det pågår någon illusion om att Nvidia målas upp som gudar medan AMD kastas till råttorna hela tiden.

Edit: Oj glömde!!! Du har ju kommenterat Nvidia också!!!!

"Varför ens stänga av en sådan här sak? Finns verkligen ingen mening med det." - Swedish Berserk, 2015-02-12 18:12

Jaha och vart vill du komma med detta?

Jag har väldig svårt att tro att AMD stänger av detta utan anledning. Vem vet hur HBM minnena hanterar överklockning? Att bara som dig gå in och säga att det är för dåligt utan att veta något om hur HBM minnena klarar av överklockning är mer som ett försök att dra ner AMD innan man faktiskt vet hur det ligger till.

Vad var så fel med min tidigare kommentar som du citerade? Jag sa som det var att det Nvidia gjorde känns otroligt korkat och det var det också därför dom ändrade det.

Om du tycker att mina inlägg är för starka så får det stå för dig. Jag går inte in i varenda tråd om Nvidia och skriver skit om dom tvärtom. Om sen Nvidia gör något tveksamt som att låsa överklockning utan att berätta om detta så är det klart att man skriver vad man tycker då.

EDIT: Jag tar bort lite av mitt inlägg. Känns inte lönt att dra igång något här som gör att tråden tappar ämnet helt.

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Hedersmedlem

*** tråd modererad ***

Jag har raderat några inlägg som gick över gränsen och inte tillförde något till diskussionen. Se forumreglerna under § 1.

/KimTjik

Permalänk
Medlem
Skrivet av anon5930:

Även om jag tycker det är trist med vad som förhoppningsvis bara är ett mjukvarulås så är det som flera redan nämnt något av ett icke-problem. Värre om även GPU varit låst.

HDMI 2.0 är möjligen ett värrre problem men även där är det ett icke-problem för de flesta. Adaptrar kommer och köper man ny UHD skärm/TV så skulle iallafall jag kolla lite noggrannare på ingångar och dessutom välja en modell som har DisplayPort.

Skickades från m.sweclockers.com

Har man en receiver som man använder som medianav så hjälper det inte så mycket om skärmen har Displayport. Tvivlar på att det kommer att finnas receiverar som har DisplayPort.

Permalänk
Entusiast
Skrivet av philipborg:

Aah, det förklarar det. Trodde det var AMD/partnertillverkare som tillverkade kontaktdonen men om det är MOLEX (trodde dem bara gjorde MOLEX kontakter ) som tillverkar dem så förstår jag vad du menar. Känns däremot som AMD och Molex har bättre sammarbete än att AMD bara gissar att dem klarar det, snarare att Molex garanterar det privat.

Verkar däremot finnas bra mycket mer än 13A.
http://www.molex.com/molex/products/family?key=megafit_power_...
Vet däremot verkligen inte om det är "vanlig" pci ström anslutning eller om det är en större variant. Ser ut som en vanlig iaf.

Molex är en tillverkare av kontaktdon. De har hundratals modeller i sitt sortiment. De har bland annat versioner av de vanliga kontakterna som används i datorer, eller rättare sagt, de vanliga kontakterna i datorer är i mångt och mycket generella kontakter som de valt att använda. Den klassiska molex-kontakten (4-pin) finns bara den i massa utföranden med olika antal pinnar.

Ja det finns fall då du klarar mer men du får läsa i databladet när det gäller. 23 A kräver betydligt tjockare kablage än vad som är standard i datorer. För kabeltjockleken man hittar i en dator och med ström på alla pinnar så klarar den mycket riktigt 13 A eller 11 A beroende på konfiguration.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Inaktiv
Skrivet av MarkSix:

Har man en receiver som man använder som medianav så hjälper det inte så mycket om skärmen har Displayport. Tvivlar på att det kommer att finnas receiverar som har DisplayPort.

Om man nu har det behovet får man väl se till att köpa prylar avsedda för ändamålet samtidigt.

Permalänk
Medlem
Skrivet av Swedish Berserk:

Jaha och vart vill du komma med detta?

Jag har väldig svårt att tro att AMD stänger av detta utan anledning. Vem vet hur HBM minnena hanterar överklockning? Att bara som dig gå in och säga att det är för dåligt utan att veta något om hur HBM minnena klarar av överklockning är mer som ett försök att dra ner AMD innan man faktiskt vet hur det ligger till.

Det var ju inte utan anledning Nvidia ville stänga av det heller. Många bärbara datorer går redan på bristgränsen när det kommer till värmeutveckling. HBM går kanske inte att klocka alls högre och därför har de låst det, men det finns säkerligen samma scenarion för bärbara datorer.

Det enda tänkbara scenariot jag kan se är att en överklockning kan skada minnet och i Furys fall även GPU:n eftersom det sitter ihop. Vad skiljer det från övrig överklockning? Eller finns där risker jag inte känner till? Börjar vattnet koka, vilket skapar ett övertryck och exploderar?

Bärbara datorer har dessutom dokumenterade fall med bränder och personskador när man suttit med dem i knäet eller på ett sätt där luftflödet försämras. Det borde väl vara ännu starkare argument för Nvidias fördel.

Jag är emot båda fallen men jag tycker det är konstigt att vissa tycker att Nvidia gjorde bort sig rejält medan samma personer tycker det är bra här. För mig är det väldigt svårt att förstå.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Skrivet av Alling:

Otroligt långt ifrån onödigt med AA i 1440p @ 27 tum.

Jag har 1440p 27" och har aldrig kommit över 3500 meg. AA i den upplösningen är i princip onödig. Möjligen 2AA, men mer blurrar bara ut allt och skärpan minskar.

Visa signatur

Burk: Asus Maximus XI z390, i7 9900ks @5100mhz, cache 4800mhz, Corsair Platinum ddr4 3600mhz @4400mhz quad 16gig (18-22-22-44 2t), 1st Asus Strix 1080ti + EK @2070/12000mhz, Samsung 840 pro 240 gig x2 raid0, 1 tb 2.5" WD Red, Skärm: Acer x34p, TJ07 custom water, Ljud: HiFiman X v2 + EONE MK2 Muses

Permalänk
99:e percentilen
Skrivet av Bad Habit:

Jag har 1440p 27" och har aldrig kommit över 3500 meg. AA i den upplösningen är i princip onödig. Möjligen 2AA, men mer blurrar bara ut allt och skärpan minskar.

Om du använder FXAA så blir det onekligen otrevligt suddigt. Men det borde inte få kallas AA (och är heller inte minneshungrigt). Jag pratar förstås om MSAA, som man till varje pris vill kunna använda i 2560x1440 @ 27″ (som jag också kör). MSAA gör inte bilden suddigare (sett till vad man vill att den ska föreställa), utan tillåter mer verklighetstrogen representation av en oändligt högupplöst bild på en ändligt högupplöst skärm.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av philipborg:

Borde däremot inte 295x2's 8pin hona vara speccad för minst 28AMP eftersom det är vad de rekommenderar? Även om PCI-E standarden säger 13A så speccar fortfarande AMD högre?

Zotamedu kan sin sak!
Vore dårskap att köra 28A genom en kontakt specad för 13A, det är då man ser magisk rök
13A är förresten 156W vid 12V, så där är endast en marginal på 6W. Men det är klart man kan alltid gå lite över då det räknas med en säkerhetsmarginal, hur stor den är märker man alltid
8pin + 8pin + PCI-e
150W+150W+75W=375W
12.5A + 12.5A + 6.25A =31.25A
Allt över ökar värmen i kontaktpunkterna som då får en ökad resistans, vilket ger ännu högre värme o.s.v.
Det räcker uppriktigt att man slarvar med isättningen av en 8pin kontakt så kan moderkortet övergå i magisk rök, detta då dom 150W som saknas blir fördelade över den återstående 150W och 75W.

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av tvelander:

Du tror inte max AA MSAA och sånt påverkar minnet?

Det jag sagt nu i 2 olika inlägg, tror du har missuppfattat mig.
Väljer jag bort Msaa/Fxaa så klarar jag mig på mina 4Gb.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem

Värt att kika på

Runt 35min pratar dom om Fury 4gb minne osv

Visa signatur

www.TWITCH.tv/WOLFBANE/
🗄️Corsair Carbide Air 540 🔲Ryzen 7 7800X3D 🏬Gigabyte X670 Gaming X AX 💾 M2 2TB Samsung 980 Pro 🎞️G.Skill Z5 Neo 64GB, 6000MHz, CL30🔌FD R2 1000W 📺GTX 1080 🖱️Mionix Naos 8200 ⌨️Ducky Shine 4 🎧Sennheiser 595 🎤EV RE20 🎤Shure SM7B 🎤AT 2035 🎤Blue Yeti 📹Logitech c922 c920, c910 +mer

Permalänk
Skrivet av FredrikMH:

Det var ju inte utan anledning Nvidia ville stänga av det heller. Många bärbara datorer går redan på bristgränsen när det kommer till värmeutveckling. HBM går kanske inte att klocka alls högre och därför har de låst det, men det finns säkerligen samma scenarion för bärbara datorer.

Det enda tänkbara scenariot jag kan se är att en överklockning kan skada minnet och i Furys fall även GPU:n eftersom det sitter ihop. Vad skiljer det från övrig överklockning? Eller finns där risker jag inte känner till? Börjar vattnet koka, vilket skapar ett övertryck och exploderar?

Bärbara datorer har dessutom dokumenterade fall med bränder och personskador när man suttit med dem i knäet eller på ett sätt där luftflödet försämras. Det borde väl vara ännu starkare argument för Nvidias fördel.

Jag är emot båda fallen men jag tycker det är konstigt att vissa tycker att Nvidia gjorde bort sig rejält medan samma personer tycker det är bra här. För mig är det väldigt svårt att förstå.

Är så att vissa laptop tillverkare tar med i reklamen att datorn kan klockas. Då är det fel att låsa klocken.

Deras kort till desktop har ju låst volt och då blir det ju inte lika lätt att få en bra klock. Amd`s kort har eller haft upplåst volt.

Man kan ju fortfarande klocka core på fiji, vist synd att minnet inte är upplåst. Men kommer garanterat att gå runt spärren så småningom, men nyttan kommer inte bli så stor.

Vist håller med att det är synd, men någon orsak måste det vara att just minnet är låst. Precis som nvidia tänkte göra på laptops.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Bengt-Arne:

Zotamedu kan sin sak!
Vore dårskap att köra 28A genom en kontakt specad för 13A, det är då man ser magisk rök
13A är förresten 156W vid 12V, så där är endast en marginal på 6W. Men det är klart man kan alltid gå lite över då det räknas med en säkerhetsmarginal, hur stor den är märker man alltid
8pin + 8pin + PCI-e
150W+150W+75W=375W
12.5A + 12.5A + 6.25A =31.25A
Allt över ökar värmen i kontaktpunkterna som då får en ökad resistans, vilket ger ännu högre värme o.s.v.
Det räcker uppriktigt att man slarvar med isättningen av en 8pin kontakt så kan moderkortet övergå i magisk rök, detta då dom 150W som saknas blir fördelade över den återstående 150W och 75W.

Anledningen till att jag frågar frågor är att jag vill lära mig, säger inte att @Zotamedu har fel Kanske blev som det står i min signatur.
Sedan så tror jag du missförstog vad jag sa lite, undrade vad 295x2's kontaktdons hona var speccad för, inte kabeln mellan PSU och GPU. Sedan så finns det många nätaggregat och GPU's som är designade att både kunna konsumera och leverera bra mycket mer än 375w. Ett exempel är 295x2 som i stock kan dra över 500w utan problem över 2x8pin+MB. Det jag undrade var hur dem löste det. Läs gärna min och @Zotamedu 's konversation som fortsatt efter det.

Skrivet av Zotamedu:

Molex är en tillverkare av kontaktdon. De har hundratals modeller i sitt sortiment. De har bland annat versioner av de vanliga kontakterna som används i datorer, eller rättare sagt, de vanliga kontakterna i datorer är i mångt och mycket generella kontakter som de valt att använda. Den klassiska molex-kontakten (4-pin) finns bara den i massa utföranden med olika antal pinnar.

Ja det finns fall då du klarar mer men du får läsa i databladet när det gäller. 23 A kräver betydligt tjockare kablage än vad som är standard i datorer. För kabeltjockleken man hittar i en dator och med ström på alla pinnar så klarar den mycket riktigt 13 A eller 11 A beroende på konfiguration.

Så finns det en möjlighet att AMD har för 295x2 valt ut kontaktdon som är utanför deras "standard" sortiment som är byggda för att klara mer A trots att det är samma pin uppsättning och därav kompatibel med deras standard anslutningar? Förstår att det kräver tjockare/bättre anslutning till PSU för över dubbla A, är bara nyfiken på hur du tror AMD har löst 295x2 och dess kontaktdon. För du sa först att dem bara kör 13A kontaktdon och antar att det fungerar men om det finns högre specificerade kontaktdon med samma pin uppsättning så känns det rimligare att det är någon "fetare" variant utav standard kontaktdonet.
Jag är inte säker på vad du menar i första text stycket, menar du att dem anslutningarna som finns i en dator är industri-standard och kan finnas i andra maskiner? Känns då ännu rimligare att AMD tagit en sådan industri kontaktdon och slängt på det om det är högre specificerat och kompitabelt även om det är utanför standarden.
Kör man inte två separata kablar för varje 8pin på 295x2 finns det överhettningsrisk, vet mycket väl att det krävs rejält kablage för 295x2.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Entusiast
Skrivet av philipborg:

Anledningen till att jag frågar frågor är att jag vill lära mig, säger inte att @Zotamedu har fel Kanske blev som det står i min signatur.
Sedan så tror jag du missförstog vad jag sa lite, undrade vad 295x2's kontaktdons hona var speccad för, inte kabeln mellan PSU och GPU. Sedan så finns det många nätaggregat och GPU's som är designade att både kunna konsumera och leverera bra mycket mer än 375w. Ett exempel är 295x2 som i stock kan dra över 500w utan problem över 2x8pin+MB. Det jag undrade var hur dem löste det. Läs gärna min och @Zotamedu 's konversation som fortsatt efter det.
Så finns det en möjlighet att AMD har för 295x2 valt ut kontaktdon som är utanför deras "standard" sortiment som är byggda för att klara mer A trots att det är samma pin uppsättning och därav kompatibel med deras standard anslutningar? Förstår att det kräver tjockare/bättre anslutning till PSU för över dubbla A, är bara nyfiken på hur du tror AMD har löst 295x2 och dess kontaktdon. För du sa först att dem bara kör 13A kontaktdon och antar att det fungerar men om det finns högre specificerade kontaktdon med samma pin uppsättning så känns det rimligare att det är någon "fetare" variant utav standard kontaktdonet.
Jag är inte säker på vad du menar i första text stycket, menar du att dem anslutningarna som finns i en dator är industri-standard och kan finnas i andra maskiner? Känns då ännu rimligare att AMD tagit en sådan industri kontaktdon och slängt på det om det är högre specificerat och kompitabelt även om det är utanför standarden.
Kör man inte två separata kablar för varje 8pin på 295x2 finns det överhettningsrisk, vet mycket väl att det krävs rejält kablage för 295x2.

Det spelar ingen roll om AMD har extra kraftig hona på grafikkortet. Än en gång, specen gäller för båda kontakterna. Det finns en hona och en hane och båda är specade för 13 A. Hanen blir inte automatiskt högre specad för att honan blir det. Jag skulle gissa på att AMD räknar med att specarna är väldigt snålt skrivna och att kylningen i en dator är generös. Som vi tidigare konstaterat så klarar kontakterna högre ström om man har grövre kablar men hur mycket ström en kabel klarar beror också på kylningen. Hela kedjan ska klara en viss ström. Nätagget måste klara av att leverera en viss ström. Kabeln måste klara av att leda den, kontakterna ska klara av den och grafikkortet ska klara av att kyla den. Alla delar är lika viktiga. Det räcker inte med att en klarar det, alla måste göra det.

Angående effektgränsen för PCIe så är som sagt redan ett kort med 2x8-pin utanför specen. Den där magiska gränsen på 300 W verkar för övrigt vara mer relaterad till kylning än strömförsörjning. Där någonstans går gränsen för vad som är realistiskt att kyla om man håller sig inom gränserna för standarderna från PCI-SIG. Det ryktas om att PCIe 4.0 ska få lite mer generösa gränser. Får se hur det blir.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24