Vad har hänt med klockning av grafikminnet.

Permalänk
Hjälpsam

Vad har hänt med klockning av grafikminnet.

Ursäkta min okunnighet.

För några år sedan förändrades ju hur man skulle klocka ett grafikkorts minne.
Orsaken var att det införts en felkorrigering av som dålde artifakter även när dessa klockats för hårt.
Även om artifakterna doldes sjönk prestanda pga att felkorrigeringen kickade in hela tiden, dessutom låg man farligt högt med klockningen och riskerade att förstöra minnena på lite sikt.

Metoden för att klocka minnet var att höja klockan gradvis, bencha, och om prestanda sjönk eller var oförändrat, sänka klockan igen.
Men i varenda tråd jag ser nu, verkar folk här klocka glatt ända tills de får artifakter, ingen verkar reagera över detta och varna för sänkt prestanda och/eller brickade minnen.

Har något hänt som jag missat? jag har svårt att tro att okunnigheten är så stor som den verkar vara i mina ögon.
edit Jag vill inte verka dryg, jag undrar bara om det hänt något jag missat.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hedersmedlem
Skrivet av Ratatosk:

Ursäkta min okunnighet.

För några år sedan förändrades ju hur man skulle klocka ett grafikkorts minne.
Orsaken var att det införts en felkorrigering av som dålde artifakter även när dessa klockats för hårt.
Även om artifakterna doldes sjönk prestanda pga att felkorrigeringen kickade in hela tiden, dessutom låg man farligt högt med klockningen och riskerade att förstöra minnena på lite sikt.

Metoden för att klocka minnet var att höja klockan gradvis, bencha, och om prestanda sjönk eller var oförändrat, sänka klockan igen.
Men i varenda tråd jag ser nu, verkar folk här klocka glatt ända tills de får artifakter, ingen verkar reagera över detta och varna för sänkt prestanda och/eller brickade minnen.

Har något hänt som jag missat? jag har svårt att tro att okunnigheten är så stor som den verkar vara i mina ögon.
edit Jag vill inte verka dryg, jag undrar bara om det hänt något jag missat.

Ja det är nog så att en del inte vill se eventuella fel/artefakter så de sätter skygglappar på ögonen och låtsas som ingenting. En del andra vet antagligen inte om vart felet ligger och sedan när felet blir till brickat minne så skylls det på allt annat än ens eget fel.

Visa signatur

Stalin var så gammal att de fick Len´in. ;)

Permalänk
Medlem
Skrivet av Ratatosk:

Ursäkta min okunnighet.

För några år sedan förändrades ju hur man skulle klocka ett grafikkorts minne.
Orsaken var att det införts en felkorrigering av som dålde artifakter även när dessa klockats för hårt.
Även om artifakterna doldes sjönk prestanda pga att felkorrigeringen kickade in hela tiden, dessutom låg man farligt högt med klockningen och riskerade att förstöra minnena på lite sikt.

Metoden för att klocka minnet var att höja klockan gradvis, bencha, och om prestanda sjönk eller var oförändrat, sänka klockan igen.
Men i varenda tråd jag ser nu, verkar folk här klocka glatt ända tills de får artifakter, ingen verkar reagera över detta och varna för sänkt prestanda och/eller brickade minnen.

Har något hänt som jag missat? jag har svårt att tro att okunnigheten är så stor som den verkar vara i mina ögon.
edit Jag vill inte verka dryg, jag undrar bara om det hänt något jag missat.

Skulle du kunna förklara mer vad du menar med felkorrigering?
Jag vet inte hur det är var förr eftersom jag började ganska nydligen med att klocka, men idag ses artifakter som ett bevis på ostabil klock. Det brukar oftast hända i samband med att drivrutinerna återställer sig, och på så sätt skydda grafikkortet. Jag själv får väldigt sällan artifakter när jag klockar, och ifall jag får det så är inte återställningen av drivrutinen långt efter.

Jag googlade lite snabbt om att bricka ett grafikkort, och det vanligaste verkar vara att nissen bakom tangentbordet har flashat fel bios till grafikkortet.

Obs: Som jag sa, lekmans åsikt baserat på internet åsikter. Har jag fel, har jag fel

Visa signatur

Node 804 | CPU: i7 4770k | RAM: Corsair vengeance LP 16gb | GPU: MSI GTX 780 SLi | MB: ROG Maximus VII Gene |
Node 304 | CPU: G3258 | RAM: HyperX 8gb | GPU: Nvidia GTX Asus 750Ti | MB: MSI Z97i-AC |

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av Ratatosk:

Ursäkta min okunnighet.

För några år sedan förändrades ju hur man skulle klocka ett grafikkorts minne.
Orsaken var att det införts en felkorrigering av som dålde artifakter även när dessa klockats för hårt.
Även om artifakterna doldes sjönk prestanda pga att felkorrigeringen kickade in hela tiden, dessutom låg man farligt högt med klockningen och riskerade att förstöra minnena på lite sikt.

Metoden för att klocka minnet var att höja klockan gradvis, bencha, och om prestanda sjönk eller var oförändrat, sänka klockan igen.
Men i varenda tråd jag ser nu, verkar folk här klocka glatt ända tills de får artifakter, ingen verkar reagera över detta och varna för sänkt prestanda och/eller brickade minnen.

Har något hänt som jag missat? jag har svårt att tro att okunnigheten är så stor som den verkar vara i mina ögon.
edit Jag vill inte verka dryg, jag undrar bara om det hänt något jag missat.

Du har helt rätt i att man alltid ska bencha och titta på prestandan. Sjunker den om man fortsätter öka så får man inte en bättre överklock såklart.

Dock är jag intresserad av "fel korrigeringarna" inget jag har stött på i konsument kort som jag har sett så där.
Alla dyrare workbench-kort har ju ECC GDDR5 minne men det finns inte i konsument varianterna, bland annat varför arbetskorten är dyrare tillsammans med valideringen och drivrutinerna som behövs.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Hjälpsam

Står mer om detta här.
https://www.google.se/?gws_rd=ssl#q=graphic%20card%20memory%2...

Från Hardocp

Citat:

Overclocking the AMD Radeon HD 7970 GHz Edition
The actual overclocking procedure involved increasing the GPU clock speed until errors occurred, and then backing it down until the errors stopped. Overclocking the GDDR5 memory is a bit more complicated. GDDR5 has error detection and correction technology which actually adjusts the clock-rate down in order to stop errors from happening. To overclock the memory on this video card, we simply turned the clock rate until performance diminished, and then backed it back off slowly until performance stabilized.
Please remember that every video card is different and the overclocks we achieve here are not necessarily what you will be able to achieve.

http://www.hardocp.com/article/2012/06/21/amd_radeon_hd_7970_...

edit

Citat:

Step 6: Memory Trickery and Troubleshooting
In the previous step, I mentioned that memory overclocking can be a little tricky. The cause of this is that some (but not all!) cards use error correcting memory. What that means is the memory will know when there's an error, and it will keep re-running the operation until things are correct. Now, imagine this: you've overclocked your memory by 20%, and increase it by another 5%. You rerun the benchmark, and your score is lower than the previous attempt. What's happening is the memory is overclocked too high, and is having to redo more than 5% (or whatever your last increase was) of its operations, resulting in lower performance. So, even when you've found your max stable overclock, you should try reducing your memory clock. If performance increases when you reduce the memory clock, you know it's running too high, and should continue decreasing it until performance starts decreasing again (at which point it's decreasing because there are no errors and you're just running the memory slower).

http://forums.eidosgames.com/showthread.php?t=133511

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av DavidtheDoom:

Du har helt rätt i att man alltid ska bencha och titta på prestandan. Sjunker den om man fortsätter öka så får man inte en bättre överklock såklart.

Dock är jag intresserad av "fel korrigeringarna" inget jag har stött på i konsument kort som jag har sett så där.
Alla dyrare workbench-kort har ju ECC GDDR5 minne men det finns inte i konsument varianterna, bland annat varför arbetskorten är dyrare tillsammans med valideringen och drivrutinerna som behövs.

Du har nog rätt, här verkar man använda GDDR5 till att detektera fel, inte korrigera.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

Intressant jag måste testa fast jag får en hel del artefakter när jag går upp för högt i minnesfrekvens så det är troligen inte ecc-minne mitt gtx980.

Visa signatur

Bärbar: Dell G7 17-7790, i7-9750H, RTX2060, 144Hz ips
Mobil: Samsung Galaxy A71
Mediaspelare: Apple TV 4K 32GB

Permalänk
Inaktiv

Jag brukar strunta i att överklocka minnet nu för tiden. Det ger ändå inte i närheten av samma prestanda som att klocka kärnan. Plus risken för problem som beskrivits ovan.