FAQ: Överklockning av grafikkort

Permalänk

FAQ: Överklockning av grafikkort

Innehållsförteckning
1 Först måste vi förstå det vi gör innan vi gör det
1.1 Förord
1.2 Inledning
1.3 GPU
1.4 GPU voltage
1.4.1 Effekt, effektförluster och värme
1.5 Grafikminne
1.6 BIOS
2 Överklockningen, äntligen!
2.1 Mera förberedelser
2.2 Nvidia
2.3 ATI
2.4 Vad som kan gå fel går fel
3 Slutord
4 Önskemål från andnewman till er andra

[B]Först måste vi förstå det vi gör innan vi gör det[/b]
Friskrivning
Guiden är för att du ska få en uppfattning om vad du kan göra, vad som är möjligt och för att få en inblick i hur grafikkort fungerar. Ingen annan än du själv är ansvarig för det du gör! Jag (andnewman) och Sweclockers med dess admins, moderatörer samt dess användare användare tar inget som helst ansvar för vad som händer med din hårdvara (grafikkort eller övriga datorn) när du följer guiden, ej heller om du avviker från den.

Att göra några modifieringar över huvudtaget på hårdvaran, om så minimal ändring av klockfrekvensen genom mjukvara är en risk, din dator kan gå sönder, inte bara grafkkortet. All modifiering genom mjukvara eller hårdvara räknas som onormalt användande, yttre åverkan eller oauktoriserat ingrepp av tillverkarna och förbrukar din garanti.

Är du inte beredd att ta risken så låt bli att klocka. Det är ingen annans fel än ditt eget om något går sönder, och därför kan ingen annan än du hållas ansvarig för resultatet.

Förord
Då ska jag göra ett försök till en guide på överklockning av grafikkort. Är väl egentligen fel person för detta speciellt eftersom jag inte har möjlighet att skriva från egen (lyckad) överklockning av grafikkort delvis för att jag inte äger de moderna kort jag har (och har inte fått tillstånd till att klocka dem) och för att när jag höll på så brann ett par kort upp samt att jag råkade förstöra någon kärna. Men har försökt att läsa på en del, och hoppas att någon har nytta av guiden, samt att ni kunniga på området rättar mig.

Guiden är inspirerad av yanagis guide till att överklocka processorn och minnena, tyckte att eftersom vi nu har klockat dem tills det ryker ock sprakar om datorn så kan ju grafikkoret också få tillföra lite action.

Inledning
I den här guiden kommer vi gå igenom överklockning av kort från både röda och gröna laget, genom att först hitta maximala stabila klock genom mjukvara och sedan spara dessa permanent till kortets BIOS.

Guiden innehåller inte någon information om hur mycket man kan överklocka ett kort eller något om vad man borde få ut av något specifikt kort. Det är lika individuellt som med processorer och annan hårdvara.

GPU
Graphics processing unit eller grafikprocessorn är den del av grafikkortet som utför alla grafiska beräkningar och ritar upp bilden på skärmen. Grafikprocessorn renderar med andra ord grafiken i spel och även i program som utnyttjar mera grafiskt krävande gränssnitt, exempelvis Vista Aero.

Den vanliga processorn, CPUn, klarar inte av grafik lika effektivt eftersom den bara har upp till 6 kärnor idag för vanliga konsumenter och dessa är gjorda för att klara av många olika typer av uppgifter.

Grafikprocessorn å andra sidan är mycket bra på parallella beräkningar som just grafik kräver eftersom de har massor med så kallade unified shaders (motsvarar mer eller mindre kärnorna i en CPU), idag har ATIs 5870 flest shaders på ett chip med 1600 stycken. Shadersers:erna är dessutom anpassade för just grafiska beräkningar vilket också gör dem sämre på generella uppgifter.

Men idag så klarar den även många grafikprocessorer mer generella uppgifter, exempelvis så använder vårat folding-lag ofta grafikkortet om de har något av de kort som har en GPGPU, general-purpose graphics processing unit eller generellt användbar grafikprocessor.

Dessa är fortfarande optimerade för grafik, men klarar av att utföra mer generella uppgifter också, som i F@H där man utnyttjar att GPGPUn klarar av parallellberäkningar och därför kan vika proteiner på ett mycket effektivt vis. Vill ni veta mer om F@H läs deras forum.

GPGPU utnyttjas även av Nvidia som låter användaren dedikera ett grafikkort till fysikberäkningar genom PhysX. DirectX 11 inehåller funktioner som låter alla kompatibla kort göra fysikberäkningar, inte bara Nvidias. Fortfarande så skulle en GPGPU inte klara av att köra Windows eller liknande eftersom den inte är nog generell, men tur är väl det, vi köper ju kortet för dess grafiska egenskaper i första hand ändå.

Nu när vi vet vad grafikprocessorn är och vad den gör så kan vi kolla närmare på det tekniska. I motsats till processorn så baserar man inte grafikprocessorns klockfrekvens på en systembuss, utan man klockar den separat mot minnet.

Dock ska nämnas att när man ändrar frekvensen sker detta inte i steg om 1MHz även om de flesta program låter dig ställa in det så, utan det sker i större steg som är individuella för varje serie av grafikprocessorer. Litegrann som när man klockar en processor genom att endast ändra multippeln.

Nvidia och ATI/AMD skiljer en del i hur du ställer in klockfrekvensen också; Nvidia har två klockor, en för unified shaders och en för resten av grafikprocessorn, ATI har å andra sidan bara en för hela grafikprocessorn. Vad som är bäst är upp till var och en att bedöma, man får sällan ut särskilt mycket mer med Nvidias lösning. Förhållandet mellan unified shaders och resten av grafikprocessorn ligger på runt 2,1 - 2,5, där shadern har högre frekvens.

Överklockning av grafikprocessorn sker också på ett lite annorlunda vis mot den vanliga processorn, mycket eftersom man inte kommer åt korters BIOS lika enkelt som moderkortets, och av den anledningen håller sig till att söka maximal frekvens genom programvara och sedan spara den till BIOS. Går något fel när det väl är sparat så kan man inte heller bara trycka på CMOS_CLR eller flytta en bygel med samma namn, utan man får hoppas man kan flasha om den igen, men mer om det när vi kommit dit i guiden.

GPU voltage
Nu har jag inte sett något gemensamt uttryck för spänningen till grafikprocessorn, för vanliga processorn kallas det för Vcore, gör enkelhetens skull kommer jag kalla den för Vgpu.

Notera skillnaderna:
Spänning = volt = det man matar komponenten med
Ström = ampere = det som komponenterna drar/förbrukar, utan spänning finns ingen ström
Effekt = spänningen gånger strömmen = i el så gäller detta, effekten på annan utrustning är annat

Samma som med processorn och alla andra komponenter i datorn så måste grafikprocessorn ha ström för att fungera. Den spänning grafikprocessorn får är antingen inställt i kortets BIOS eller hårdvaruinställt med hjälp av resistorer och liknande.

När man överklockar sitt kort så kommer man förr eller senare stöta på den gräns som grafikprocessorn klarar på standardvolten, det är mycket individuellt när du kommer dit, en grafikprocessor kanske klarar 10% på orginalvolt medans en annan av samma modell klarar 20% osv, så det är ingen idé att försöka ge något mer ingående råd.

Men varför inte övervolta, som det kallas, på en gång eller tills man når den frekvens man vill ha frågar du nu. För att förstå hur spänningen, och även effekten, påverkar grafikprocessorn, och annan elektronik, så måste man läsa lite djupare inom området elektronik och hur IC-kretsar fungerar. Men eftersom det blir väl mycket att köra hela Digitalteknik A här så tar vi det något förenklat och kortfattat.

Grafikprocessorn jobbar digitalt som resten av datorn, vilket innebär att den endast pratar ettor och nollor. Den är uppbyggd av olika logiska funktioner, som vi inte tar upp vad det är här mer än att det dessa som utför beräkningarna och funktionerna i alla processorer. Dessa brukar kallas för grindar, vilket är ett mycket bra namn speciellt nu när vi ska förklara hur spänningen påverkar grafikprocessorn.

En övergång från ett till noll i idealfallet går inte att se, utan sker absolut på en gång. Nu fungerar det inte så i praktiken av många olika skäl, men framför allt för att det finns en tröghet (orsakat av kapacitans som uppstår på grund av naturlagar) i transistorerna, som bygger upp grindarna, jämför med gångjärnen på en verklig grind eller dörr.

Grafikprocessorn vet om en grind är öppen (en etta) eller stängd (en nolla) genom att mäta spänningen på den, är den över gränsvärdet för en etta så är den öppen, är den under gränsvärdet för en nolla så är den stängd, är den mitt emellan så får man underliga och oförutsägbara resultat.

Orsaken till denna gråzon beror på olika tekniska anledningar men kortfattat så är materialen man använder inte helt förutsägbara, så man har valt gränsvärden som är säkra. Sen har man val gränsvärden som inte är orealistiska, om grafikprocessorn matas med (Vgpu är) 1,3 volt så kanske en nolla är 0.3volt medans en etta då kan vara 1,0volt, dessa tröskelvärden har man då för att försäkra att de spänningsfall som ändå blir inte orsakar felräkning, och för att inte måsta vänta på att nivån ska nå rätt värde, trögheten jag nämnde, så vi kan öka hastigheterna.

Dessa tröskelvärden är hårdkodade i själva konstruktionen och kan aldrig ändras, sen att göra det skulle bara innebära att man antingen hamnar i den farliga gråzonen eller att värdena blir orealistiskt hårda och orsakar i sin tur felräkningar.

För att inte orsaka missförstånd, även om en ökning av Vgpu ökar hastigheten som grindarna öppnas och stängs med ökar detta inte hastigheten på processorn per automatik, eftersom den håller den hastighet vi valt och kollar av grindarna så ofta som klockfrekvensen är.

Så nu vet vi att grinden öppnas och stängs. Hur pass stängd den blir bestäms av spänningen och även hur fort den öppnas och stängs, men vi accepterar ju nu att den inte blir helt öppen eller stängd, så då kan vi väl bara öka klockfrekvensen (kolla an grinden oftare)?

Eftersom grinden inte hinner komma till tröskelvärdet om vi ökar klockfrekvensen för mycket så måste vi öka kraften vi öppnar och stänger den med, Vgpu med andra ord, så den hinner med och vi slipper felräkningar.

Men ökar vi för mycket så kommer grinden sakta men säkert slås sönder, precis som när man smäller i en grind eller dörr, så därför klockar vi tills den börjar säga emot och ökar sedan. Men eftersom vi inte bara har ettor och nollor varannan gång så kommer övervoltning alltid att skada grafikprocessorn på lång sikt.

Det som händer är att när vi överklockar är att grinden inte hinner komma upp i 1,0 volt eller ner i 0,3 volt i det här exemplet innan grafikprocessorn läser av grinden. Vi hamnar i gråzonen där 0,9 volt på en grind är samma sak som öppen, men på en annan är samma sak som stängd, nu blir det riktiga problem och grafikprocessorn börjar räkna fel.

Att justera Vgpu är inte alltid så enkelt. En del kort kan man ändra genom BIOS eller genom programvaror, andra måste man in på hårdvaran, själva kortet, och modifiera. Eftersom voltmoddning av kortet, som det kallas när man börjar göra fysiska ingrepp för att justera Vgpu, är lite extremt och skiljer mellan olika kort hur man går till väga så tänker jag inte ta upp det här.

Vill du voltmodda så rekommenderar jag Google i första hand, och har du nu börjat fundera på voltmod är du nog redan nog extrem för att inte läsa denna guide annat än för att rätta mig eller döda tid.

[size="+1"]Effekt, effektförluster och värme[/size]
Du minns även att jag skrev om vad effekt är i börjar av förra kapitlet? Vi alla känner ju till att värme är skadligt för datorn, olika komponenter tål olika mycket värme. Varför blir grafikprocessorn varm då, och vad är gemensamt med Vgpu? Värme uppkommer av effektförluster i komponenten, effektförlusterna uppkommer av olika anledningar.

Några av dem är de resistorer (Resistor är enkelt förklarat en komponent som skapar den ett elektriskt motstånd, som bromsarna på en bil skapar ett motstånd till rörelsen frammåt eller bakåt. Resistorn omvandlar spänning till värme) som finns inbyggda i grafikprocessorn, trögheten i grindarna, spänningsfall i ledningsbanorna osv. Effektförlusterna blir större med ökad effekt.

Effekten ökar som nämnt med ökad spänning och/eller ökad ström. Strömmen ökar genom ökad värme på grund av naturlagar som påverkar delarna i processorn, exempelvis ökar resistansen i ledningsbanorna och även vissa typer av resistorer med ökad värme, vilket leder till än högre värmeutveckling.

Dock minskar kapacitans oftast med ökad värme, så trögheten i grindarna kan minska något med ökad värme, vilket kan leda till att de öppnas och stängs väl våldsamt. Och eftersom grindarna består av transistorer, som blir varma när de är bottnade (vilket man vanligtvis låter de vara vid en etta), och blir mycket varma när de får för hög spänning som nu kan uppstå, så blir de än varmare.

Strömförbrukningen ökar även med ökad spänning, av olika anledningar, och så ökar förbrukningen givetvis med ökad klockfrekvens. Men största boven till ökad värme är ändå övervoltning, men inte sagt att du kan öka frekvensen och klara att kyla med orginalkylaren, har du tur går det, har du otur sticker tempen iväg som Fuglesang upp i rymden. Jag vill att du är medveten om det innan du börjar klocka.

[size="+1"]Grafikminne[/size]
Alla grafikkort behöver ett grafikminne för att ha någonstans att mellanlagra allt som ska och har beräknats innan det syns på skärmen. Man har minnet direkt på kortet, gärna så nära grafikprocessorn som möjligt, för att få så bra hastighet som möjligt.

Långsammare integrerade kretsar kan dela minnet med den vanliga processorn, RAM-minnet, men eftersom PCI-expressbussen är så fruktansvärt långsam för rådata så gör man inte det med snabba diskreta grafikkort. Vi behöver snabbt grafikminne för att klara höga upplösningar och höga inställningar på anti-aliasing, men även vissa grafikmotorer, själva komponenten i spelet eller programmet som sköter grafiken och delas ofta mellan många olika spel, utnyttjar grafikminnet flitigt vilket kräver snabb åtkomst till det.

Det finns många olika standarder för minnen på grafikkortet, både vanliga minnen likt dem på RAM-stickorna, kallade DDR-minnen (dual data rate). Men det finns även anpassade grafikminnen som fungerar riktigt bra med den data som grafikprocessorn hanterar, men sämre med vanlig data, dessa kallas för GDDR (graphics double data rate).

Man kan inte byta typ av minne på kortet, man kan inte heller enkelt uppgradera till mer minne, utan massor med hårdvarumoddning - vill du göra det Googla på det, men lönar sig heller mycket sällan, och kräver stora kunskaper. Om du tänker göra det och har kunskaperna läser du inte den här guiden.

DDR av alla typer och GDDR 2-4 är double data rate, vilket innebär att man skickar data två gånger per klockcykel. GDDR5 är av samma typ som de andra, men med två DQ-länkar, vilket innebär att man skickar data dubbelt så snabbt som med vanlig DDR. Man benämner ibland minnets riktiga hastighet (exempelvis 993MHz på Radeon 4850 eller 975MHz på Radeon 4890) eller den hastighet data skickas med (1986MHz för 4850 eller 3900MHz för 4890), det är viktigt att inte blanda ihop hastigheterna då du annars riskerar att klocka för långt på en gång.

Likt RAM-minnet i datorn, processorn och grafikprocessor är varje minneskapsel individuell hur långt den går att klocka, men eftersom vi bara kan klocka minnet som en helhet så sätter sämsta kapseln gränsen. Vi kan inte heller övervolta här utan hårdvarumoddning, så vi blir ganska begränsade, men vanligtvis går det få något i alla fall, i vissa fall en hel del.
Vi kan bara ändra klockfrekvensen, inte timings eller liknande på minnena.

Tänk på att minnena blir varma, speciellt om man klockar dem, precis som grafikprocessorn, om än inte lika varma. Så har du ingen kylning på dem så rekommenderas det att införskaffa detta först.

[b]BIOS[/b]
BIOS står för basic input/output system, och kan liknas med reptilhjärnan på en människa, den har hand om de livsuppehållande funktionerna. I grafikkortet styr det hastigheterna på grafikprocessorn, minnet och fläktarna, på vissa kort även Vgpu. Men även en del andra funktioner som vi inte behöver gå in på här. BIOS på ett grafikkort uppfyller med andra ord i stort sett samma funktioner som på moderkortet, men med en viktig skillnad, vi kan inte gå in och ändra något genom ett tryck på DEL under POST.

För att ändra i grafikkortets BIOS måste vi istället använda lite olika program. I fallet Nvidia så finns det program för att båda hämta data från BIOS:et och ändra värdena i den hämtade filen, ATI får man köra med olika program. Bägge har dock gemensamt att enda sättet att sedan ändra inställningarna i BIOS:et på kortet är att flasha det från en DOS-startdiskett eller USB-sticka.

Det är här som det är viktigt att inget blir fel, eftersom blir det fel så har man i värsta fall en 5500 kronors pappersvikt. Själva flashningen tar ca 4 sekunder, men är du osäker på vad du gör, eller om du vet att det finns en risk att datorn slocknar under tiden så ska du inte göra det. Det är inte som att installera om Windows, blir det fel vid fel tillfälle så går inte kortet att rädda. Är precis som med att uppdatera BIOS i datorn.

De inställningar du gör i BIOS kan inte återställas, inte med någon bygel eller knapp, inte med något kommando. Du kan däremot manuellt ställa allt tillbaka, eller spara en kopia av originalinställningarna som säkerhet.

På grund av hur omständigt det är och svårigheterna till att återställa BIOS så ändrar man inget innan man vet att man hittat något som är stabilt. De program som används för att överklocka ställer inte om BIOS, der kör bara över inställningarna genom drivrutinen, och därför nollställs det via en omstart.

[b]Överklockningen, äntligen![/b]
Då tycker jag att alla som hoppade hit direkt läser friskrivningen. Nu har alla gjort det, läs hela första delen "Först måste vi förstå det vi gör innan vi gör det" så du vet vad vi kommer ändra på här, varför vi gör det och vilket resultat det får. Har du läst friskrivningen förstår du varför det är viktigt.

Kopierat från FAQ: Överklockning

Citat:

Från KimTjik
- en extra fri hårddisk är inte fel, utan snarast en fördel
- montera inga fler hårddiskar än den/de(RAID) som innehåller operativsystemet
- gör t ex en tillfällig oaktiverad installation av Windows och blås på "riskfritt" tills du vet vad din hårdvara är kapabel att göra
- Flasha bara BIOS till en ny version ifall du verkligen behöver
- Ifall du så väljer se till att systemet verkligen är stabilt på stock inställningar, ej överklockat
- Ifall det bara är möjligt flasha utanför ett bootat operativ system (personligen anser jag Live-updateringar av BIOS vara ren idioti, som lurar fler att göra något som de inte har en aning om)

Mera förberedelser
Det tar aldrig slut med alla dessa förberedelser, eller ja, nu är det inte länge kvar.

Du måste veta vad du har i din dator till att börja med. Viktigast av allt är vad du har för kort, är det ett ATI Radeon eller Nvidia Geforce? Det är mycket viktigt eftersom metoderna skiljer sig. Dessutom, kommer ditt nätaggregat klara av den kommande belastningen? Kommer din kylare klara av värmen?

Moderkort och processor ska inte ha betydelse, men googla runt, det kan ju vara någon som märkt att just din konfiguration inte fungerar ihop. Och viktigast av allt, är din dator 100% stabil oklockad?

Stöter du på problem redan så ge inte upp, är du ute efter en stabil klock 24/7 så byt chassi, kylare på kort eller annan hårdvara för att få bättre temperaturer. Byt nätdelen om den är klen eller av budgettyp. Nätdelen är nämligen viktigare än vad folk tror, själv har jag varit med om en brand som uppstod endast p.g.a. min snålhet vid inköp av nätaggregat.

Är någon hårdvara i burken inte kompatibel med ditt kort, byt ut den. Se bara till att byter du nått så ska det vara bättre än det du har (kylning och nätdel) eller kompatibelt med allt i datorn (hårdvara i övrigt). Lita inte på tillverkaren, använd Google.

Googla även på om någon har tips och trix för din hårdvara, kan ju vara så att någon hittat något knep för att dra ut de sista MHz:en som man inte kommer åt med den här guiden, dock är detta frivilligt, du kanske bara vill få upp FPS:en lite.

Du kommer behöva lite program nu också, lite olika beronde på vad du vill ha ut av klockningen och beroende på tillverkare av grafikprocessorn.

Gemensamma
- Everest - Så har du koll på temperaturerna i datorn, viktigast är systemet och grafikkortet/en. Tack Evil_AnAnAs för tipset!
- RivaTuner - Fungerar med bägge lagen, men är i förstahand tänkt till Nvidia
- GPU-Z - bra för övervakning av klockningen
- Furmark - Stabilitetstestning
- 3D Mark Vantage, alternativt 3D Mark06 - vi vill ju veta vad vi tjänar på den förkortade livslängden
- Någon form av bootbar DOS-version - för att ändra i BIOS

Nvidia
- NiBiTor - För att kopiera BIOS till datorn och ändra inställningarna.
- NVFlash utility - Innehåller DOS-programmet för att flasha BIOS på korten

ATI
- ATI Tray Tools - Ännu bättre än Riva Tuner, är enbart tillgänglig för Radeon. Enligt Scientas erfarenhet, och säkert andras, så fungerar inte ATT under Vista.
- CRABE - för ändra i BIOS. GPU-Z behövs för att hämta BIOS
- ATIFlash - Flashar BIOS på ATI-korten ifrån DOS

Ja du behöver även en bra version av drivrutinerna till kortet, senast är inte alltid bäst, Google vet säkert svaret. Beta-versioner är nästan aldrig att föredra.

Att stabilitetstesta klocken är ungefär lika enkelt som med en processor, men när något felar så krashar oftast bara testprogrammet, har man lite mer otur hänger sig drivrutinen men även här så kan åtminstone Vista återhämta sig i de flesta fall. Har man otur så hänger sig datorn, men en omstart återställer allt man ställt in i programmen, i ovanligare fall så skadas drivrutinen och måste installeras om. Men så länge inget är sparat till BIOS så kommer en omstart alltid att återställa överklockningen. Nu kan man även ställa in att programmen automatiskt klockar upp kortet igen till den frekvens man sparat, men att hindra programmet från att starta, genom felsäkert läge exempelvis, räddar en misslyckad överklockning.

Kör ett tag med Furmark och se till att det är stabilt, att du inte får artefakter och att temperaturerna inte sticker iväg okontrollerat. Kör en halvtimme minst, gärna ett par, du vill ju veta att den är stabil oklockad.

Man kan spela också, men det belastar inte grafikkortet lika extremt som Furmark gör.

Nvidia
Då har vi äntligen kommit till själva överklockningen, förutsatt att du installerat allt, och vet att datorn är stabil.

Då drar vi igång GPU-Z, SpeedFan och RivaTuner. I GPU-Z väljer du Sensors, i SpeedFan hoppas jag att du har färdigt namngivna temperaturer, annars blir det till att granska vilken som kan vara vad.

I RivaTuner ska du trycka på pilen bredvid Customize i Driver Settings, välj grafikkortet (System settings). Nu kommer du till ett fönster med tre reglage för Core clock (grafikprocessorns klockfrekvens), shader clock (klockfrekvensen för unified shader) och Memory clock (minnets klockfrekvens), enklare kan det inte bli.

Öka Core och Shader gradvis, försök behålla förhållandet mellan dem, exempelvis 2,5x. Börja med, säg, 20MHz på Core och gångra det med förhållandet mellan core och shader för att veta hur mycket du ska öka Shader. Testa om det fungerar, och hur bra i Furmark eller ditt favoritspel i ett par minuter, låt oss säga en kvart i alla fall. Fortsätt tills du når gränsen för vad som går,det som inträffar är att du får artefakter, block med enfärgade pixlar, felaktiga uppdateringar av bilden eller underliga färger, eller så kraschar spelet så du får tvångsavsluta det. När du nått maximala klocken minskar du lite tills du får den stabil igen.
Kan du öka Vgpu så gör du det nu, 0,05v är en bra start. Sedan kör du vidare, fortsätt så långt du vill eller vågar.

Nu kan du testa öka Core och Shader individuellt till du hittar högsta för varje. Du behöver inte göra det eftersom det sällar ger så mycket extra.
Då har vi kommit till minnena, öka dem i lite större steg, omkring 50MHz tills du når maximala klockningen, nu minskar du 50MHz och ökar i mindre steg, säg 20MHz tills du når max igen, minska lite tills du får det stabilt igen.
Glöm inte Apply overclocking at Windows start up.

Nu så låter du Furmark köra på ett bra tag gärna ett par timmar, så du vet att det är stabilt i timmtal, för du vill väl inte att favoritspelet kraschar just innan du hinner spara den senaste timmens spelande?

Det finns alternativ till RivaTuner, du kan exempelvis köra Ntune som Nvidia utvecklat själva, den integrerar bra med ForceWare och så. Men eftersom RivaTuner är populärare så som jag ser det tar jag bara upp den här. Kommer det önskemål får jag lägga till Ntune.

[i]Spara klockningen till BIOS[/i]
Då vet vi att vi kan lita på klocken så mycket som man kan med ett överklockat system. Ja då ska vi ju givetvis se till att spara det permanent till kortet också. Men var säker på att klocken är stabil, för det kan bli lite otrevligt om du inte kan boota datorn för att kortet slutar svara. Och som tidigare sagts, datorn måste vara helt stabil, inget får störa flashningen alls, för då kan kortet bli oanvändbart!

Tillvägagångssättet för detta är ändå ganska enkelt. Starta NiBiTor, öppna Tools välj Read BIOS, Read into file. Tänk på att filnamnet får bara max 8 tecken långt och bara innehålla a-z och 0-9 för att DOS ska kunna läsa den sen. Filen har vi för att kunna återställa BIOS om något blir fel, och vi fortfarande kan återställa det.

Så nu när vi gjort säkerhetskopian så kan vi redigera inställningarna i BIOS. Det jag kommit fram till är att du ska ändra raden Extra om du har ett nyare kort, äldre kort använder de övriga. Är detta fel så rätta mig gärna.
De övriga kortfattat är:
• 2D: När du inte kör 3D, spel
• 3D: När du kör spel och liknande
• Throttle: När temperaturen blir kritisk på kortet så ska det klockas ner till detta värde

Du kan även ändra lite andra saker här, att justera upp fläkten kan vara en idé om du har höga temperaturer, men det är inte säkert att de fungerar.

Spara de nya inställningarna till något vettigt namn som du kan särskilja från din säkerhetskopia, samma regler med 8 tecken max.

Nu ska du ordna fram en diskett eller en USB-sticka som du kan boota DOS på. Helt ärligt så kan jag inte hjälpa här, men Windows 98 startdiskett brukar fungera bra, kopiera bara in både säkerhetskopian av BIOS och den med överklockningen samt NvFlash utility.

Starta om och se till att boota från disketten eller USB-stickan.
Skriv komanndot
nvflash -4 -5 -6 filensnamn.rom
Där filensnamn.rom givetvis är det du döpte den till, med rom som filändelse. Tryck Enter. Ca fyra sekunder senare och du är klar.

Boota up Windows, kolla så du inte har någon autoklock i RivaTuner, har du det stäng av och starta om för att se så dina nya inställningar verkligen fungerar.

ATI
Då börjar vi med att kolla så datorn är stabil om du inte redan gjort det.

Nu är det upp till dig vilket program du klockar med, men jag gillar ATI Tray Tool, så förutom det drar jag igång SpeedFan och GPU-Z för att ha bra koll på temperaturer och så. Nu hoppas jag att SpeedFan namngivit dina teperaturer, så slipper du försöka lista ut vilken som är vilken. Sen ska jag på begäran av Nilsie informera om att ATT kan orsaka lika stora problem som det ger möjligheter vilka endast löstes genom att avinstallera programmet.

ATT har nästan oändligt med funktioner och inställningar, så vi håller oss till de vi kommer behöva. Klicka på ATT vid klockan, välj Hardware och sedan Overclocking settings. Automatiska överklockningen fungerar mycket dåligt, använd den inte. Du kan däremot använda den inbyggda 3D Renderen för att se hur din klock fungerar.

Då börjar vi justera upp Core speed med exempelvis 20MHz i taget, låt antingen renderingen rullar på i säg 15 minuter i stöten, eller testa än hellre med Furmark som verkligen belastar grafikkortet. När du nått maximala klockfrekvensen så sänker du tills du får det stabilt. Du märker att du nått max genom artefakter, som är block med enfärgade pixlar, misslyckade uppdateringar av bilden eller skumma färger, eller genom att Furmark kraschar.

När du nått maximala frekvensen kan du även öka volten på grafikprocessorn lite, säg 0,05v och testa klocka vidare. Öka så långt du vill och vågar, med informationen från guiden i bakhuvet.

Då kommer vi till minnet, här ökar vi det i lite större steg, om 50MHz, tills vi får artefakter, sen sänker vi 50 igen och ökar med steg om runt 20MHz tills vi hittar max, sen är det bara att sänka tills du får det stabilt igen.

Spara till en profil som du låter ladda automatiskt när Windows startar.

Stabilitetstesta i några timmar i Furmark, vi vill ju inte att du ska få en krasch när du spelat ett par timmar utan att spara. Eller online när allt hänger på dig.

Alternativen till ATT
Catalyst Control Center
Direkt i CCC fins Overdrive som fungerar bra, men är begränsad till var AMD tycker är OK, även fast du officiellt förlorar garantin så fort du trycker på nyckeln. Däremot fungerar automatiska överklockningen förvånansvärt bra. Går inte in djupare då jag inte tycker att Overdrive är nog bra. Vill ni skriver jag en guide för den med.

RivaTuner
Starta RivaTuner istället för ATT, rtyck på pilen vid Customize under Driver Settings, välj grafikkortet, System Setting. Nu kan du precis som i ATT ställa in Core speed och Memory speed, men inte Vgpu. Och du har inte heller någon 3D Reder till hjälp, men jag rekommenderar oavsett Furmark.

[i]Ställ in din klock i BIOS permanent[/i]
När vi nu vet att vi hittat max stabila klockfrekvensen för minne och grafikprocessor så vill vi ju spara dessa permanent till kortets BIOS så vi slipper att något program ska ladda inställningarna åt oss, man vet ju aldrig när man formaterar nästa gång. Dock så ska du vara säker på att den är stabil ,är trist om du inte kan boota sen bara för att kortet är instabilt. Sen som jag påpekat flera gånger, datorn måste vara stabil, inget får störa undertiden kortet flashas, för då kan det sluta fungera permanent.

I GPU-Z så klickar du nu på den lilla pilen bredvid BIOS verson och väljer Save to file. Denna fil inehåller nu en avbildning av BIOS:et från kortet. Var noga med den, vi komemr behöva den om du ska flasha tillbaka kortet till fabriksinställningar om eller när något går fel, och se till att namnet inte är längre än 8 tecken.
Öppna filen i CRABE, där ställer du in dina frekvenser och Vgpu, eller Vcore som den heter här. När du sparar filen får den automatiskt tillägget _mod så du inte råkar spara över din gamla i onödan. Se bara till att filnamnet inte blir längre än 8 tecken. Förslagsvis tar du bort understräcket (_) så slipper du leta det om du inte får svensk tangentbordsuppsättning i DOS.

Nu ska du ta exempelvis en Windows98 startdiskett eller innehållet från en sådan och kopiera till en USB-sticka. Kopiera även bägge dina BIOS-filer till disketten eller stickan. Och till sist kopierar du in ATIFlash.

Ta nu och starta om datorn, se till att du bootar från disketten eller USB-stickan. Väl inne i DOS skriver vi in
ATIFlash -p -0 -newbios filensnamn.bin -f
Och såklart erskätter du filensnamn med det namn du gav filen, och ha filändelsen .bin kvar. Nu ca fyra sekunder senare har du nya inställningar i BIOS. Starta om och boota Windows, kolla i GPU-Z att klocken är rätt, se även till att ATT eller det program du använde inte laddat någon automatisk klockningsprofil.

[size="+1"]Vad som kan gå fel går fel[/size]
Mjukvaruöverklockning
En omstart återställer alltid inställningarna så länge du inte valt att ladda dem automatiskt, då är Felsäkert läge (F8 när datorn startar, innan Windows börjar ladda) en bra lösning. Eftersom felsäkert läge inte laddar drivrutinen kan du inte heller justera klocken, men återställa brukar gå på ett eller annat sätt, om inte annat genom en avinstallation av programemt.

Det som kan hända är att spelet hänger sig, och du måste tvångsavsluta det genom Aktivitetshanteraren. Ja givetvis kan datorn hänga sig, men en omstart hjälper då, eller som värst så kan inte programmet återställa sig självt till normala inställningar, då avinstallerar du det och intallerar om det, samma sak om du förstör drivrutinen genom överklocknignen, du behöver bara installera om den.

Får du sådana allvarliga problem kan du behöva sänka klockfrekvensen något.

Hårdvaruöverklockning
Här kan du få lite mera underhållande problem helt klart, som nästan alltid hjälper med att flasha tillbaka standardinställningarna, och sedan justera ner din överklock något.

Men om kortet vägrar ge bild, ja då har du lite mer att göra. Då tar du fram något gammalt PCI-kort eller om du har flera PCI-express16x-slottar så kan du plugga i ett annat kort och köra skärmen på. Nu flashar du bara ditt bildlösa kort enligt ovan.

Sen kan man ju i värsta fall flasha blint, inga problem alls eftersom proceduren alltid är samma, men gäller ju att komma ihåg den, eller tjuvkika i guiden. Se bara till att vänta en stund så du garanterat är inne i DOS, och skriv in kommandot, vänta ett tag så den verkligen flashat klart och starta sedan om med ditt tidigare trasiga kort.

Nu förstår du också varför du alltid ska ha orginal-BIOS:et tillhands.

Slutord
Har själv lärt mig lite grann mer än jag viste tidigare, och hoppas ni andra gjort det också. Jag rekommenderar de som inte läst FAQ: Överklockning att göra det, speciellt eftersom jag haft den som inspirationskälla. All info är kombination av egna erfarenheter/kunskaper och info från olika siter hittade med Google.

En bra site för grafikkort, med många bra verktyg är Guru3D.

Nu hoppas jag guiden är till belåtenhet för de flesta, men jag vill ha synpunkter och förslag på förbättringar.

Men för att slippa få en sönderspammad tråd om felstavningar, grammatik osv så tas allt sådant via PM, gäller både till mig och till andra i tråden.

[size="+2"]Önskemål från andnewman till er andra[/size]
• FL3JM:s tillåtelse att använda bilderna från FAQ: Överklockning
• Minst en korrekturläsare. Tack till Nilsie som korrekturläst detta monster, hoppas någon mer har orken.
• Någon som kan förklara DQ bättre än mig
• DOS i någon form som vi kan använda till att uppdatera BIOS, laglig givetvis!
• Vilket program är bäst när man ska flasha BIOS på Radeon, hittar inget bra.
• Är NiBiTor bäst för Nvidia?
• Bilder rent generellt, vad är en guide utan bilder?

Permalänk
Medlem

Noll kommentarer? Skitbra initiativ!!

Kanske länka några recensioner på erkända kylare?

Permalänk
Medlem

skitbra arbete! Hjälpte mycket

Visa signatur

Q6600 OC @ 3.6Ghz + TRUE | Powercolor HD4870 X2 2GB OC @ 850/940 Voltmod 1.4v | Corsair Dominator 2x2048MB 1066Mhz | Maximus II Formula | Coolermaster HAF 932

Permalänk

EDIT: Har nu korrekturläst denna mer eller mindre, kolla din PM andnewman.

Underbar tråd!

Permalänk
Medlem

Extremt ingående guide, kanske lite för ingående? Nej då, en guide ska ha med allt!

Det enda jag kom att tänka på (efter att ha skumläst, håller på att sätta ihop min stationära just nu) är att ATT inte funkar under Vista. Versionen du länkade till var ifrån maj -07.

Här hittar du senaste versionen.

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk

Ser bra ut!

En sak som inte passar in i den förövrigt grymma guiden är speedfan, program med större felprocent får man ju leta efter...

Jag rekommenderar everest för att läsa av korrekt temperatur.

Sedan är jag rätt övertygad om att denna tråd ska ligga under "grafikkort" eftersom den delen även är till för klockning men då av grafikkort.

Visa signatur

"If you are really extreme, you never let informed facts or the scientific method hold you back from your journey to the wrong answer." (jayhall0315)
Celeron 352 @ 7822.8mhz 50k Vantage 40k 3Dmark06

Permalänk

Tack alla som kommenterar! Speciellt Nilsie som korrekturläst, jag ska gå igenom punkter och komman, men inte just nu. La nog ner för mycket tid på den, känns lika olustigt att kolla på den varje gång nu.

Har skrivit till moderatorerna att flytta tråden till rätt del.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av andnewman
Tack alla som kommenterar! Speciellt Nilsie som korrekturläst, jag ska gå igenom punkter och komman, men inte just nu. La nog ner för mycket tid på den, känns lika olustigt att kolla på den varje gång nu.

Har skrivit till moderatorerna att flytta tråden till rätt del.

Äsch, du går igenom allt noga, det är kanonbra!

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk

Äntligen en grafik-klockningsguide som inte är uråldrig! Mycket bra initiativ:)

Visa signatur

Religion and greed cause millions to bleed

Permalänk
Vila i frid

Tjusig guide, kudos!

Förbättringförslag, låt "forumet" själv bestämma radbredd. Som det är nu avstavas meningar och stycken lite osnyggt.

Permalänk
Geeks
SweClockers

*Flyttad*

Instämmer med föregående talare att det är bättre att låta forumet sköta radbytena.

Visa signatur

» Kontakta oss » SweClockers på Facebook » SweClockers på Youtube » Blips of SweClockers (Spotify)
» Pappa till Moderskeppet » SweClockers chefredaktör 2007–2015

Permalänk

Hade missat att stänga av word wrap i Notepad i Vista. Ska vara fixat nu hoppas jag!

Permalänk
Geeks
SweClockers

Klister och lite styckeindelning från min sida. Mycket bra skrivet, men tänk på att det ska vara lätt att läsa också!

Visa signatur

» Kontakta oss » SweClockers på Facebook » SweClockers på Youtube » Blips of SweClockers (Spotify)
» Pappa till Moderskeppet » SweClockers chefredaktör 2007–2015

Permalänk
Medlem

Otroligt lite uppmärksamhet denna tråd har fått!

Ser bra ut iaf !

RBE till ATI kort för att modifiera bios.. Enda man ska använda ! Och GPUTool är en lätt ATT som funkar klockrent i Vista/Windows 7 ! GPUTool är fortfarande en beta preview men den funkar perfekt för mig. Båda programmen är från Techpowerup.com !

Permalänk
Medlem

Jag hade lite problem med att få igång ATT, trots att jag använde senaste versionen som även ska funka under vista. Fick felmeddelandet "Low level driver cannot start". Googlade det lite snabbt och hittade en guide/program som kan hjälpta till med det.

Senaste ATT

Low level driver - fix

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk

Tjenare ny här men hur funkar det att överklocka mitt nvidia geforce 280 GTX. Med 1GB i minne och hur gör man tack på förhand

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av playerdvlkng89
Tjenare ny här men hur funkar det att överklocka mitt nvidia geforce 280 GTX. Med 1GB i minne och hur gör man tack på förhand

Ja det funkar, hur man gör får du läsa några rader upp?!?!

Permalänk
Permalänk
Medlem

Mycket bra guide Nu kanske jag vågar mig på att överklocka min 9800GTX
Men en liten fråga, vore det idioti när den redan nu ligger runt 85-90grader när jag spelar? (speedfan)

Visa signatur

PC

| Core i5 2500K |Nocutua NH-U9BSE2 | ASUS P8Z68-V PRO | ASUS GTX 560 ti Direct CU II| Corsair Vengeance 1600MHz 4x4GB | Corsair HX 750W | WD Caviar Black 1TB | Fractal Design Arc |

Permalänk
Medlem

du har inga program med i listan som man kan övervolta sitt kort med?
jag skulle gärna vilja se ngn i listan eller förslag i komentarer kanske, någon?

Visa signatur

HP Pavilion 17-e016eo = 17,3" + A10-5750M + 8650G/8670M + 8GB + 1000GB.

Permalänk
Citat:

Ursprungligen inskrivet av infexis
du har inga program med i listan som man kan övervolta sitt kort med?
jag skulle gärna vilja se ngn i listan eller förslag i komentarer kanske, någon?

Det är väl bara asus kort som har sådana program?
Jag använde radeon bios editor för att höja volten på mitt xfx 4850, fanns nån bra guide på youtube, sök på voltmod 4850/4870/4890 på google så kommer det antagligen upp. Minns inte vad det hette

Visa signatur

Religion and greed cause millions to bleed

Permalänk

skulle kunna vara en bitch och påpeka att ingenting förbrukar ström, pga laddningsbevarandelagen jämsides KCL. kanske mer att strömmen är kvoten spänning/resistans, och beskriver hur pass mycket laddning som flödar per tidsenhet.

men annars så är det ett toppeninitiativ, och en bra startguide för OC av grafikkort. good job!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Sennebring
Det är väl bara asus kort som har sådana program?
Jag använde radeon bios editor för att höja volten på mitt xfx 4850, fanns nån bra guide på youtube, sök på voltmod 4850/4870/4890 på google så kommer det antagligen upp. Minns inte vad det hette

Nej, det är inte bara asus. Jag har för mig att det finns en mod till rivatuner som man kan lägga in och overvolta typ vilket kort som helst nästan. Men jag e inte så kunnig innom området så df vet jag inte vad det heter. :/

Visa signatur

HP Pavilion 17-e016eo = 17,3" + A10-5750M + 8650G/8670M + 8GB + 1000GB.

Permalänk
Citat:

Ursprungligen inskrivet av infexis
Nej, det är inte bara asus. Jag har för mig att det finns en mod till rivatuner som man kan lägga in och overvolta typ vilket kort som helst nästan. Men jag e inte så kunnig innom området så df vet jag inte vad det heter. :/

Okej men här är videon jag snackade om; http://www.youtube.com/watch?v=4W5UGinhnq0 funkade för mig även om mitt redan var inställt på max utan att göra hårdvarumodd Ska göra lite seriösare försök när jag får hem nya flänsar till minnen osv.

Visa signatur

Religion and greed cause millions to bleed

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Sennebring
Okej men här är videon jag snackade om; http://www.youtube.com/watch?v=4W5UGinhnq0 funkade för mig även om mitt redan var inställt på max utan att göra hårdvarumodd Ska göra lite seriösare försök när jag får hem nya flänsar till minnen osv.

jag följde den guiden och gjorde allt som det stog, och nu sitter jag här med ett dött kort som antagligen innehåller fel bios, och vägrar starta!
snälla någon hjälp mig, hur ska jag återställa det här?!
http://www.sweclockers.com/forum/showthread.php?s=&postid=951...

Visa signatur

HP Pavilion 17-e016eo = 17,3" + A10-5750M + 8650G/8670M + 8GB + 1000GB.

Permalänk
Citat:

Ursprungligen inskrivet av infexis
jag följde den guiden och gjorde allt som det stog, och nu sitter jag här med ett dött kort som antagligen innehåller fel bios, och vägrar starta!
snälla någon hjälp mig, hur ska jag återställa det här?!
http://www.sweclockers.com/forum/showthread.php?s=&postid=951...

Hittar datorn kortet? Isf kan du ju ladda ner orginal bios på techpowerup och flasha Jag följde å guiden och det gick kalas :S

Visa signatur

Religion and greed cause millions to bleed

Permalänk
Medlem

nej den hittar inte jag kan inte ens starta datorn om kortet är i pci slotten.
eller jo jag kan ju starta men skärmen kommer aldrig igång.....

Visa signatur

HP Pavilion 17-e016eo = 17,3" + A10-5750M + 8650G/8670M + 8GB + 1000GB.

Permalänk
Citat:

Ursprungligen inskrivet av infexis
nej den hittar inte jag kan inte ens starta datorn om kortet är i pci slotten.
eller jo jag kan ju starta men skärmen kommer aldrig igång.....

Hmm jag är ganska grön på sånt där så har inga bättre tips Kan man inte reseta grafiken som man gör en clear cmos när cpu clocken går åt helvete?

Visa signatur

Religion and greed cause millions to bleed

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Sennebring
Hmm jag är ganska grön på sånt där så har inga bättre tips Kan man inte reseta grafiken som man gör en clear cmos när cpu clocken går åt helvete?

det är det jag också undrar om man kan göra?
men tvivlar på att det skulle hjälpa i mitt fall, eftersom clear cmos återställer inställningar i befintlig bios, den återställer inte hela bios till original juh ?

Visa signatur

HP Pavilion 17-e016eo = 17,3" + A10-5750M + 8650G/8670M + 8GB + 1000GB.

Permalänk
Citat:

Ursprungligen inskrivet av infexis
det är det jag också undrar om man kan göra?
men tvivlar på att det skulle hjälpa i mitt fall, eftersom clear cmos återställer inställningar i befintlig bios, den återställer inte hela bios till original juh ?

De gör det nog inte Tråkigt att det vart så här för dig

BTW: Vad tycker du om x3 720, såg i sign att du har en och jag e sugen på en

Visa signatur

Religion and greed cause millions to bleed