Överklockning för dator till seriöst arbete.

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010

Överklockning för dator till seriöst arbete.

Hej på väldigt många ställen ser folk rekommenderar olika processorer och säger att man lugnt kan klocka dem 1GHz på luft eller så. Jag har då en fördom att det framförallt är personer som har datorn som en leksak och det spelar ej så stor roll om någon data blir fel.
Detta kan vara en fullständig absurd missuppfattning från mig och det är det som syftet med tråden är att ta reda på.

Hur gör ni som använder datorn seriöst och har riktigt stora viten om om något blir fel på det arbetsmaterial som ni lämnar, överklockar ni mycket? Litar ni enbart på några burntester etc? Finns det någon som till och med överklockar en kritisk server? Vad som är stora viten beror såklart på ens ekonomi, men viten på upp och till en miljon är ingen ovanligt för oss som jobbar inom IT.

Annars hårdvarusidan gällande överklockning är inte mitt område och jag ser lite som med bilmotorer, de är från fabrik dåligt optimerade, en bra person kan optimera dem individuellt bättre, det betyder dock inte att de blir bättre när jag själv gör det.
Jag köper alltså de fläktar, nätdelar, moderkort etc som verkar bäst, jag kör sedan mängder av långa burntester och hoppas på det bästa. Hade man varit kunnig så kanske man skulle ändra något som mer ström fast orginalklock, vad vet jag.

Så huvudfrågan är hur gör ni som arbetar med dyrbar data, där man inte alltid vet hur bra kontroller emot hårdvarufel det finns i programmen.

*edit*
Några exempel på dyr data är såklart allt inom bokförening även om jag hårt litar på Visma och co. Men annars så systemutveckling, cadbearbetning etc som man kör hemma på sin privat dator någon gång och sedan tar med tillbaka jobbet. -Alltså man överklockar såklart inte jobbdatorn.
Nu har säkerligen cadprogrammen bra kontroller de också, problemet som jag ser det är att jag fullständigt saknar kunskap om vilka instruktioner som cadprogrammet har använt och hur bra kontrollerna av hårdvarufel är, det enda jag vet är att om det blir fel så kostar det skjortan.

Trädvy Permalänk
Medlem
Plats
Svenstavik
Registrerad
Jan 2010

Personligen så tycker jag att det låter ganska dumt att klocka ett system som är väldigt kritiskt till något.
De som klockar är ofta ute efter bättre prestanda till kostnaden av en vis del stabilitet medans något som en server är ute efter stabilitet framförallt annat.

Själv har jag inget emot om jag får något fel lite nu och då på grund av min överklockning men samtidigt så är mina maskiner enbart för lek.

Självklart finns det tillfällen när man säkert kan klocka något till viss del och fortfarande vara helt stabilt till den dagen att delarna helt enkelt är gamla och slitna.

Det är lite som skillnaden mellan min cross och en vanlig vardags hoj, som du också var inne på. Crossen min kräver extremt underhåll och är gjort att bara gå några timmar innan den servas igen. Men den är också designad för att klämma ut så mycket prestanda som möjligt men med få marginaler. För vanliga vägmaskiner är det tvärtom. Dom ska gå dag efter dag, mil efter mil. Där dom där sista hästarna inte gör någon större skillnad.

FD R4|ASUS p8z77-V LX| Intel core i7 2700k @ 4.3Ghz|Noctua NH-D14|Corsair XMS3 DDR3 24GB |MSI 980 Ti Gaming 6G|Samsung 840 EVO 500GB + 14TB lagrning |EVGA superNOVA g2 750w |Asus VG248QE + BenQ GL2450 x2

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010
Skrivet av Elghinnarisa:

Personligen så tycker jag att det låter ganska dumt att klocka ett system som är väldigt kritiskt till något.
De som klockar är ofta ute efter bättre prestanda till kostnaden av en vis del stabilitet medans något som en server är ute efter stabilitet framförallt annat.

Själv har jag inget emot om jag får något fel lite nu och då på grund av min överklockning men samtidigt så är mina maskiner enbart för lek.

Självklart finns det tillfällen när man säkert kan klocka något till viss del och fortfarande vara helt stabilt till den dagen att delarna helt enkelt är gamla och slitna.

Det är lite som skillnaden mellan min cross och en vanlig vardags hoj, som du också var inne på. Crossen min kräver extremt underhåll och är gjort att bara gå några timmar innan den servas igen. Men den är också designad för att klämma ut så mycket prestanda som möjligt men med få marginaler. För vanliga vägmaskiner är det tvärtom. Dom ska gå dag efter dag, mil efter mil. Där dom där sista hästarna inte gör någon större skillnad.

Ok lite samma tanke som mig.

Det jag tänkte på vilket jag även förtydligade med min *edit* efteråt var att nog väldigt få överklockar de maskiner som är de sista i det kritiska ledet. Men säg om man är cadkonstruktör där ett litet fel kostar skjortan och så tar man med arbete hem till sin personliga dator som nog de flesta gör idag. Hur tänker ni som gör detta angående överklockning?

För min egen del är jag systemutvecklare och gör mängder med binärfiler som jag checkar in med källkoden såklart, mitt förtroende för programmen som gör alla binärfiler är inte högt och jag skulle vilja att det går snabbare, samtidigt vill jag inte på något sätt införa mer felkällor.

Annars alla som jobbar inom ekonomi emot företag även om nu molmtjänster har blivit vanligare, vågar ni köra ekonomiprogram tillfälligt på en rejält överklockad dator. De har dock säkert valideringskontroller till det förbannelse emot hårdvarufel.

Trädvy Permalänk
Medlem
Plats
Svenstavik
Registrerad
Jan 2010
Skrivet av Johan86c:

Ok lite samma tanke som mig.

Det jag tänkte på vilket jag även förtydligade med min *edit* efteråt var att nog väldigt få överklockar de maskiner som är de sista i det kritiska ledet. Men säg om man är cadkonstruktör där ett litet fel kostar skjortan och så tar man med arbete hem till sin personliga dator som nog de flesta gör idag. Hur tänker ni som gör detta angående överklockning?

För min egen del är jag systemutvecklare och gör mängder med binärfiler som jag checkar in med källkoden såklart, mitt förtroende för programmen som gör alla binärfiler är inte högt och jag skulle vilja att det går snabbare, samtidigt vill jag inte på något sätt införa mer felkällor.

Annars alla som jobbar inom ekonomi emot företag även om nu molmtjänster har blivit vanligare, vågar ni köra ekonomiprogram tillfälligt på en rejält överklockad dator. De har dock säkert valideringskontroller till det förbannelse emot hårdvarufel.

Har faktiskt ingen aning om vad som händer i sådana program om man får ett fel. Beror säkert på vilken typ av fel man får också. Skulle vara intressant att veta hur program beter sig.

FD R4|ASUS p8z77-V LX| Intel core i7 2700k @ 4.3Ghz|Noctua NH-D14|Corsair XMS3 DDR3 24GB |MSI 980 Ti Gaming 6G|Samsung 840 EVO 500GB + 14TB lagrning |EVGA superNOVA g2 750w |Asus VG248QE + BenQ GL2450 x2

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Aug 2009

att överklocka en dator där stabilitet är mycket viktigt tycker jag är dumt. man kan testa hur mycket man vill men kan ändå inte vara helt säker på att det är helt stabilt. även om du testar i 48 timmar kanske det skulle krascha efter 49, det vet man inte. det har hänt att jag har haft datorn påslagen och använt den dagligen i en månad och plötsligt fått en blåskärm. det gör inte så mycket om man satt och browsade på internet eller spelade ett spel men om en krasch innebär stora konsekvenser skulle jag aldrig ens fundera på att överklocka.

Stationär: Phanteks Enthoo Primo | Corsair HX750i | EVGA Z170 FTW | i7 6700K Delid 4,8GHz | EVGA GTX 1080 2126MHz | Custom Loop | Corsair Dominator Platinum 16GB 3000MHz | Creative Sound Blaster Zx
Kringutrustning: ASUS MG279Q/AOC q2770Pqu | Logitech G600 | Corsair Vengeance K70 | Sennheiser HD598 | Apple MBPr 13"

Trädvy Permalänk
Medlem
Plats
Ucklum
Registrerad
Apr 2005

Jag har stora programmeringsprojekt jag kompilerar på en 2600K som rullat i 5GHz 24/7 med belastning sen den lanserades helt utan en enda krasch.

Det måste ses som både beräkningstungt och kritiskt. Där vinner jag mycket tid och felmarginalen är så pass låg att det inte är ett bekymmer.

Men nu kontrolleras slutresultatet varje gång så blir ett icke bekymmer. Skulle jag gjort detta på något som jag inte skulle ha tid att kompilera en gång till? Nej absolut inte.

Skulle jag gjort tunga arbeten första halvåret? Nej, nu vet jag att den rullar felfritt så nu litar jag på den.

Jag har dock en arbetsstation med dubbla Xeon processorer som tar en del tunga arbeten.

Så sammanfattat, har man arbeten och tidsramar så skull jag inte överklockat, har man inte utrymme för felberäkningar så skulle jag inte överklockat.
Sen är det väldigt svårt att veta om maskinen är 100% stabil, så kritiska arbeten där data försvinner vid krash går bort.

Så i ditt fall nej, är inte vinsten av en överklockad processor så pass övervägande stor att man kan ta risken med en krasch eller felberäkningar så skall man inte överklocka.

Amiga 1200, CPU: 68K ACA1231 "030" 42MHz, RAM: 2MB chip 63MB Fast + 1MB rom map, GFX: AGA, HDD: 4GB PATA/SSD + 4GB CF 4-way EDIE'99, 11Mb/s 16bit Wifi (toppar 3,2Mb/s på grund av bussen), DVD-Brännare, Chassi: Wedge. Kylning: 5x 40mm fläktar (Hemmabyggd koppar kylare till 030:an). www.som99.se

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010

Intressant att så många hade samma liknande inställning som mig. Det jag tänker på är att det måste vara väldigt många idag som tar med arbete hem och kör på sin egen dator och sedan tar med det tillbaka till jobbet. Det kan vara allt ifrån ekonomi, programmering, databaser, cadfiler, matematiska beräkningar etc.
Där problemet främst är att datan kanske har bearbetas av en opålitlig maskin, vilket alla datorer mer eller mindre är men man kan påverka graden.
Om man vill ha en riktigt stabil dator så borde man läsa sig på kring överklockning för att kunna göra den så stabil som möjligt. Det är idiotisk att tro att bara för att man kör standardklock så innebär det att datorn är stabil, för min del så kör jag default klock på allt. En duktig person kan säkert konfigurera det bättre, det innebär dock inte att det blir bättre när jag själv gör det.

Detsamma gäller min misstanke att överklocka en processor för att testa gränser, på vilket sätt detta kan göra ens cpu instabil har jag ej en susning om, det enda jag vet är att om så är fallet så kommer det kosta väldigt mycket pengar som med råge är mer än vad ens dator är värd. Med att testa gränser så menar jag kanske enbart gå upp några 100Mhz på en cpu.

Samtidigt känner jag mig lite som en Hifi-nörd som köper en strömkabel för ett antal tusenlappar, jag överdriver riskerna till det förbannelse. Problemet jag känner är att min okunnighet inom hur en processor fungerar gör att jag har svårt att förespå vad konsekvenserna av ett fel kan bli.

Dessutom har jag en bristande kunskap i hur bra program idag är emot hårdvarufel.
Ta en populärt databas som Microsoft <SQL Server, hur riskfyllt är det att ta hem en sådan databas och bearbeta dem hemma på sin dator för att sedan ta tillbaka den på jobbet? -Jag har ärligt talat inte en aning om detta och det ryser riktigt till i kroppen att jag faktisk gör detta på en maskin som jag själv har monterat. (dock i orginalklock)

Sedan när cpu-utvecklingen har stagnerat så har många extrema problem med långa väntetider och behov av snabbare dator, varvid paranoian inte får ta över allt så man får en superseg maskin.

Trädvy Permalänk
Medlem
Plats
falun
Registrerad
Apr 2002

Finns väll egentligen ingen garanti att datorn är helt stabil i orginal utförande heller och allt från hårdvara till mjukvara kan krångla ..men gällande oc så skulle jag säga att man kan få datorn stabil även om det finns en liten risk

men låt oss säga en enkel oc 4690k@4400 mhz på ett bra moderkort med bra kylning och agg med en vcore på 1.20 som klarar alla test som occt/aida/hyperpi o.s.v har en temp på 68 c full load lite marginal både på volt och temp för att helgardera stabiliteten ökar man vcore till 1.22 efter test och har runt 20c marginal på cpu innan den går in i värmeskyddet och skulle den överhettas så klockar den ner sig i stället för att dyka så skulle jag säga att man har samma mått av stabilitet som en stock cpu ..eller vänder på det och ställer in datorn för 4600mhz och sänker 200 t.e.x

men finns alltid risk att någon strömsparar funktion kan muppa men är med ett problem som brukar upstå när man ska pressa det sista ur cpu´n så finns en risk ja men skulle känna mig lika säker på att det funkar som att hårdvaran inte har några fel/problem

som nämns ovan en 2600k@5ghz är fullt möjligt att få stabil men då ligger man gränsen av vad cpu´n pallar och går hårt åt strömförsörjning på moderkort och kan ibland få lite quirky behavior om man har otur och brukar få döda allt som har med strömsparar funktioner att göra o.s.v men håller man sig inom snälla ramar så skulle jag säga det är fullt möjligt med 100% stabilitet som man kan lita på

i3 6100 - MSI b150m pro-vd - 8gb 2133 ddr4 - GTX 950 GAMING 2G - z400s 120gb ssd - 1tb WD blue - Corsair 500w

Trädvy Permalänk
Medlem
Plats
Varberg
Registrerad
Maj 2006

Beror ju på hur hårt du vill klocka och justera spänningen. Dem flesta som försöker få mer prestanda försöker ligga på högsta möjliga frekvens med minsta möjliga spänning, detta ökar givetvis risken för att systemet ska krascha pga för låg spänning för den angivna frekvensen.

Om du däremot klockar måttligt och ger den en extra skjuts med spänning är risken väldigt liten att den kraschar. Då förutsätter jag att kylningen är god och alla andra inställningar i bios är rätt inställda.

Problemet med alla klockare och mig själv är att man ofta vill ligga runt den där kritiska gränsen och pressa systemet lite ytterligare, detta ökar samtidigt risken att systemet även kraschar övertid då elektronik brukar kräva mer spänning ju äldre den blir.

=)

Trädvy Permalänk
Medlem
Registrerad
Apr 2013
Skrivet av Johan86c:

Hej på väldigt många ställen ser folk rekommenderar olika processorer och säger att man lugnt kan klocka dem 1GHz på luft eller så. Jag har då en fördom att det framförallt är personer som har datorn som en leksak och det spelar ej så stor roll om någon data blir fel.
Detta kan vara en fullständig absurd missuppfattning från mig och det är det som syftet med tråden är att ta reda på.

Hur gör ni som använder datorn seriöst och har riktigt stora viten om om något blir fel på det arbetsmaterial som ni lämnar, överklockar ni mycket? Litar ni enbart på några burntester etc? Finns det någon som till och med överklockar en kritisk server? Vad som är stora viten beror såklart på ens ekonomi, men viten på upp och till en miljon är ingen ovanligt för oss som jobbar inom IT.

Annars hårdvarusidan gällande överklockning är inte mitt område och jag ser lite som med bilmotorer, de är från fabrik dåligt optimerade, en bra person kan optimera dem individuellt bättre, det betyder dock inte att de blir bättre när jag själv gör det.
Jag köper alltså de fläktar, nätdelar, moderkort etc som verkar bäst, jag kör sedan mängder av långa burntester och hoppas på det bästa. Hade man varit kunnig så kanske man skulle ändra något som mer ström fast orginalklock, vad vet jag.

Så huvudfrågan är hur gör ni som arbetar med dyrbar data, där man inte alltid vet hur bra kontroller emot hårdvarufel det finns i programmen.

*edit*
Några exempel på dyr data är såklart allt inom bokförening även om jag hårt litar på Visma och co. Men annars så systemutveckling, cadbearbetning etc som man kör hemma på sin privat dator någon gång och sedan tar med tillbaka jobbet. -Alltså man överklockar såklart inte jobbdatorn.
Nu har säkerligen cadprogrammen bra kontroller de också, problemet som jag ser det är att jag fullständigt saknar kunskap om vilka instruktioner som cadprogrammet har använt och hur bra kontrollerna av hårdvarufel är, det enda jag vet är att om det blir fel så kostar det skjortan.

Ber om ursäkt om jag ej ger dig det svar du söker, men ska iaf försöka. Själv skulle jag aldrig överklocka ett kritiskt system där minsta lilla fel kan kosta en över en miljon . Personligen har jag mina burkar överklockade men aldrig i extrem nivå där stabiliteten riskeras. Sen är nivån en cpu kan överklockas individuell för varje cpu så två exemplar ur samma modell kan överklockas till två helt unika nivåer. Sen är hårdvara till kritiska system mycket dyrare än vanlig konsument hårdvara och jag antar att detta beror på ökade krav på diftsäkerhet och optimeringar för lång drift och dyl och dessa optimeringar fungerar ej om man själv börjar "mecka" med frekvenser m.m. Sen stämmer nog det du sa ang optimering av bilmotorer ganska bra men har svårt att tänka mig att många personer på denna jord har högre kompetens ang detta än t.ex Intel själva men jag kan ha fel

Trädvy Permalänk
Medlem
Registrerad
Maj 2012
Skrivet av Johan86c:

Samtidigt känner jag mig lite som en Hifi-nörd som köper en strömkabel för ett antal tusenlappar

Okej nu är ju jag ingen systemvetare utan blott en vanlig gamer men varför gör du det och vad ska dessa strömkablar göra gentemot vanliga sådana?

Ursprungligen inskrivet av Quiki "japp jag kan tro att mitt kort ligger lite varmt och nej jag kommer inte att berätta hur varmt det är sen hur ramt rummet är m.m, ingen hard feelings men vissa frågar mycket, dessutom så vill jag veta vad folket har och vill gärna inte gå efter sweclockers tester."

Trädvy Permalänk
Medlem
Plats
Karlstad
Registrerad
Nov 2010
Skrivet av casper9429:

Ber om ursäkt om jag ej ger dig det svar du söker, men ska iaf försöka. Själv skulle jag aldrig överklocka ett kritiskt system där minsta lilla fel kan kosta en över en miljon . Personligen har jag mina burkar överklockade men aldrig i extrem nivå där stabiliteten riskeras. Sen är nivån en cpu kan överklockas individuell för varje cpu så två exemplar ur samma modell kan överklockas till två helt unika nivåer. Sen är hårdvara till kritiska system mycket dyrare än vanlig konsument hårdvara och jag antar att detta beror på ökade krav på diftsäkerhet och optimeringar för lång drift och dyl och dessa optimeringar fungerar ej om man själv börjar "mecka" med frekvenser m.m. Sen stämmer nog det du sa ang optimering av bilmotorer ganska bra men har svårt att tänka mig att många personer på denna jord har högre kompetens ang detta än t.ex Intel själva men jag kan ha fel

Ok.

Angående kritiska system så är det många som inte tänker på att alla inblandade datorer som har jobbat med datan någon gång tillhör dit. Vilket helt plötsligt kan innefatta ens personliga dator hemma.

Sedan kostar inte minsta möjliga fel för mig en miljon, men ett allvarligare fel kan kosta detta. Där det allvarliga felet kan bero på en enda bit, (en nolla som skulle vara en etta). Varför kostnaden är så hög beror på att det kostar kund mycket pengar, de som jobbar inom web och t.ex. råkar få tradera, aftonbladet, blocket etc vara nere några timmar kan få vite beroende på avtal.
I mitt fall handlar det mer om industri, vad kostar det om en line i en större fabrik skulle stoppa och vara nere säg en dag?

Skrivet av Serzarian:

Okej nu är ju jag ingen systemvetare utan blott en vanlig gamer men varför gör du det och vad ska dessa strömkablar göra gentemot vanliga sådana?

Det var ett exempel på när man går till överdrift för att leta felkällor speciellt när man samtidigt ignorerar andra som är större.
Strömmen från vägguttaget är inte på något sätt fin, störningar och fasförskjutningar och även om man hade fin in i huset så är det vanliga ledningar som går där, att då köpa en svindyr sista biten är att inte förstå var störningarna kommer ifrån.'

Samma är det lite för mig, nästan 100% av felen beror på mig själv som har klantat till det. -Även om nu programvarorna är buggiga, men missade upptäckta fel är mitt ansvar. Där frågan är hur paranoid ska man vara, servern som kör all kod ska såklart vara en välbyggd maskin, men varenda dator som har varit inblandad är ofta helt vanliga datorer. Vanlig kod som C# är ganska riskfritt, problemet blir när man använder egen kod för att skapa kod som sedan uppdaterar databaser, skapar binärfiler etc och det finns ingen enkelt möjligthet att kontrollera så att allt blev rätt.

Trädvy Permalänk
Medlem
Plats
Skaraborg
Registrerad
Feb 2015

Nej jag skulle inte överklocka en processor som skulle kunna ge så pass höga viten.
Istället skulle jag satsa på hårdvara som är specad för dem nivåerna jag vill nå.

i7 4790K @ 4,691Ghz : ASUS STRIX GTX 1080 8GB

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jul 2007

Överklockning innebär att man går utanför tillverkarens ramar för vad chippet garanterat klarar. Inget jag skulle göra för professionellt bruk.

Trädvy Permalänk
Medlem
Plats
Gislaved
Registrerad
Jan 2003

Alltså, att ta hem arbete och köra hemma låter tveksamt, har på känn att många företag skulle ge dig sparken för att ta med dig intellektuell egendom från arbetsplatsen i o m risk för industrispionage och stöld.

Sen så kör man väl seriöst arbete på en workstation med ECC minne etc om det är viktiga data ?
Den extra kostnaden i hårdvara är försumlig i sammanhanget när mjukvaror kan kosta hundratusentals kronor.

Jag äger en k6-200 med Windows98, den har aldrig varit online.
Övrigt: X220 i7,ips,4,160ssd, phenom quadcore, pentax k-5, duron900 med freebsd bla bla bla

Trädvy Permalänk
Medlem
Plats
Västkusten
Registrerad
Aug 2010

Man får se vad systemen ska användas till.

Vilken processor, grafikkort, minnen, klockfrekvenser och dyl som är "bäst" kan skilja sig om man ska använda datorn till att spela Battlefield eller om man ska använda datorn som databasserver exempelvis.

Många som pratar överklockning kallar sig Gamers och en del kan ha svårt att förstå att datorer kan användas till andra saker, eller åtminstone ha spel som utgångspunkt och utgå från att alla använder sina datorer till att spela spel om inget annat nämns.
Naturligtvis går det att köra överklockat utan att spela. Men ofta är det spel som är utgångspunkten när det pratas överklockning.

Är det affärskritiska system så får man väl göra en avvägning mellan risk och potentiell vinst.
Hur stor risk är det att man får problem med överklockade system jämfört med standardklockade system?
Är förtjänsten av tidsvinsten med överklockade system så pass stor och risken för fel så pass liten att man ändå går plus även om man någon gång får betala viten i miljonklassen?

Går det som körs att köra i kluster? Det går att köpa många datorer för en miljon. Du kan knappast överklocka en dator så den blir lika snabb som hundratals datorer.

En annan fundering är om du ska arbeta hemifrån, om det är bäst att du gör det på egen dator eller om det är bättre att du är fjärrinloggad mot företaget och att arbetet utförs på företagets maskiner. Om du jobbar för ett företag med egen IT avdelning så kan det vara en fråga att ta upp med dem. Annars kan det vara värt att ta upp med närmsta chef.

Trädvy Permalänk
Medlem
Registrerad
Jul 2013
Skrivet av Johan86c:

Hur gör ni som använder datorn seriöst och har riktigt stora viten om om något blir fel på det arbetsmaterial som ni lämnar, överklockar ni mycket? Litar ni enbart på några burntester etc? Finns det någon som till och med överklockar en kritisk server? Vad som är stora viten beror såklart på ens ekonomi, men viten på upp och till en miljon är ingen ovanligt för oss som jobbar inom IT.

När det gäller viten som handlar om att garantera hög tillgänglighet (typ 5-6 nior). Och står en miljon i vite på spel har man inte en miljö där allt står och faller med en server - då gäller det att man har rejält med redundans. Allt annat vore vansinne - man måste räkna med att hårdvara och mjukvara kan och kommer fallera. Och då är det nästintill irrelelvant om man har överklockat eller inte.