Moderkort kan överklocka Geforce 9600 GT av misstag

Permalänk
Melding Plague

Moderkort kan överklocka Geforce 9600 GT av misstag

Det har nyligen kommit fram att Nvidia Geforce 9600 GT har en odokumenterad funktion som gör att grafikkortets klockfrekvens beror på PCI Express-bussens klockfrekvens. Detta är dock inget som Nvidias drivrutiner rapporterar och det är då möjligt att överklocka grafikkortet utan att veta om det. Prestandatester som jämför 9600 GT mot AMD:s grafikkort på ett moderkort från Nvidia kan dessutom ha gett stora fördelar åt Nvidia.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Där ser man.

Visa signatur

[Q6600@3.2GHz] [2048mB] [2xHD 3870 CF] [2xRaptor] [2xRE2 500GB] [HDA Explosion]

Permalänk
Medlem

Nu frågar man ju säkert sig själv... Varför ?

Permalänk
Medlem

Lät en aning skumt.

Visa signatur

PC1: P600s |ROG Z790-F Wi-Fi |14700KF |RTX4090 Aorus Master
PC2: H440W |H80i |i7 8770K 5GHz |RTX3070
PC3: Void X |i5 10400f |GTX3090 Super
VR: Valve Index |Oculus Quest 3
Konsol Setup: LG OLED77CX |Xbox Series X |Playstation 5

Permalänk
Medlem

"Beroendet mellan PCI Express och grafikprocessor är inte litet heller utan Techpowerup har upptäckt att om PCI-frekvensen ökar 5 MHz kommer grafikkortets klockfrekvens att öka med hela 5 procent."

Är väl inget konstigt med detta? Kan inte tänka mig något annat än ett linjärt förhållande mellan dom.

Permalänk
Citat:

Ursprungligen inskrivet av ajp_anton
"Beroendet mellan PCI Express och grafikprocessor är inte litet heller utan Techpowerup har upptäckt att om PCI-frekvensen ökar 5 MHz kommer grafikkortets klockfrekvens att öka med hela 5 procent."

Är väl inget konstigt med detta? Kan inte tänka mig något annat än ett linjärt förhållande mellan dom.

Eeehum knappast ett normalt fenomen eller hur? Undrar om det är en bugg eller ett en medveten funktion , väldigt märkligt om dom dessutom medvetet favoriserat sina egna chipset.

Visa signatur

[X570 Aorus Elite][5800X3d][32gb ram][RTX3080][500gb 970 Evo plus M.2+ 2Tb 980pro M.2 ][Corsair AX850][Obsidian 800D][LG 27GL83A ][W10]

Permalänk
Medlem

Detta var bra att veta

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk

WOW - Vilken nyhet!

Permalänk
Medlem

Nu kommer väl den största frågan varför har nvidia inte gått ut med detta?

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Chibariku
Nu kommer väl den största frågan varför har nvidia inte gått ut med detta?

Dom ville ju inte att det skulle säljas överklockade grafikkort så dom stoppade det, kan detta vara "haken"? Förövrigt tycker jag det är ett riktigt fulknep.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem

Det innebär alltså att kort från ati i vissa test skulle varit lika bra eller tom bättre då de inte var överklockade. Hmm. Vissa test kanske kommer få göras om eller iaf kompleteras med mer exakt data.

Visa signatur
Permalänk
Medlem

HAHA, häftigt:D

Visa signatur

Vincent Gustafsson

Än en dag går solen upp.

Permalänk
Medlem

Man undrar nästan om nVIDIA är/var medvetna om detta eller om det är någon slags nödlösning som de inte är så värst stolta över. Märkligt.

Visa signatur

- In the beginning the Universe was created. This has made a lot of people very angry and has been widely regarded as a bad move
- The Guide is definitive. Reality is frequently inaccurate.
Douglas Adams

Permalänk
Medlem

Är ju inte första gången nvidia fuskat, fast dom har hållit sig till mjukvarufusk hittils. Roligt att dom "tvingar" folk till det nu.

Visa signatur

//Gelantious
I heard life sucks, that''s why I''m glad I don''t have one.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Klargplutte
Eeehum knappast ett normalt fenomen eller hur? Undrar om det är en bugg eller ett en medveten funktion , väldigt märkligt om dom dessutom medvetet favoriserat sina egna chipset.

Det är ingen bugg, det är ett enkelt sätt att minska sina kostnader. Sen så kan man ändra PCIx bussen på dem flesta moderkort oavsett krets. Dock så ger det ju Nvidia ett övertag i prestanda tester där man inte hade koll på PCIx bussens hastighet.

Visa signatur

|| Surface GO 2 ||

|| NR200P, 12600K, Z690M-ITX, NH-U9S, RTX 3060 Phoenix, SKC2500 500GB, Fury 16GB, HX520 ||

Permalänk

Jag har själv ett 9600gt och har typ märkt av detta.
För de första så ligger Klockan på 702 och shader på 1728 oklockat.. och det är ju inte normalinstälningarna..
Och när jag försöker överklocka det, tex 730 / 1800, så blir det istället (enligt EVEREST Ultimate) 792 / 1944 Jag blev själv väldigt förvånad speciellt när jag kunde köra 3Dmark i detta. En gång hade jag även 850 / 2100 nästan.. fast det blev knappast någon prestandaförbättrning så man kan ju undra om dessa siffrorna stämmer?? Någon som vet något annat program jag kan kolla var frekvenserna ligger på.?

Permalänk
Medlem

Allebaggen du blandar inte ihop med att den har "steps" då? När man överklockar 8800 serien så stiger inte klocken föränn man går över vissa trösklar.. t.ex vill man ha 820 i core, så ska man ligga mellan 811-823 (hittade på ett eget exempel).. sätter man den på 824 så stiger klocken till kanske 832 istället.

Visa signatur

Vem orkar uppdatera den här signaturen egentligen? Kommer ju ny teknik hela tiden :(

Permalänk

Jo jag har märkt av dessa trösklar men skall det verkligen bli så mycket högre??

Permalänk
Medlem

Först floppen med 9000 serien som skulle vara så mycket bättre men i själva verket finputsning på 8000 serien.

NVIDIA måste fått pengafrossa efter rekordvinsten detta år. När får vi konsumenter se skymten av dessa vinster så som lite bättre priser bättre OME kylare m.m.

Visa signatur

[ Station - | Corsair Obsidion 650D | MSI Z87-G45 | 2xGTX 970 | SSD 250GB 4,5 TB HDD | 16 GB DDR3 1600 MHz | i7 4770k | Corsair H80 | 2x22" Benq LED ]

Permalänk
Avstängd

Stor chans att det är medvetet, nVIDIA grafik och nVIDIA "moderkort" hur stor är oddset?

Hur det än är fortsätter jag köpa moderkort med nVIDIA kretsar, undrar om framtida ATI grafik fungerar på det?

Men att nVIDIA fuskar i grafiken är inte något nytt eller litet.

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ajp_anton
Är väl inget konstigt med detta? Kan inte tänka mig något annat än ett linjärt förhållande mellan dom.

Tänk om tänk rätt, om förhållandet var linjärt skulle det vara bussen som var den begränsande faktorn i datorsystemet och det låter väl inte särskilt troligt för ett mid-end kort.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Allebaggen
Jag har själv ett 9600gt och har typ märkt av detta.
För de första så ligger Klockan på 702 och shader på 1728 oklockat.. och det är ju inte normalinstälningarna..
Och när jag försöker överklocka det, tex 730 / 1800, så blir det istället (enligt EVEREST Ultimate) 792 / 1944 Jag blev själv väldigt förvånad speciellt när jag kunde köra 3Dmark i detta. En gång hade jag även 850 / 2100 nästan.. fast det blev knappast någon prestandaförbättrning så man kan ju undra om dessa siffrorna stämmer?? Någon som vet något annat program jag kan kolla var frekvenserna ligger på.?

Du har missförstått artikeln, vad dem säger är att moderkortet klockar upp grafikkortet utan att drivrutinerna märker av det, alltså du kan inte "se" att grafikkortet har klockats.

Visa signatur

|| Surface GO 2 ||

|| NR200P, 12600K, Z690M-ITX, NH-U9S, RTX 3060 Phoenix, SKC2500 500GB, Fury 16GB, HX520 ||

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av GimlY
Först floppen med 9000 serien som skulle vara så mycket bättre men i själva verket finputsning på 8000 serien.

NVIDIA måste fått pengafrossa efter rekordvinsten detta år. När får vi konsumenter se skymten av dessa vinster så som lite bättre priser bättre OME kylare m.m.

Hade varit desto smartare att döpa det till 8900, men det enda de ser är ju $.$

OnT: Jag blir inte förvånad över detta. Kriget kommer fortsätta.

Permalänk
Medlem

jävla äckelföretag, först vägrar dom låta intel använda SLI och nu det här.

Visa signatur

MBP: 13" - M1
Stationär: Win11 - Ryzen 5900X - 128GB - GTX 4080
Server: Ubuntu - i5 4670k - 32GB - 4x5TB Raid-Z
Server: Rpi4 8GB, 1TB USB SSD

Permalänk
Medlem

Trodde då att grafikkortets frekvens per automaktik följde med PCI-E portens. Hade inte kunnat tänka mig annat, fast ja där ser man

Visa signatur

Too, often we lose sight of life's simple pleasures. Remember, when someone annoys you it takes 42 muscles in your face to frown, BUT, it only takes 4 muscles to extend your arm and bitch-slap that mother@#?!&! upside the head - Gaz Cooper

Permalänk

Det är pengarna som styr dom $_$ De anställda vet inte va de gör , det är pengarna som styr .

Btw, frågan är varför ?

Visa signatur

Eeeeeeh.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Caylon
Hade varit desto smartare att döpa det till 8900, men det enda de ser är ju $.$

Varför hade det varit smartare?

Visa signatur

HTPC: Fractal Design Define R4, ASUS Z87-PRO, Intel i7 4770K, Crucial Ballistix Sport 16GB, MSI GeForce GTX 760, Creative Soundblaster Z, Pioneer VSX-527-K.

Laptop: ASUS X502CA-XX009H

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av azimuth
Tänk om tänk rätt, om förhållandet var linjärt skulle det vara bussen som var den begränsande faktorn i datorsystemet och det låter väl inte särskilt troligt för ett mid-end kort.

Nja, eftersom busshastigheten/4 används som "kristall" så bör det väl vara linjärt.
Om vi säger att GPUn körs i prick 1000 MHz som standard, för att få det lättare att räkna, så ser vi att det är 1000/(100/4) = 40ggr "kristallen".
Om "kristallen" höjs till 105/4 = 26.25MHz istället för 25, så ökar GPU-frekvensen till 40*26.25 = 1050, eller 5%, samtidigt som bussen ökades med 5%.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem

Men går det att överklocka kortet på vanligt sätt via RivaTuner då? och jag som inte har stöd för överklockning av g-kort i bios så är ju detta perfekt om det bara är att ändra PCI-e Bussen

Visa signatur

🖥️ IQUNIX ZX-1 - i5-10600K - Z490I Unify - RTX 3070 - 16 GB 3600 MHz - SF750 - ASUS PG279QZ
🚗 Fanatec CSL DD - CSL Pedals LC - HP Reverb G2
📺 LG B1 55 - Dali Concept 6 - Pioneer VSX-923
🎮 AYN Odin Lite
📞 Asus Zenfone 10

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av POMAH
Det är ingen bugg, det är ett enkelt sätt att minska sina kostnader. Sen så kan man ändra PCIx bussen på dem flesta moderkort oavsett krets. Dock så ger det ju Nvidia ett övertag i prestanda tester där man inte hade koll på PCIx bussens hastighet.

Ja, precis. De sparar ju in en kristalloscillator på kortet iaf. Kan inte se nåt fel med det egentligen. PCI-expressbussens klocka ska man ju helst inte ändra på ändå.

Är det nån som annars märkt att dem alltid (på de grafikkort jag använt iaf) använder kristalloscillatorer på 27MHz. Alltid just 27 MHz. Nåväl....

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W