Även VRM har olika effektivitet beroende på dess temperatur. Så om du begränsar den till en viss mängd ström (som i triangeln), kommer mängden effekt den kan leverera variera något med dess temperatur.
Triangeln ger alltså förhållandet:
Är CPUn sval? Skala upp frekvenserna öka spänningen. Ökad effekt genom socket och mer ström genom VRM.
Antingen skalar CPUn tills dess att VRM inte får leverera mer eller tills dess att CPUn slår i en maxeffekt.
För mig känns detta som fullt rimligt skalningsbeteende, hur hade du velat se det istället?
Tror de flesta av oss överklockare sett bilder på brända sockets eller varit med om VRM som antingen inte orkar eller som överhettas. Någon av dem kommer alltid slå i taket före den andra.
Om vi vänder på det;
Om VRM är överbelastad får vi inte ge mer effekt till socketen, oavsett hur sval CPUn är.
Om CPU-socketen är överbelastad spelar det ingen roll hur mycket mer VRM kan ge eller vilken temp CPUn har.
Om CPUn är överhettad måste vi skala tillbaka på SoC/VRM.
Vad i detta beteende finner du flummigt?