Detta är nåt som orsakar onödigt mycket förvirring.
Grovt räknat kan man ta maxeffekten för varje komponent och summera, så får man reda på vad totalen är. I stort sett är det processor och grafikkort som är de stora förbrukarna i en normal dator. Moderkort, minne, kylning, fläktar, lagringsenheter och annat smått hamnar på under 100 W sammanlagt, nästan hur extremt man än gör det, och det är snarare runt 30-50 W på en normal dator.
Om man då har en processor med en angiven TDP på säg 95 W, så kan den dra mer när den boostar, så säg 50 procent mer, eller ca 150 W i detta fallet.
Grafikkortet har en bestämd maxeffekt. Säg att den är 340 W vid 100 procent, så kommer den att dra 340 W som mest så länge man inte höjer effektgränsen, men höjs den till 110 procent, så blir det ca 375 W i stället, så det är lätt att räkna.
Räkna samman detta, så ger det vad datorns delar kommer att behöva som mest från nätagget. En oklockad 10900K med ett oklockat 3090 och normala komponenter i övrigt kan antas dra maximalt (toppar, inte kontinuerligt) ca 650-700 W. Ett nätagg på 750 W kommer i alla lägen att räcka till för det, så länge nätagget är av god kvalitet.
Det Nvidia gör är att gardera sig. Om nån har en högt överklockad och törstig processor och ett nätagg av tveksam kvalitet/konstruktion, ja då behövs större säkerhetsmarginaler i rekommendationen.
Innan jag skaffade 3080 hade jag 2080 Ti, och det kombinerat med 3900X drog 465 W som mest från väggen. Med ca 90 procents verkningsgrad på nätagget motsvarar det ca 420 W från nätagget till datorns komponenter. Ett nätagg med bra kvalitet på 450 W hade alltså räckt till. Ett 3080 drar runt 80-90 W till, så 550 W skulle räcka i dag...