Egentligen inte, men om man har v-sync på måste man ha något som inte drar för mycket prestanda relativt till kraften man har. Microstuttering beror på något som heter AFR, Alternate Frame Rendering. Detta betyder att när dina två grafikkort ska visa något på skärmen så turas de om att visa varje bild. Om du har v-sync på och då visar 60 bilder i sekunden betyder detta att varje grafikkort renderar 30 bilder var per sekund, i tur och ordning. I teorin uppstår inte ms om grafikkorten är perfekt synkade, men i praktiken blir det inte så.
Alltså innebär det här att om det hade fungerat perfekt så hade varje kort tagit exakt 1/30 sekund på sig att visa varje bildruta. Efter att grafikkort 1 har renderat 30/30 bilder och grafikkort två precis har blivit färdig med den 30:e bilden, har det gått en sekund i verkliga livet. Sen börjar de om, och grafikkort 1 renderar bild 1/30, och grafikkort 2 renderar sin 1/30, sen renderar grafikkort 1 bild 2/30 och så fortsätter det till sekund 2 har gått.
Med andra ord ska det ta 1/30 (en trettiondels) sekund för varje grafikkort att rendera EN bild. Två bilder blir 2/30 sekund, tre bilder blir 3/30 sekund etc. när det har gått en sekund har 60 bilder totalt blivit renderade, och tillsammans över tid får man ett bildflöde.
Problemet som är känt som microstuttering uppstår eftersom varje bild inte tar lika lång tid på sig att renderas. Säg att vi börjar från början, med bildruta 1. Alltså har grafikkort 1 som uppgift att rendera sin 1/30, och den gör det på 1/30 av en sekund. Grafikkort 2 gör samma sak med sin 1/30, men sen börjar det bli lite fel. Grafikkort 1 är uppe i 5/30 men renderar inte den bilden på 1/30 av en sekund utan något långsammare, säg 1/60 (hälften så snabbt). Detta betyder att grafikkort 2 måste vänta på grafikkort 1 innan grafikkort 2 kan rendera sin bild. Tänk på att bilderna inte kan renderas i förväg, utan görs "på beställning". Detta resulterar till slut, när 1 sekund har gått, att inte alla bilder har kommit ut i tid, och därför har man under den sekunden kanske 30 FPS istället för 60 FPS. Nästa sekund kanske kortet tar igen det, och då får man kanske 90 FPS, tredje sekunden kanske den är nere på 30 FPS igen, och så fortsätter det. Detta var en överdrift, men poängen tydliggörs. För ögat ser det inte ut som att det flyter på, men datorn visar ändå en hög FPS. Varför? Eftersom den tar ut alla FPS och visar bara genomsnittet. Alltså kan datorn visa att du har 75 FPS (i genomsnitt!) men ändå ser det ut som att du bara har 40 FPS. Detta problemet existerar inte på enskilda grafikkort, då samma kort renderar alla bilder.
Säg att du istället har tre grafikkort (eller två riktigt snabba grafikkort, utan v-sync). Då kommer samma sak hända, men din FPS kommer att vara så hög att det kvittar. Du kanske pendlar mellan 80-200 FPS, med genomsnittet på 140 FPS, och det kommer för ditt öga se ut som kanske 80-90 FPS, men det är så högt så att det stör inte. Det flyter alltså på. Om man har v-sync stryper man bilderna till max 60 bilder (frames) per sekund, och lägsta-FPS hamnar under det.
Ju lägre max-FPS man har, desto mer syns microstuttering.
Ursäkta för den långa texten, men jag hoppas det är lite tydligare nu.
En artikel som förklarar det med bilder på ett mycket bättre sätt än vad jag gjort.