Jag har inte sätt några jämförelser av den typen du nämner, så jag kan inte uttala mig om dem specifikt.
Utan att veta i detalj vad som händer "under huven" är det svårt att dra några slutsatser. Jag vet inte om du med codec menar just komprimeringsalgoritmen, för det är ju rätt mycket som händer med bilden innan dess. Signalbehandling i olika form innan signalen blir digitaliserad och därefter läggs det på kontrastkurvor, uppskärpning osv.
Att använda en 4k (exempelvis) sensor istället för en 2k när man spottar ut 1080p i slutändan är däremot inte alls så konstigt. För har man 2Mpix upplösning på sensorn och har en bayersensor så kommer den verkliga upplösningen inte att bli 2Mpix, eftersom att en del information går förlorad i demosaic:en.
Att ha en sensor med fler pixlar borde även ge bättre möjligheter till bra/effektiv brusreducering och det kan finnas andra fördelar åxå, för just den interna bildbehandlingen att ha tillgång till mer data.
Rent teoretiskt skulle man ju kunna ha väldigt avancerade algoritmer som analyserar innehållet i bilden och väljer ut vad som är "riktiga" detaljer och framhäver vid nerskalningen av bilden.
Sensorn med högre upplösning skulle ju kunna ha svagare AA-filter, men vinsten i upplösning pga det borde orimligen vara så stor att det har nån praktisk påverkan. Man kastar ju bort 90% av bildinformationen från varje bildruta medi en 5D MkIII om man filmar i 1080p och skillnaderna med och utan AA-filter är mycket mycket mindre än så. Det man förlorar pga bayermönstret och demosaic:en är åxå en mycket mindre skillnad än de 90% man kastar bort.
Jag tror att det beror på helt andra saker än upplösningen och skulle det vara upplösningen det berodde på så skulle ju 5d MkIII vinna stort över s35-sensorn, som ju bara är på typ 8Mpix, jämfört med 22Mpix för 5d MkIII.