Utöver proffsfotografering har kameror mer eller mindre ersatts av telefoner vars kameralösningar blir alltmer potenta för varje år som går. Detta sker dels genom maskininlärning och algoritmer som blir allt bättre på att efterbehandla ett fotografi till hur det "egentligen" borde se ut, men även nya förbättrade kamerasensorer.

Dominerande inom kamerasensorer är Sony och Samsung, där främst den senare utvecklar allt mer högupplösta lösningar. Nu publicerar Twitter-profilen @UniverseIce en investerarpresentation från Samsung, som avslöjar en kamerasensor med den skyhöga upplösningen 600 megapixlar. Räknat i individuella pixlar motsvarar det 4K UHD (3 840 × 2 160 pixlar) gånger 72.

Den skyhöga upplösningen skulle kunna nyttjas för att låta användaren zooma in på objekt långt borta. Ett annat är så kallad pixel-binning där algoritmer slår ihop flera pixlar till en, där tanken är att ge bättre bildkvalitet. En nackdel med en högupplöst sensor som denna är pixlarnas storlek, vilka ofrånkomligt släpper in mindre ljus med resultatet att brus introduceras i den fångade bilden. Sammanslagningen av flera pixlar ökar mängden insläppt ljus som utgör varje pixel.

För att möjliggöra den höga upplösningen är sensorn enorm i telefonsammanhang. Enligt Samsung själva skulle sensorn ta upp cirka 12 procent eller en åttondel av telefonens baksida, men också sticka ut med hela 22 millimeter. Det går därmed att ifrågasätta huruvida Samsung tänkt använda sensorn för telefoner, men att en telefon används som exempel talar ändå för det.

Ser du något användningsområde för löjligt många pixlar i en kamerasensor eller borde Samsung istället fokusera på bättre bildkvalitet i lägre upplösta?