-Full HD tv:n resoluutio on 1920 x 1080 pikseliä eli n 2MB. -Digikameran kuvan tarkkuus voi olla esim 4000 x 3000 pikseliä eli 12MB. Voisi siis ajatella, että Full HD tv ei voi hyödyntää suuremmalla tarkkuudella otettuja kuvia kuin 2MB mutta kyllähän sen näkee huonommillakin silmillä että 2MB kuva on kovasti surkea kun sitä katsoo tv:n ruudulta mutta 12MB ei. Missä menee mun matematiikka pieleen? :hitme:
Nyt pitäisi tietää, että mistä tuo 2MB:n kuva on saatu. Teoriassa eroa ei pitäisi olla. Jos vertaat vanhaa 2MB kameran kuvaa uuden 12MB kameran kuvaan, niin totta kai eroa on. Vanhoissa kameroissa kenno on kaikinpuolin huonompi, kuin uusissa kameroissa. Jos kuvankäsittelyohjelmalla skaalaat laadukkaasti tuommoisen 4000x3000 reson kuvan 1920x1080 resoon (alkuperäistä kuvaa pitää kyllä cropata, koska suhteet ovat väärin) ja katsot kuvia telkusta, niin mitään eroa ei pitäisi olla.
Megapikselit eivät ole ainoa ero valokuvissa tai oikeammin kameroissa, joilla ne on otettu, sen enempää kuin maksimidesibelit ovat ainoa ero samantyyppisissä kaiuttimissa. Eli, kuten yllä kysytään, ovatko molemmat kuvat samasta kamerasta (ja kohteesta) muutoin samoilla asetuksin, poislukien desibeli-eikun megapikselimäärä, vai kahdesta eri kamerasta ja kohteesta?
Jos on kyse saman kuvan vertailusta ennen ja jälkeen kuvankäsittelyohjelmalla skaalausta, voi syynä olla se että useat ohjelmat pakkaa kuvaa kun sen tallentaa. Laadukkaasti tehty ohjelmallinen skaalaus näyttölaitteen natiiviresoon voi antaa jopa paremman lopputuloksen, koska TV:n skaalaimen ei tarvitse natiivireson kuvaan enää koskea.