Allerede når et billede tages sker der en korrektion af det, for at det bedst muligt skal afspejle det, vi ser med øjnene.
Sensorer
Der findes en række forskellige typer af sensorer i kameraer, men princippet bag dem er det samme: De består af millioner af lyssensorer der påvirkes/oplades når de rammes af lys . De registrerer altså mængden af lys, så sensorerne kan i sig selv kun bruges til at registrere gråtoner.
Farvefilter
For at kunne registrere farve er der placeret et farvefilter over hvert sensor, så der til forskellige sensorer slipper lys af forskellig farve/bølgelængde ind. Dermed kan der registreres et utal af farver, men det ville kræve store sensorer og meget plads. Da menneskets øje samtidig kun har tre typer tapceller, der hhv. registrerer blåt, grønt og rødt lys, så opnås en fin fotokvalitet ved at bruge filtre af disse farver.
Farvefiltrene lægges i et mønster over lysensorerne, da der for hvert pixel i et foto, skal registres en farve. Men i kameraer bruges mere end tre sensorer pr pixel, da menneskets øje er langt mere følsomt over for grønt lys end de to andre. For at tage højde for dette ligger filtrene i kameraet ikke bare ligefordelt med rød, grøn og blå, men i et mønster med en ekstra grøn eller andre farvetoner.
Det mest brugte mønster til farvefilteret er "Bayermønstreret", men der er også enkelte andre, som dog kun er brugt i meget få kameraer:
Bayermønster | CYGM-mønster |
---|---|
Green, Red, Green, Blue | Cyan, Yellow, Green, Magenta |
Er det mest brugte farvemønster. Det blev opfundet i 1976 af Kodak's ingeniør Bryce E. Bayer, og kaldes også GRGB, RGBG og RGGB. |
Mønsteret giver bedre billeder end bayermønster ved lav eller stærk lysstyrke, men det sker på bekostning af farvepræcision. Det er brugt i enkelte kameraer gennem tiden. |
Digitalisering
Hver pixel i et billede er som beskrevet et resultat af en registrering af lys i flere lyssensorer med forskellige farvefiltre over. Også i digitaliseringen - oversættelsen - af ladningen i lyssensorerne til farveværdier sker der også flere korrektioner for at få det optimale billede, der mest muligt ligner det vi ser med øjet . Digitaliseringen sker ofte i to processer:
- Fortolkning af ladning - hvor ladningen i de typisk 4 lyssensorer til hver pixel sammensættes til én farveværdi.
- Interpolering - hvor farveværdien justeres i forhold til værdien i nærliggende lyssensorer for at på opnå en højere lysfølsomhed…
Fotografier afspejler ikke virkeligheden
Allerede når et foto tages sker der altså en afgrænsning og korrektion af data. Dels i form af farvefiltrerne, som skal til for at kunne registrere farver, men som samtidigt ikke bare samler alt lys uanset bølgelængde, men tilpasses i forhold til det vores øjne ser. Derudover sker der også en korrektion efter at billedet er taget for at opnå det bedst mulige billede. - Men prisen er tab af data, så selv et uredigeret foto er ikke en rå og direkte afspejling af virkeligheden!
Sammenligning af kameraers farveprofil
Tag 3 kameraer og tag en række ens billeder med dem
- Sammenlign de tre billeder på samme skærm.
- Kan I se forskelle pga. kameraerne? Hvordan?
- Er der et af billedernes farver, der bedre matcher det I ser?
- Er I enige om, hvilken farvesammensætning der er bedst? Hvorfor (ikke)?
- Hvad tror I forskellen skyldes: linse, sensors størrelse, farvefilter, digitalisering?
Brainpop - Cameras
På Brainpop er der en fin lille video og quiz, der introducerer principper bag kameraer
se video