Hej Erik Richard, m.fl.
Jeg er ikke helt sikker på at jeg forstår alt det du prøver at redegøre
for.
In article <3F100072.EBDAE7B@mail1.stofanet.dk>, Erik Richard Sørensen
<kml.ers@mail1.stofanet.dk> wrote:
> Hans Christian Hansen wrote:
>
> > > Og om du får 1 eller 2 millioner farvenuancer på CCD'en ved at spare
> > > måske 2000kr. i forhold til et mere kendt produkt kan vel være næsten
> > >ligegyldigt. Dine øjne kan alligevel ikke opfatte mere end omkring 160.000
> > > farvenuancer.
> >
> > Farvenuancer. Mener du pixels?
>
> Nej, jeg mener farvenuancer...
Det er korrekt, at der er en begrænsning i hvormange farvenuanser vores
øje kan skelne, om det drejer sig om 160.000 vil jeg ikke diskutere...
Problemet er, at man ikke kan lave et farvefilter til et kamera, der
nøjagtigt kan skelne de samme farver som vi mennesker, og derfor skal
et kameraet kunne skelne lagt flere end vi mennesker, således at vi
senere kan trække de rigtige værdier ud af billedet.
> Forklaret på en lidt anden måde kan du sammenligne dit øjes nethinde med den
> CCD
> sensor, der sidder i ethvert digicam (uanset om det er til still-billede eller
> bevægelige motiver). Din nethinde består af såkaldte 'tap-celler' og
> 'stav-celler'. Disse to typer nerveceller opfatter det, der kommer ind i øjet
> -
> form, str. struktur, farver, om det er 2D eller 3D, osv.osv.. Samtidig
> opfatter
> disse celler farverne, som så sendes videre til din hjerne, hvor det
> bearbejdes,
> så du få r et billede ud af det, - altså det, du ser...
Du har fat i noget af det rigtige, bortset fra, at øjet kun kan se hvad
det bliver udsat for at belysning. Det kan ikke se form, facon, 3D
eller lign. Dette er noget vores hjerne generer.
3D effekten opstår fordi vores øjne er adskilt fra hinanden, så der er
en lille forskydning mellem billederne af hhv. venstre og højre øje.
Denne lille forskel mellem billeder, går det muligt for vore hjerne at
opfatte dybde.
Det er korrekt at det er hjernen der generer det billede vi ser.
> > Pixel på en skærm er det antal bestrålingspunkter, der med den elektroniske
> bestråling er med til at danne billedet på skærmen. Skærmens opløsninhg kan i
> princippet sammenlignes med en nethindes egenskaber, men selv med nethindens
> antal celler vil den vise en højere opløsning så at sige. - Hver enkelt celle
> i
> nethinden kan registrere op til omkring det, der svarer til ca. 12.000 punkter
> (svjh.). - Men antallet af farvenuancer, din nethinde kan registrere er langt
> lavere, -som jeg skrev ca. 160.000 nuancer.
>
> Når du sætter en skærms "kvalitet", sætter du både en opløsning = pixels og en
> farvemætning = farvedybden. Alle skærme kan sættes til at vise gråtoner og
> farver. - Du kan også sætte dem til forskellige opløsninger (bit depth) -
> 8bits,
> 16bits og 24bits. Meget kort sagt, så er 8bits lig med hundreder af farver -
> altså op til 1023 farvenuancer,
8 bit er lig med 256 farver/nuancer.
> - 16bits fra 1024 til 32.768 farvenuancer,
Ja.
> og
> 24bits fra 3.2769 til det uendelige,
Nej, ikke det uendelige, blot milioner af farvenuancer. (Udregn selv
hvad 2^24 er).
> - i parksis dog som regel begrænset ved
> 2.621.456 farvenuancer. - Men i pixel kan du stadig have det hele fx. i
> 640x480,
> 1024x768 eller 2200x1680, - eller endnu højere opl. på specialskærme. Pixel
> udtrykker bare det antal påførte fluoricerende punktgrupper, der er på en
> skærm,
> - altså med lidt god vilje svarende til din nethinde...
Farvenuancerne skelnes pr. pixel, så uanset opløsningen, så skelnes det
samme antal farver.
Opløsningen handler om tætheden af disse pixels.
> > Her er det så, at det menneskelige øjes 'begrænsninger' kommer ind. - Svarende
> til opløsningen (pixel) har øjet faktisk næsten ingen begrænsning i _priksis_,
> fordi din hjerne kompenserer for de manglende 'pixels'. - teoretisk er din syn
> reelt begrænset til en opløsning svarende til en skærm med 400x400 - altså
> 160.000, - men pga. hjernes genialitet, er der ingen begrænsning i 'pixels'...
Der er vel en begrænsning i antallet af stave og tappe, som vores øje
er udstyret med, uanset at vores hjerne kan bedrage os til at se noget
bedre end det er?
> > Når det gælder farveseparationen, er det noget andet. Her er øjet begrænset
> til
> antallet af nerveceller _plus_ en anelse 'korrektur' i selve hjernen, så du
> kommer op på at kunne opfatte omkring de 160.000 forskellige farver/nuancer i
> farver. - Svjh. kan man med træning komme op på at opfatte omkring de 200.000
> nuancer...
Når du skriver 'farveseparationer' går jeg ud fra, at du mener evner
til at skelne farver.
Skal tallet på 160.000 forstås sådan, at det er summen over aller
nerverne i øjet? Hvis det er det du mener, så er der jo stadig ikke
tale om flere farvenuanser, blot fordi øjet har mere end en nervecelle.
Der er som hovedregel ingen, som kan skelne mere end 100 grånuanser
mellem hvid og sort.
En skærm kan således også vise mange farvenuanser som vi ikke kan
skelne. Til gengæld kan vi skelne endnu flere farver, end skærmen er i
stand til at gengive. Der er stadig ingen skærme, som kan gengive en
nøjagtig kopi af ALLE de farver det menneskelige øje kan
skelne/opfatte.
CIE har lavet de for farvestyringsteoretikere, så velkendte farvetests
(i 1932 og 1976), som viser dette. (Ja, det er længe siden!)
Dette er i hovedreglen årsagen til at der er så mange RGB farverum
(ICC-profiler) at vælge imellem, når man indstiller
farve-indstillingerne i Photoshop og andre farve-kritiske programmer.
Det er CIE's arbejde, som danne grundlaget for ICC-profilerne.
Så længe vi taler om at optage farverne elektronisk, må vi hele tiden
vælge hvilke farve vi vil vælge fra. Vi skal også vælge hvad vi
definerer som hvid og sort.
(Hvid er det lyseste punkt, og farverne ændres i billedet ved at R-G-B
signalet i billedet sættes til samme resulterende værdi i dette punkt.
F.eks 10-0-20 sættes lig 0-0-0, og R og B farverne forskydes herefter.)
Øjet indretter sig selv til hvidpunktet i det klarest punkt, som vi
umiddelbart ser (derfor se et rum belyst af en TV-skærm, blå ud, når vi
betragter det fra en mørk vej med gadebelysning ved aftentide - eller
også ser gadelygterne gule ud set inde fra TV-stuen...)
> > - Og så kommer det 'industrielle paradoks'... Man opgiver en CCDs 'evne' til
> at
> skelne farver i pixel (punkter)
Her rodes begreberne sammen. Man taler om et kameras opløsning, når man
ønsker at angive hvormage pixels det er udstyret med. Antallet at
farver det kan skelne angives typisk i bit-dybde, 8, 12 eller 16 bit
pr. farvekanal (rød, grøn eller blå).
> , hvilket for såvidt også er korrekt nok, men
> det
> spiller overhovedet ingen rolle, såsnart du er over de godt 32.000 pixels- for
> dit øje altså... Men for den hardware, der skal behandle informationerne fra
> en
> CCD, spiller det i allerhøjeste grad en rolle. - Meget kort og lidt populært
> sagt, så bruges der adskillige tusinde pixels (farvemæssigt) til at danne fx.
> farven grøn. Og da 'grøn' er mange ting, skal der bruges mange pixels til at
> lave
> de forskellige variationer af grønne farver.
En typist CCD er opbygget a 4 pixels for hver pixel der bliver vist i
billedet (1 rød, 2 grønne og 1 blå). Det er stadig disse CCD-elementer
som benyttes, så der bruges ikke flere eller færre pixels til at
generer 1 pixel.
Denne typiske CCD bliver så ved belysning opladet i hver af sine
celler, med en spænding mellem 0 og 1 volt svarende til lysmængden i
punktet, som senere kan måles/aflæses. Denne værdi lægges sammen med de
3 andre pixels, for at genere 1 pixel i billedet. (I hovedreglen, for
kameraproducenterne gør alt muligt med softwaren, for at beregne flere
pixelsværdier ud fra de forskellig farver pixels, for at opnå endnu
bedre opløsning).
Jo bedre en CCD, jo mindre støj kommer der i billedet, og jo mere
nøjagtig skal elektronikken, som aflæser chippen, være. (Dette koster
penge)
> > Når først billedet er fikseret på CCD'en, så er det faktisk elektronikken
> _bag_
> CCD'en, der er afgørende for den endelige kvalitet af et digitalt billede....
> CCD'en er 'nethinden', mens elektronikken bag er 'hjernen'. - Så hvis
> 'hjernen'
> er forkert konstrueret, så er det ikke sikkert, at farven grøn med en
> talværdi på
> 10552 er lig med det som fx. din hjerne opfatter som værende en pæn græsgrøn
> farve, som på en nyvandet græsplæne i foråret, men derimod måske som en
> vissengrøn græsplæne sent på efteråret...
Det er meget vigtigt, at efterbehandlingen at signalet fra CCD-chippen,
bilver gjort så nøjagtigt som muligt, og med så meget viden om
CCD-chippen som muligt, så man kan tage det bedste resonomenter i
softwaren, for at generere så flot og naturtro et billede som muligt.
>
> For at lave en lille sammenligning med (næsten) de to eneste digicams, jeg
> kender
> noget rigtig til, så er en Agfa ePhoto 1280 med en pixelopl. på ca. 870.000 på
> mange områder _bedre_ end en Olympus C-2100 med ca. 3 megapixel. - Begge
> arbejder
> efter 24bits princippet - altså millioner af farver.
Generelt skal man ikke kun gå efter opløsning - objektiv, og software
tæller også. Populært sagt, er 3 milioner skarpe, korrekt
farveballancerede pixels et bedre valg end 4 millioner uskarpe pixels.
Kameraet skal helst også kunne have mulighed for at ændre hvidpunkt,
for at undgår, for grimme farveforskydninger.
--
Søren Theilgaard
Theilgaard Consult
http://www.theilgaard.dk