Jump to content

Medición de la exposición en digital, derecheo del histograma


Yitar
 Compartir

Publicaciones recomendadas

Otra cosa es el muestro temporal de la señal, otro paso distinto en la conversión A/D. (pero yo sólo hacia referencia al bloque del cuantificador).

 

A buena hora...

 

Desde mi punto de vista y siempre respetando el tuyo, creo que esta persona ha explicado de una forma breve, precisa y sencilla los distintos tipos de cuantificación que nos podemos encontrar, en primer lugar contextualiza el concepto en un conversor A/D (que es donde procede) y posteriormente se centra en el cuantificador y su funcionamiento.

 

Celebro que lo hayas entendido, no debe estar tan mal ...

 

Si tiene que ver. Ya que vamos a tener un valor analógico que queremos cuantificar, y esa es precisamente mi pregunta, como se cuantifica ese valor!!!???.

Y por otro lado estoy de acuerdo en que no se pretende muestrear la señal en el dominio temporal pero si que lo estamos haciendo en el dominio espacial.

Por tanto en la conversión A/D estamos muestreando, cuantificando y codificando, los tres pasos esenciales de cualquier conversor A/D, sea de un sensor de imagen o de cualquier otro tipo.

 

De todos modos y como he dicho sólo me gustaría saber como se cuantifican los valores de los fotodiodos y sólo eso

 

Copio la respuesta que no has citado:

 

En los CMOS se ha trabajado hasta ahora en la zona lineal de la ganancia de los transistores que se digitaliza habitualmente con 12 o 14 bits mediante un conversor analógico digital. Estos valores pierden su linealidad al convertir el espacio de color de la cámara a Adobe o sRGB debido a la inclusión del exponente Gamma ( heredado de la adaptación a los CRT que no son lineales) por lo que la escala de las abcisas no es lineal y se parece algo a la de diafragmas.

 

Como te decía son lineales y no tienen nada que ver con lo que intuías:

 

Y por lo que veo todo parece indicar que o bien se usa cuantificación no uniforme o cuantificación logarítmica para el potencial del fotodiodo (me inclino más por la primera ya que se puede ajustar a la curva exponencial del diafragma). Eso es lo que quería saber

 

 

Salu2

Enlace al comentario
Compartir en otros sitios web

Creo que he llegado a la conclusión de que no estoy preguntando lo que quiero saber, así es que con el permiso de Guillermo, extraigo un párrafo de su articulo donde aparecen una serie de relaciones entre valores de exposición y niveles (bits) asignados.

 

 

Por otro lado el número de bits en que el RAW codifica los datos de la imagen impone un límite físico, o más bien se diría informático, de rango dinámico en una única toma. En el caso de la Canon 350D como en la mayoría de DSLR el RAW se codifica en muestras de 12 bits dando lugar por tanto a un límite máximo de 12 diafragmas y 4096 niveles totales.

 

Si denominamos como 0EV al diafragma más alto, ésta sería la distribución de los 12 diafragmas y los niveles que los componen:

 

0EV: 2048 niveles, 2048..4095

-1EV: 1024 niveles, 1024..2047

-2EV: 512 niveles, 512..1023

-3EV: 256 niveles, 256..511

-4EV: 128 niveles, 128..255

-5EV: 64 niveles, 64..127

-6EV: 32 niveles, 32..63

-7EV: 16 niveles, 16..31

-8EV: 8 niveles, 8..15

-9EV: 4 niveles, 4..7

-10EV: 2 niveles, 2..3

-11EV: 1 nivel, 1

 

Puede verse como, aún en una hipotética ausencia de ruido, sería complicado admitir que estamos registrando correctamente los diafragmas más bajos dado lo pobremente representados que están en cuanto a número de niveles tonales. Cabría hablar entonces de un ruido de cuantificación debido al excesivo redondeo al digitalizar.

 

 

Bueno, pues me gustaría saber porqué eso es así, es decir de donde sale ese reparto de niveles, cual es su origen?? es la misma respuesta, viene por lo del Gamma??

 

Gracias por el interés Antimonite.

Enlace al comentario
Compartir en otros sitios web

  • Moderadores
Bueno, pues me gustaría saber porqué eso es así, es decir de donde sale ese reparto de niveles, cual es su origen?? es la misma respuesta, viene por lo del Gamma??

 

Lo tienes explicado al inicio de este tema; concretamente en la primera respuesta después de la pregunta que inicia el tema.

Enlace al comentario
Compartir en otros sitios web

Bueno, voy a pensar un poco en voz alta, bueno a escribir en voz alta... así es que puede que suelte alguna burrada...

 

Soy bastante neófito en temas fotográficos máxime si hablamos de la versión química de la fotografía, la parte tecnológica que atañe a la versión digital se me hace más cercana debido a mi profesión. Aún así, a veces determinados conceptos básicos cuesta de ubicarlos o relacionarlos con realidades físicas implementadas mediante sistemas electrónicos como apertura, velocidad de obturación, etc... . Si estoy en lo cierto, lo que me ha pasado queda resumido en la típica frase: "Veo los árboles pero no el bosque". En fin vamos a un ejemplo práctico que es como mejor se entienden las cosas.

 

Imaginemos un sensor CMOS con filtro de Bayer: repasando conceptos sabemos que este tipo sensores están formados por infinidad de "photosites", hablando de una forma más sencilla un photosite es simplemente un "recipiente" donde se almacenan electrones, estos electrones se generan gracias a la incidencia de luz sobre la superficie del photosite, y en teoría se genera un electrón por fotón incidente gracias al efecto fotoeléctrico. Hay que tener en cuenta que estos recipientes tienen una capacidad máxima por tanto cuando se alcance ese valor, todos los fotones que sigan incidiendo sobre el photosite no generarán electrones en él. Una vez que el obturador se cierra, se deja de cargar el sensor y podemos decir que la toma está hecha. A partir de este momento empieza todo el procesado de datos, en primer lugar (y corregirme si esto es así) se aplica el ISO que correponda, es decir se amplifica la señal hasta el ISO elegido. Y a continuación se convierte a digital. La señal no es más que el valor de carga de los photosites, este valor es analógico (aunque por la naturaleza de su fuente podría decirse que no es continua ya que no pueden haber 2,5 electrones almacenados) y hay que digitalizarlo para posteriormente poder almacenarlo en forma de bits y así continuar con su proceso. Aquí entra en juego la cuantificación además de otros factores:

 

Para cuantificar lo primero que necesitamos saber es de cuantos niveles disponemos, vamos a ser tacaños y vamos a cuantificar la señal con 4 bit,s de aquí nos saldrán 16 niveles, tendremos 16 niveles para cada canal, cada photosite sólo recogera un "color" en concreto ya que tiene encima el filtro de Bayer, por tanto cada photosite tendrá electrones generados en función de la cantidad de luz de su color que haya incidido sobre él. Vamos a suponer recipientes muy pequeños, y para ponerlo fácil supongamos que sólo cogen 16 electrones, de esta forma no tenemos que preocuparnos como vamos a asignar los valores de cuantificación.

 

De esta forma tenemos el siguiente mapeo:

 

0000 es lo que transmitiré cuando el photosite esté vacio

0001 es lo que transmitiré cuando el photosite tenga 1 electron

0010 es lo que transmitiré cuando el photosite tenga 2 electrones

0011 ....

0100 ....

0101 ....

0110 ....

0111 ....

1000 ....

1001 ....

1010 ....

1011 ....

1100 ....

1101 ....

1110 ....

1111 es lo que transmitiré cuando el photosite esté a plena carga

 

Hasta aquí todo esta claro, pero realmente no hemos hablado de fotografía en ningún caso... son todo conceptos electrónicos y de procesado de señal... "aquí hay un árbol"...

 

Ahora bien, vámonos a otros lares... ¿Qué es el valor de exposición? Este concepto nuevo para mí determina la cantidad de luz a la que ha sido expuesta la toma. Este valor viene determinado por 2 factores apertura y velocidad de obturación. Cada paso en el valor de exposición representa el doble o la mitad de luz que el anterior, según nos movamos hacia arriba o hacia abajo. Estos valores se pueden relativizar en una escena y poner como origen 0EV a los valores más expuestos e ir bajando conforme otras partes quedan menos expuestas, más en concreto bajar a -1EV cuando nos encontremos con zonas que tengan menos de la mitad de luz. Bueno, si estamos en lo cierto, aquí tenemos... "otro árbol"...

 

 

Y aunque parezca evidente el siguiente paso para saber porque el primer diafragma se cuantifica con 2024 niveles, el segundo con 1024, etc... (digo evidente suponiendo que esté en lo cierto...), para mí no lo era en absoluto... la torpeza es así, que se le va a hacer...

 

El siguiente paso es simplemente volver a la tabla de asignaciones de niveles, mirarlo desde otro punto de vista y hacerse la siguiente pregunta ¿Qué significa que un photosite esté en 0EV?¿Cómo salen representados los diafragmas entre tanto número?

 

Como hemos dicho los valores EV son relativos, por tanto el origen me lo pongo donde yo quiera, y donde más convenga y el resto se colocaran en relación al primero. Por tanto vamos a tomar el valor máximo 15 como 0EV. ¿Donde está el siguiente diafragma? pues cuando me encuentre un photosite con menos de la mitad de luz (la cantidad de luz es directamente proporcional a la cantidad de electrones que tengamos almacenados), por tanto con 7, el 7 entra en -1EV, osea que tengo desde 8 hasta 15 inclusive niveles para cuantificar las muestras que se situen en el primer EV o diafragma. Cuando entraremos a -2EV?, pues en 3, tengo desde 4 hasta 7 inclusive niveles para cuantificar -1EV, así hasta el final. En teoría con esta cuantificación quedaría lo siguiente.

 

0EV --> 8 niveles

-1EV --> 4 niveles

-2EV --> 2 niveles

-3 EV--> 1 nivel

 

Ahora si que es más que evidente la mejora introducida en la exposición por el derecheo del histograma. Cuanto más a la derecha, sin saturar, más calidad tonal tendremos ya que más numero de muestras estarán cuantificadas con más niveles.

 

El error de compresión venía porque NO son los EV lo que se cuantifican, que aunque lo sabía, se pasaba por alto cuando leía las tablas de los niveles asignados a cada diafragma. Lo que se cuantifican son las cargas de los photosites y la consecuencia de esa cuantificación lineal es la expuesta arriba cuando se cambia al domino de los diafragmas. Cuando cambiamos el punto de vista.

 

Perdonad el mal rato que habéis pasado, ya que aunque para muchos era evidente, yo necesitaba entenderlo. Y espero que haya sido así.

 

Gracias por la paciencia Antimonite y Hermetic.

 

PD: Cuando pongo 0EV, no me refiero a que EV tome el valor '0' dado para un F1 y 1 segundo, me refiero al primer valor EV, sea cual sea. De otro modo estaríamos hablando en términos absolutos.

Enlace al comentario
Compartir en otros sitios web

Bueno, voy a pensar un poco en voz alta, bueno a escribir en voz alta... así es que puede que suelte alguna burrada...

 

Soy bastante neófito en temas fotográficos máxime si hablamos de la versión química de la fotografía, la parte tecnológica que atañe a la versión digital se me hace más cercana debido a mi profesión. Aún así, a veces determinados conceptos básicos cuesta de ubicarlos o relacionarlos con realidades físicas implementadas mediante sistemas electrónicos como apertura, velocidad de obturación, etc...

 

Sólo los burros no se enteran de que dicen burradas, y además no suelen reconocerlas. ( Ojo con el ruido de cadenas de Internet). Bromas aparte y a pesar de que cada vez me da más pereza voy a intentar ayudar a aclarar un poco el tema.

 

La respuesta a la luz de las emulsiones utilizadas al inicio de la fotografía ( siglo XIX) no era lineal: su opacidad variaba geométricamente con el tiempo de exposición; un tiempo de exposición ( con la misma intensidad luminosa) cuatro veces mayor daba una opacidad sólo doble en la placa. Por este motivo se eligieron escalas geométricas para la exposición:

las velocidades se doblan y los diafragmas se multiplican por la raíz cuadrada de dos al depender de su cuadrado la luz admitida.

 

De aquí nace en este siglo la definición de EV ( Exposure Value) , cuyo paso consiste en multiplicar por dos la exposición, siendo su definición formal:

 

EV = log ( D^2 x V) / log (2) donde D es el diafragma y V el inverso del tiempo de exposición en segundos

 

Si e diafragma es 8 y la velocidad 1/250

 

EV = log ( 64 * 250) / log (2) = 14 si en lugar de 1/ 250 fuese 1/125 o diafragma 5,6 valdría 13.

 

El voltaje de salida de los sensores es proporcional a la luz, pero la luz emitida en los tubos de radio catódicos ( CRT) aumenta con la potencia 2,2 del voltaje. Por este motivo, se decidió que en los espacios de color RGB utilizar el exponente 1 / 2,2 ( en sRGB 1/ 2,4 debido al cero) para tener de nuevo una representación lineal. Con los LCD no sería necesario, pero se mantiene por coherencia.

 

Como ves tanto las escalas geométricas ( logarítmica de base 2) como la Gamma ( el exponente) son herencias del pasado. El uso de exponentes menores que uno implica asignar más bits a la parte baja:

A sí por ejemplo 4 a 12 bits se convierte en ( 4/4095)^(1/2,2)*255 = 4 a 8 bits con lo que de rebote se les presta un poco más de atención aunque no la merezcan.

 

La resolución, en términos de intensidad luminosa, procede como decías del conteo de fotones ( a través del voltaje de los electrones que han desplazado amplificado por el transistor de lectura).

 

La “capacidad del pozo de electrones” (“full well capacity”) en las DSLR es de unos 50.000 electrones que podrían constituir 50.000 niveles distribuidos linealmente, es decir menos de 16 bits de resolución si lo utilizamos completamente. Estos son los únicos niveles reales que existen, debido a su origen quántico ( otro de los sentidos de cuantificación) y a las carácterística de el substrato no pueden haber más.

 

Desgraciadamente los 50.000 niveles no son aprovechable debido al ruido. 12 bits resultan adecuados si el nivel total de este no supera los 6 electrones ( es en lo que estamos) y elegimos como criterio de umbral de señal aquel en que la señal iguala al ruido que sería 12 electrones ya que 50.000 / 12 = 2 ^12. Canon introduce un offset de 1024 para su mercado de astrónomos lo que la obliga a trabajar a 14 bits, mientras que Nikon fija el punto negro a capón y se pierden algunas estrellas por el camino pero se "aligera" el proceso y 12 son suficientes.

 

De hecho los rangos dinámicos reales medidos a 14 bits están hoy en día por debajo de 10 EV, aunque hay WEBS de renombre que son capaces de medir hasta 11,5 EV con 12 bits sin ponerse colorados.

 

En cuanto al aprovechamiento del rango del sensor puedes leer unos cuantos post más arriba lo que opino al respecto.

 

Salu2

Enlace al comentario
Compartir en otros sitios web

  • 1 mes más tarde...
  • Moderadores
Buenisima explicación, gracias hermetic, recién empiezo con una D90 y trataba de dilucidar la diferencia con los archivos, y noté que en auto la foto sale, en algunos casos sobreexpuesta en la maxima calidad, ¿Será por esto que explicas?

No, la foto sale expuesta como tú la expongas... la cámara no hace nada sola sin un fotógrafo detrás.

Enlace al comentario
Compartir en otros sitios web

  • 3 semanas más tarde...

Osea que si lo he entendido bien yo lo estaba haciendo todo justo al revés: Comencé con una reflex de 36mm (una antigua OM-10 que solo tiene fotómetro, ni autofocus, ni motor, ni nada). Lo que yo hacía era ajustar el diafragma (como echo de menos el anillo del diafragma en el objetivo) y subexponer dando más velocidad de la que me proponía la cámara.

 

Con la digital he seguido haciendo más o menos lo mismo, midiendo las sombras en lugar de las luces, intentaré corregirme.

 

En cuanto al revelado, hice mis pinitos con el laboratorio de blanco y negro y tengo ganas de probar con el RAW, pero el problema es que luego hay que tratar las fotos una por una y yo en vacaciones me junto con más de 2000 (tiro muchas tomas con distintas configuraciones, y ahora casi me limito a ajustar el brillo y el contraste).

 

HermetiC, muchas gracias de nuevo por la lección magistral

Enlace al comentario
Compartir en otros sitios web

Sólo los burros no se enteran de que dicen burradas, y además no suelen reconocerlas. ( Ojo con el ruido de cadenas de Internet). Bromas aparte y a pesar de que cada vez me da más pereza voy a intentar ayudar a aclarar un poco el tema.

 

La respuesta a la luz de las emulsiones utilizadas al inicio de la fotografía ( siglo XIX) no era lineal: su opacidad variaba geométricamente con el tiempo de exposición; un tiempo de exposición ( con la misma intensidad luminosa) cuatro veces mayor daba una opacidad sólo doble en la placa. Por este motivo se eligieron escalas geométricas para la exposición:

las velocidades se doblan y los diafragmas se multiplican por la raíz cuadrada de dos al depender de su cuadrado la luz admitida.

 

De aquí nace en este siglo la definición de EV ( Exposure Value) , cuyo paso consiste en multiplicar por dos la exposición, siendo su definición formal:

 

EV = log ( D^2 x V) / log (2) donde D es el diafragma y V el inverso del tiempo de exposición en segundos

 

Si e diafragma es 8 y la velocidad 1/250

 

EV = log ( 64 * 250) / log (2) = 14 si en lugar de 1/ 250 fuese 1/125 o diafragma 5,6 valdría 13.

 

 

Bueno, ya sé que es un poco tarde para contestar a estas alturas, pero el tema me ha parecido muy interesante y he dedicido participar.

 

Probablemente tenga que irme al rincón de los asnos por lo que voy a decir, pero, yo siempre he creído que la correspondencia entre números f y la exposición que obteníamos era lineal, es decir, si a una apertura dada obtenemos una exposición dada y luego al doble de apertura obtenemos el doble de luz, entonces se puede decir que la correspondencia entre diafragma y exposición es lineal. Otra cosa sería el comportamiento del material fotosensible en los extremos más oscuro y más claro (subexposición y sobreexposición, respectivamente), pero ahí no entro.

Editado por luismc
Enlace al comentario
Compartir en otros sitios web

Probablemente tenga que irme al rincón de los asnos por lo que voy a decir, pero, yo siempre he creído que la correspondencia entre números f y la exposición que obteníamos era lineal, es decir, si a una apertura dada obtenemos una exposición dada y luego al doble de apertura obtenemos el doble de luz, entonces se puede decir que la correspondencia entre diafragma y exposición es lineal.

Se puede decir que al "doble de apertura" (que significa doble de apertura? el numero f? El diametro de la pupila?) entra el doble de luz. Pero es que abrir el doble no significa multiplicar o dividir por 2 el numero f. Dejar pasar el doble de luz partiendo de un f/8 no es un f/4, sino un f/5.6. Aquí queda patente que multiplicar por dos la cantidad de luz que entra no es lo mismo que dividir por dos el numero f, se trata de dividir el numero f por la raiz cuadrada de dos.

Enlace al comentario
Compartir en otros sitios web

Se puede decir que al "doble de apertura" (que significa doble de apertura? el numero f? El diametro de la pupila?) entra el doble de luz. Pero es que abrir el doble no significa multiplicar o dividir por 2 el numero f. Dejar pasar el doble de luz partiendo de un f/8 no es un f/4, sino un f/5.6. Aquí queda patente que multiplicar por dos la cantidad de luz que entra no es lo mismo que dividir por dos el numero f, se trata de dividir el numero f por la raiz cuadrada de dos.

 

 

Perdón, quería decir que la correspondencia entre el AREA de la apertura de diafragma y la exposición obtenida es lineal.

Enlace al comentario
Compartir en otros sitios web

Perdón, quería decir que la correspondencia entre el AREA de la apertura de diafragma y la exposición obtenida es lineal.

Creo que la correspondencia entre el área de apertura y la exposición es lineal. Entonces, lo que no es lineal es la correspondencia entre el numero f y el área de la apertura. Y lo que preguntabas originalmente era la relación entre el número f y la exposición.

Enlace al comentario
Compartir en otros sitios web

Creo que la correspondencia entre el área de apertura y la exposición es lineal. Entonces, lo que no es lineal es la correspondencia entre el numero f y el área de la apertura. Y lo que preguntabas originalmente era la relación entre el número f y la exposición.

 

Por eso mismo no entiendo lo que afirma Antimonite en su post cuando dice que no hay una relación lineal entre apertura de diafragma y exposición, vamos entre área de la apertura y la exposición.

 

Yo lo que creo es que la emulsión tiene una zona lineal (la zona intermedia) y dos zonas no lineales en los extremos (oscuridad total y sobreexposición) donde su comportamiento no es lineal, pero en la zona intermedia sí.

 

 

 

La respuesta a la luz de las emulsiones utilizadas al inicio de la fotografía ( siglo XIX) no era lineal: su opacidad variaba geométricamente con el tiempo de exposición; un tiempo de exposición ( con la misma intensidad luminosa) cuatro veces mayor daba una opacidad sólo doble en la placa. Por este motivo se eligieron escalas geométricas para la exposición:

las velocidades se doblan y los diafragmas se multiplican por la raíz cuadrada de dos al depender de su cuadrado la luz admitida.

 

De aquí nace en este siglo la definición de EV ( Exposure Value) , cuyo paso consiste en multiplicar por dos la exposición, siendo su definición formal:

 

EV = log ( D^2 x V) / log (2) donde D es el diafragma y V el inverso del tiempo de exposición en segundos

 

Si e diafragma es 8 y la velocidad 1/250

 

EV = log ( 64 * 250) / log (2) = 14 si en lugar de 1/ 250 fuese 1/125 o diafragma 5,6 valdría 13.

 

El voltaje de salida de los sensores es proporcional a la luz, pero la luz emitida en los tubos de radio catódicos ( CRT) aumenta con la potencia 2,2 del voltaje. Por este motivo, se decidió que en los espacios de color RGB utilizar el exponente 1 / 2,2 ( en sRGB 1/ 2,4 debido al cero) para tener de nuevo una representación lineal. Con los LCD no sería necesario, pero se mantiene por coherencia.

 

Como ves tanto las escalas geométricas ( logarítmica de base 2) como la Gamma ( el exponente) son herencias del pasado. El uso de exponentes menores que uno implica asignar más bits a la parte baja:

A sí por ejemplo 4 a 12 bits se convierte en ( 4/4095)^(1/2,2)*255 = 4 a 8 bits con lo que de rebote se les presta un poco más de atención aunque no la merezcan.

 

La resolución, en términos de intensidad luminosa, procede como decías del conteo de fotones ( a través del voltaje de los electrones que han desplazado amplificado por el transistor de lectura).

 

La “capacidad del pozo de electrones” (“full well capacity”) en las DSLR es de unos 50.000 electrones que podrían constituir 50.000 niveles distribuidos linealmente, es decir menos de 16 bits de resolución si lo utilizamos completamente. Estos son los únicos niveles reales que existen, debido a su origen quántico ( otro de los sentidos de cuantificación) y a las carácterística de el substrato no pueden haber más.

 

Desgraciadamente los 50.000 niveles no son aprovechable debido al ruido. 12 bits resultan adecuados si el nivel total de este no supera los 6 electrones ( es en lo que estamos) y elegimos como criterio de umbral de señal aquel en que la señal iguala al ruido que sería 12 electrones ya que 50.000 / 12 = 2 ^12. Canon introduce un offset de 1024 para su mercado de astrónomos lo que la obliga a trabajar a 14 bits, mientras que Nikon fija el punto negro a capón y se pierden algunas estrellas por el camino pero se "aligera" el proceso y 12 son suficientes.

 

De hecho los rangos dinámicos reales medidos a 14 bits están hoy en día por debajo de 10 EV, aunque hay WEBS de renombre que son capaces de medir hasta 11,5 EV con 12 bits sin ponerse colorados.

 

En cuanto al aprovechamiento del rango del sensor puedes leer unos cuantos post más arriba lo que opino al respecto.

 

Salu2

Enlace al comentario
Compartir en otros sitios web

Por eso mismo no entiendo lo que afirma Antimonite en su post cuando dice que no hay una relación lineal entre apertura de diafragma y exposición, vamos entre área de la apertura y la exposición.

 

Yo lo que creo es que la emulsión tiene una zona lineal (la zona intermedia) y dos zonas no lineales en los extremos (oscuridad total y sobreexposición) donde su comportamiento no es lineal, pero en la zona intermedia sí.

hummm cada vez dudo mas de lo que digo, pero efectivamente las emulsiones tienen una zona intermedia quasi-lineal, y pierden toda linealidad en los extremos. Con los sensores no estoy seguro, pero creo que su comportamiento es lineal. Pero mejor me callo y dejo que vengan los expertos de verdad a resolver el entuerto XD

Enlace al comentario
Compartir en otros sitios web

  • 2 semanas más tarde...

Saludos a todos los foreros.

 

Recientemente me he comprado el libro de Mellado y, la verdad, es que eso que cuenta del derecheo del histograma es convincente. He de decir que desde entonces tengo ciertas tendencias "derechistas" (fotográficamente hablando). Pero se me plantean determinadas dudas que no acabo de comprender, y que conste que me he leído dos veces el hilo entero. Por mi formación estoy acostumbrado a tratar con conceptos como los que se han hablado aquí, y me gusta el elevado nivel del hilo. Sin más dilación paso a exponer mis dudas, esperando explicarme con propiedad.

 

¿Que se representa en un histograma?, la pregunta tiene su miga. Me explico, cuando se expresa una gráfica se expresa siempre una magnitud X frente a una Y. Entonces, digo yo, ¿qué se representa en un histograma?, ¿que hay en el eje X y que hay en el eje Y?. Mi elucubración es la siguiente, los fotodetectores simplemente dan un nivel de voltaje al recibir fotones(sensiblemente lproporcional a la cantidad de fotones recibidos, por estar formados por transistores de silicio) y lo que se codifica después es ese voltaje, muestreándolo y codificándolo. Si elevo en dos EV la exposición lo que estoy haciendo es que el nivel se duplique, y después se muestree y codifique. Entonces la cuestión creo que es, ¿como muestrea la cámara las tensiones que le dan los fotodetectores?. Un ejemplo es la codificación en digital de la voz humana, la información se halla, principalmente en las tensiones más altas (si no me equivoco) y por eso se emplea un muestreo logarítmico; un suponer, para el primer mV que da un micro se emplea sólo 64 posibles valores, dejando más posibles combinaciones de valores para los voltajes más elevados, que son los que interesa representar con mayor fidelidad. ¿hacen igual las cámaras? porque si hacen un muestreo sensiblemente lineal, derechear el histograma es desperdiciar rango dinámico. He pasado deliberadamente de la matriz de Butler, porque creo que se aplica después de haber muestreado los valores de tensión entregados por los fotodetectores...por eso la mejor manera de sacar un buen B/N es hacerlo directamente del RAW, porque la información que hay son únicamente valores de luminancia.

 

Otra cuestión que tengo en mente es, suponiendo que sea verdad que derecheando el histograma ganamos en cantidad de tonalidades, ¿cómo es más adecuado hacerlo?, aumentando el valor de compensación de exposición o jugando con la velocidad/diafragma (yo preferiría diafragmas porque no afecta a la profundidad de campo, pero son valoraciones mías). Paso a explicarme, si lo que hace la cámara al aplicar valores de compensación de exposición es variar el punto Q de los transistores a base de meter más corriente, lo que ocurre es que se hace mayor la amplificación que brinda el fotodetector, bien hasta aqui; pero con la contrapartida de que se amplifica el ruido que se genera en el transistor. Este ruido es, fundamentalmente, un ruido blanco de distribución gaussiana, y originado casi exclusivamente por la temperatura (este es el motivo por el que las cámaras de IR buenas van refrigeradas, no hay muchos fotones en IR disponibles, por lo que es fundamental que el detector no sea ruidoso). Resumiento, no varío la relación señal ruido, puesto que amplifico todo a la vez. Sin embargo, creo que si aumentamos, simple y llanamente, el número de fotones que inciden en el sensor (esto es lo que haríamos abriendo dos pasos el diafragma o disminuyendo en dos pasos la velocidad de obturación), puesto que no tocamos la temperatura, con una amplificación menor que antes obtendremos mayor señal y el mismo ruido, de modo que aumentamos la relación Señal/Ruido (S/N), objetivo pretendido.

 

Si el punto anterior fuera cierto, y la codificación de la señal entregada por los fotodetectores se hace linealmente; sí tendría sentido derechear el histograma, pues somos capaces de mejorar nuestra relación S/N. Pero esto no tiene nada que ver con lo que cuenta Mellado de los bits y los niveles!!! además, si alguien hace la cuenta de la nota que hay en la página 132, no sale!!! faltan niveles que no se emplean, en concreto 64, correspondientes a 32+16+8+4+2+1+1(si tomamos el 0 absoluto como un nivel más), que se corresponden con 2^5+2^4+2^3+2^2+2^1+2^0 (^ significa elevado a), entonces, ¿por qué el sensor no tiene directamente 12 diafragmas de rango dinámico?.

 

No pretendo corregir a Mellado ni mucho menos, para mí es un magnífico fotógrafo y tiene todo mi respeto; mientras que yo soy un aficionado novato para más INRI.

 

Espero que sirva este post para iniciar un debate que creo que puede ser muy instructivo para todos. Saludos otra vez, espero no haber sido muy pesado, y espero también haberme podido explicar con propiedad.

Editado por Pepe Lorenzo
Enlace al comentario
Compartir en otros sitios web

Saludos a todos los foreros.

 

Recientemente me he comprado el libro de Mellado y, la verdad, es que eso que cuenta del derecheo del histograma es convincente. He de decir que desde entonces tengo ciertas tendencias "derechistas" (fotográficamente hablando). Pero se me plantean determinadas dudas que no acabo de comprender, y que conste que me he leído dos veces el hilo entero. Por mi formación estoy acostumbrado a tratar con conceptos como los que se han hablado aquí, y me gusta el elevado nivel del hilo. Sin más dilación paso a exponer mis dudas, esperando explicarme con propiedad.

 

Cuanto más nos elevemos, mayor será la caída. :)

 

¿Que se representa en un histograma?, la pregunta tiene su miga. Me explico, cuando se expresa una gráfica se expresa siempre una magnitud X frente a una Y. Entonces, digo yo, ¿qué se representa en un histograma?, ¿que hay en el eje X y que hay en el eje Y?.

 

El eje X representa habitualmente un valor de 0 a 255, donde 0 es el negro y 255 el blanco. Otras veces representa un valor de exposición EV, donde se suele asignar el valor de saturación (0EV) a la derecha del eje, disminuyendo el valor de luz de paso en paso -1EV, -2EV, etc, siendo la diferencia de doble de luz entre uno y otro valor.

 

El eje Y representaría el número de píxeles que tienen un valor dado de luz.

 

Creo que el problema es que podemos representar el eje X de forma lineal (0-255) o logarítmica (EV) y esto puede líar un poco la cosa. :)

 

 

Mi elucubración es la siguiente, los fotodetectores simplemente dan un nivel de voltaje al recibir fotones(sensiblemente lproporcional a la cantidad de fotones recibidos, por estar formados por transistores de silicio) y lo que se codifica después es ese voltaje, muestreándolo y codificándolo. Si elevo en dos EV la exposición lo que estoy haciendo es que el nivel se duplique, y después se muestree y codifique. Entonces la cuestión creo que es, ¿como muestrea la cámara las tensiones que le dan los fotodetectores?. Un ejemplo es la codificación en digital de la voz humana, la información se halla, principalmente en las tensiones más altas (si no me equivoco) y por eso se emplea un muestreo logarítmico; un suponer, para el primer mV que da un micro se emplea sólo 64 posibles valores, dejando más posibles combinaciones de valores para los voltajes más elevados, que son los que interesa representar con mayor fidelidad. ¿hacen igual las cámaras? porque si hacen un muestreo sensiblemente lineal, derechear el histograma es desperdiciar rango dinámico. He pasado deliberadamente de la matriz de Butler, porque creo que se aplica después de haber muestreado los valores de tensión entregados por los fotodetectores...por eso la mejor manera de sacar un buen B/N es hacerlo directamente del RAW, porque la información que hay son únicamente valores de luminancia.

 

En audio, el muestreo es lineal, aunque luego se representan los niveles muestreados en dB (decibelios) por ser esta unidad más acorde a cómo percibimos los cambios de presión sonora, es decir, nuestra percepción de intensidad sonora se comporta casi de forma logarítmica, y de ahí que el dB es una unidad más apropiada que otra que fuese lineal. Es decir, es una cuestión de representación a posteriori, y que no se produce en el mismo instante del muestreo y conversión, que es lineal.

 

 

Otra cuestión que tengo en mente es, suponiendo que sea verdad que derecheando el histograma ganamos en cantidad de tonalidades, ¿cómo es más adecuado hacerlo?, aumentando el valor de compensación de exposición o jugando con la velocidad/diafragma (yo preferiría diafragmas porque no afecta a la profundidad de campo, pero son valoraciones mías). Paso a explicarme, si lo que hace la cámara al aplicar valores de compensación de exposición es variar el punto Q de los transistores a base de meter más corriente, lo que ocurre es que se hace mayor la amplificación que brinda el fotodetector, bien hasta aqui; pero con la contrapartida de que se amplifica el ruido que se genera en el transistor. Este ruido es, fundamentalmente, un ruido blanco de distribución gaussiana, y originado casi exclusivamente por la temperatura (este es el motivo por el que las cámaras de IR buenas van refrigeradas, no hay muchos fotones en IR disponibles, por lo que es fundamental que el detector no sea ruidoso). Resumiento, no varío la relación señal ruido, puesto que amplifico todo a la vez. Sin embargo, creo que si aumentamos, simple y llanamente, el número de fotones que inciden en el sensor (esto es lo que haríamos abriendo dos pasos el diafragma o disminuyendo en dos pasos la velocidad de obturación), puesto que no tocamos la temperatura, con una amplificación menor que antes obtendremos mayor señal y el mismo ruido, de modo que aumentamos la relación Señal/Ruido (S/N), objetivo pretendido.

 

La amplificación del sensor se verá afectada cuando cambia el ISO, y no en otro caso, y supongo que el software de la cámara intentará variar la velocidad de obturación y la apertura antes que tocar el ISO, dependiendo de la situación y la configuración, claro.

 

 

Si el punto anterior fuera cierto, y la codificación de la señal entregada por los fotodetectores se hace linealmente; sí tendría sentido derechear el histograma, pues somos capaces de mejorar nuestra relación S/N. Pero esto no tiene nada que ver con lo que cuenta Mellado de los bits y los niveles!!! además, si alguien hace la cuenta de la nota que hay en la página 132, no sale!!! faltan niveles que no se emplean, en concreto 64, correspondientes a 32+16+8+4+2+1+1(si tomamos el 0 absoluto como un nivel más), que se corresponden con 2^5+2^4+2^3+2^2+2^1+2^0 (^ significa elevado a), entonces, ¿por qué el sensor no tiene directamente 12 diafragmas de rango dinámico?.

 

No pretendo corregir a Mellado ni mucho menos, para mí es un magnífico fotógrafo y tiene todo mi respeto; mientras que yo soy un aficionado novato para más INRI.

 

Espero que sirva este post para iniciar un debate que creo que puede ser muy instructivo para todos. Saludos otra vez, espero no haber sido muy pesado, y espero también haberme podido explicar con propiedad.

 

 

Tenemos menos de 12 niveles de EV debido al ruido, que se come por lo menos los 3 EV más bajos.

 

No sé si realmente he entendido tus planteamientos.

Enlace al comentario
Compartir en otros sitios web

Ante todo, muchas gracias a todo el que se lo lea, y gracias a luismc por tomarse esas molestias en contestar. Voy a matizar unas cosillas

 

El eje X representa habitualmente un valor de 0 a 255, donde 0 es el negro y 255 el blanco. Otras veces representa un valor de exposición EV, donde se suele asignar el valor de saturación (0EV) a la derecha del eje, disminuyendo el valor de luz de paso en paso -1EV, -2EV, etc, siendo la diferencia de doble de luz entre uno y otro valor.

 

El eje Y representaría el número de píxeles que tienen un valor dado de luz.

 

Creo que el problema es que podemos representar el eje X de forma lineal (0-255) o logarítmica (EV) y esto puede líar un poco la cosa.

 

Entonces lo que si resulta es que en el eje X tenemos los niveles de Señal cuantificados, o sea saturación, luminancia o intensidad de luz, o como se le quiera llamar. Hasta ahí bien. Lo que no tengo yo muy claro es la correspondencia entre niveles y diafragmas. Pero tiene entonces su lógica y no hay a partir de aquí nada que lo contradiga, así que dejaré de elucubrar.

 

En audio, el muestreo es lineal, aunque luego se representan los niveles muestreados en dB (decibelios) por ser esta unidad más acorde a cómo percibimos los cambios de presión sonora, es decir, nuestra percepción de intensidad sonora se comporta casi de forma logarítmica, y de ahí que el dB es una unidad más apropiada que otra que fuese lineal. Es decir, es una cuestión de representación a posteriori, y que no se produce en el mismo instante del muestreo y conversión, que es lineal.

 

En mi opinión eso no es del todo cierto, además me expresé mal, el muestreo si que se hace a intervalos regulares de tiempo, pero después, la cuantificación (el término que antes me faltó) no es lineal, como se puede ver fácilmente aquí:

http://es.wikipedia.org/wiki/Ley_Mu

 

y aquí:

http://es.wikipedia.org/wiki/Ley_A

 

A modo de apunte curioso, cuando meten ADSL por el mismo hilo que el tlf eliminan los valores altos de la voz (apenas tienen información) y en esas frecuencias meten el ADSL codificado en QAM (en fase y cuadratura, pero eso es otra historia)

 

Lo que pasó es que lo expresé del revés se emplean muchos más niveles para las señales bajas que para las altas, y es como se codifica la voz humana en teléfono. Por eso pensé que podría ocurrir que la codificación se hiciese de acuerdo con una de estas leyes, lo que motivaría la riqueza tonal que se tiene trabajando con luces altas, lo que sería una cuantificación exponencial, o sea, lo que suponen los valores EV (a grosso modo)

 

La amplificación del sensor se verá afectada cuando cambia el ISO, y no en otro caso, y supongo que el software de la cámara intentará variar la velocidad de obturación y la apertura antes que tocar el ISO, dependiendo de la situación y la configuración, claro.

 

Si no modifica los valores de polarización de los transistores/diodos, entonces es que amplifica después la señal...si la amplifica posteriormente a la conversión de analógico a digital, se corre el riesgo de amplificar el ruido de cuantificación (este ruido tiene que ver con el intervalo que existe entre dos niveles contiguos de cuantificación, cuanta mayor distancia exista, más ruido se podrá hacer). Este ruido, con una cuantificación exponencial, es mayor en señales bajas que altas, cosa que vuelve a favorecer el derecheo de la imagen, pues se aumenta la relación señal ruido

 

 

Muchas gracias por la contestación, me ha ayudado bastante a entender el motivo por el que conviene "derechear", ya sólo me queda practicar...si alguien tiene una d60 y me puede dar algún truquillo, pues mejor

Enlace al comentario
Compartir en otros sitios web

Ante todo, muchas gracias a todo el que se lo lea, y gracias a luismc por tomarse esas molestias en contestar. Voy a matizar unas cosillas

Entonces lo que si resulta es que en el eje X tenemos los niveles de Señal cuantificados, o sea saturación, luminancia o intensidad de luz, o como se le quiera llamar. Hasta ahí bien. Lo que no tengo yo muy claro es la correspondencia entre niveles y diafragmas. Pero tiene entonces su lógica y no hay a partir de aquí nada que lo contradiga, así que dejaré de elucubrar.

En mi opinión eso no es del todo cierto, además me expresé mal, el muestreo si que se hace a intervalos regulares de tiempo, pero después, la cuantificación (el término que antes me faltó) no es lineal, como se puede ver fácilmente aquí:

http://es.wikipedia.org/wiki/Ley_Mu

 

y aquí:

http://es.wikipedia.org/wiki/Ley_A

 

Efectivamente en esos casos particulares que indicas la conversión no es lineal, yo me refería a casos generales de conversión ADC, como por ejemplo la utilizada en CD audio digital según el estándar Red Book basada en PCM 16 bits, como sabes ampliamente extendido y conocido.

 

A modo de apunte curioso, cuando meten ADSL por el mismo hilo que el tlf eliminan los valores altos de la voz (apenas tienen información) y en esas frecuencias meten el ADSL codificado en QAM (en fase y cuadratura, pero eso es otra historia)

 

Lo que pasó es que lo expresé del revés se emplean muchos más niveles para las señales bajas que para las altas, y es como se codifica la voz humana en teléfono. Por eso pensé que podría ocurrir que la codificación se hiciese de acuerdo con una de estas leyes, lo que motivaría la riqueza tonal que se tiene trabajando con luces altas, lo que sería una cuantificación exponencial, o sea, lo que suponen los valores EV (a grosso modo)

 

Si no modifica los valores de polarización de los transistores/diodos, entonces es que amplifica después la señal...si la amplifica posteriormente a la conversión de analógico a digital, se corre el riesgo de amplificar el ruido de cuantificación (este ruido tiene que ver con el intervalo que existe entre dos niveles contiguos de cuantificación, cuanta mayor distancia exista, más ruido se podrá hacer). Este ruido, con una cuantificación exponencial, es mayor en señales bajas que altas, cosa que vuelve a favorecer el derecheo de la imagen, pues se aumenta la relación señal ruido

Muchas gracias por la contestación, me ha ayudado bastante a entender el motivo por el que conviene "derechear", ya sólo me queda practicar...si alguien tiene una d60 y me puede dar algún truquillo, pues mejor

 

 

Precisamente por esa amplificación adicional aumenta el ruido cuando aumentamos el ISO.

 

Lo del derecheo está muy bien, pero creo que es la puesta práctica de ese concepto lo que es complicado, es decir, saber discernir cuando es importante salvar unas altas luces y cuando no lo es, de otro modo aplicarlo sería una rutina que podría implementarse fácilmente por software dentro de la propia cámara, como tengo entendido que hace la última generación de Nikon (D90, D300, D700) con la función D-Lighting y que Ken Rockwell llama ADR (Adaptive Dinamic Range) y que a veces no tengo muy claro si no se trata de una de sus bromas :) .

Enlace al comentario
Compartir en otros sitios web

Precisamente por esa amplificación adicional aumenta el ruido cuando aumentamos el ISO.

 

Ya para terminar mis reflexiones simplemente comentar esto último. Se puede conseguir amplificación de diversas maneras, una de ellas es alimentando más el transistor, para que sus niveles de salida sean mayores, esto sería una amplificación analógica, amplificaríamos el ruido térmico también. Si empleamos una primera etapa analógica de bajo ruido (que sería el poner el ISO de la cámara al nivel más bajo), convertimos a digital y amplificamos posteriormente la señal eliminamos la gran influencia del ruido térmico pero nos tragamos igualmente el ruido de cuantificación. Esto ya me lo tiene que decir un ingeniero de Nikon, o alguien similar, pero a mi me da que el ruido cromático, por las características que tiene se debe más al ruido térmico y que el ruido de cuantificación hace que veamos transiciones abruptas entre tonalidades y se "empasten" las sombras, esto último es pura intuición mía.

 

 

Muchas gracias a luismc por tener paciencia para leerse mis comentarios, y más paciencia aún como para contestarlos, a su vez.

Enlace al comentario
Compartir en otros sitios web

He pasado deliberadamente de la matriz de Butler, porque creo que se aplica después de haber muestreado los valores de tensión entregados por los fotodetectores...por eso la mejor manera de sacar un buen B/N es hacerlo directamente del RAW, porque la información que hay son únicamente valores de luminancia.

 

Otra cuestión que tengo en mente es, suponiendo que sea verdad que derecheando el histograma ganamos en cantidad de tonalidades, ¿cómo es más adecuado hacerlo?, aumentando el valor de compensación de exposición o jugando con la velocidad/diafragma (yo preferiría diafragmas porque no afecta a la profundidad de campo, pero son valoraciones mías).

 

Si el punto anterior fuera cierto, y la codificación de la señal entregada por los fotodetectores se hace linealmente; sí tendría sentido derechear el histograma, pues somos capaces de mejorar nuestra relación S/N. Pero esto no tiene nada que ver con lo que cuenta Mellado de los bits y los niveles!!! además, si alguien hace la cuenta de la nota que hay en la página 132, no sale!!! faltan niveles que no se emplean, en concreto 64, correspondientes a 32+16+8+4+2+1+1(si tomamos el 0 absoluto como un nivel más), que se corresponden con 2^5+2^4+2^3+2^2+2^1+2^0 (^ significa elevado a), entonces, ¿por qué el sensor no tiene directamente 12 diafragmas de rango dinámico?.

Para añadir un par de apuntes solo (pues el compi luismc ya te ha respondido excelentemente) quiero decir que para sacar una foto en BN lo mejor es partir del RAW, al igual que para una foto en color. Pero creas que es debido a que cada fotorreceptor tiene los valores adecuados del pixel en BN. Cada fotorreceptor tiene los valores de luminancia de un color primario (R, G o :), con lo que debes primero procesar la matriz de Bayer para luego extrapolar los valores reales de luminancia en cada pixel.

 

En cuanto a las diferencias entre jugar con la compensación de exposición o con la velocidad/diafragma... pues no hay ninguna. Solo que con la compensación de exposición es la cámara que hace la modificación y variando la velocidad y diafragma en manual eres tu el que la hace. Pero no se modifica la amplificación de la señal de ningún modo. Por cierto, si varías diafragma SI afectas a la profundidad de campo.

 

En cuanto a la cuantificación de los valores, piensa que cuando hablamos en escala logarítmica (valores de exposición, EVs), cada paso que se oscurece se representa con un bit menos que el anterior (o sea, la mitad de valores intermedios posibles). Es por eso que conviene tener el máximo de información en las luces, porque son las que conservan mas niveles de información.

 

Por ejemplo, en un sensor de 4 bits tenemos del 1111 al 1000 (15 al 8) para las altas luces (0EV), del 0111 al 0100 (7 al 4) para el siguiente paso (-1EV), del 0011 al 0010 (3 al 2) para el siguiente (-2EV), y el único valor 0001 (el uno) para el último paso (-3EV) antes de la oscuridad total (-4EV).

 

El motivo de no tener un rango dinámico igual a la cantidad de bits proporcionada por el sensor es simple y llanamente el ruido, que hace que las zonas mas oscuras tengan mas ruido que señal.

Enlace al comentario
Compartir en otros sitios web

  • 4 semanas más tarde...
Bueno, ya sé que es un poco tarde para contestar a estas alturas, pero el tema me ha parecido muy interesante y he dedicido participar.

 

Probablemente tenga que irme al rincón de los asnos por lo que voy a decir, pero, yo siempre he creído que la correspondencia entre números f y la exposición que obteníamos era lineal, es decir, si a una apertura dada obtenemos una exposición dada y luego al doble de apertura obtenemos el doble de luz, entonces se puede decir que la correspondencia entre diafragma y exposición es lineal. Otra cosa sería el comportamiento del material fotosensible en los extremos más oscuro y más claro (subexposición y sobreexposición, respectivamente), pero ahí no entro.

 

Más vale tarde que nunca. La luz admitida es proporcional al cuadrado del número f, ya que este representa la relación entre la focal y el diámetro de la apertura, y el ángulo sólido... Por lo tanto a doble de apertura cuatro veces más de luz. En cuanto a lo del rincón tu mismo.

 

Salu2

 

p.d. No me había dado cuenta de que Poshi te había contestado. Bien si te refieres a la relación entre luz admitida y opacidad del negativo esta no es lineal como ya te decía ( busca Hurter & Driffield en Internet).

Editado por Antimonite
Enlace al comentario
Compartir en otros sitios web

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invitado
Responder a este tema...

×   Pegar como texto enriquecido.   Pegar como texto sin formato

  Only 75 emoji are allowed.

×   Tu enlace se ha incrustado automáticamente..   Mostrar como un enlace en su lugar

×   Se ha restaurado el contenido anterior.   Limpiar editor

×   No se pueden pegar imágenes directamente. Carga o inserta imágenes desde la URL.

 Compartir

  • Explorando recientemente

    • No hay usuarios registrados viendo esta página.
×
×
  • Crear nuevo...