manumarq Publicado 19 de Febrero de 2009 Compartir Publicado 19 de Febrero de 2009 En el fondo, todos perseguimos lo mismo. Acertar en la exposición que dé como resultado el que mejor exprese lo que queremos decir. Es como querer llegar a Zaragoza en el AVE. Unos tomarán el tren en Madrid y otros en Barcelona, lo que nos sea más cómodo. Y este hilo debería acabar impreso, como manual de exposimetrología (si existe) Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
SAIL GUERRERO Publicado 25 de Febrero de 2009 Compartir Publicado 25 de Febrero de 2009 BUeno tengo una duda me ha salido el histograma de la camara en el medio con la medicion correcta del fotometro tome una foto, y luego lance otra con +2EV pero no he visto que el histograma se desplazara a la derecha que puedo hacer?a veces me parece que la compensacion de blancos de mi camara no funciona como yo creo o algo esta mal configurado... Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
gatonegro Publicado 20 de Marzo de 2009 Compartir Publicado 20 de Marzo de 2009 (editado) pensaba renovar mi camara pero ahora me doy cuenta que me falta muchisimo y tengo muchas cosas por aprender antes de cambiar de cámara, gracias a todos los que colaboraron en este tema, un saludo Editado 20 de Marzo de 2009 por gatonegro Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
uncestro Publicado 20 de Marzo de 2009 Compartir Publicado 20 de Marzo de 2009 joder habia leido sobre el tema y mas o menos lo tenia claro pero vamos que esta explicacion es de 10 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Angos Publicado 21 de Abril de 2009 Compartir Publicado 21 de Abril de 2009 Hola a todos... en primer lugar quisiera agradecer a aquellos que hacen su aporte a este foro permitiendo que aficionados muy elementales como en mi caso podamos ir aprendiendo técnicas de las que no tenia ni idea de su existencia además agradezco con la simpleza que son expuestos algunos temas que permiten sin tener una base solida podamos comprenderla. Estoy tratando de comprar una D90 (la que en parte estoy demorando por temor a un posible nuevo modelo a corto plazo) por lo que trato de informarme todo lo que pueda. Poseo un compacta Olympus SP570 que me permite antes de tomar la fotografia poder ver el histograma, por lo que lei en otro tema y si no interpreto mal la D90 permite ver el histograma en forma posterior a la captura, si esto es asi me surge la duda si el derecheo del histograma lo trabajan haciendo un toma previa y luego llevandolo hacia la derecha. Gracias Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
xavier_1 Publicado 22 de Abril de 2009 Compartir Publicado 22 de Abril de 2009 Hola a todos, Ya se que el tema del derecheo del histograma esta de moda, pero a mi me suscita muchas dudas. Por supuesto que al derechear el histograma se gana en relacion señal ruido en las sombras, pero, pero.... ** El derecheo del histograma es casi siempre a costa de perder o quemar las altas luces, se llega al clipping (valor maximo de los photosites) y por tanto son irrecuperables. ** Si la exposicion efectuada es correcta, sea la elegida por la camara o por uno mismo, no se gana rango dinamico pues lo que se gana en las sombras se pierde en las altas luces ** Lo anterior viene confirmado por la propia Nikon, cuando para ganar rango dinamico (D-Lighting) hace justamente lo contrario, es decir, subexponer (izuierdear el histograma ), en busca de no quemar para nada las altas luces y luego recuperar las sombras. ** Si la estrategia fuera tan clara la propia Nikon la implementaria sea en el D-Lighting o en otra funcion.... ** Por supuesto, mis dudas no son tales dudas, cuando el histograma de la fotografia solo esta rellenado en su parte intermedia (medios tonos) y no existen grandes luces a quemar. Para terminar me referire a la practica, llevo algo mas de 1.000 fotografias tomadas con la D700 en modo matricial y cada vez que derecheo el histograma lo mas minimo, es para quemar las altas luces, sea en un canal, o en los tres. Quizas la D700 en modo matricial expone mas que bien? Un cordial saludo para todos. Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Ray22 Publicado 28 de Abril de 2009 Compartir Publicado 28 de Abril de 2009 (editado) No tienes que llegar a quemar las altas luces, tienes que llevar el histograma a la derecha para luego recuperarlo y que llegue de izquierda a derecha (aunque esto depende también de la foto, una foto a un muro amarillo pues como que no va a completar el histograma). No se pierde nada en las altas luces ya que lo que quemas en cámara, lo recuperas con retoque, no tiene que quedar en un punto irrecuperable. Por último no se te olvide que esta técnica es para realizar con medición puntual, seleccionando las altas luces, ya que en matricial te escoge toda la escena y pierdes la referencia. El D-lightning se parece a sombras e iluminacinoes en Photoshop. No es más que un efecto de software para corregir bajas luces, generando ruido. Su uso lo veo inútil, lo podemos hacer en el revelado. En todo caso no podemos olvidar tampoco que es para imágenes sin altos contrates de luces, o donde no te importe perder las sombras, o las luces altas. Salu2 EDIT: Y porque me suena a mi que todo esto está más que dicho...has leído los post 1 a 1 o es que has saltado? Venga que todos hemos leído alguna vez entre lineas, mójate... Editado 28 de Abril de 2009 por Ray22 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
xavier_1 Publicado 30 de Abril de 2009 Compartir Publicado 30 de Abril de 2009 (editado) Amigo Ray22, Si te lees mi post atentamente observaras que en realidad lo que quiero decir es: ¿no sera que la D700 ya derechea el histograma en medicion matricial? Pues por ahi va la cosa, no lo puedo probar, pero es que con los disparos de la D700 (incluso por ejemplo a un cielo azul) el histograma se lleva a la derecha, de tal forma que si derecheas mas haces clipping y por tanto se pierden las altas luces. Lo he probado en decenas de ocasiones con motivos totalmente distintos. Con la D300 esto no pasaba en la misma medida. En definitiva mi planteo es que si la exposicion para un motivo dado esta bien calculada, ir mas alla en el derecheo (que por supuesto lo puedes hacer) es a costa de perder las altas luces en la medida que derechees. Respecto al D-Lighting, es una tecnica de software de una empresa inglesa que se llama Apical, que en realidad se desconoce exactamente lo que hace y que si intentas hacer lo mismo con curvas no podras. En Nikon se llama D-Lighting, en otras marcas es Dynamic Range Optimization, Shadow Adjustment Technology, etc. Si quieres acercarte un poco al tema aqui tienes un interview: http://www.dpreview.com/news/0903/09031801apical.asp Y si quieres profundizar un poco mas en la web de la propia compañia: http://www.apical-imaging.com/iridix Porque sera que lo primero que se me ocurre al hablar de esta tecnica es la palabra Dolby, que como sabes, es una tecnologia que se usa intensivamente desde hace casi 40 años en audio para conseguir mayor señal/ruido en las gamas altas? Para terminar la pregunta al reves: ¿Porque Nikon y que yo sepa Canon y Sony, no utilizan directamente el derecheo que con tanto entusiasmo se defiende y en su lugar utilizan una tecnica que justamente hace lo contrario (subexponer) que ademas les cuesta pagar una patente a un tercero?. Aqui tienes algunos de los clientes en la propia web de Apical, entre ellos Nikon....:http://www.apical-imaging.com/Customers_And_Partners Recibe un cordial saludo, eso si, seco....Hi...Hi Editado 30 de Abril de 2009 por xavier_1 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Ray22 Publicado 30 de Abril de 2009 Compartir Publicado 30 de Abril de 2009 El D-lightning no hace magia tampoco. En todo caso, aplicable después de realizar la foto, es un sinsentido (una de esas muchas cosas sin las que hemos vivido décadas), y pocas veces realmente he llego a utilizarlo (muy, muy pocas de hecho). Por supuesto, siempre en postproceso (gracias NX). Prefiero controlar la luz artificial (flashes por doquier, linternas, focos, etc) siempre que sea posible. En cuanto al cálculo matricial de la D700, puedo decir que con mi D3 no es igual. En uno de esos despistes en los que alguien, llámalo Familiar X, te coge la cámara, y de lo poco que sabe, solo sabe ponerlo todo lo más básico posible (P, matricial, iso auto, etc), al cogerla yo lo cambié todo, a excepción de la medición. Mi sorpresa al llegar a mi casa...histogramas "completos", pero no derecheados, y con pérdidas. No me costó mucho luego ver que era la medición. Aparte de esto, si nuestras cámaras tendiesen al derecheo en matricial, nuestro resultado muchas veces tendería a la sobreexposición, y mi corta experiencia con la matricial, tendía a tener que tirar para arriba la exposición (y gracias a la calidad de las imágenes por más que algunos digan, a pesar de eso no generó mucho ruido). En todo caso, prefiero controlarlo todo siempre en puntual, que no me fiaré nunca de una cámara excepto para el enfoque (y a regañadientes, que conste) . Es lo que me ha pasado a mi en la práctica en este...añito de D3!! Ya hace un año! Y no le he dado las felicidades aún...en unas meses le regalaré una compañera, y nuevas lentes . Y la D3x si siguen yendo bien las cosas aún no parece estar fuera de alcance, previa bajada de descuento claro (sigo siendo comprador racional, me gusta la D3x, me vendría bien en lo que hago, pero no la necesito vitalmente, y su precio...por Dios! inhumano) Que vida esta...le diré que no al consumismo? . Salu2 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
xavier_1 Publicado 30 de Abril de 2009 Compartir Publicado 30 de Abril de 2009 (editado) Hola Ray22, El D-Lighting tiene golpes escondidos con algunos disparos, en otros como bien dices no hace magia. Lo utilizo igual que tu con el NX2, lo pruebo y si me convence sigo, y si no, pues voy por otro camino. No he encontrado diferencias apreciables en usarlo durante el disparo, o posteriormente con el NX2. En teoria deberia notarse, pues si no lo usas durante el disparo no sub-expones. Supongo que dependera de si en el momento del disparo se precisa un rango dinamico importante o no, para notarlo claramente. Respecto a la D3X, lo cierto es que me gusta mucho, mucho. Lo que me sucede es que no estoy todavia mentalmente preparado como aficionado puro y duro que soy, para emplear +6.000€ en una camara. Estoy a la espera de la D700X o como se llame, lo cual coincidira -seguro- con la bajada de precio de la D3X y sera el momento de decidir. Veremos. Recibe un cordial saludo. P.D.- Respecto a la exposicion matricial en la D3, doy por seguro que le has cargado la ultima actualizacion de firmware. Editado 30 de Abril de 2009 por xavier_1 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Juanjo P Publicado 8 de Mayo de 2009 Compartir Publicado 8 de Mayo de 2009 (editado) Os digo como lo entiendo: Con el D-lightning parece que la gente parte de un error de base. La famosa subexposición que hace la cámara al usar el D-lightning se debe a que dicha técnica, por su idiosincrasia al levantar las sombras, levanta aunque en mucha menor medida las altas luces. Por eso subexpone la máquina 1/3 EV, para que cuando actúe el D-lightning tener ese pequeño margen en las altas luces y no se quemen. Esto de paso demuestra cómo el sistema de medición actual de las cámaras derechea, es decir, las cámaras exponen para llenar el histograma completamente por la derecha, y luego jugando con el contraste (o d-lightning) comprimir o extender el histograma por la izquierda según sea necesario. editado: por otro lado esto también demuestra que el active d-lightning de las cámaras sólo tiene sentido para disparar en jpg (o en raw si luego no se quiere reprocesar). Si disparas en raw no necesitas subexponer, luego al revelar al activar el d-lightning si quemas en altas luces lo recuperas por poseer los datos en bruto y punto. saludos Editado 8 de Mayo de 2009 por Juanjo P Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Antimonite Publicado 8 de Mayo de 2009 Compartir Publicado 8 de Mayo de 2009 He vuelto después de una semana fuera y veo que el tema sigue vivo pero ahora va de D-Lighting (DL) o de Active D-Lighting (ADL). Realmente no tienen nada que ver el uno con el otro, de hecho el sistema de Apical ( DL) sólo lo utiliza Nikon en la familia Coolpix (desde el 2.004) o para el post procesado. Podéis encontrar información aquí sobre las diferencias, aunque en síntesis el ADL puede variar la exposición, afecta al RAW y modifica menos la imagen (es más fiel). En cuanto a la medición matricial quizás este artículo ayude a entender lo que hace y evitar problemas. Un ejemplo de mal uso de la matricial: si para enfocar se utiliza el bloqueo de AF, apretando a la mitad y recomponiendo después la imagen, el sistema puede identificar como “sujeto” a priorizar en la exposición lo que se encuentre en el punto de enfoque en el momento del disparo y confundirse ya que la distancia no corresponderá a la luz y colores medidos, además de no ser este el sujeto. Si no se entiende su funcionamiento es mejor utilizar la ponderada central de toda la vida y la puntual en los casos extremos, aunque con ellas no funciona el ADL, que no siempre se disponga de tiempo para andar compensando la exposición, o lo que es peor, que exista el riesgo de estropear una foto al no tener tiempo para cancelar la compensación usada en la anterior. ( ¿ Aquién no le ha pasado?) Una reflexión final; la amplificación al registrar, a diferencia de lo que sucede con la música, es hoy por hoy la misma para todos las frecuencias (colores) y para todos los niveles de señal ( en tanto los transistores sigan empleándose en su zona lineal), por lo que no pueden existir formas selectivas de supresión de ruido en el momento de la toma y un aumento real del margen dinámico, a no ser que se utilice más de un tipo de fotodiodos como hace Fuji. Salu2 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
xavier_1 Publicado 9 de Mayo de 2009 Compartir Publicado 9 de Mayo de 2009 (editado) Hola a todos, Antimonite: Un placer leerte y como siempre tus post incitan a la reflexion...y a la polemica. :) Cuando dices "Realmente no tienen nada que ver el uno con el otro", no se si te refieres al sistema Apical o al ADL y DL. En ambos casos si tienen que ver y mucho el uno con el otro, pues el ADL y DL de Nikon son derivados (algunos dicen copia) del sistema Apical. Y el ADL y DL son muy, muy similares, con la diferencia de que en el ADL se sub-expone ligeramente en funcion del nivel de ADL elegido y ello varia un tanto el RAW -subexpuesto- que te entrega la maquina. Una vez sub-expuesta la toma en el momento del disparo (ADL) o posteriormente en el post-proceso (siempre sobre NX2 y DL manualmente), la mayoria de autores coinciden en que el algoritmo aplicado (NX2 otra vez) es el mismo. Solo queda referirse a la practica que en mi modesta opinion, confirma lo expuesto. En cualquier caso es un tema sobre el que la informacion facilitada tanto por Apical como por la propia Nikon es con cuentagotas y por tanto un cierto nivel de conjetura debe aplicarse a todo lo que se diga sobre este asunto. Respecto al tema de la exposicion matricial en la D300 y por tus post que he leido sobre este apartado, es obvio que no te satisface del todo. Coincidimos. No te quepa la menor duda que la D700 es un paso adelante en este apartado. Un cordial saludo. :) Editado 9 de Mayo de 2009 por xavier_1 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Antimonite Publicado 9 de Mayo de 2009 Compartir Publicado 9 de Mayo de 2009 Hola a todos, Antimonite: Un placer leerte y como siempre tus post incitan a la reflexion...y a la polemica. :) Cuando dices "Realmente no tienen nada que ver el uno con el otro", no se si te refieres al sistema Apical o al ADL y DL. En ambos casos si tienen que ver y mucho el uno con el otro, pues el ADL y DL de Nikon son derivados (algunos dicen copia) del sistema Apical. Y el ADL y DL son muy, muy similares, con la diferencia de que en el ADL se sub-expone ligeramente en funcion del nivel de ADL elegido y ello varia un tanto el RAW -subexpuesto- que te entrega la maquina. Una vez sub-expuesta la toma en el momento del disparo (ADL) o posteriormente en el post-proceso (siempre sobre NX2 y DL manualmente), la mayoria de autores coinciden en que el algoritmo aplicado (NX2 otra vez) es el mismo. Solo queda referirse a la practica que en mi modesta opinion, confirma lo expuesto. En cualquier caso es un tema sobre el que la informacion facilitada tanto por Apical como por la propia Nikon es con cuentagotas y por tanto un cierto nivel de conjetura debe aplicarse a todo lo que se diga sobre este asunto. Respecto al tema de la exposicion matricial en la D300 y por tus post que he leido sobre este apartado, es obvio que no te satisface del todo. Coincidimos. No te quepa la menor duda que la D700 es un paso adelante en este apartado. Un cordial saludo. :) Hola Xavier, no pretendía polemizar, sólo aportar documentación y mi opinión en un tema un poco "misterioso" como tantos otros de Nikon. Lo de Apical es viejo, Nikon se ve obligada por Copyright a citarlo junto a Windows etc. cuando lo usa y.. sólo lo hace en las Coolpix. No lo encontrarás en ninguna SLR. Aunque el objetivo sea el mismo, ampliación aparente del rango dinámico, ADL y DL son los que en mi opinión no tienen nada que ver: ADL usa la información de la medición Matricial con la que se integra y opera sobre el RAW ( por esto ralentiza la cámara), en tanto que DL parte del JPG ya elaborado. Lo dice Nikon. Para no extenderme vuelvo a añadir la referencia de mi post anterior que contiene información de pruebas. ¿Quienes son esa mayoría de autores?¿ Puedes pasar algún link? En cuanto a la medición matricial, todos los sistemas que substituyen el criterio del fotógrafo son discutibles, pero me has interpretado mal, creo que el matrix es muy bueno pero no "foolproof" ( aunque te parezca mentira hay quien utiliza la compensación de exposición en modo matricial o en M). En cuanto a lo del paso adelante en el sistema, me gustaría que compartieras la documentación en la que te apoyas para contribuir en algo más que opiniones y enriquecer este foro, porque hasta ahora creía que todas usaban un sensor RGB de 1005 píxeles y que el 3D Color Matrix Metering II era común a D3x, D3, D700 y D300. Así aprenderemos todos. Un Salu2-s Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
DavidL Publicado 15 de Mayo de 2009 Compartir Publicado 15 de Mayo de 2009 ( aunque te parezca mentira hay quien utiliza la compensación de exposición en modo matricial o en M) Hola a todos, Primero dar las gracias a todos los que aportáis algo de vuestra sabiduría para que los novatos como yo podamos mejorar. Antimonite: yo soy uno de esos que comentas que hasta hoy ha hecho alguna que otra vez compensación de la exposición, más que nada porque desde la F65 me acostumbré a tirar en modo M. Y ciertamente, me parecía chocante su utilidad ya que si quería sub o sobreexponer, lo que tenía que hacer era desplazar la medición del fotómetro del visor hacia un lado u otro, según me conviniera. ¿Realmente esto es así? Es decir, ¿en el modo M no hace falta la compensación si ya utilizas el fotómetro? Gracias y saludos. Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Antimonite Publicado 15 de Mayo de 2009 Compartir Publicado 15 de Mayo de 2009 Hola a todos, Primero dar las gracias a todos los que aportáis algo de vuestra sabiduría para que los novatos como yo podamos mejorar. Antimonite: yo soy uno de esos que comentas que hasta hoy ha hecho alguna que otra vez compensación de la exposición, más que nada porque desde la F65 me acostumbré a tirar en modo M. Y ciertamente, me parecía chocante su utilidad ya que si quería sub o sobreexponer, lo que tenía que hacer era desplazar la medición del fotómetro del visor hacia un lado u otro, según me conviniera. ¿Realmente esto es así? Es decir, ¿en el modo M no hace falta la compensación si ya utilizas el fotómetro? Gracias y saludos. Es así. Si no usas Iso Auto en M puedes ajustar directamente el desvío, no dejando centrada la indicación del exposímetro ( una división pequeña es un desvío 1/3 de EV y 1 EV la grande). Salu2 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
DavidL Publicado 15 de Mayo de 2009 Compartir Publicado 15 de Mayo de 2009 Es así. Si no usas Iso Auto en M puedes ajustar directamente el desvío, no dejando centrada la indicación del exposímetro ( una división pequeña es un desvío 1/3 de EV y 1 EV la grande). Salu2 Gracias por la información. Saludos Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Antimonite Publicado 23 de Mayo de 2009 Compartir Publicado 23 de Mayo de 2009 Hoy a mediodía he tomado unas fotos de unos geranios rojos aplicando la técnica del derecheo. Para que el histograma fuese lo más parecido posible al del sensor, he utilizado el balance de blancos unidad y el ajuste "neutro" sin variar ningún parámetro. He realizado la medición en puntual aumentando la compensación 0,7 EV para que el canal rojo llegase a la derecha. En el cuadro tenéis el resumen: Podéis ver lo que mostraba el LCD, la imagen verdosa debida al balance de blancos (1,0039;1;1), el histograma del canal rojo realmente al límite ( se sale un poco) y el histograma real del canal rojo del sensor y ... ¡Sorpresa! El canal rojo en el sensor queda muy lejos de la derecha, sin "quemarse". La razón de la diferencia entre histogramas ( aparte de la forma por la Gamma) es la conversión del espacio de color del Bayer a RGB. En la conversión aproximada que se realiza (aproximada porque la real no es lineal como la de todos los reveladores o cámaras), los valores que quedan fuera del espacio RGB se acumulan en el fondo de escala del histograma y pierden todo matiz. De hecho en el canal rojo de la foto el punto más alto del histograma es 2.516 es decir - 0,7 EV respecto a 4.095, por lo tanto si hubiese dispuesto del histograma del sensor todavía habría aumentado más la exposición ( + 1,5 EV) El problema es que el rango así ganado no se puede aprovechar sin alterar los colores (vease la flor de abajo a la derecha) y se pierde al optar por reducir la exposición (flor arriba a la derecha). Esta última es parecida a lo que hace directamente la cámara sin derecheos y usando balance de blancos y perfil de color (D2XMODE3) adecuados para mantener la cromaticidad. Salu2 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
fotonauta Publicado 29 de Mayo de 2009 Compartir Publicado 29 de Mayo de 2009 Hoy a mediodía he tomado unas fotos de unos geranios rojos aplicando la técnica del derecheo. Para que el histograma fuese lo más parecido posible al del sensor, he utilizado el balance de blancos unidad y el ajuste "neutro" sin variar ningún parámetro. He realizado la medición en puntual aumentando la compensación 0,7 EV para que el canal rojo llegase a la derecha. En el cuadro tenéis el resumen: Podéis ver lo que mostraba el LCD, la imagen verdosa debida al balance de blancos (1,0039;1;1), el histograma del canal rojo realmente al límite ( se sale un poco) y el histograma real del canal rojo del sensor y ... ¡Sorpresa! El canal rojo en el sensor queda muy lejos de la derecha, sin "quemarse". La razón de la diferencia entre histogramas ( aparte de la forma por la Gamma) es la conversión del espacio de color del Bayer a RGB. En la conversión aproximada que se realiza (aproximada porque la real no es lineal como la de todos los reveladores o cámaras), los valores que quedan fuera del espacio RGB se acumulan en el fondo de escala del histograma y pierden todo matiz. De hecho en el canal rojo de la foto el punto más alto del histograma es 2.516 es decir - 0,7 EV respecto a 4.095, por lo tanto si hubiese dispuesto del histograma del sensor todavía habría aumentado más la exposición ( + 1,5 EV) El problema es que el rango así ganado no se puede aprovechar sin alterar los colores (vease la flor de abajo a la derecha) y se pierde al optar por reducir la exposición (flor arriba a la derecha). Esta última es parecida a lo que hace directamente la cámara sin derecheos y usando balance de blancos y perfil de color (D2XMODE3) adecuados para mantener la cromaticidad. Salu2 Muy interesante Antimonite, por lo que explicas en la práctica habría que aplicar con precauciones la técnica del derecheo si dispusiéramos del histograma del sensor, ya que nos podría llevar a sobeexposiciones un tanto absurdas e innecesarias en las que nos sobraría mucho por la izquierda. Quizás, para mejorar las sombras, sería mejor utilizar directamente el izquierdeo ( medición puntual de la zona más obscura con textura y subexponer 2 EV) sobreexponiendo así lo mínimo para reducir el ruido, y que pase lo que dios quiera con las altas luces en las que “sobra información” según dicen, por lo que poco importa que esta se pierda. ¿ O no? Un saludo, Fotonauta Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Aperture Publicado 29 de Mayo de 2009 Compartir Publicado 29 de Mayo de 2009 En primer lugar decir que este hilo pone de manifiesto los conocimientos tan profundos en fotografía de algunos usuarios y por ende el nivel tan alto del foro. Pero después de haber leído todo el hilo a mi me surge una duda: Creo que con las pruebas remitidas por hermetic queda bastante clara la ventaja que supone derechear el histograma. En definitiva lo que se consigue es que más numero de photosites sean cuantificados con más niveles. Pero mi pregunta es: porque los sensores tienen este tipo de cuantificación?? esto quiere decir que cada photosite será cuantificado por un número distinto de niveles segun sea su carga?? Si es así, me aventuro a pensar que esto se hace para mantener la relación señal/ruido más o menos constante para todos los photosites, ya que al reducir niveles para un valor bajo de carga (comparable al ruido), estamos de algún modo distanciando los valores discretos que puede tomar la señal y por tanto aumentando la S/N. Todo esto me encajaría bastante con el hecho de que hoy en día un sensor de 16bits no aportaría nada ya que de poco sirve que tengas 512 niveles en el último diafragma si no los puedes discernir por el ruido. En todo esto también encajaría que en general la imagen gane unos puntos en S/N al derechear. Todo esto son suposiciones y me gustaría que alguien las pudiera corregir, descartar ó corroborar. Muchas gracias a todos y no dejéis de pensar. Saludos. Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Antimonite Publicado 2 de Junio de 2009 Compartir Publicado 2 de Junio de 2009 Muy interesante Antimonite, por lo que explicas en la práctica habría que aplicar con precauciones la técnica del derecheo si dispusiéramos del histograma del sensor, ya que nos podría llevar a sobeexposiciones un tanto absurdas e innecesarias en las que nos sobraría mucho por la izquierda. Quizás, para mejorar las sombras, sería mejor utilizar directamente el izquierdeo ( medición puntual de la zona más obscura con textura y subexponer 2 EV) sobreexponiendo así lo mínimo para reducir el ruido, y que pase lo que dios quiera con las altas luces en las que “sobra información” según dicen, por lo que poco importa que esta se pierda. ¿ O no? Un saludo, Fotonauta Pues no Fotonauta, personalmente opino que el punto negro y sus “alrededores” no muestran nada a nuestra vista, mientras que los del punto blanco son visibles. Por ello creo que salvo en casos especiales, cuando nos interesen detalles en las zonas obscuras, es necesario proteger las altas luces. El problema que he tratado de explicar es que una vez filtradas las radiaciones invisibles ( UV e IR) el espacio de color del Bayer, queda definido por el triestímulo de sus filtros de color, que son de banda ancha: tan ancha que el amarillo ( 585 nm) es recibido por los tres filtros lo que no sucede con nuestra vista A pesar de las diferencias, los límites del diagrama de cromaticidad deben ser parecidos: aunque con más énfasis en rojos y amarillos y su Gamut más amplio que el del Adobe RGB ( triángulo mostrado). Por este motivo existe siempre información de color procedente del sensor que es inutilizable, igual que hay colores naturales que vemos y no se pueden representar. El problema es que al sobreexponer llevamos más puntos fuera del espacio RGB de trabajo, y al final la única forma de corregirlo sin distorsiones del color es subexponer en el procesado para compensar, con lo que quedamos como al principio. Es decir, el Gamut limitado de los espacios RGB de trabajo nos impide disfrutar de todo el rango dinámico que admite el sensor por lo que no tiene mucho sentido sobreexponer para maximizarlo. De todas formas en la práctica esto resulta imposible porque incluso con el balance de blancos unidad el histograma no representa el del sensor como expuse en mi post anterior. Salu2 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Antimonite Publicado 4 de Junio de 2009 Compartir Publicado 4 de Junio de 2009 En primer lugar decir que este hilo pone de manifiesto los conocimientos tan profundos en fotografía de algunos usuarios y por ende el nivel tan alto del foro. Pero después de haber leído todo el hilo a mi me surge una duda: Creo que con las pruebas remitidas por hermetic queda bastante clara la ventaja que supone derechear el histograma. En definitiva lo que se consigue es que más numero de photosites sean cuantificados con más niveles. Pero mi pregunta es: porque los sensores tienen este tipo de cuantificación?? esto quiere decir que cada photosite será cuantificado por un número distinto de niveles segun sea su carga?? Saludos. Creo que te has hecho un lío. La cuantificación de la luz se produce en los fotodiodos cuando la luz desplaza electrones y estos generan un potencial eléctrico. Este potencial ( Potencial Well) es leído y amplificado usando un transistor y el voltaje resultante se digitaliza ( es ahí donde aparecen los niveles) mediante un conversor. El ruido es el potencial que no es generado por la luz. Para aumentar la relación señal/ruido sólo hay dos caminos: -A igualdad de ruido aumentar la señal por ejemplo sobreexponiendo -A igualdad de señal disminuir el ruido por ejemplo restando el potencial residual al resetear el transistor. El sobreexponer sin quemar para después corregirlo en el procesado, es decir sin saturar algunos fotodiodos, es el llamado ETTR ( expose to the right o derecheo) que disminuye el ruido por lo antes dicho. Para ello sería conveniente que las cámaras mostrasen el histograma del sensor pero ninguna lo hace, sólo muestran el de la imagen procesada. Este es distinto de el del sensor ya que son valores extrapolados ( debido al Bayer) y multiplicados por el balance de blancos, saturación, etc. Incluso utilizando un balance de blancos unidad ( UNIWB) y valores neutros los histogramas difieren como muestra mi penúltimo post. La dificultad del método estriba en que tanto la exposición como su posterior corrección encierran una buena dosis de subjetividad que afecta a los colores de la imagen final. Salu2 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Aperture Publicado 5 de Junio de 2009 Compartir Publicado 5 de Junio de 2009 (editado) La cuantificación de la luz se produce en los fotodiodos cuando la luz desplaza electrones y estos generan un potencial eléctrico. Este potencial ( Potencial Well) es leído y amplificado usando un transistor y el voltaje resultante se digitaliza ( es ahí donde aparecen los niveles) mediante un conversor. Creo que no he planteado bien mi pregunta, el caso es que dependiendo de la naturaleza de la señal analógica que usamos y del origen del ruido que deteriora la señal existen distintos tipos de cuantificación. Y por lo que veo todo parece indicar que o bien se usa cuantificación no uniforme o cuantificación logarítmica para el potencial del fotodiodo (me inclino más por la primera ya que se puede ajustar a la curva exponencial del diafragma). Eso es lo que quería saber. Gracias por la respuesta Antimonite. Editado 5 de Junio de 2009 por Aperture Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Antimonite Publicado 5 de Junio de 2009 Compartir Publicado 5 de Junio de 2009 Creo que no he planteado bien mi pregunta, el caso es que dependiendo de la naturaleza de la señal analógica que usamos y del origen del ruido que deteriora la señal existen distintos tipos de cuantificación. Y por lo que veo todo parece indicar que o bien se usa cuantificación no uniforme o cuantificación logarítmica para el potencial del fotodiodo (me inclino más por la primera ya que se puede ajustar a la curva exponencial del diafragma). Eso es lo que quería saber. Gracias por la respuesta Antimonite. La cuantificación a al que se refiere tu link es para representar mediante funciones contínuas el muestreo discreto de una señal por intervalos o, dicho de forma más simple, convertir una nube de datos extraidos por muestreo de una señal contínua en los parámetros de una función también contínua que pueda representar aceptablemente la entrada analógica y generar con ella una salida digital ( con todos los puntos que queramos no sólo los medidos); creo que el que escribió la página de wiki no conocía bien el tema y se explicó mal aunque es de agradecer su buena voluntad. El ejemplo clásico es la fast Fourier Transform que se emplea en acústica o los compact disk con su cuantificación a 16 bits a través de un muestreo a 44,1 KHz ( 44.100 muestras por segundo que se convierten en una señal contínua formada por escalones cuya altura a 16 bits son los parámetros). Las cuantificaciones logarítmicas por mínimos cuadrados ( cuando encajan en el fenómeno) se aplican para filtrar el ruido de la señal analógica, pero este no es el tema. Los diafragmas no tienen ninguna curva exponencial, están en progresión geométrica respecto a la de las velocidades ya que expresan un radio y el paso de luz depende de la superficie y del tiempo. Todo esto no tiene nada que ver con fotografía digital en la que se pretende medir el valor total de la luz recibida por un fotoelemento durante la exposición, no su evolución. En los CMOS se ha trabajado hasta ahora en la zona lineal de la ganancia de los transistores que se digitaliza habitualmente con 12 o 14 bits mediante un conversor analógico digital. Estos valores pierden su linealidad al convertir el espacio de color de la cámara a Adobe o sRGB debido a la inclusión del exponente Gamma ( heredado de la adaptación a los CRT que no son lineales) por lo que la escala de las abcisas no es lineal y se parece algo a la de diafragmas ( exponente 2,4 en lugar de 2). No me alargo más, en la red encontrarás abundante documentación aunque si consultas Wiki busca las versiones en inglés que están mucho más depuradas. Salu2 Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Aperture Publicado 6 de Junio de 2009 Compartir Publicado 6 de Junio de 2009 Hola Antimonite, permíteme algunas anotaciones respecto a tu respuesta: La cuantificación a al que se refiere tu link es para representar mediante funciones contínuas el muestreo discreto de una señal por intervalos o, dicho de forma más simple, convertir una nube de datos extraidos por muestreo de una señal contínua en los parámetros de una función también contínua que pueda representar aceptablemente la entrada analógica y generar con ella una salida digital ( con todos los puntos que queramos no sólo los medidos); La cuantificación a la que se refiere el link es a la única cuantificación que existe (como concepto, ya que tipos hay muchos), me explico, siempre que queramos hacer una conversión de analógico a digital vamos a tener que cuantificar, unas veces cuantificaremos tension, otras intensidad, presión, en definitiva cualquier valor analógico de cualquier magnitud física. Por tanto la cuantificación es la cuantificación y el café es el café aunque como he dicho tipos hay muchos pero como concepto es único (en el contexto de procesado de señal claro está, en otras materias ignoro si tiene aplicación) Otra cosa es el muestro temporal de la señal, otro paso distinto en la conversión A/D. (pero yo sólo hacia referencia al bloque del cuantificador). creo que el que escribió la página de wiki no conocía bien el tema y se explicó mal aunque es de agradecer su buena voluntad Desde mi punto de vista y siempre respetando el tuyo, creo que esta persona ha explicado de una forma breve, precisa y sencilla los distintos tipos de cuantificación que nos podemos encontrar, en primer lugar contextualiza el concepto en un conversor A/D (que es donde procede) y posteriormente se centra en el cuantificador y su funcionamiento. Todo esto no tiene nada que ver con fotografía digital en la que se pretende medir el valor total de la luz recibida por un fotoelemento durante la exposición, no su evolución. Si tiene que ver. Ya que vamos a tener un valor analógico que queremos cuantificar, y esa es precisamente mi pregunta, como se cuantifica ese valor!!!???. Y por otro lado estoy de acuerdo en que no se pretende muestrear la señal en el dominio temporal pero si que lo estamos haciendo en el dominio espacial. Por tanto en la conversión A/D estamos muestreando, cuantificando y codificando, los tres pasos esenciales de cualquier conversor A/D, sea de un sensor de imagen o de cualquier otro tipo. De todos modos y como he dicho sólo me gustaría saber como se cuantifican los valores de los fotodiodos y sólo eso Gracias Antimonite. Citar Enlace al comentario Compartir en otros sitios web Mas opciones de compartir...
Publicaciones recomendadas
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.