Jump to content

Antimonite

Usuarios avanzados
  • Contenido

    305
  • Miembro desde

  • Última visita

Logros de Antimonite

Vivo en Nikonistas

Vivo en Nikonistas (4/9)

  1. Vamos a ver si aclaramos de una vez lo del derecheo: se trata de sobrexponer el máximo posible para obtener la mejor relación señal/ruido sin quemar ningún canal RAW. Sólo es posible cuando el rango dinámico de la cámara es mayor que el necesario, de no ser así subexpondremos toda la escena, justamente al revés de lo que queríamos. Si el rango es suficiente, hay que definir la exposición para conseguir el derecheo, pero como la cámara no muestra a priori el histograma RAW de cada uno de los canales , no hay más remedio que determinarla indirectamente. No es posible establecer una regla fija para sobreexponer respecto a los métodos de medición ponderados o matriciales dadas sus característica y la variabilidad del rango dinámico de la escena. La medición puntual del punto más iluminado de la escena ( excepto los reflejos) exige una dosis importante de subjetividad ( o barrer en medición puntual toda la escena para buscarlo) y además no refleja la situación individual de los canales. Tampoco es posible modificar el histograma RGB de la cámara para que muestre los RAW. Aunque el balance de blancos y la curva de tonos se pueden anular con sendos preajustes no es posible pasar del RGB al espacio de color de la cámara ni por lo tanto visualizar los canales RAW. A continuación os muestro una comparación de Histogramas de la misma imagen: El Adobe RGB que mostraría la máquina El correspondiente al balance de blancos 1, 1, 1 (UNIWB), con una curva de tonos neutra * ( línea recta) cargada en la cámara ( da 117 disparando con la medición puntual) con saturación y tono a cero. El histograma con Rawanalyze ( escala horizontal en EV) y los valores del histograma RAW calculados directamente (extrayéndolos del fichero) con los que se cubren el 99% del histograma en cada canal así como el margen en EV hasta la saturación. Los canales Rojo y azul saturan en 4095 pero los verdes lo hace en 3830 a ISO 200. El canal más saturado es el verde y el margen de este canal ( no así el de los otros) no varía entre el Histograma UNIWB y el normal. El valor máximo está alrededor de 240 en ambos casos por lo que el margen aparente es de 0,2 EV. Según el listado de los datos RAW el 99 % de los píxeles verdes estarían 1,0 EV por debajo de la saturación y esta sería la máxima compensación admisible, 0,8 EV por encima de lo que nos daría el UNIWB. Pero si en la misma fotografía ilumino la pared con una lámpara usando la matricial como antes el 99% del RAW se tiene a 990 es decir a 2 EV de la saturación mientras que el Adobe RGB muestra 0,8 EV ( 1,2 EV menos) en el mismo canal; debido a la transformación del espacio de color ( de la cámara a RGB) el UNIWB no es una referencia fiable. La medición puntual ( 3 mm de diámetro o 1/5 de la altura del sensor) buscando el punto blanco sobre la cortina da 220, 221, 225 que corresponde a una luminancia de 0,73 es decir 2 EV por encima del gris neutro ( 0,18). Si lo utilizamos como referencia, la compensación para derechear tendría que ser 3 EV ( 2 + 1). Si nos equivocamos y damos valores por debajo de 2 ( el típico + 1,5) subexpondremos respecto a la matricial ( suele pasar) Pero este margen varía fuertemente con la saturación del punto blanco; por ejemplo si tomamos la medición puntual sobre una flor roja por ser esta lo más iluminado podemos obtener al procesar el punto de medición 198, 36, 29 que corresponden a una luminancia del 18% igual que 117, 117, 117. En este caso el canal rojo estaría sólo a 0,8 EV en lugar de los 2,5 de 117. La medición puntual tampoco ofrece un margen fijo para el derecheo. El único recurso serio viable es utilizar el bracketing sobreexponiendo en aquellos casos en que podamos bajar la velocidad sin perder calidad. Las fotos elegidas con el criterio del derecheo tendrían sin duda la mejor relación señal/ ruido que nos permite nuestro sensor. Con los riesgos denunciados o pérdidas de tiempo en el mejor de los casos, dudo que el derecheo sea la forma correcta de exponer en digital. Salu2 * La curva de tonos recta se programa con la herramienta “Utility” de ViewNx, sin tocar nada, y se puede grabar en la tarjeta.
  2. La medición matricial no sigue una regla fija, ya que trata de reconocer la escena a través de los colores de los puntos enfocados. Por ejemplo si encuentra colores de piel en zonas enfocadas ajusta la exposición para estas. Tendrás que recurrir a la puntual o a la central ponderada si quieres derechear el histograma. En todo caso dudo que el derecheo convenga a tu estilo de fotografía ya que para aumentar la exposición tendrás que bajar la velocidad o reducir la profundidad de campo y no creo que merezca la pena sacrificar detalle para mejorar las zonas oscuras que probablemente no sean de interés. Salu2
  3. Más vale tarde que nunca. La luz admitida es proporcional al cuadrado del número f, ya que este representa la relación entre la focal y el diámetro de la apertura, y el ángulo sólido... Por lo tanto a doble de apertura cuatro veces más de luz. En cuanto a lo del rincón tu mismo. Salu2 p.d. No me había dado cuenta de que Poshi te había contestado. Bien si te refieres a la relación entre luz admitida y opacidad del negativo esta no es lineal como ya te decía ( busca Hurter & Driffield en Internet).
  4. Os recomiendo la lectura de este link . Si después creéis que es necesario el test etc. adelante. Salu2
  5. Sólo los burros no se enteran de que dicen burradas, y además no suelen reconocerlas. ( Ojo con el ruido de cadenas de Internet). Bromas aparte y a pesar de que cada vez me da más pereza voy a intentar ayudar a aclarar un poco el tema. La respuesta a la luz de las emulsiones utilizadas al inicio de la fotografía ( siglo XIX) no era lineal: su opacidad variaba geométricamente con el tiempo de exposición; un tiempo de exposición ( con la misma intensidad luminosa) cuatro veces mayor daba una opacidad sólo doble en la placa. Por este motivo se eligieron escalas geométricas para la exposición: las velocidades se doblan y los diafragmas se multiplican por la raíz cuadrada de dos al depender de su cuadrado la luz admitida. De aquí nace en este siglo la definición de EV ( Exposure Value) , cuyo paso consiste en multiplicar por dos la exposición, siendo su definición formal: EV = log ( D^2 x V) / log (2) donde D es el diafragma y V el inverso del tiempo de exposición en segundos Si e diafragma es 8 y la velocidad 1/250 EV = log ( 64 * 250) / log (2) = 14 si en lugar de 1/ 250 fuese 1/125 o diafragma 5,6 valdría 13. El voltaje de salida de los sensores es proporcional a la luz, pero la luz emitida en los tubos de radio catódicos ( CRT) aumenta con la potencia 2,2 del voltaje. Por este motivo, se decidió que en los espacios de color RGB utilizar el exponente 1 / 2,2 ( en sRGB 1/ 2,4 debido al cero) para tener de nuevo una representación lineal. Con los LCD no sería necesario, pero se mantiene por coherencia. Como ves tanto las escalas geométricas ( logarítmica de base 2) como la Gamma ( el exponente) son herencias del pasado. El uso de exponentes menores que uno implica asignar más bits a la parte baja: A sí por ejemplo 4 a 12 bits se convierte en ( 4/4095)^(1/2,2)*255 = 4 a 8 bits con lo que de rebote se les presta un poco más de atención aunque no la merezcan. La resolución, en términos de intensidad luminosa, procede como decías del conteo de fotones ( a través del voltaje de los electrones que han desplazado amplificado por el transistor de lectura). La “capacidad del pozo de electrones” (“full well capacity”) en las DSLR es de unos 50.000 electrones que podrían constituir 50.000 niveles distribuidos linealmente, es decir menos de 16 bits de resolución si lo utilizamos completamente. Estos son los únicos niveles reales que existen, debido a su origen quántico ( otro de los sentidos de cuantificación) y a las carácterística de el substrato no pueden haber más. Desgraciadamente los 50.000 niveles no son aprovechable debido al ruido. 12 bits resultan adecuados si el nivel total de este no supera los 6 electrones ( es en lo que estamos) y elegimos como criterio de umbral de señal aquel en que la señal iguala al ruido que sería 12 electrones ya que 50.000 / 12 = 2 ^12. Canon introduce un offset de 1024 para su mercado de astrónomos lo que la obliga a trabajar a 14 bits, mientras que Nikon fija el punto negro a capón y se pierden algunas estrellas por el camino pero se "aligera" el proceso y 12 son suficientes. De hecho los rangos dinámicos reales medidos a 14 bits están hoy en día por debajo de 10 EV, aunque hay WEBS de renombre que son capaces de medir hasta 11,5 EV con 12 bits sin ponerse colorados. En cuanto al aprovechamiento del rango del sensor puedes leer unos cuantos post más arriba lo que opino al respecto. Salu2
  6. A buena hora... Celebro que lo hayas entendido, no debe estar tan mal ... Copio la respuesta que no has citado: Como te decía son lineales y no tienen nada que ver con lo que intuías: Salu2
  7. La cuantificación a al que se refiere tu link es para representar mediante funciones contínuas el muestreo discreto de una señal por intervalos o, dicho de forma más simple, convertir una nube de datos extraidos por muestreo de una señal contínua en los parámetros de una función también contínua que pueda representar aceptablemente la entrada analógica y generar con ella una salida digital ( con todos los puntos que queramos no sólo los medidos); creo que el que escribió la página de wiki no conocía bien el tema y se explicó mal aunque es de agradecer su buena voluntad. El ejemplo clásico es la fast Fourier Transform que se emplea en acústica o los compact disk con su cuantificación a 16 bits a través de un muestreo a 44,1 KHz ( 44.100 muestras por segundo que se convierten en una señal contínua formada por escalones cuya altura a 16 bits son los parámetros). Las cuantificaciones logarítmicas por mínimos cuadrados ( cuando encajan en el fenómeno) se aplican para filtrar el ruido de la señal analógica, pero este no es el tema. Los diafragmas no tienen ninguna curva exponencial, están en progresión geométrica respecto a la de las velocidades ya que expresan un radio y el paso de luz depende de la superficie y del tiempo. Todo esto no tiene nada que ver con fotografía digital en la que se pretende medir el valor total de la luz recibida por un fotoelemento durante la exposición, no su evolución. En los CMOS se ha trabajado hasta ahora en la zona lineal de la ganancia de los transistores que se digitaliza habitualmente con 12 o 14 bits mediante un conversor analógico digital. Estos valores pierden su linealidad al convertir el espacio de color de la cámara a Adobe o sRGB debido a la inclusión del exponente Gamma ( heredado de la adaptación a los CRT que no son lineales) por lo que la escala de las abcisas no es lineal y se parece algo a la de diafragmas ( exponente 2,4 en lugar de 2). No me alargo más, en la red encontrarás abundante documentación aunque si consultas Wiki busca las versiones en inglés que están mucho más depuradas. Salu2
  8. Creo que te has hecho un lío. La cuantificación de la luz se produce en los fotodiodos cuando la luz desplaza electrones y estos generan un potencial eléctrico. Este potencial ( Potencial Well) es leído y amplificado usando un transistor y el voltaje resultante se digitaliza ( es ahí donde aparecen los niveles) mediante un conversor. El ruido es el potencial que no es generado por la luz. Para aumentar la relación señal/ruido sólo hay dos caminos: -A igualdad de ruido aumentar la señal por ejemplo sobreexponiendo -A igualdad de señal disminuir el ruido por ejemplo restando el potencial residual al resetear el transistor. El sobreexponer sin quemar para después corregirlo en el procesado, es decir sin saturar algunos fotodiodos, es el llamado ETTR ( expose to the right o derecheo) que disminuye el ruido por lo antes dicho. Para ello sería conveniente que las cámaras mostrasen el histograma del sensor pero ninguna lo hace, sólo muestran el de la imagen procesada. Este es distinto de el del sensor ya que son valores extrapolados ( debido al Bayer) y multiplicados por el balance de blancos, saturación, etc. Incluso utilizando un balance de blancos unidad ( UNIWB) y valores neutros los histogramas difieren como muestra mi penúltimo post. La dificultad del método estriba en que tanto la exposición como su posterior corrección encierran una buena dosis de subjetividad que afecta a los colores de la imagen final. Salu2
  9. Pues no Fotonauta, personalmente opino que el punto negro y sus “alrededores” no muestran nada a nuestra vista, mientras que los del punto blanco son visibles. Por ello creo que salvo en casos especiales, cuando nos interesen detalles en las zonas obscuras, es necesario proteger las altas luces. El problema que he tratado de explicar es que una vez filtradas las radiaciones invisibles ( UV e IR) el espacio de color del Bayer, queda definido por el triestímulo de sus filtros de color, que son de banda ancha: tan ancha que el amarillo ( 585 nm) es recibido por los tres filtros lo que no sucede con nuestra vista A pesar de las diferencias, los límites del diagrama de cromaticidad deben ser parecidos: aunque con más énfasis en rojos y amarillos y su Gamut más amplio que el del Adobe RGB ( triángulo mostrado). Por este motivo existe siempre información de color procedente del sensor que es inutilizable, igual que hay colores naturales que vemos y no se pueden representar. El problema es que al sobreexponer llevamos más puntos fuera del espacio RGB de trabajo, y al final la única forma de corregirlo sin distorsiones del color es subexponer en el procesado para compensar, con lo que quedamos como al principio. Es decir, el Gamut limitado de los espacios RGB de trabajo nos impide disfrutar de todo el rango dinámico que admite el sensor por lo que no tiene mucho sentido sobreexponer para maximizarlo. De todas formas en la práctica esto resulta imposible porque incluso con el balance de blancos unidad el histograma no representa el del sensor como expuse en mi post anterior. Salu2
  10. Hoy a mediodía he tomado unas fotos de unos geranios rojos aplicando la técnica del derecheo. Para que el histograma fuese lo más parecido posible al del sensor, he utilizado el balance de blancos unidad y el ajuste "neutro" sin variar ningún parámetro. He realizado la medición en puntual aumentando la compensación 0,7 EV para que el canal rojo llegase a la derecha. En el cuadro tenéis el resumen: Podéis ver lo que mostraba el LCD, la imagen verdosa debida al balance de blancos (1,0039;1;1), el histograma del canal rojo realmente al límite ( se sale un poco) y el histograma real del canal rojo del sensor y ... ¡Sorpresa! El canal rojo en el sensor queda muy lejos de la derecha, sin "quemarse". La razón de la diferencia entre histogramas ( aparte de la forma por la Gamma) es la conversión del espacio de color del Bayer a RGB. En la conversión aproximada que se realiza (aproximada porque la real no es lineal como la de todos los reveladores o cámaras), los valores que quedan fuera del espacio RGB se acumulan en el fondo de escala del histograma y pierden todo matiz. De hecho en el canal rojo de la foto el punto más alto del histograma es 2.516 es decir - 0,7 EV respecto a 4.095, por lo tanto si hubiese dispuesto del histograma del sensor todavía habría aumentado más la exposición ( + 1,5 EV) El problema es que el rango así ganado no se puede aprovechar sin alterar los colores (vease la flor de abajo a la derecha) y se pierde al optar por reducir la exposición (flor arriba a la derecha). Esta última es parecida a lo que hace directamente la cámara sin derecheos y usando balance de blancos y perfil de color (D2XMODE3) adecuados para mantener la cromaticidad. Salu2
  11. Es así. Si no usas Iso Auto en M puedes ajustar directamente el desvío, no dejando centrada la indicación del exposímetro ( una división pequeña es un desvío 1/3 de EV y 1 EV la grande). Salu2
  12. Hola Xavier, no pretendía polemizar, sólo aportar documentación y mi opinión en un tema un poco "misterioso" como tantos otros de Nikon. Lo de Apical es viejo, Nikon se ve obligada por Copyright a citarlo junto a Windows etc. cuando lo usa y.. sólo lo hace en las Coolpix. No lo encontrarás en ninguna SLR. Aunque el objetivo sea el mismo, ampliación aparente del rango dinámico, ADL y DL son los que en mi opinión no tienen nada que ver: ADL usa la información de la medición Matricial con la que se integra y opera sobre el RAW ( por esto ralentiza la cámara), en tanto que DL parte del JPG ya elaborado. Lo dice Nikon. Para no extenderme vuelvo a añadir la referencia de mi post anterior que contiene información de pruebas. ¿Quienes son esa mayoría de autores?¿ Puedes pasar algún link? En cuanto a la medición matricial, todos los sistemas que substituyen el criterio del fotógrafo son discutibles, pero me has interpretado mal, creo que el matrix es muy bueno pero no "foolproof" ( aunque te parezca mentira hay quien utiliza la compensación de exposición en modo matricial o en M). En cuanto a lo del paso adelante en el sistema, me gustaría que compartieras la documentación en la que te apoyas para contribuir en algo más que opiniones y enriquecer este foro, porque hasta ahora creía que todas usaban un sensor RGB de 1005 píxeles y que el 3D Color Matrix Metering II era común a D3x, D3, D700 y D300. Así aprenderemos todos. Un Salu2-s
  13. He vuelto después de una semana fuera y veo que el tema sigue vivo pero ahora va de D-Lighting (DL) o de Active D-Lighting (ADL). Realmente no tienen nada que ver el uno con el otro, de hecho el sistema de Apical ( DL) sólo lo utiliza Nikon en la familia Coolpix (desde el 2.004) o para el post procesado. Podéis encontrar información aquí sobre las diferencias, aunque en síntesis el ADL puede variar la exposición, afecta al RAW y modifica menos la imagen (es más fiel). En cuanto a la medición matricial quizás este artículo ayude a entender lo que hace y evitar problemas. Un ejemplo de mal uso de la matricial: si para enfocar se utiliza el bloqueo de AF, apretando a la mitad y recomponiendo después la imagen, el sistema puede identificar como “sujeto” a priorizar en la exposición lo que se encuentre en el punto de enfoque en el momento del disparo y confundirse ya que la distancia no corresponderá a la luz y colores medidos, además de no ser este el sujeto. Si no se entiende su funcionamiento es mejor utilizar la ponderada central de toda la vida y la puntual en los casos extremos, aunque con ellas no funciona el ADL, que no siempre se disponga de tiempo para andar compensando la exposición, o lo que es peor, que exista el riesgo de estropear una foto al no tener tiempo para cancelar la compensación usada en la anterior. ( ¿ Aquién no le ha pasado?) Una reflexión final; la amplificación al registrar, a diferencia de lo que sucede con la música, es hoy por hoy la misma para todos las frecuencias (colores) y para todos los niveles de señal ( en tanto los transistores sigan empleándose en su zona lineal), por lo que no pueden existir formas selectivas de supresión de ruido en el momento de la toma y un aumento real del margen dinámico, a no ser que se utilice más de un tipo de fotodiodos como hace Fuji. Salu2
  14. Tienes razón, hemos pasado de nitidez a tamaño e impresión prácticamente desde el principio de este foro sin cambiarlo de sitio (quizás porque trataba de nitidez sin precisar el medio), que le vamos a hacer. PPI son pixels per inch es decir píxeles por pulgada (PPP), DPI dots per inch son como bien dices puntos por pulgada aunque en español punto y píxel dan lugar a las mismas siglas (de aquí la confusión). No tienen nada que ver, el primero es la unidad de medida de la densidad de píxeles, el segundo la cantidad de puntos que puede imprimir una impresora. Aquí aunque en inglés encontrarás la definición y aquí verás mejor las diferencias. De hecho los sensores de nuestras cámaras tampoco tienen los píxeles anunciados (no tienen los tres colores) si no fotodiodos y aquellos se generan durante el procesado, pero este no es el tema. Si tu impresora sólo tiene 300 x 600 difícilmente podrás imprimir fotografías con calidad. Tienes que dividir por lo menos por 3 para pasar a píxeles, esto te daría un densidad de 100 ppp y un formato de 771 x 512 es decir menos de un megapíxel para un 13 x 18. Para las impresoras de sublimación una densidad de 300 ppi es correcta y el tamaño medio ( 3216 x 2136) estaría bien ya que serían 427 ppp. Salu2
×
×
  • Crear nuevo...