Hace 16 años | Por sevilla92 a ocularis.es
Publicado hace 16 años por sevilla92 a ocularis.es

Vivimos en un mundo audiovisual, donde hay una loca pesecución por la calidad de la imagen, por la resolución que ofrecen los aparatos: megapixels de las cámaras digitales (y de teléfonos y pdas con cámara integrada), monitores más grandes para poner los puntitos más pequeños (ya 1024×768 se nos queda corto, vamos a por los 1200) Ahora bien: ¿qué resolución tiene nuestro ojo?. Y la deducción lógica: ¿es inteligente tener aparatos que den más resolución que la de nuestro ojo?

Comentarios

currahee

#8 científicos japoneses están trabajando en una conexión ojo-cerebro vía HDMI

gallir

Errónea, además que no aclara nada, no se puede comparar.

El ojo sólo puede "ver" muy poco al mismo tiempo, afortunadamente el moviento ocular compensa y permite "ampliar" la imágen o incluso fijar objetos en movimiento. Por ejemplo: http://www.hhmi.org/news/lisberger-esp.html

D

Dupe, antigua y en portada con exactamente el mismo titular:

¿Cuántos megapixels tienen nuestros ojos?

Hace 18 años | Por carlos a lacoctelera.com


Sí, soy veterano de menéame.

Gelfacial

esta claro que podemos decir que mi tele de 1090p se ve mejor que la realidad.

D

Noticia antigua, erronea y duplicada

D

Ya se había meneado: ¿Cuántos megapixels tienen nuestros ojos?

Hace 18 años | Por carlos a lacoctelera.com
(el sistema no lo advirtió porque ha cambiado el blog de dirección, pero tiene redirección al sitio que aquí se enlaza).

D

#19, tenías razón en todo hasta que has llegado a los dos párrafos finales

Lo realmente importante es la relación entre el número de pixeles y el área de impresión de la foto, no del sensor: cuanto mayor es el área de impresión más pixeles necesitas para que siga pareciendo "enfocada". Está relacionado con los puntos de la impresora que también mencionas. Por otro lado, cuanto más pequeño el sensor, peor. Sí, tendrá más "resolución" (en términos de pixeles captados/mm2), pero también tendrá más ruido térmico (así que los pixeles son menos útiles) y discriminará peor los objetos (mayor profundidad de campo). Es muy posible que el ojo tenga más conos que nervios para agregar la información (como dice #20) y eliminar el ruido por ser un "sensor pequeño".

El número de puntos que es capaz de ver el ojo humano no es infinito ni mucho menos. El límite se llama "círculo de confusión" y según los científicos es entre 5 y 10 líneas/mm vistas a 30cm de distancia: si una es blanca y la de al lado negra, verás un contínuo gris (Ray, Sidney F. 2002) Este círculo de confusión mínimo que tiene el ojo sirve para definir la profundidad de campo, los pixeles que necesitas para un determinado tamaño de imagen o el tamaño del sensor necesario en tu cámara

D

#10 Agggg DRM nooooo!!

currahee

#1 supongo que te refieres a las marcas que fabrican cámaras de verdad, no? Porque a veces duele ver anuncios de cámaras de 12 megapíxels por 89.99 € lol

p

#4 Coincido contigo, y añado: aunque sea un caso muy especifico en el sector de la publicidad se hace indispensable que las fotos tengan una gran definición, ya que pueden ir a parar a cualquier soporte: album, carteles gigantes, posters,...

kalpox

¿Cuántos polígonos por segundo mueve mi cerebro?

Z

#19 "PD: Se supone que el número de puntos que es capaz de distinguir el ojo humano es infinito, puesto que nosotros no tenemos una visión "discreta" de la luz, sino contínua."

Estás muy equivocado. La luz la detectan los conos y los bastones de la retina (células fotosensibles a luz de alta y baja intensidad). Así que sí, la información visual la recogemos de forma discreta. Eso sí, nuestros sensores no son tan básicos como un CCD normal y corriente. Los puntos no están uniformemente distribuidos ni son todos iguales (ya he comentado que las células para percibir luz intensa y luz suave son diferentes). Además el ojo se mueve, y la sensibilidad no es constante en todas las células, sino que mandan como pulsos al cerebro. Todo eso evita el efecto de aliasing que veríamos por la discretización de la imagen que de hecho sí hacemos.

Lo mismo pasa con las imágenes por segundo que somos capaces de percibir. Un humano normal percibe entre 50 y 60, pero no vemos la transición entre imágenes por el efecto de pulso de las células nerviosas (hay quien sí las ve, pero eso es una enfermedad cuyo nombre no recuerdo), tenemos "motion blur" incorporado. Eso sí, para este caso concreto sí se puede percibir el efecto de aliasing. Por ejemplo, cuando miramos a las aspas de un helicóptero, o a los radios de una rueda de bicicleta mientras la aceleramos.

Todas las percepciones humanas están discretizadas. El continuo es una ilusión que crea el cerebro.

D

¿Se han fijado en lo que dice #26? ¿O es que hay ganas de seguir erre que erre?

D

La clave está en la difracción de la luz.

k

Yo creo que el objetivo de tener una foto con más resolución no es tener la foto a 10x15 y con 10Mp, sino poder tener una porción de esa foto a 10x15 (o más tamaño, evidentemente) y que no pierda calidad ¿no?

a

La densidad de fotos y bastones en la zona de la mácula no la mencionan. Esa es la que cuenta. La foto se percibe nitidamente solo en el punto donde enfocas. El recorrido de la vista hace el resto. Por poner un ejemplo, cuando se mira a una chica guapa, el repasito visual imprescindible por las distintas zonas, es lo que al final conforma en la memoria la imagen final. Por lo tanto el efecto final es como si tuvieramos una resolución bestial muy superior a todo lo que dice este artículo que podría calificarse como interesante pero erroneo. Olvida lo mas importante.

perrico

La visión del ojo, en cuanto a calidad optica, es muy mala, pero lo que el ojo hace es barrer constantemente todo el area visual y componemos en el cerebro nuestra propia imágen de lo que hay delante, poniendo más detalles en nuestro cerebro de aquello que nos interesa. De esta forma, el que haya una imágen con muchisimos megapixels es bueno si nosotros la consideramos lo suficientemente interesante para fijarnos en ella con el interes necesario

D

#28 Tienes razón en cuanto a lo del sensor, pero por incluir el ruido electrónico (información que el sensor "se inventa").

La comparación la he hecho porque lo realmente importante es el tamaño del pixel, no su número. Por eso, a igual cantidad de pixels, cuanto menor sea la superficie en la que están repartidos, mejor (sin tener en cuanta los factores como el ruido, claro).

#1 Por cierto, para los fotografos, el "zoom digital" no existe ;). Que no lo usamos, vamos. En las compactas sabemos lo que llevamos, y preferimos sacrificar focal por mantener la definición, y en las reflex es que directamente no está esa opción.

Zade

el límite de resolución que puede ver nuestro ojo yo pienso que está en relación a la distancia a la que te encuentres del monitor o fotografía

D

#46, los datos de #43 son ciertos pero relativos a la distancia de observación. En su caso y aunque el enlace no lo diga, 30 centímetros. Como espero que te sientes mucho más lejos que 30 centímetros de tu pantalla, la resolución que necesitas para no percibir los pixeles es menor. Además el aliasing de la fuente ayuda mucho: desconéctalo en las opciones de tu sistema operativo y verás como percibes los pixeles a una mayor distancia que antes.

Por otro lado #43, con colores nuestro cerebro puede discriminar zonas con la misma iluminación, pero la agudeza no aumenta: nuestros ojos tienen muchos más bastones así que somos más sensibles a las diferencias de iluminación (blanco y negro) que a las diferencias de color. Incluso dentro de los colores somos más sensibles al azul que al rojo (porque tenemos más bastones, ya sabes)

Por cierto, este hilo es de los mejores en menéame en meses en cuanto al nivel de sus comentarios, enhorabuena a todos los participantes.

Completando #47, en un cine los "pixeles" son redondos y se solapan unos con otros, así que no pueden distinguirse individualmente. El efecto en realidad a medida que te acercas no es de "pixelado" sino "desenfocado".

kaffeine

#24 pues no sé, pero supongo que la misma que todo lo que tengo delante.

D

al final futurama iba a tener razón:

- Con mas definición que la realidad! -

D

la clave la ha dicho #18, y nadie ha hecho referencia a el. Dejaos de tecnagogias que no son necesarias aqui. Sencillamente, el cerebro no compone las imágenes por medio de puntos independientes, igual que no compone las formas por medio de polígonos.

D

Dice que se pierde informacion porque el ojo es de 200 megapixels y solo hay un millon de cables para enviar esa informacion, pues este tipo se sorprenderia si supiera la cantidad de informacion que puede enviarse a traves del cable donde enchufa su ordenador para conectarse a internet y escribir tonterias, siendo solo son dos cablecitos por lo general y aun asi ya se pueden enviar hasta 100 Mb/s y quizas aun mas.

Kagetora

A mi parecer nuestra visión es analogica y no digital así que no influye tanto la cantidad de "pixels" que captamos sino la calidad de estos. Nuestros "pixels" son mucho mas sensibles que simples "cuadraditos" de un solo color.

papixulooo

Justo ayer estaba preguntandome esta frikada en el bus lol

editado:
Veo que vemos en alrededor de 1 megapixel... Pues yo veo mucho mejor las imágenes en HD

D

Desde luego hay una regla básica : si hay una pantalla con unos píxels tan pequeños que , por ejemplo , a una distancia X , el ojo humano no pueda notar el pixelamiento , entonces el ojo humano tampoco podrá notar el pixelamiento de otra pantalla que tenga los píxels el doble de grandes pero que esté el doble de lejos del observador .

Creo que con esta base geométrica , se debería asentar algún estándar de resolución de video que sea fijo y universal .

D

#43 Si el dato que tú das es cierto , entonces un monitor de 19 pulgadas con ratio 5:4 ( es decir , un monitor de 30'15 cm x 37'68 cm ) necesitaría tener una resolución de 4307 px * 5384 px para que nuestros ojos no fuesen capaces de notar el característico cuadriculado fruto del pixelamiento .

http://www.prinds.com/tools/screenDimensions.htm

D

Observación complementaria a la anterior #46 : en cada milímetro tendrían que caber 1/0'07= 15 píxeles (redondeando al alza) .

O sea , a 15 píxeles por milímetro , ya no nos damos cuenta del pixelamiento .

Pero claro , cuantos más milímetros tenga una pantalla , más píxeles necesitará . ¡ Imagináos la de milímetros que tiene una pantalla de cine !

hardrock

Nuestros ojos tienen 200 megapixels pero el cable hace llegar a nuestro cerebro solo 1 o 1.5 megapixels.

Mierda de cable, primero fue el de la tele y ahora esto... lol

D

Incrementar la resolución de imagen en las máquinas siempre nos resultará necesario , hasta niveles prácticamente infinitos , pero la razón no está en nuestros ojos , sino en la investigación científica .

Piensa en la astronomía . ¿ Sabes cuánta resolución tiene el cielo que vemos ? Pues para que te hagas una idea de cuánta resolución tiene , te voy a poner un ejemplo : tú desde nuestro planeta podrías utilizar el simple grosor de una aguja o incluso de un pelo para , colocándotelo delante de tu ojo , tapar completamente una galaxia entera que se encuentre a la suficiente distancia de nosotros .

vviccio

Como introducción habla del ojo y del nervio óptico pero falta hablar del cerebro y de la manera en que procesa la información y crea la imagen que percibimos finalmente. Y seguramente el cerebro multiplique la resolución del ojo y del nervio óptico.

Una analogía, un monitor puede mostrar imágenes de más resolución si usa el entrelazado de imágenes ejemplo:

un TV HD Ready de 720 líneas puede mostrar imágenes de 1080 líneas engañando a nuestros ojos, primero muestra las líneas impares y luego las impares.

kovi

vaya tontería... aunque fuera eso verdad, que no lo es, a las pruevas de la evidencia me remito, servirian para poder ampliarlas sin perder calidad, toma!

k

#34 olvida lo mas importante. dejarse de escribir artículos y salir con la chica, obvio.

D

Dejando aparte que es el cerebro quien interpreta y filtra la información. No tiene por qué perderse información. El ojo tiene memoria, se llama persistencia retiniana y es lo que nos permite ver los videos como videos y no como una secuencia de 25 imágenes (en PAL).
Conclusión: El hecho de que se pierda o no información dependerá del ciclo de reloj del nervio óptico lol.

Kaizen

"El ojo, sin ayuda de ningún otro aparato óptico, es capaz de separar dos puntos situados a una distancia mínima de 0,07 mm"
http://www.canalsocial.net/GER/ficha_GER.asp?id=4344&cat=ciencia

Por lo tanto, el mínimo píxel percibido por el ojo, que estaría entre esos dos puntos es de 0.07^2 = 0.0049 mm^2/pixel. Y fijo que la distancia es menor cuando nos ayudamos de colores. Después, a la hora de comparar el resultado final, hay que compararlo con la impresora/pantalla/dispositivoVisualización: de poco me vale tener una cámara de 100Mpixeles, si mi impresora es de 150dpi (puntos por pulgada) . Dada una foto de un tamaño, hallar los pixel/mm^2 que nos ofrece el dispositivo de visualización. Y así sabremos si se pierde o no información.

0.0049 mm^2/pixel -> 204 pixel/mm^2 * (25'4mm/1pulgada) = 5181 pixel/pulgada -> 5181 dpi que tendría nuestro ojo.

Y seguro que con colores de por medio la agudeza aumenta...vamos!, ¿alguién se imagina encontrar a Wally en B/N?

Puski

La información no se pierde de la retina al cerebro, se filtra, se procesa, es decir, se toma aquello que es útil. Recomiendo este enlace para quien quiera saber más. http://www.physpharm.fmd.uwo.ca/undergrad/sensesweb/ Está en inglés, pero tiene animaciones muy buenas.
Me acabo de dar cuenta de que #20 ya lo explica bien claro. Perdón por la precipitación.

tuseeketh

He dejado de leer el artículo en el momento que ha comparado megapíxeles con bastones y conos sin dar explicación alguna de esta aproximación. Es como decir que los coches corren más que las personas porque tienen cuatro ruedas, mientras que las personas sólo tenemos dos piernas. Totalmente absurdo.

Kaizen

#48. Gracias por el aporte. Aunque te corregiré mi corrección!! lol

La agudeza aumenta en mayor medida con la diferencia de iluminación, que con la diferencia de color (que también lo hace).

Respecto a los cines: aunque los píxeles sean redondos y se solapen, se podrán distinguir. Es como en el puntillismo: de lejos es una bonita imagen, pero de cerca....urrrgh.

Y volviendo al link: está mal comparar los megapixeles de la cámara con puntos receptores del ojo. Ayudándome de lo que tú has dicho, podríamos concluir que el límite útil de las cámaras, está en los pixeles/mm^2 que el ojo es capaz de detectar para una distancia dada.

D

Ya inventaran implantarte un mini-gadget en el ojo y utilizarlo como cámara de 200 megapixels muahahaha!

f

en otras palabras para ver un blue ray con una tele hdmi full HD ready nesesitamos 12 pares de ojos osease en otras palabras nesesitamos tener cabeza de mosca

D

¿Y cuantos pixeles los miopes?

D

Como más megapixels, mejor, pues más información habrá de la imagen, y más zoom digital podremos hacer...

En cuanto a si realmente nos es util... pues yo creo que 600 pixels por pulgada debe ser lo máximo que podemos ver, para ver pixels más pequeños ya necesitariamos un microscopio, así que supongo que llegará un momento en que los pixels de las pantallas ya no se reducirán más... de hecho, en la pantalla de mi macbook pro me es casi imposible distinguir un pixel... (y da igual que quepa más información en pantalla si esta informacion es tan pequeña que te tienes que dejar los ojos para verla...)

D

#52, ¿comor? ¿Lo que dices del TV HD Ready de 720 líneas es cierto?

No me explico como se puede mostrar en la misma línea pixels que pertenecen a una línea superior o inferior sin que parezca que tiemble la imagen...

Mike_Zgz

Esto suena demasiado a Matrix... geek más que geek

C

Y no es la primera vez que los inútiles de ocularis ponen chorradas. Vaya expertos de la visión, pardiez.

x

exacto, es errónea, desde el momento en que somos capaz de ver los putnos de 1080p, es que tenemso BASTANTE mas resolucion...