Hace 9 años | Por WarDog77 a blogthinkbig.com
Publicado hace 9 años por WarDog77 a blogthinkbig.com

Las TV LCD trajeron a nuestras casas una experiencia cercana al cine, pero también el curioso Soap Opera Effect, que a mucha gente aún hoy le resulta molesto

Comentarios

plotz

#1 Joder iba a poner un comentario pastado al tuyo. Por otro lado, el nombre de Soap Opera Effect me parece acertadísimo.

noexisto

#1 oye, mira, me alegro de que hiciera portada: no es el envío del siglo, pero seguro que aquí recibe mucho más votos (anoche la vi peligrar y es algo que le pasa a todo el mundo, tiene un nombre y el 90% creo que no lo sabe o no sabe los porqués)

silencer

#1 +1 por aquí
Yo siempre decía q veía mucha "electronica" en el procesamiento de imagenes.

Y resulta q era esto

D

Dios!! años viendo la TV de casa de mi colega i pensando qué es lo que le podía pasar, que la imagen se veía como "muy amateur" por los movimientos de cámara... y mi colega tratándome de loco diciéndome que la TV se ve completamente normal...
Cómo mola encontrar esos artículos sobre cosas que parecía que solo veías tú mismo
Es cierto que esas teles se ven como demasiado "fluidas" lo que lleva a hacer que se vean raros los movimientos de cámara y acciones...

#1 acabo de leer tu comentario... estábamos igual pues! lol

D

#29 Si, eso justo comentaba en #21. En los programas de teatro lo notaba. Tengo 30 años y solamente he visto Estudio 1 una vez porque repusieron un programa cuando murio Antonio Buero Vallejo, si mal no recuerdo.

#54 decorados de películas de cartón piedra que antes colaban y ahora cantan un huevo y medio

Si, eso justo pienso yo, que se tiene que notar mucho mas cuando un decorado es autentico y cuando una imitacion. Esas cosas seguro que con otra calidad de imagen se aprecian menos.

meneandro

#55 Decorados, maquillajes, efectos especiales... todo se magnifica o se ve más chapucero al aumentar la calidad de vídeo. Afortunadamente las actuaciones y los grandes actores no dependen de la pasta que se ponga o los medios que se tengan, siempre habrá hueco para la calidad más allá de lo visual.

m

#54: Con el cambio al mundo digicual en principio estos estándares analógicos deberían haberse suprimido, pero sin embargo siguen usándose por compatibilidad o por lo que sea a la hora de reproducir ciertos contenidos.

Es que es lo que comenté, si una imagen a 25 fps entrelazada la pasas a 60 fps progresiva te la cargas, el motivo es que algunos cuadros serían duplicados y otros no. Se ve mejor si usas 50 fps y aplicas un buen desentrelazado.

Un detalle adicional: usar 60 fotogramas no es mejor que 50, porque si bien dan algo más de fluidez, eso es a costa de quitar detalle en cada cuadro individual. Esto es, un vídeo a 60 cuadros por segundo tiene más bloques visibles que uno de 50 a una misma velocidad de bits.

meneandro

#61 La información que se muestra es la misma a 50Hz que a 5000Hz. No quitas detalle a ningún cuadro (si a 50Hz estás pasando 25 imágenes de manera que en cada frame par van las lineas pares y en cada frame impar van las líneas impares y la imagen que se muestra se consolida en nuestra mente como una imagen completa, a 5000Hz seguirán siendo 25 imágenes, independientemente de la cantidad de frames intermedios que tengas que generar por inerpolación entre dos frames completos consecutivos para rellenar).

Desentrelazar y mostrar imágenes completas a 50Hz es construír cada imagen a partir de dos frames originales (con lo que estarías "quitando un frame") y rellenar con interpolación de dos imágenes consecutivas. Sigues teniendo la misma información, solo que donde antes con 25 imágenes rellenabas 50 frames mostrando una mitad cada vez, ahora muestras imágenes completas e imágenes interpoladas.

Usar 60 frames en lugar de 50 no es mejor porque se ve la misma información, lo que al añadirle más frames interpolados si se ve más fluído. Al reconstruír información que no existe a partir de interpolación estamos creando falsas imágenes y a veces se producen aberraciones por ese hecho (por ahí encima explicaban el caso de moverse sobre una rejilla, donde las imágenes interpoladas creaban incorrecciones). Pero tampoco quitas nada de detalle, la información es la misma (salvo que se haya rodado a 60 o 30 fps en lugar de a 25, en cuyo caso habrá más información).

La velocidad de bits tiene que ver más con la calidad, compresión y cantidad de información que mandas que con la frecuencia de reproducción. Se puede enenviar 128 imágenes completas por segundo en la misma cantidad de bits que un vídeo de 30fps (comprimiendo más o mejor, reduciendo resolución, quitando detalle o color, etc).

m

#64: Para nada, imagina dos vídeos con el mismo tamaño, pues bien, si uno está a 50 fotogramas y el otro a 60, el de 25 tiene más calidad en cada cuadro individual, y produce menos bloques cuando se ve a simple vista, ya que la información se reparte entre menos cuadros.

Usar 60 frames en lugar de 50 no es mejor porque se ve la misma información, lo que al añadirle más frames interpolados si se ve más fluído.

Para nada, porque "no encajan", unos cuadros van a ir más adelante, otros más atrás y otros estarán inventados de la nada.

Cuando desentrelazas vídeo a 25 fotogramas entrelazados tienes 50 progresivos, como son valores enteros (1 : 2) el algoritmo puede trabajar mejor que si tienes valores raros (1 : 2.4), ya que los cuadros no encajan y tienes que inventarte 5 cuadros por cada 25 originales que había.

#63: Exacto, es lo que mostré en el vídeo.

meneandro

#66 La información que llevan un vídeo no es independiente de su número de cuadros, pero el número de cuadros no es más que otro de los factores que influyen, y no el que más. De hecho te puedo argumentar que sin ninguna compresión (o sea, donde cada frame se corresponde a una imagen completa) un vídeo de 60fps "se ve mejor" que uno a 50fps por el mero hecho de que tiene 10 cuadros completos de información más y la representación es más fluída.

Ahora, si cogemos una señal de video que genera 25 imágenes por segundo y la convertimos a un estándar de 50Hz y a otro de 60Hz si puede ser que te de la razón, porque el número de imágenes sigue siendo 25, el resto de frames son generados y cuanta más información te inventes más posiblidades de artefactos o de problemas existen (25 imágenes a 50Hz supone duplicar las imágenes, hay una correspondencia clara, sin embargo a 60Hz no hay una correspondencia exacta y es posible que se vean tirones en el movimiento porque en algún momento hay un frame que no va a tener duplicado o se va a tener que colar un frame de más). Pero no es un problema de el modo en que reproduzcas las imágenes, sino un problema de que en realidad solo existen 25 imágenes.

Otro factor es la compresión que uses a la hora de grabar el vídeo, dado que en realidad no se graban todos los frames completos, sino se graba uno cada X frames y el resto se reconstruyen a partir de predicción de movimiento (si el fondo es estático y se mueve algo sobre ese fondo, lo único que guardas son los cambios, o sea, la cosa en movimiento, ahorrándote toda la información de fondo). Ahí pasa lo mismo sean 50, 60 o 100fps, dependiendo de cómo se comprima habrá más frames completos o más intraframes, lo cual tampoco confirma lo que dices.

Sobre tu teoría de que al haber más frames ya no encajan habría que contemplar cómo está grabado el asunto. Si tu coges dos cámaras, una que graba a 50fps y otra que graba a 60fps y grabas 2 minutos, lo que hay en ambas grabaciones es exactamente lo mismo (eso si, la primera tiene menos muestras, la segunda más). O sea, si reproduces la primera grabación a 50fps y la segunda a 60fps en dos tv simultáneamente preparadas para las señales de cada uno, en ambos se verá lo mismo pero con más fluidez en el segundo caso. La diferencia estaría si reprodujeras los dos en monitores de 50Hz: en el primer caso iría a la velocidad normal, en el segundo caso iría más lento (aún siendo lo mismo, porque hay más frames) y acabaría más tarde (fíjate por ejemplo que las pelis en el cine son como un poco más lentas y en la tele son más dinámicas y rápidas; esto es porque el cine son 24fps y las teles PAL de 50Hz son 25fps). Pero date cuenta de que no encajan no porque se hayan reproducido mal o porque tengan diferente calidad, sino porque se han grabado diferente. Es como reproducir un vinilo a diferentes revoluciones.

Resumiendo: Yo he estado hablando de reproducción a igualdad de condiciones de grabación, tu has estado pensando reproducción con grabación a distintas velocidades.

m

#72: A ver, no, estoy diciendo otra cosa:

Imagina que grabas un vídeo a 300 cuadros por segundo y de ahí sacas dos, uno a 50 cuadros por segundo y otro a 60 cuadros por segundo.

Mientras no comprimas nada el segundo se podría ver mejor (y mejor se vería uno a 100 cuadros por segundo y mejor aún el de 300), pero eso es sin comprimir, donde el segundo vídeo ocupa un 20% más que el primero.

¿Qué pasa si comprimes al mismo tamaño de fichero o de ancho de banda? Pues que el vídeo a 50 fotogramas va a ir menos comprimido en comparación al tamaño original, y eso significa que el vídeo será menos propenso a la formación de bloques que el vídeo a 60 fotogramas.

Un usuario (17) decía más o menos que el estándar para todo el mundo debía ser 60 fotogramas. Se equivoca porque no ganaríamos en calidad (lo que se gana en fluidez se pierde en bloques y otros artefactos), y porque se pierde la retrocompatibilidad con el material antiguo.

meneandro

#73 Comprimir por definición es perder información. Comparando por tamaños de fichero es normal que un vídeo a 50fps tenga más información que uno de 60fps a mismo tamaño, pero es que has eliminado información a cambio de fluidez. Con la misma información (aunque uno ocupe un 20% más) está claro que ambos videos tienen la misma calidad de imagen.

De todos modos, a la hora de reproducir el problema es el ancho de banda, y actualmente tenemos suficiente como para mandar información a 60Hz y alta resolución sin tener que comprimir de más, menos calidad que eso me parece absurdo. Si estamos hablando de televisión y hay que recortar, yo recortaría en número de canales y no en calidad por canal. Si estamos hablando de reproducción desde otros medios (físicos) en principio daría igual, ya tenemos en las casas equipos para reproducir con más calidad. Si hablamos de streaming, casi todas las alternativas disponen de varios "bitrates" para distintas calidades y demás, así que tampoco vería problema en que se reproduzcan a 60fps (si no soportas esa velocidad o no tienes ancho de banda para esa calidad, hay calidades inferiores)

m

#75: Prueba a comprimir una imagen de mucha resolución (por ejemplo 4mp) en JPEG con poca calidad, por ejemplo un factor de 10-20, luego prueba a reducir la resolución a 1mp, comprimirla con un tamaño similar a la anterior (haz varias pruebas con diferentes factores), y luego abre las dos, la de 1 mp escálala a 4 mp con la interpolación bicúbica.

Aunque las dos tengan la misma información, la segunda lo aprovecha más. También puede ocurrir algo similar si usas un factor de 100 en la de 1 mp, y luego tanteas con la de 4 mp para dejarla en un tamaño similar, verás que la de 1mp es la que no aprovecha la información igual de bien.

¿Qué quiero decir con esto? Pues que aunque 60 fps sean algo más fluidos que 50, no significa que se vea mejor, si la calidad ya iba pillada por los pelos en 50, al pasar a 60 podría caer más y llegar a ser muy notable.

a la hora de reproducir el problema es el ancho de banda, y actualmente tenemos suficiente como para mandar información a 60Hz y alta resolución sin tener que comprimir de más, menos calidad que eso me parece absurdo. Si estamos hablando de televisión y hay que recortar, yo recortaría en número de canales y no en calidad por canal.

Lo que dices es un error por dos motivos:
- Todo el material preexistente grabado en Europa (y China) está a 25 fotogramas entrelazados, o sea, lo que propones es poco retrocompatible.
- Prefiero tener 6 canales a tener 5, la diferencia de fluidez de movimientos es muy pequeña, con 50 Hz la imagen ya se ve muy bien. Y si de verdad hace falta más, saltemos a 100, que sigue siendo retrocompatible y el salto de calidad es mayor.

meneandro

#76 Ni de coña tienen la misma información.

Para que te hagas una idea, la imagen está formada por tres capas de color ¿no? Red Green Blue. O sea, en realidad se almacenan tres imágenes (llamadas canales), una de cada color, cuya "suma" nos da la imagen completa. Sin embargo, la compresión JPEG o de casi cualquier vídeo funciona un tanto diferente. Mediante una serie de transformaciones, convierte esas tres imágenes en una imagen en escala de grises (todo el detalle de la imagen, lo que se quiere preservar) y dos imágenes que aglutinan la información de color. Se puede pasar del esquema RGB a este esquema que llamaremos YCrCb, donde Y es la iluminancia y Cr y Cb son las cromitancias. El truco del JPEG y muchos formatos de vídeo es que el ojo del ser humano es muy sensible a los cambios de iluminación, pero no tanto a los cambios de tono por un lado y por otro que es más sensible a unos ciertos tonos (o frecuencias del espectro visible) que a otros. Así que se comprime sin pérdida la iluminación y se comprime con pérdida las cromitancias, intentando preservar lo más posible el detalle de la imagen y perdiendo los cambios de tono más sutiles.

Ahora pasemos a tu ejemplo: estás cogiendo una imagen grande y te estás cargando la mayor parte de la información de color. Mantienes los cambios de iluminación, pero no es suficiente para componer una imagen de calidad.
Luego estás cogiendo esa misma imagen y la estás reduciendo de tamaño, pero apenas la comprimes. Pese a que has perdido un huevo y medio de información en el proceso de empequeñecerla, en el proceso de codificarla estás manteniéndola casi intacta.
Ahora abres las dos imágenes: una será un borrón de cosas porque casi no tendrá información relevante, la otra se verá muy bien porque se mantiene toda la información y los filtros hacen un gran trabajo al ampliar la imagen. La cantidad de información en ambas realmente no es comparable. Lo que si está claro es que la información en la imagen que se ha agrandado es la misma que cuando estaba pequeña, el cambio de tamaño no ha añadido más información. Y lo que está claro es que la información de la imagen grande se ha perdido en el proceso de codificación.

Si una señal de video de 50fps la conviertes a 60fps la cantidad de información es la misma, pero has añadido frames extras y va más fluído. Es el mismo caso de una imagen pequeña que amplias.

Ahora sobre cómo está grabado el material en europa y china... ya todas las teles tienen estudios digitales y cámaras de grabación digitales, así que nada de entrelazados y los contenidos son producidos a 60Hz (desde hace mucho tiempo hay un estándar PAL a 60Hz). Si te refieres al cine... más de lo mismo. Hay mucho cine grabado a más velocidad y luego procesado para el dispositivo de almacenamiento al que vaya destinado. Si, en el cine vemos 24fps, pero en un dvd vemos más.

Segundo: aunque el estándar de vídeo de los televisores era PAL, los estudios de grabación y televisiones trabajaban con hardware BETA (derivada directamente del estándar NTSC pero de resolución mejorada) y luego se convertía la señal a PAL o se transformaba a VHS para su venta doméstica.

Tercero: si en casa aún usas un euroconector para ver la tele, es el receptor de TDT el que se encarga de convertir la señal para que se vea en tu tele; no es la señal la que va a 50Hz. Si usas la primera y más rastrera y limitada señal de vídeo por HDMI sabrás que su resolución es 1920x1080p a 60Hz

Cuarto: Son los reproductores los que se encargan de transformar la señal que va a nuestros monitores. Si hay una salida HDMI sacarán 60Hz al televisor, independientemente de que estés viendo la tele, un VHS (si tuviera salida HDMI), un dvd o un bluray, da igual cuándo se haya producido ese material. Y si tu TV es un viejo crt PAL, da igual que lo que le enchufes sea un ultradvd y reproduzcas una película a 8k, la salida de video será un euroconector (o una salida de vídeo analógica) y lo que veas por la tele será a 50Hz porque la electrónica intermedia se habrá encargado de convertir convenientemente la señal, independientemente de cómo se haya grabado.

m

#77: Haz el experimento que te digo y guarda una imagen en JPEG con un factor de 5 (queda muy dañada), mira que tamaño de archivo resulta al final, luego guarda la misma imagen pero con la mitad de resolución en horizontal y vertical, y guárdala de forma que ocupe lo mismo. Luego la abres, la amplías y me dices cuál tiene más calidad.

Te pasaré varias imágenes, la primera es una foto de 1152×864 guardada con GIMP con el factor 4.

meneandro

#79 #80 #81 ¿pero tu te has leído mi comentario? No te estoy diciendo que no tengas razón, sino que no puedes hacer esa comparación porque no estás comparando las mismas cosas.

Hazme un favor y vuelve a repetir el mismo experimento SIN FILTROS al aumentar los tamaños de las fotos reducidas y luego dime cual tiene más información que cual y dónde pierde información cada foto.

Verás que la foto grande MUY COMPRIMIDA tiene bastnate detalle pese a todo (pásala a blanco y negro si quieres eliminar el factor COLORES HECHOS MIERDA y verás que salvo algunas transiciones entre grises las formas se distinguen perfectamente, y esto es así porque la compresión tiene el mismo efecto que un filtro analógico paso alto (o sea, filtra las bajas frecuencias que se corresponden con las variaciones de color entre tonos muy parecidos y dejando las altas frecuencas que son las variaciones bruscas, los detalles de una foto).

Y verás también que las fotos engrandecidas tienen los colores bien puestos, pero al estar a menor resolución al ampliarlas HABRÁN PERDIDO DETALLE (porque equivale a un filtro pasa baja, donde pasan las bajas frecuencias que se corresponden con la forma aproximada de las cosas pero sin guardar el detalle, como si emborronaras/desenfocaras una foto).

El caso intermedio es una mezcla de los dos, pierde detalle y pierde calidad en las transiciones de color, pero no tanto como para que le afecten como en los otros casos.

Y por cierto, usa de foto fuente una foto RAW, porque partir de una foto comprimida en JPEG (donde ya ha habido pérdida de información previa, aunque no lo notes) afecta bastante a las pruebas.

m

#82: Lo que te intentaba decir es que un vídeo grabado a 60 fps no tiene porqué verse mejor como mucha gente afirma. Si el tamaño del fichero es el mismo, y a 50 fps iba pillado en cuanto a compresión (como ocurre en la TDT), a 60 irá aún más pillado, y lo que ganas en fotogramas lo pierdes en detalle.

Ni más ni menos.

Sólo pretendo decir eso, que lo de "mejor 60 que 50" es mentira, es algo que depende de muchos factores:
- Velocidad de bits empleada.
- Localización geográfica si estás grabando (sobretodo de noche).
- Que estés mostrando un vídeo ya grabado a 50 o 60 hz.
______
Verás que la foto grande MUY COMPRIMIDA tiene bastante detalle pese a todo (pásala a blanco y negro si quieres eliminar el factor COLORES HECHOS MIERDA y verás que salvo algunas transiciones entre grises las formas se distinguen perfectamente, y esto es así porque la compresión tiene el mismo efecto que un filtro analógico paso alto (o sea, filtra las bajas frecuencias que se corresponden con las variaciones de color entre tonos muy parecidos y dejando las altas frecuencias que son las variaciones bruscas, los detalles de una foto).

Pasa la foto a blanco y negro todo lo que quieras, que el cable de arriba no reaparece y el suelo sigue apareciendo mal. Y si, lo he pasado a blanco y negro.

Y por cierto, usa de foto fuente una foto RAW, porque partir de una foto comprimida en JPEG (donde ya ha habido pérdida de información previa, aunque no lo notes) afecta bastante a las pruebas.

Vale, dame alguna foto RAW (o haz la prueba con una foto RAW, guárdala con una calidad de 4 y luego las otras de forma que queden parecidas), de todas formas yo usé una foto donde ya había reducido la resolución antes, para mitigar lo que dices.

meneandro

#84 "Si el tamaño del fichero es el mismo, y a 50 fps iba pillado en cuanto a compresión (como ocurre en la TDT), a 60 irá aún más pillado, y lo que ganas en fotogramas lo pierdes en detalle."

Si es lo que vengo diciéndote todo el rato, que el problema no son los fps, sino el ancho de banda disponible, y que mejor menos canales y más calidad (que la mitad son basura y la otra mitad tienen una programación de la que solo se salva alguna cosa puntual).

"Sólo pretendo decir eso, que lo de "mejor 60 que 50" es mentira, es algo que depende de muchos factores"

Por fin me das la razón. Es como decir que un mercedes no es mejor que un seat porque por el dinero qeu compras un seat no te llega ni para pagar un cuarto de mercedes. La calidad es la que es y es mejor 60 que 50 por la fluidez que aporta. Las condiciones en las que se sirve cada uno son diferentes y perjudican la calidad que te llega con 60 pero no porque el formato sea malo, sino por restricciones de ancho de banda. Eso si, lo de la localización si estás grabando y la conversión no es problema de formato, sino de grabación/conversión, como ya te he intentado explicar varias veces.

¿Y todo el detalle de los árboles, las hojas? ¿y lo mala que era la foto ya de entrada, donde ya el piso, el césped y el árbol del fondo se veían fatal? ¿has pasado la imagen raw como te pedí o partías de una ya comprimida como te advertí? Si te fijas lo que ha eliminado la compresión como te dije son todos aquellos cambios de tono muy pequeños, en la foto se reconoce todo pese a que haya perdido casi toda la información en dos de los tres canales que conforman la imagen.

Luego cuando tenga más tiempo busco una imagen raw y hago la prueba.

m

#86: Si es lo que vengo diciéndote todo el rato, que el problema no son los fps, sino el ancho de banda disponible, y que mejor menos canales y más calidad (que la mitad son basura y la otra mitad tienen una programación de la que solo se salva alguna cosa puntual).

Y yo te digo que si de verdad es necesaria esa mayor fluidez mejor sería saltar a 100 fps, que es lo más retrocompatible con el contenido previo a 25 fps, compatible con la iluminación que usamos en Europa y tienes una ganancia neta, no un ligero aumento.

La calidad es la que es y es mejor 60 que 50 por la fluidez que aporta.

Y 100 es todavía mejor, pero sin perder calidad cuando se emite contenido grabado previamente a 25 fotogramas ni parpadeos en las luces.
Algunos la tenéis muy gorda con los 60 fotogramas por segundo. Insisto en que si de verdad es necesario habría que pasar de 50 a 100, no a 60.

Eso si, lo de la localización si estás grabando y la conversión no es problema de formato, sino de grabación/conversión, como ya te he intentado explicar varias veces.

Para nada, pasar de 50 a 60 implica inventarse un fotograma donde no lo había y desplazar temporalmente otros 4 fotogramas. Sólo hay uno que quede sin afectar. Pasar de 50 a 100 implica inventar 50 fotogramas, que al quedar justo entre los que había, la calidad del vídeo no se afecta como el caso anterior. Y no, te da igual el algoritmo que uses, es algo que ocurrirá siempre.

PD: 100 fps sólo me parecen necesarios en películas de acción y espectáculos deportivos.

meneandro

#87 Pensaba que estábamos hablando de qué era mejor y por qué entre 50 y 60. Si lo que buscas es calidad y estándares, ya están por ahí los 2k, 4k y 8k y a cientos de Hz durante la reproducción. Pero salvo que estés en un PC y codifiques un video grabado a 100fps para que se vea a 100fps, por mucho que tu pantalla vaya a 10000Hz no vas a ver más información. No es lo que busque yo, es lo que busca y fija la indústria. Y a la industria le importa un pito el material existente, porque lo que quieren es volver a venderlo en nuevos formatos, así que esa parte se la pela, pero también se adhiere a ciertos estándares para que cada fabricante/país no haga lo que le salga del nabo y un producto hecho en el sitio 1 pueda ser reproducido en el sitio 2 con el mínimo número de cambios posibles.

A ver, te he explicado que igual que hay formas de conversión "entera", sin tocar los fotogramas, simplemente añadiendo e interpolando (que es lo qeu llevas diciendo tu todo el rato y que es lo que provoca el efecto "tirón") hay formas de conversión usando cantidades reales (¿has oído hablar alguna vez de precisión subpixel?) que con el hardware antiguo no se podía hacer y ahora si. Incluso por software hay herramientas para conseguirlo al vuelo (http://www.taringa.net/posts/info/17517625/Ve-tus-peliculas-a-60-fps-reproductor---Splash-Pro.html por poner algo).

Más ejemplos: el audio. Tu puedes grabar audio a 11KHz, remuestrearlo y reproducirlo a 48KHz, el sonido es el mismo pero se oye distinto y la información es la misma (muy interpolada). Y no hay un escalado fijo para convertir 11 en 48, no es un "añadimos 3 frames enmedio y dejamos uno en blanco cada X". Si lo hiciéramos habría ruído en el audio, pitidos o algo peor.

Si has jugado a algún juego de ordenador con la sincronización vertical desactivada, habrás visto el famoso efecto "tearing", donde se aprecian dos frames consecutivos pero diferentes debido a que hay uno a medio dibujar cuando se refresca la imagen del monitor. Las dos formas de corregir esto es: sincronizar el dibujado con el refresco del monitor de manera que siempre que se refresque esté el frame completo dibujado. La otra forma que es lo que se está intentando estandarizar ahora (G-Sync y FreeSync) usa una velocidad de refresco de monitor variable (se refresca cuando se dibuja dentro de las limitaciones del monitor, vaya a 60, 74 o 288 fps). Hay gente que prefiere un refresco fijo sin tearing, aunque sea bajo y hay gente que prefiere la mayor suavidad posible en la imagen, que no se espere al refresco del monitor para dibujar porque la acción es tan dinámica y rápida que se perderían situaciones intermedias. Sin embargo un video no genera frames en tiempo real, se puede procesar la diferencia y mostrar un frame intermedio de transición (o lo que es lo mismo, te pueden mostrar imágenes con retraso respecto a la señal que reciben, dándoles tiempo a procesarlas convenientemente). En tiempo real no se podría hacer porque entonces los controles, el audio y el vídeo irían desincronizados, habría lag.

Sobre la necesidad o no de 100fps... no es necesario. Evidentemente hasta ahora nos ha ido muy bien con 50/60 ¿pa qué queremos más?. Sin embargo si es deseable. Disfrutar de una mayor calidad, una mayor cercanía a la realidad visual es una ambición de siempre y poco a poco nos vamos acercando a ella. De todos modos, como todo, es cuestión de gustos.

m

#88: O sea, te digo que si 50 fps no son suficientes que pasemos a 100 y no a 60, y ahora me vienes con que "tal vez 100 sean muchos".

Pues no, o 50 o 100, pero 60 no por lo que te comento de que es incompatible con Europa, ni con todos nuestros fondos documentales ni con nuestra iluminación. Así de simple, en los países donde siempre se ha usado electricidad a 50 hz es mejor usar 25, 50 o 100 fps, no múltiplos de 30.

Insisto: algunos la tenéis gorda con lo de que "a 60 se ve mejor", pues no, quizás un videojuego si, pero si pasas a 100 sería aún mejor, y te coincidiría con los paradeos de las luces de casa, con lo que el vídeo se vería mejor.

meneandro

A ver #88:

a mi personalmente me la pela, solo intento hacerte ver que:

- No es incompatible con nada porque ahora los estándares de grabación y reproducción son distintos.
- La televisión es digital y las frecuencias de señal desde hace muchos años no tienen nada que ver con la red eléctrica ni con la frecuencia de grabación.
- La frecuencia de reproducción la fija tu aparato de TV, cogiendo la señal (la que sea, 50, 60, 780) y procesándola para mostrarla a la suya propia.
- La frecuencia con la que se producen contenidos para TV es superior a 25fps (prácticamente todas las cámaras van a 30 o más fps), y lleva siendo así desde hace mucho tiempo.
- Los fondos documentales antiguos no pueden reproducirse tal cual, se transforman a formatos que se usan ahora (del mismo modo que hay tocadiscos de aguja que internamente transforman la señal a digital para poder grabarla y procesarla en digital) o se reproducen con aparatos de época (lo cual es cada vez más difícil).

Por último, de acuerdo, 100 se ve mejor. Pero ¿qué tal 120? ¿sabes por qué los televisores de 3d van a 120Hz como mínimo? respuesta fácil y rápida: porque se ve mucho mejor (tanto el 3d, como el 2d). Y adivina de quien es múltiplo 120.

m

#77: Aquí va la segunda, tiene la mitad de resolución (576×432), pero si usas una interpolación bicúbica para que tenga el mismo tamaño que la anterior obtienes una imagen que se ve mejor. Es cierto que algunos detalles (como la palabra "Here" del quiosco) no se ve, pero globalmente la imagen gana calidad, la calidad es de 22 si no me equivoco:

m

#77: Y aquí la última, es un caso intermedio entre las dos anteriores (864×468), si escalas a la resolución original verás que también está mejor que la primera y peor que la segunda, está guardada al número 8 y ocupa un poquito menos que las dos anteriores. Fíjate en detalles como el color de los troncos de los árboles, el cable que hay en la parte superior de la imagen, las baldosas y sus dibujos o colores, la hierba, las hojas de los árboles...

Con esto quiero decir que aumentar la resolución (ya sea en píxeles o en número de fotogramas) no siempre supone un aumento de calidad si no se aumenta la velocidad de bits, y como dije antes, si queremos más fotogramas y 50 no son suficientes, saltemos a 100, no a 60:

m

#77: Ahora comentaré otros errores:
Si una señal de video de 50fps la conviertes a 60fps la cantidad de información es la misma, pero has añadido frames extras y va más fluído. Es el mismo caso de una imagen pequeña que amplias.

NO, NO Y NO. Si un vídeo grabado originalmente a 50 fotogramas (sean progresivos o 25 entrelazados) lo conviertes a 60, PIERDE CALIDAD. Algunos cuadros van a ser duplicados, pero no todos, hay 4 fotogramas que se no duplicarían y uno que si. Eso traducido en un objeto en movimiento es que el objeto durante 4 fotogramas va a ir más rápido de lo normal, y entre el quinto y sexto hará una parada brusca para volver a moverse más rápido de lo normal después. NO, NO VA MÁS FLUIDO, VA MÁS A SALTOS.

En el resto... te lo resumiré así: en países que tienen electricidad a 50 hz, la TV va a 25 fotogramas. Punto, el conector HDMI trabajará a 25 fotogramas (o 50 si desentrelazas) cuando transmita contenido grabado a 25 fotogramas o un canal de TV a 25 fotogramas.

Ojo, otra cosa (que desconozco) es que si estás emitiendo 50 fotogramas, que el cable HDMI esté transmitiendo 60, dejando un fotograma en blanco cada 6, de forma que el televisor lo descarte luego, pero no te va a hacer conversiones, porque como conviertas de 50 a 60 y luego a 50, vas a acabar con un vídeo muy afectado. Cuando emites contenido americano en Europa o contenido europeo en América, pues vale, no queda otra, pero si no, mejor usar el formato propio de cada zona. Además de lo que dije, si en Europa grabas a 60 Hz las luces parpadean en la grabación, además de tener una señal no adaptada a la tasa de bits que tenga cada canal.

meneandro

#83 A ver, si pierde calidad es culpa de la forma en que conviertas entre ambos formatos. NO TIENE POR QUÉ PERDER CALIDAD porque estás cogiendo lo que ya tienes y añadiendo frames extras. No estás añadiendo más información, estás inventando para rellenar a partir de información ya dada. Así que la calidad es la misma o si añades el efecto suavidad, mayor. Si cambiando de 50 a 60fps estás manteniendo el tamaño del fichero si estás perdiendo calidad, pero porque no puedes meter más cosas en el mismo sitio, estás teniendo que perder información por algún lado (pero no por el hecho de pasar de 50 a 60, sino por el hecho de mantener el mismo tamaño de salida de fichero).

Sobre los tropezones... es un efecto llamado aliasing, el mismo fenómeno que hace que si dibujas una raya a poca resolución no se vea contínua sino en "tropezones". Y al igual que se pueden aplicar técnicas de antialiasing a una raya puedes aplicárselas a un vídeo. Y no, para dibujar una raya no puedes pintar medio pixel, pero puedes ponerle un color que se corresponda al porcentaje de raya que ocupa ese pixel y el color de fondo que hubiera debajo. Con los fotogramas pasa lo mismo, no puedes añadir medio fotograma, pero puedes "fusionar" parte de una imagen con la siguiente, eliminando el efecto tropezón y conservando la suavidad y la información original. Como sabes, esto se hace en la etapa de codificación/transformación, así que si, una señal de 60fps puede partir de una señal de 50fps y verse a igual calidad pero más fluída (del mismo modo que si partes de un conversor barato que lo único que hace es meter frames enmedio te va a provocar tropezones). El aliasing también es el causante de que grabes pantallas de ordenador CRT y veas los barridos de pantalla, que veas que las ruedas de un coche giran hacia atrás y que la luz de una bombilla o un fluorescente "parpadee" y simplemente se debe a que necesitarías más información para reconstruír perfectamente la señal (en caso de las rayas en una imagen, esa información extra viene dada por la resolución, en caso de los ejemplos de los vídeos viene en forma de añadir más frecuencia a la captura de imágenes, o sea, más fps).

Sobre lo de la electricidad... ya todas las teles tienen una fuente de alimentación ¿no? que coge la corriente alterna y la transforma en continua, que es lo que usa la electrónica digital de hoy en día. Y la señal no la cogen de la electricidad alterna, sino de sus propios relojes internos. Y esto es así desde hace la tira de años, incluso con las teles de rayos catódicos (dado que hay teles de tubo que van a más de 50 y 60Hz:

. De hecho, en la informática desde que yo recuerdo los monitores tenían relojes programables para controlar el refresco y la resolución, independientemente del país donde estuvieras. En la tele se adoptaron estas frecuencias porque en su día era un disparate de caro hacer cualquier otra cosa, se aprovechaba todos los recursos que había a mano y la frecuencia de la red eléctrica te ahorraba tener un reloj, tener conversores, etc. Simplemente cogías la señal y la dividías en señales más rápidas para cubrir tus necesidades (control de barrido horizontal, de barrido vertical, sincronización de frames, etc).

etepero

#54 Me puedes dar algún enlace que profundice más en el tema desde el punto de vista fundamental? (con fundamental me refiero a la física del proceso) Toda información es bienvenida gracias de antemano

meneandro

#71 Olvídate de todo lo de abajo. Esto es lo que tienes que leer porque detalla perfectamente TODO el proceso físico y la lógica que se siguió para construír las señales de televisión y los aparatos reproductores: http://personales.unican.es/perezvr/pdf/Se%C3%B1al%20analogica%20video.pdf


Y ya si eso, puedes echarle un vistazo a esto de aquí, que evita meterse en las partes más interesantes del asunto:


Los enlaces de la wikipedia profundizan lo suficiente para tener una idea, sobre todo el de NTSC que trae más teoría "matemática" de por qué son los números que son y no otros (pal simplemente se dedica a explicar las peculiaridades del formato):

http://es.wikipedia.org/wiki/NTSC
http://es.wikipedia.org/wiki/PAL


Este artículo es un poco denso pero explica las cosas bastante bien: http://centrodeartigo.com/articulos-noticias-consejos/article_138918.html
Si quieres más caña, prueba esto: http://www.maximintegrated.com/en/app-notes/index.mvp/id/1184

salteado3

#10 Eso mismo he pensado cuando lo he leído.

Seyker

#10 un articulo sacado de un blog de fundación Telefónica... Imposible que tenga valor alguno

D

#10 De hecho las películas en el cine se proyectan a 48 fps, cada fotograma se proyecta dos veces.

WarDog77

#2 Yo la primera vez que lo percibí fue en una LED HD 400Hz y en las de 600Hz mas todavia

D

#4 yo también lo noto, (dudo que alguien no lo note) pero a mi me gusta.

WarDog77

#5 Dice que la imagen se ve mas nítida, asi que cuando te acostumbras a ese efecto "videocámara" (la imagen parece que no esta bien estabilizada) seguro que la imagen se ve mejor (mas definida)

WarDog77

#5 Mi colega decía que no notaba nada, pero yo creo que era porque pensaba que era algo malo, y como la TV le había costado 1500 eurazos....

D

#21 Sí el cine va a 24FPS para ganar en realismo en maquetas a una escala concreta, no sé si es lo que tú dices, pero si que tiene un por qué en el cine, que viene de muy antiguo claro.

Link en ingles de algo que no leí pero va de eso:
http://www.pcpmalta.com/a-history-of-world-tanks-and-miniature-filming-techniques.html

jainkone

#21 no soy experto en cine, pero desde el B/N noto en las series británicas ese "efecto teatro" con los decorados. Es el contenido con el que más lo he notado. Yo creo que las cámaras con que se filma también está parte de la culpa.

#29 no te había leido, en la emisión de ese programa en concreto se notaba el mismo efecto pero "a la española"

TwinBee007

Esto ya pasaba con las últimas teles de tubo, tuve una de 100hz con el filtro "Natural Motion".

Segador

Soy uno de los que no lo aguantan. Incluso ver el Hobbit en el cine en HD era como ver Medico de familia, en la 3 me llevaré una media para la cabeza.

daveruiz

¿¿Pero que cojones dice el artículo?? Ha cogido todo lo que ha oído por ahí, lo ha relacionado no se cómo y voila!

Hasta donde yo se (si me cuelo en algo, por favor):

Lo de la imagen borrosa es por los antiguos LCD y la lentitud de los pixeles en cambiar de estado (sobre todo endendido a apagado). Por meter mas refresco no lo arreglas. Hoy en día ese problema es minimo, pero no por subir HZ.

Si aumentas mas los HZ. Se duplican fotogramas y a correr. No hace falta interpolar los fotogramas con magias extrañas.

Si resulta molesto es porque a interpolación que generan no es perfecta. Con movimientos suaves aciertan, pero como se mueva algo rapido ya empiezas a ver saltitos que despistan un huevo.

Luego, por supuesto, está el acostumbrarte a verlo así. Te ves un par de veces El Hobbit a 48fps y listo.

Lo de los 400hz 800hz y demás mierdas que venden ahora es un puto cuento chino. Los LCD no necesitan repasar los píxeles para que se sigan viendo, como con los antiguos televisores de tubo. El subir hz quizá pueda valer para algo en sistemas 3d con gafas activas, que alternan fotogramas muy rápidamente, pero poco más.

Por cierto. Yo tengo quitado el efecto opera soap ese. No lo aguanto.

D

A mí este efecto siempre me ha parecido una puta mierda y nunca entenderé como lo han podido vender como novedad. Cuando compré mi LCD tuve que andar al loro de que no tuviera la frecuencia aumentada.

A partir de los 100hz ya se nota un huevo.

D

Curioso, siempre pensé que en parte era porque las emisiones de televisión, al ir interpoladas, daban 50fps "reales", mientras que las películas daban sólo esos 24/25 fps; y de hecho, pensaba que la forma de imitar el "efecto cine" era utilizar tomar 25fps con la cámara y utilizar ese mismo fotograma para ambos campos, en lugar de tomar 50fps y utilizar los campos pares de uno y los impares del siguiente. Veo que mis sospechas eran correctas.

o

Vaya mierda de artículo, el que lo ha escrito no tiene ni puta idea y va de enterado.

kaoD

#14 se refiere a la grabación, no a la reproducción. Si grabas a 30FPS y tu ilumación está a 50Hz, al no ser un múltiplo se ven las luces parpadear.

m

Yo lo vi la última parte de BTTF en un televisor LCD modernillo y lo noté bastante. La próxima vez que quiera verla buscaré una TV de rayos católicos. Quizás sea por la costumbre de haberla visto siempre en CRT, no lo se.

Parece tontería, pero es que se hace como raro. Por ejemplo, en esa peli, cuando accionan el freno de emergencia y sale todo rodando, resulta como raro.

Otro detalle es la manía que tienen algunos fabricantes de creer que la electricidad va a 60 hz en todo el mundo. Pues no, en muchos sitios como Europa o China va a 50 hz, y esto hace que los equipos de grabación deberían grabar a 25, 50 o 100 fotogramas por segundo y no 30, 60 o 120.

D

#12 Los monitores LCD ya no usan la F de la alimentación alterna para mostraar la iamgen.

m

#14: Pero aún así, en Europa funcionamos a 50 Hz, la gran mayoría de las grabaciones europeas están a 25 Hz, los canales de TV funcionan a 25 fps...

Me parece lógico que las TVs que se vendan funcionen de acuerdo a lo que hay aquí y no a lo que hay en EEUU o Japón. Lo de las lámparas que parpadean es un problema, pero no el único, si grabas a 30 fps y lo emites en un canal de TV a 25 fps vas a tener una calidad peor. Cuando se trata de emitir series de TV americanas, bueno, es lo que hay, pero si es una grabación europea, si se hubiera hecho a 25 fps saldría mejor por los televisores europeos.

D

#16 " Pero aún así, en Europa funcionamos a 50 Hz, la gran mayoría de las grabaciones europeas están a 25 Hz, los canales de TV funcionan a 25 fps..."

Pero repito, no dependemos de la señal eléctrica para ello; ya no usamos un barrido de electrones.

Lo correcto es emitir y grabar a 60 FPS mínimo como se hará en breve.

Y espera a vídeos en 3D

m

#17: No es sólo la señal eléctrica y el barrido de electrones en los TVs, es que todo el contenido grabado en Europa hasta ahora está a 25 fps. Lo que propones de que en Europa (y China) nos cambiemos a 30 fps plantea dos problemas, uno es la retrocompatibilidad, que tendríamos una degradación de calidad a la hora de ver nuestro propio material, y otro problema es que técnicamente es inviable, ya que el cambio es mucho más complejo que pulsar un botón.

Además de lo del vídeo, si hiciéramos el cambio muchas bombillas se verían mal, como ya dije:



Por eso insisto en lo que comenté, que a la hora de comprar una cámara hay que asegurarse de que grabe a 25 o 50 fps y configurarla para que grabe así. De lo contrario... bueno, no es que vaya a salir una imagen borrosa, pero se pierde calidad.

----
Para entenderlo mejor: es como si vendiéramos coches a UK con el volante a la derecha y les dijéramos que conduzcan por la derecha.
A veces cambiar un estándar trae más problemas que lo que podría aportar una unificación.

D

Un artículo digamos falto de calidad por todos lados, mezcla horrendas features de las TVs modernas que flipan al consumidor con el framerate de la TV, con que a la gente le resulta molesto como si fuera algo generalizado cuando es más bien una opinión subjetiva, además de saltándose la parte técnica del asunto, que es lo que supuestamente se debería explicar, da por supuesto que un LCD se vé así.. cosa que es mentira total.

Deberían hacer algún artículo explicado el autismo consumidor tecnológico español, de los anuncios estrella y los números grandes, del "me compre una TV de X dinero y asín de grande,con mil cosas que no tengo idea de para que son pero molan", que luego se ve mucho peor que otra de la mitad de precio bien por calidad, bien por configuración.

#18 vamos a ver, qué no entiendes que dice el amigo #17... cualquier televisor actual soporta nativamente 50/60Hz PAL y NTSC sin entrar en datos, no dependes de la corriente eléctrica, y que reproducen contenido a 30, 50, 60, 23,9.. etc... depende solo de la fuente de vídeo que le metas, 60 frames se ven perfectos que no estamos en los 90 ya...

treintaitantos

#17 #22 Es que ni en los televisores de tubos (los de tubo no, me refiero a los de tubos) la frecuencia de cuadro viene sincronizada a la frecuencia de red, seria absurdo porque generaría batidos increíbles con la frecuencia de la señal. Siempre ha venido sincronizada con la frecuencia de la señal, ya fuera PAL o NTSC. En cualquier caso una señal NTSC convertida a PAL que es lo que se emitia en analogica se ve como el culo, y por lo menos a mi me molesta en visión periférica un monitor a 60Hz iluminado con un fluorescente que parpadea a 50Hz. Se produce un batido de 10Hz que molesta bastante (pero con las CFL esto se arregla).

m

#22: Es que en Europa (y China) 60 está mal por lo que comento, tendrían que ser 50, ya que el contenido previo podría adaptarse duplicando todos los cuadros, así todos van igual de espaciados. Si pasas a 60 fps los cuadros ya no se espacian igual, con lo que pierdes calidad.

De todas formas lo suyo es que una TV aplicase una frecuencia de refresco adecuada según el contenido, es decir, si internamente puede trabajar hasta 120 hz para la pantalla, que use 100 para el contenido grabado a 25 o 50 fps, y 120 para lo que esté creado a 24, 30 y 60 fps. Simplemente ir buscando divisiones enteras, así es como se conserva la calidad.

d

¿Alguien sabe si esto ocurre en las televisiones LED o OLED?
A ver si #12 o #14 que parecen saber del tema me pueden ayudar.

D

Aquí se le llamaba "efecto Estudio 1 Prado del Rey", pero eso sólo lo entienden los mayores de 40, me temo.
En las tv de Sony hay un botón naranja que elimina el efecto.

NeV3rKilL

Pues a mi me chifla el efecto, si no en escenas de acción o movidas se ve todo borroso. Incluso en PC teneis un programa llamado SVP (SmoothVideo Project) que hace lo mismo para cualquier video en pc.


Youtube también ha incorporado ya la opción de ver videos a 60fps.

Es cuestión de tiempo que se imponga. La claridad de imagen debería ser lo predominante y simplemente es acostumbrarse. Una vez te acostumbras ves una persecución a 24fps y te sangran los ojos.

ptm56

De todas formas en el artículo se explica la interpolación lineal "a machete". Hoy en día hay algoritmos de interpolación de fotogramas más "currados" que pueden minimizar bastante el efecto telenovela. Toqueteando con el SVP que comenta #51 (imprescindible para mí desde que lo descubrí), por ejemplo, podemos comprobar que según que parámetros toquemos se puede suavizar bastante el movimiento sin introducir apenas ese efecto que a tantos desagrada.

samdax

El problema de hacer el cine a nas frames, aparte de todo lo comentado, son los costes. Mas frames, mas pasta, y por bastante diferencia.

p

Cuanta tragedia, con lo fácil que es desactivarlo.

Lo malo vendrá cuando empiecen a rodar todo en 48/60 fps, no por esas películas, que seguro que se verán de miedo, sino porque una vez que nos acostumbremos todo lo rodado anteriormente a 24 fps nos va a parecer que es un album de fotos.

Naiyeel

Te acostumbras y ya lo ves como algo normal, solo te choca las primeras semanas, luego te choca cuando ves una peli en una tele de las antiguas y cuando ves un decorado moverse, piensas pero que mierda de saltos, esta comprimida mal o que?

a

Joer, eso ya lo notaba yo... hace más de 20 años.

A ver, me explico. Yo no tengo televisión desde el año 91 y no he experimentado obviamente ese efecto que se menciona con los LCD. Pero en los años 80 yo notaba que las series españolas se parecían a películas y las series británicas tenían un-no-se-qué raro que las hacía visualmente similares a programas grabados en plató (telediarios y concursos...) Yo pensé que era por una cualidad distinta entre la película química y el registro magnético de la señal de vídeo.

D

Lo había notado, no en todos los programas pero sí en muchos transmitidos en alta calidad (no necesariamente HD) pero no entiendo por qué alguien querría quitarlo.

D

#7 Hay gente a la que le marea

perrico

#11 Pues tienes un problema. La vida real ante tus ojos va más rápido que 50 Hz. Se refresca en tiempo real.

D

#67 Capitan Obvious al ataque! Espera que te respondo otra "La vida real no es una película".

D

#7 Hay algunos efectos que causan molestias o mareos más que nada porque generan confusión en el cerebro. Se envían datos que resultan "contradictorios" al cerebro, no son lo esperado o a lo que se está acostumbrado, y eso puede llegar a causar mareos y hasta dolores de cabeza, o en otros casos una cierta sensación de que hay algo falso.

El caso más claro es en el del 3D, nuestros ojos tienen una distancia entre ellos y están acostumbrados a que un objeto a cierta distancia se vea bajo un cierto ángulo, también estamos acostumbrados a enfocar al cambiar de distancias, etc. No todo eso se puede simular a medida para cada persona, así que molesta, algunos se acostumbran, y para otros es como tener una mosca en la pantalla, es imposible dejar de mirarla una vez has notado que está ahí.

illuminatis

Ese efecto es horrible y a veces en casa de alguien lo he comentado y me hab dicho, pues sí, se ve como una telenovela, no? CSI Miami como si fuese Pasión de Gavilanes, no gracias.

AntiPíxel

En mi LG se llama TruMotion. Si lo desactivas la imagen vibra, da saltitos. Si lo activas todo es más fluido. Da la sensación de que acelera la imagen, ves más recorrido de ella.

ur_quan_master

¿24 fps?¿60 fps?¿por qué hablan de ver porno todo el rato?

Lamercillo

En mi caso (tengo una Panasonic a 600hz), lo noté sobretodo al principio. Luego te acostumbras, y ahora lo agradezco. Eso sí, cada vez que vienen amigos a casa a ver una peli, me dicen "esto se ve raro, no?".
Realmente más allá de la costumbre, no veo por qué no se ruedan las películas a 60fps, sobretodo las de acción, esos travellings que van a tochazos son bastante terribles.

Eso sí, hay que decir que en según qué casos (personas que se mueven con rejillas de fondo por ejemplo), el cálculo de imagen intermedia es muy complicado y se ven artefactos, no es un sistema perfecto.

p

#52 Además de restarle cualquier rastro de dramatismo a cualquier escena, tiene el problema de no ser consistente, pegando acelerones visibles incluso en diferentes partes de la imagen al mismo tiempo y en otros no.

Es una puta mierda. Y no percibirlo es no tener gusto in entender el lenguaje cinematográfico.

GrammarNazi

¿Entonces está con Bárcenas?

j

Menuda tenéis montada y menudo mejunje mental que tenéis entre 24-25 o 50 o 60 :-0

Lo que diferenciaba en las emisiones de TV vistas en monitores de tubo entre las imágenes cinematográficas y las videográficas no era la cadencia de fps sino el entrelazado. Campos o no campos.

Si claro , en las producciones de TV había diferencias. En los interiores se usaban cámaras de estudio (video entrelazado) pero para los exteriores durante muchos años no había cámaras ENG con suficiente calidad, por lo que se rodaban en cámaras cinematográficas de 16mm. Luego se telecinaba a video. Aunque acababa siendo video entrelazado (que es la norma electrónica) , la grabación era de naturaleza progresiva.

Esto fué así durante los años 70 y 80. En el caso de las series británicas lo fué hasta bien entrados los 90.

Y si, la diferencia era más qaue obvia. Muy tierno los que decís "ya lo notaba yo de pequeño y creo quye debía de ser la únic apersona en la tierra"


Todas las teles tienen un método electronico de uamentar los herzios recuperando el efecto "video" de los CRT perdido en los paneles planos (que no reproducen campos). Como muy bien dicen es una cosa de gustos.

A los que dicen que basta con rodar a los tropecientos fotogramas por segundo que a mi me salgan de los huevos, "y santaspasciuas" como si tal cosa, les abofetearía hasta el paroxismo. Dicho sea con el debido sentido del humor

kumo

Te pones a Game of Thrones en HD en una tele de esas y resulta que lo ves todo como cuando echaban las obras de teatro en La 2. Y no acabas de acostumbrarte. No siempre es molesto, pero resulta raro, especialmente cuando mejora algún vídeo que tu crees que debería verse peor por la edad del mismo. Eso sí, no hace milagrosm las cintas de Los Simpsons de Antena 3 siguen pareciendo VHS rayados lol

MacMagic

En LG se llama TrueMotion y yo lo tengo desactivado aunque puedes regular entre bajo, medio, alto.

D

Vaya mierda de tele debo de tener que no se nota este efecto.

diskover

Llevamos 10 putos años con el efecto (Natural Motion también llamado) de las narices y hasta hoy a nadie se le había ocurrido levantar la voz

D

Yo el otro día me obligaron a ver "La pasión de cristo" en un televisor con 3D y no se que me molestaba más, el efecto este que parece grabado por aficionados o el espantoso photoshop en los ojos del hijo de dios. Al final terminé jugando con los perros, mucho más interesantes.

Mike_Zgz

En las LG se evita desactivando el true motion, aunque si lo activas en los videojuegos no queda mal. Algo parecido se veía El Hobbit en el cine con la versión 48fps. También de llama a este "fenómeno" efecto telenovela.

Rwini

A mi al principio también me pasó y me resultaba hasta ridículo ahora como han dicho por arriba me he acostumbrado y no me entero pero cuando viene alguien a mi casa y vemos una película me miran un poco con cara de: ¿Pero qué es esto?

Si queréis multiplicar aun más este efecto os recomiendo que veáis en una televisión de estas el Hobbit a 48fps, en mi caso no puedo dejar de pensar durante toda la película que hay algo que no cuadra

D

Tanto llorisqueo y opiniones sin fundamento si al final se puede desactivar.

¿tan dificil es entender lo siguiente?:
a unos les gusta, a otros no
para algunos tipos de video mejora, para otros no


Punto, no hay nada mas que decir.

Y ya que estamos: a mi me gusta ese efecto, aunque no para pelis de accion o cosas asi (o quizas es que mi tele no tiene buena tasa de refresco)