29.10.10

Un verdadero homenaje audiovisual a Johnny Cash

Esto es algo sobre lo que tenía que escribir. Es simplemente increíble. Soy fanático de la rotoscopía, de los audiovisuales colaborativos y de la música de Johnny Cash. ¡Y este video junta las tres cosas! Como video musical para su último disco postmortem American VI: Ain't No Grave, se optó por una alternativa única.

El director Chris Milk, famoso por su corto Last Day Dream, optó por hacer de este un video colaborativo que solamente pudo existir gracias al internet y la globalización cybernética. Milk ya es reconocido por haber hecho video clips interactivos en HTML5 e incluso videojuegos musicales. Esta vez la idea del director fue darle vida a la música del "Hombre de Negro" a travez de sus propios fans.

La propuesta fue crear una página web donde cada uno de nosotros pudo dibujar uno o varios frames del video a su manera, y luego gracias a la ayuda de cientos de miles de frames dibujados, se creó una rotoscopía única en el mundo.

Lo más interesante es que los frames que se muestran, son seleccionados según el ranking en la misma página; por lo que el video "oficial" está cambiando constantemente. Como dicen los testimonios anteriores: esta animación es un ser vivo, se mantiene en movimiento y evolución constante, tanto así que es posible ver miles de versiones diferentes, una cada vez.

Me parece algo maravilloso. Un video musical que realmente tiene alma, que lleva impregnados los sentimientos e interpretaciones de sus propios admiradores en él. Yo también dibujé mi fotograma y me alegra saber que contribuí en un verdadero homenaje a una leyenda como Johnny Cash.

Si quieres contrubuir con tu dibujo o ver las otras versiones del video visita la página de The Johnny Cash Project donde además se encuentran todas las versiones de cada fotograma con los créditos incluídos.

20.10.10

En Ecuador sí hay 3D

No soy para nada nacionalista. Nunca he defendido algo solamente porque "es talento ecuatoriano". Yo soy de los que piensan que las cosas hay que ganárselas, y uno defiende lo que es bueno. Sin embargo sí es decepcionante ver que algo que bien pudo haber sido hecho aquí, se lo manda a hacer afuera sin razón alguna. Bastantes casos he visto de comerciales, especialmente de animación 3D, que son enviados a Argentina, Chile o Perú. No porque allá tengan mejor calidad ni sean más económicos ni rápidos; sino simplemente porque desconfían de quienes trabajamos en la industria local. Simplemente no creen que algo bueno pueda ser hecho en Ecuador.







Los anteriores videos demuestran lo contrario. Son ejemplos claros de que sí se puede hacer animación 3D de calidad en el país. Estos pequeños cortos, fueron realizados por compañeros míos como proyecto de tesis. Fueron elaborados entre 1 o 2 personas, contando con un bajísimo o nulo presupuesto. ¡Ahora imagínense lo que se podría hacer en conjunto y con billete!

Si bien hay cositas que pudieron haber salido mejor y un par de detallitos que pulir, el resultado final es excelente y muestra lo buenos artistas que son. Yo planeo hacer mi tesis el próximo año, y espero poder demostrar que sí podemos hacer buen 3D en Ecuador.

*Si te interesa estudiar 3D, visita la página de la Escuela de Artes Digitales, donde Rafael "el Pollo" Lozano (uno de los mejores postproductores en el país) enseña casi que personalizadamente. Agradezco a él por toda su paciencia e interés en formar buenos profesionales.

17.10.10

Legalización de los colores

Esta es sin duda la parte menos creativa, y más aburrida de mi trabajo; aunque sin duda es un paso sumamente importante. Luego de emparejar colores, y pintar la imagen, toca volverla legal. Las imágenes de arriba, se deberían ver decentes en un monitor de computadora (dependiendo de cómo esté calibrado), sin embargo al ser transmitidas al aire, no se verán tan bien. 

El color en los monitores de computadora es RGB y el rango es de 0-255 por cada canal, mientras que en televisión NTSC se usa el 601, que va de 7.5 IRE como negro absoluto a 100 IRE, como blanco absoluto lo que en RGB equivale a 16-235 por cada canal. Todo pixel que esté fuera de ese rango es un pixel ilegal, y aparte de no ser representado correctamente en un televisor, puede ocasionar grandes problemas en la señal. Para algo tenemos las barras de calibración y todos los sistemas de monitoreo de color.

En el primer caso de arriba, vemos en el vectorscopio que el amarillo está demasiado saturado, lo cual causaría que queme e invada los colores vecinos; incluso se podría dar el caso que el color parpadee al aire. En el segundo caso, la crominancia están bien, pero la luminancia está fuera de rango. En el waveform vemos que hay pixeles que están por debajo de lo legal; los cuales se empastarían eliminando cualquier detalle que pueda haber en la ropa negra. Así mismo vemos que hay pixeles que están por encima de los rangos y esto causaría que vibren al aire, e incluso puede ser que los valores sean tan altos que parte de la señal de la imagen interfiera con la señal del audio, distorsionándolo. ¿Nunca han visto un programa de televisión nacional en el cual cuando enfocan a una ventana soleada, el audio se daña y cuando enfocan otra cosa vuelve a la normalidad? Pues bien, hacer que eso no pase es algo que todo editor y postproductor debería saber. Aunque raros son los casos.

Existen formas de hacer esto de manera automática, y si no me equivoco todo software de edición  profesional viene con un limitador de crominancia y luminancia; o sólo de luminancia en el peor de los casos. El problema con esto, es que no se tiene control sobre lo que la máquina hace, y mi forma de pensar es que ningún profesional debe dejar que la computadora decida por él.

Pongo como ejemplo la misma escena de Carlos Valencia, que está arriba, sólo que en un cuadro diferente. Escogí ésta porque me parece que el director de foto, los camarógrafos, el productor de campo que consiguió la locación, y los actores hicieron un gran trabajo que no debería verse opacado por fallas técnicas (además yo la edité y me quedó pepa! jaja)

Esta es la toma que me trajeron. Solamente le corregí el balance de blancos un poco y le di un poco de saturación, ya que como grabaron a pleno sol la imagen se veía un poquito azulada y opaca. Sin embargo, si analizamos el waveform, nos damos cuenta que está bastante fuera del rango permitido. Todo lo que en en las ondas se ve blanco es lo que está por encima de 100 y por debajo de 7.5 IREs.
El fondo blanco, a pleno sol es justamente el que está reventando la imagen; mientras que la camisa negra está por debajo de los límites. Sin embargo, también nos damos cuenta que hay escases de tonos medios. Esto último es netamente subjetivo, y por eso siempre el hombre le gana a la máquina en este aspecto. La computadora no puede dicernir si algo le gusta o no, solamente se rige de acuerdo a parámetros exactos. No tiene noción del gusto y la imagen debe ser tratada según cada caso estético concreto. Para esta imagen yo quiero que los detalles en la camisa y el cabello se vean al aire, porque los considero necesarios; mientras que el fondo no me interesa tanto, y la cara creo que debería estar un poco más iluminada.

Ahora bien, si aplicamos un filtro legalizador, el software (en este caso Avid Media Composer) hará que todos los pixeles que estén por debajo de 16 RGB y por encima de 235, se ajusten a estos valores.  Todos los colores que oscilaban entre 0 y 15, ahora tienen 16 y los que estaban entre 236 y 255 ahora están empastados en 235. Si nos damos cuenta la forma de las ondas no cambia, sigue siendo exactamente igual sólo que ahora lo que estaba ilegal fue eliminado. Esto es una ventaja y un problema dependiendo del caso. En este caso no me sirve de nada pues si bien ya no hay errores técnicamente, los detalles de la camisa y del cabello se siguen perdiendo.

Existe otro método automático de hacer la legalización, y es a travez de los auto-niveles dentro del modo de corrección de color. Con esto se logra modificar no solo los pixeles fuera de rango, sino la gama entera. Es decir que si el rango de nuestra imagen actual es de 3-120 IREs, el software calcula matemáticamente y reescala todos los valores para justarlo a 7.5-100 IREs. Ahora no tengo colores ilegales y gané detalle en la camisa y el cabello; sin embargo también perdí el contraste tonal de la imagen, y la cara se ve mucho más plana puesto que gané detalle en la pared blanca de fondo. Tampoco es lo que quería. Si nos damos cuenta, la forma de las ondas es exactamente la misma  que la original pero más chiquita.

 
Por esta razón es que antes de hacer cualquier cosa automáticamente, siempre prefiero hacerla por mí mismo. En este caso subí los valores del negro (generalmente Lift o Setup en los softwares y conocido en el bajo mundo como Pedestal) hasta que todos sean visibles, es decir a R16, G16, B16. También subí los tonos medios (generalmente Gamma) un poco para separar la cara (las pieles casi siempre están en los tonos medios) de las sombras, pero los brillos (generalmente Gain) ni siquiera los toqué para dejar el contraste de la imagen.

Una vez ajustada la imagen a mi gusto, recién apliqué un filtro legalizador para eliminar todos los brillos que quedaron fuera de rango. Ahora sí tengo una imagen totalmente legal, y tal cual yo la quería. Si nos damos cuenta la forma en el waveform a cambiado: ya no se ve una línea totalmente recta en la parte de abajo como en el primer ejemplo; pero los blancos tampoco bajaron tanto hasta mezclarse como en el segundo. Esto se traduce en que obtuve el detalle que tanto quería en la camisa negra, mientras los blancos quedaron prácticamente iguales y la piel un poco más clara.
 
¿Y qué pasó con el taxi? Pues es básicamente lo mismo pero en torno a la crominancia en vez de la luminancia. Tendríamos que bajarle la saturación al amarillo, sin caer en el error de bajársela a la imagen completa. Talvez escriba un post sobre cómo se hace eso, pero lo importante por ahora es que aprendas a leer el vectorscopio y el waveform, si te vas a atrever a envíar cualquier cosa al aire, es algo escencial.

15.10.10

La revolución HDSLR

Hace no tantos años atrás, la diferencia entre video y cine era enorme. Prácticamente era algo inalcansable para el video, por cuestiones técnicas, llegar a tener la calidad del celuloide. Hoy gracias a la tecnología, eso es cosa del pasado. Existen cámaras digitales como la RED One o la Arri Alexa, capaces de grabar en resoluciones quizás mayores a las necesarias, con alto rango dinámico y muy buena sensibilidad a la luz. Nada que envidiar a la imagen química.

Pero muy aparte de estas cámaras profesionales, en el último par de años se ha revolucionado la industria de una manera nunca antes vista. Se descubrió que con una cámara réflex digital, que grabe video, se pueden sacar imágenes bellísimas jamás imaginadas como posibles en video. Esta es la revolución HDSLR (High Definition/Digital Single Lense Reflex), que desde ahí no ha parado sino que cada vez se crean nuevos equipos y accesorios para mejorar la forma de grabar con estas cámaras.
La principal razón por la que fueron reconocidas estas cámaras digitales es el tamaño del sensor. Como son cámaras fotográficas, poseen un sensor mucho más grande que cualquier cámara de video hace un par de años y esa había sido una lucha imparable de quienes trabajaban con video. Un sensor más grande, aparte de ser más sensible a la luz obteniendo imágenes más nítidas; genera una profundidad de campo bastante corta, pudiendo enfocar algo y desenfocar el resto según la distancia o cambiar sutilmente el foco desde el fondo hacia la cara del actor por ejemplo. Esto se lo conoce como rack focus, y fue durante años la mayor ventaja creativa de las cámaras de película sobre las de cinta magnética.

Pero existen otras ventajas como lo son el echo de trabajar con lentes intercambiables, grabar en High Definition, frame rates variables desde 24p a 60p, y por supuesto su bajo, bajísimo precio. Se podría decir que ahora sí se democratizó la industria audiovisual. Ya no es necesario tener cientos de miles de dólares para grabar con la misma cámara que se graban producciones profesionales internacionalmente. Ahora si es factible pensar en ahorrar para comprarse una cámara para prosumidores (el intermedio entre productores y consumidores), y tener calidad de salas de cine. La siguiente imagen la robé del blog Cultura B de Juan Fernando Andrade; donde se muestra el rodaje de "Pescador", el nuevo film de Sebastián Cordero y apreciamos que fue grabado en una Canon 7D.

Y sí, como son cámaras pensadas y creadas para tomar fotos, tienen muchas deficiencias al ser usadas como cámaras de video pero nada que la creatividad y el desarrollo de nuevos accesorios no hayan solucionado ya. Y sí, esos nuevos accesorios y tener todos los juguetes también cuesta, pero nada comparándolos con sus competidores; además con la cámara sola y un equipo para registrar buen audio es suficiente.

Lo más impresionante de esta revolución cinematográfica, es la cantidad de gente que se suma, incluyendo a grandes monstruos de la industria y otros de otras industrias; que hoy son íconos del cine digital. Por un lado tenemos a Shane Hurlbut, cinematógrafo, que fue director de fotografía en "Terminator Salvation", y que había filmado toda su vida en película; ahora ha terminado de grabar un film que será el primer largometraje de estudio grabado completamente con una Canon 5D. En el otro extremo en cambio tenemos a Phillip Bloom, que empezó su carrera como camarógrafo de noticias, para pasar a documentales, comerciales, etc y ahora es uno de los cinematógrafos más famosos del mundo y uno de los íconos que también emigraron hacia el cine HDSLR.

Gale Tattesall, reconocido por su trabajo en "13 Fantasmas", trabaja ahora como director de fotografía en "Dr. House". Esta serie se filma normalmente en cine, usando una cámara Arriflex de 35mm. Por eso fue una noticia bastante llamativa la decisión de grabar el final de la 5ta temporada totalmente en la Canon 5D, demostrando la calidad de estas cámaras.

Estos son tres casos puntuales de grandes cinematógrafos y videoastas que han visto en las cámaras réflex un potencial expotable. Pero también está el otro lado de la historia. Con esta nueva tecnología de cámaras de foto con un nuevo "Modo Video" que graba en HD, muchas personas que ya tenían sus réflex, se han lanzado al ruedo de hacer video también. Y quién mejor para dirigir la fotografía de un video, que los mismos fotógrafos experimentados. Es el caso de Dan Chung y Vincent Laforet; ambos leyendas de la fotografía que ahora son excelentes representantes del cine digital también. De echo "Reverie" el corto de Laforet, fue el primer video del mundo en ser grabado a 1080p con una cámara de fotos.

Espero que se desarrollen más y mejores opciones para estas cámaras, y aunque Panasonic acaba de sacar al mercado una cámara que dicen que corrige todas las fayas que las DLSR tienen yo creo que por baratas y por el simple hecho de haber pegado primero, muchos se quedarán con ellas. Aparte que aún no existe ninguna cámara que tenga un sensor del tamaño de una Canon 5D Mark ii y que no cueste más de 20 veces de lo que esta. Yo por mi parte, ya estoy empezando a ahorrar.

13.10.10

El look Blockbuster

Acabo de terminar un cachuelo en el que me pedían que corrija el color del video para que se vea "más bonito". Cabe aclarar que yo no soy colorista, mi trabajo implica corregir color de ciertas cosas, cuadrar el color entre toma y toma, dar algún feeling especial que el director pida pero ser colorista es otra cosa totalmente aparte; muy especializada. Sin embargo creo que sí puedo hacer que una toma se vea "más bonita" pintándola adecuadamente.

Hay quienes creen que se trata de ponerle un filtro a la imagen, e ir moneando hasta ver algo que nos guste. Sin embargo, al igual que un buen diseñador, tenemos que saber lo que hacemos y por qué lo hacemos. Entregar una toma agradable al ojo, legal y que transmita lo que el cliente buscaba no es cuestión de suerte.

Existe una técnica muy conocida y que muchas veces me ha dado resultado. Aunque creo que está siendo sobreusada la defiendo pues me parece que parte de un buen marco teórico y no es solo hacer por hacer. Es lo que comúnmente se conoce como el "Blockbuster look".

Si nos fijamos bien, casi todas las películas que vienen de Hollywood usan la misma paleta de colores. La gran mayoría de lo que se pasa en cines, está pintado de naranja y turquesa. Naranja para las pieles y brillos y turquesa para todo el resto de elementos y sombras. Este es el look Blockbuster.Hay gente que ama este look. Stu Maschwitz tiene una serie de tutoriales para lograrlo usando Colorista II. Incluso Red Giant, tiene el Magic Bullet Mojo que es un plugin que está hecho solamente para lograr este efecto de forma automática. Algo por ahí me hace pensar que tanto amor por este tipo de coloración tiene bastante que ver con marketing (Maschwitz trabaja para Red Giant)

Por otro lado están los detractores de este tipo de coloración. En el blog de Todd Miro (de donde saqué las imágenes de arriba) hay una serie de post dedicados en contra del Blockbuster look. Según él y los que piensan como él, este look ha llegado a límites absurdos.

A mi el look en general me gusta bastante, y tiene sustento si nos basamos en la teoría del color. Una de las cosas que un cineasta debe aprender a hacer para contar su historia, es poder guiar el ojo del espectador a donde él quiere que vaya. En gran parte de los encuadres, lo más importante es la cara del actor, complementado con ciertos elementos; el resto es solamente ambiente, no pueden tener el mismo peso visual. Para dar relevancia al elemento principal el director puede usar muchos recursos: encuadre, enfoque, iluminación, movimiento, color o todos juntos como en la imagen siguiente. ¡A que no adivinan qué es lo que el director quiere mostrarnos!
Volviendo a la teoría, sabemos que lo que vuelve interesante una imagen, es el buen uso del contraste. Cuando uno ve una imagen "lavada", sin mayor contraste, el ojo no distingue diferencias, se confunde y no sabe a dónde mirar; no hay detalles ni elementos que resalten. Si hablamos de color, el contraste se puede crear tanto cromáticamente como lumínicamente. Y ahí está el éxito del Blockbuster look.

La piel humana es básicamente anarajada. Varía en cantidad de saturación y tono, pero todas las pieles humanas se mantienen en el mismo matiz (hue). Eric Escobar grabó personas de diferentes pieles y todas están en el mismo ángulo del vectorscopio; entre el rojo y el amarillo. La explicación a esto es que el color de piel está dado por la sangre y la melanina; y la sangre y la melanina son del mismo matiz/color siempre. La variación de cada una de estas da el tono y saturación de nuestra piel.

Entonces si queremos que la piel en nuestra película se vea natural y no marciana, tendrá que ser entre roja y amarilla masomenos; y para que resalte, la rodearemos de un ambiente con su color complementario y sucede que el complementario de algo medio anaranjado, es justamente algo medio cyan/turquesa.Esto explica por qué es tan famosa esta forma de pintar películas. ¿Pero por qué es agradable al ojo? Aparte de que las pieles nos siguen pareciendo humanas y el turqueza/cyan/azul hace que resalten, hay algunas teorías del color que explicaría por qué esto nos llama tanto la atención.

La Ley de Consistencia de Color nos indica que si exponemos nuestros ojos a un color brillante, inmediatamente nuestro cerebro nos pedirá el complementario, y si no se lo damos, lo pondrá automáticamente donde pueda. Si no creen esto, en Paint dibujen un cuadro gris neutro dentro de un fondo rojo y verán cómo automáticamente el cuadrado gris empieza a vibrar y a tener un borde cyan.
Esta es la razón por la cual nuestro cerebro ve la gama completa en los cubos anteriores, aunque verídicamente los bloques azules en la parte de arriba de la imagen amarilla, y los bloques amarillos en la parte superior de la imagen azul; son exactamente del mismo tono de gris.
Del mismo modo existe una razón más fuerte para pintar de turquesa las sombras, y de naranja los claros. Nos basamos en la Fórmula de Müller, que predice que a la gran mayoría de personas les parecerán desagrables estas combinaciones:pero les gustarán estas:Esto se debe al brillo natural de cada color. Los amarillos son más brillantes naturalmente que los azules, y según Müller toda combinación que siga este principio natural será preferida frente a cualquier otra que no. En la primera imagen el azul más oscuro tiene un tinte amarillo, y el más claro un tinte más morado, lo que es contrario al brillo natural y por eso se vuelve algo desagradable. Al contrario en la segunda imagen, el azul más oscuro tiende al morado, mientras el más claro tiene algo de amarillo, siguiendo el brillo natural y volviéndose más agrable a nuestra vista.

Por eso se ve mejor una imagen con sombras frías y brillos cálidos:
que una con sombras cálidas y brillos fríos.

Denver Riddle en Digital Cinema Foundry, también tiene un post explicando este tipo de coloración. Incluso según él, esta teoría explicaría por qué los dos momento más "bonitos" del día son los atardeceres y los amaneceres: sol de frente, largas sombras, alto contraste, brillos cálidos y sombras frías. ¿Tiene sentido, verdad?

Riddle también trata de explicar que el método funciona debido a que el contraste entre el amarillo y el azul, es el más contrastado entre todos los complementarios (sí, el contraste más contrastado, aunque suene tonto), sin embargo yo creo que es todo lo contrario.

Para mí la mezcla naranja/turquesa funciona tan bien, debido a que son armoniosos lumínicamente. Si vemos la imagen siguiente, notamos que el contraste amarillo/azul es realmente el más contrastado en cuanto a brillo, y el cyan/rojo el segundo. Como nuestra imagen no es ni amarilla ni roja, sino algo naranja; y no es ni cyan ni azul, sino algo turquesa, nuestra tonalidad está justo en el medio de ambas combinaciones. Y si combinamos el más claro con el segundo más oscuro, y el más oscuro con el segundo más claro nos da como resultado un contraste equivalente al magenta/verde que es el menos contrastado de todos lumínicamente creando una imagen armoniosa y no tan chocante.
Si movemos el vector hacia algo más amarillo/azul o algo más rojo/cyan debemos recordar la Ley de Compensación para mantener el equilibrio. Es decir que si tenemos un contraste medio ambos colores pueden permanecer juntos sin opacarse; pero si aumentamos el brillo de uno, debemos compensar la composición reduciendo su tamaño total. En esto considero que reposa la magia de este tinturado: en el rango que da para jugar con él, sin sacrificar los tonos de piel naturales.

Hay que recordar que esta es sólo una técnica, y que existen muchas más que debemos entender a cabalidad también para saber mezclarlas todas de la manera correcta. Me gusta y he comprobado que funciona. Que Hollywood la esté explotando incansablemente no le quita méritos, igual que un guión de 3 actos puede encantar si está bien estructurado, aunque siempre es mejor buscar mejores y propias alternativas según los requisitos propios de cada video.

10.10.10

Sobre campos y frame rates

Este es un post cortico, solo una explicación que me hubiera gustado que alguien me de antes de embarrilarnos a trabajar en alta definición

Todos en televisión ecuatoriana estamos acostumbrados al NTSC, nos sentimos seguros en NTSC: el video es de 720x480, corre a 29.97fps, es entrelazado, con campo inferior primero, y el aspecto de pixel es de 0.9. Fácil, así nos lo enseñaron y así trabajamos siempre... hasta ahora.

Otro día explicaré mejor todos los demás factores, ahora sólo quiero dejar algo claro: 59.94i=29.97fps. Sí, por más raro que parezca, nosotros que estamos acostumbrados a ver esa cifra como indicador de cuadros por segundo, ahora debemos poner más atención. Por alguna razón que no le encuentro mucho sentido, los fabricantes de cámaras han cambiado la forma de utilizar el numerito.

Ahora cuando veas 60p, quiere decir que son 60 cuadros por segundo, porque es progresivo. Pero si ves 60i, quiere decir que son 60 campos por segundo, porque es entrelazado; es decir 30 cuadros por segundo. Esto ha causado más de una confusión. En el blog de Shane Ross, hay un extenso debate explicando y discutiendo el por qué de esta pendejada.

Hay cámaras que graban a 24p, 30p, 60p y otras a 60i, y creéme, es bastante confuso si nadie te ha explicado nada. Especialmente si vienes de un ambiente Avid, donde estás acostumbrado a ver una secuencia a 30i, lo que indicaba que corría a 30 cuadros por segundos y que el muestreo era entrelazado. Actualmente esto querría decir que hay 30 campos por segundo, es decir sólo 15 cuadros, lo cual no tendría sentido. Más claro ahora 30i simplemente no existe.

Aviso esto con especial importancia, porque por experiencia propia a mi y al postproductor, nos costó mucho tiempo, y esfuerzo entender por qué cuando exportábamos un archivo XDCam que decía que estaba a 59.94i, al abrirlo en After Effects nos indicaba que estaba a 29.97fps.

Si les sucede esto, trabajen tranquilamente, sin miedo. Tan solo no se olviden de renderizar todo con campo superior, porque recuerden todo HD, sí todo HD es siempre odd/upper field. Otra cosa que también nos costó algunas amanecidas descubrir.

8.10.10

¿Adobo completo?

No se si soy demasiado adefesioso, pero el chef al cual encuentre usando "adobo completo" perderá todo mi respeto.

Hace unos días un director de fotografía me dijo "lo único que no me gusta de este software es que se complica demasiado. Para una cosita sencilla te pide sal, luego pimienta, luego curry, no existe una forma de que pida adobo completo?" Yo lo respeto como DF, y por eso me dejó totalmente asombrado con ese comentario.

Para mí toda aplicación profesional debe pedir ser calibrada hasta en los más pequeños detalles, y todo operador profesional debe saber calibrar su máquina según las necesidades específicas de cada ocasión. Eso es lo que diferencia a un profesional de un aficionado: el control que tiene sobre cada uno de los factores que componen su trabajo.

Ningún fotógrafo que se respete usa la cámara en modo automático. Ningún diseñador que se respete usa los preseteados. Ningún sonidista que se respete deja que la consola decida por él. Ningún chef que se respete usa el mismo aliño prepreparado para todos los platos: pone la sal y la pimienta según cada caso. ¿Por qué algún editor que se respete esperaría solamente "arrastrar de la carpeta al timeline, sin tanta preguntadera"?

6.10.10

Video en HDR, ¡soñé tanto contigo!

Sinceramente pensé que nunca vería esto. Desde que conocí la fotografía en HDR, pasé divagando en cómo sería hacer lo mismo en video. Se tendrían que grabar varias exposiciones al mismo tiempo. ¿Con dos cámaras? ¿Dos pasadas exactamente iguales con movimiento robótico? ¿Y si hay personas y movimiento real? ¿Dos sensores? ¿Al mismo tiempo? ¿Y si grabamos en algún formato RAW?

Un tiempo después el internet me enseñó a Jay Burlage, más conocido como MiLapse que es uno de los más grandes genios de los videos timelapse. Usando controles de cámara computarizados y controles de movimientos mecánicos, más un software que creo que él mismo logró desarrollar; tomaba varias fotos en diferentes exposiciones y luego las unía todas para crear imágenes de alto rango dinámico, que a su vez creaban el video en alto rango dinámico.
El problema aquí es que sólo puede hacerse con objetos estáticos, el movimiento lo dan los paneos y dollys robóticos extremadamente lentos. Según leí en su propio foro, Burlage tomaba entre 3 y 9 exposiciones diferentes por cada frame. Para grabar movimiento real se necesitaría una cámara que procese de 2 a 9 exposiciones por cuadro a un promedio de 24 cuadros por segundo. Simplemente imposible.

Luego conocí que Jim Jannard (quien por cierto es el creado de Oakley) había sacado una cárama que podía grabar en un formato RAW. Es decir sin procesar. Cuando una toma una foto en JPG esta ya está procesada, es como un revelado, con ajuste de color, contraste y detalle. Cuando uno toma una foto en RAW vendría a ser como un negativo, que luego será procesado por uno mismo. Mucho más trabajo, pero muchas más opciones creativas. Jannard al parecer había logrado hacer eso con una cámara de video: la RED One. No era HDR pero era algo muy muy bueno.

Hace un mes masomenos los videogeeks quedaron impávidos al ver que la gente de Soviet Montage Production había logrado crear el primer video en HDR de una persona en movimiento real. Hicieron esto con dos Canon 5D, cada una con exposiciones diferentes pero grabando exactamente la misma imagen a travez de un divisor de haz. Esto si es realmente increíble.
Ahora hace pocos días, Jim Jannard nuevamente anuncia una bestialidad en la industria cinematográfica: su nueva RED Epic tiene un sistema para grabar HDR directamente. Al parecer han logrado grabar el mismo video, a dos exposiciones diferentes y procesarlo dentro de la misma cámara. Este es un cuadro sacado de un video con la Epic y aquí está el link al foro RED donde se discute acerca de esta nueva tecnología.

¡Miren el rango de tonalidades que es capaz de captar al mismo tiempo! Ninguna otra cámara de video, ni de cine, hasta ahora había podido hacer eso. Esta imagen tiene detalles tanto en el exterior soleado como en el interior totalmente a oscuras. ¡Miren la montaña al fondo, tiene relieve y miren los objetos de adentro, también se les nota la textura!

Para que quede evidencia que es video de verdad aquí se pueden bajar el video original http://red.cachefly.net/walk.m4v y acá tienen otro ejemplo grabado en Las Vegas http://red.cachefly.net/17hx.mov Miren el relieve que tienen los focos y el detalle en las pieles. Eso hubiera sido imposible de lograr al mismo tiempo. O era uno o lo otro.

En verdad pasé mucho tiempo soñando con esto, por eso me entusiasma tanto, y si tuviera $60 000 en este momento, me compraría una RED Epic en vez de una casa. Así de fácil.

5.10.10

¿Cine colectivo?

Ya se, ya se, el cine es siempre colectivo. Es el resultado del esfuerzo de todos los miembros del equipo, desde el director, hasta los tramoyas, el gaffer, el booman, el editor, los actores, productores, electricistas, cámaras, y etc, etc. No me refiero a eso, me refiero al cine dirigido colectivamente. Uno de mis sueños era (y sigue siendo) que cuando seamos directores famosos, con un pana dirigir yo la mitad de una película desde un punto de vista y él la otra mitad desde el otro punto de vista. Sería bastante interesante, o al menos eso nos parece a nosotros.

Al parecer a la gente de Canon también. Ellos idearon un concurso para promocionar obviamente sus productos a travez de cortos grabados con cámaras DSLR. No se si alguna vez hicieron esto, pero yo me acuerdo que de chiquito mi madre empezaba una historia, y la dejaba a medias para que yo la continuara, y luego la continuaba mi hermana y mi otra hermana hasta que salía un cuento único e inimaginable. "The Story Beyond the Still" es básicamente eso, pero con cortometrajes. 
Canon le dio una foto a Vincen Laforet, uno de los fotógrafos más reconocidos del mundo y el papá de la nueva generación de cineastas con cámaras réflex, y éste grabó un cortometraje basado en lo que se imaginó de esa foto. El cortometraje de Laforet a su vez, terminó en otra foto de la cual los participantes tendrían que hacer un corto basado en lo que se les ocurría. El corto ganador terminaría en una foto, con la cual empezaría otra ronda de cortos y así sucesivamente hasta completar los 7 capítulos del concurso.Los participantes tenían un mes a partir de que haya sido seleccionado el ganador anterior para presentar su video.

Si los vemos de corrido veremos un mediometraje, armado en especies de episodios, cada uno dirigido por un director diferente con un staff diferente. La historia seguramente terminó siendo algo que ninguno hubiera imaginado, y ahí está la magia del asunto. Lo más interesante aún es que en la página del concurso están los finalistas que no ganaron también, osea que se puede ir mezclando episodios y saldrás con una historia totalmente diferente a la que yo vi. Según mis cálculos si hay 5 finalistas y son 6 capítulos, se pueden hacer 15625 combinaciones diferentes!

Aquí les dejo los 7 cortos de los directores premiados, los cuales por cierto grabarán una 8va parte junto a Laforet! (eso sí es un premio)












Ahora nos toca esperar a ver qué hacen en el capítulo final. Estén atentos, de seguro será una belleza.

3.10.10

El reto de eliminar un color

Nos enfrentamos a un nuevo reto. Me llamaron para un cachuelo que me parece bastante interesante. El productor quiere sacar un video, donde ciertas partes estén a color y otras no. Algo bastante simple si fuera un sólo elemento, o si fuera un video corto.

El asunto aquí es que en un escenario quieren que todo sea gris, salvo ciertos elementos que sí estén a color. Pero en el otro escenario, quieren que sólo un personaje esté gris mientras los demás y el entorno sigue a color.

En el primer escenario, básicamente sería un efecto Pleasantville (más conocido como el efecto de Sin City). Es algo relativamente fácil, y para nada nuevo: ya lo usó Spielberg en La Lista de Schindler.


El segundo escenario sin embargo, sí se nos está haciendo más complicado. Discutiendo nos acordamos de Enrique el Antiguo, del show de Francella. Lo primero que se me ocurrió es usar máscaras en algún software de post, pero el detalle es que es un video de 30 minutos, que pretende llegar a ser una serie de varios capítulos. Mascarear todo eso sería absurdo. Tenemos que buscar otra forma.

Hasta ahora, lo que tenemos en mente es vestir al personaje de "azul croma" y eliminar sólo ese color. Si nos fijamos bien en Enrique el Antiguo no hay ningún elemento azul, todo en el ambiente es anaranjado y rosado y alguna que otra cosa verde. Para el pelo se podría usar una peluca también azul croma, pero la piel es la parte complicada. Probaremos con maquillaje azul haber si logramos que funcione como queremos. Probaremos si es mejor hacerlo todo en post, o eliminar el color directo desde el switcher. Según yo todo tendría que ser corregido en post, porque también es necesario eliminar el color en los ojos, lengua, etc. 

Otros están pensando en maquillar y vestir al personaje totalmente de gris. Aquí les dejo el video de muestra, para ver cómo se les ocurre que se puede lograr eso de la manera más óptima.

2.10.10

¿Qué hace un editor online?

Este es el primer post redactado en este blog, así que empezaré con algo con lo que estoy muy familiarizado: mi trabajo. Alguien me preguntó qué mismo es un editor online, que cuál mismo era mi función en la novela. Trataré de explicarlo.

El material se graba en XDcam a 1080i de 50mbs. Como es casi casi full HD (digo casi porque aunque es 1080 sigue siendo entrelazado y no progresivo) es bastante pesado, para lo cual se necesita una buena máquina para poder correrlo sin problema y bastantísimo espacio para almacenarlo. Como sacamos un capítulo de 45min por día, y son muchos capítulos, almacenar todo se nos hace imposible.

¿Qué se hace? Se trabaja en una resolución menor o proxy, generalmente de 15:1, con la cual se hace la edición creativa. Esto se la conoce como edición offline. Aquí quedan fijos los tiempos, el ritmo, orden, contenido, etc, etc.

Una vez revisado y aprobado el offline, se recaptura todo en alta definición y se procede a pulir detalles que no pueden hacerse con el proxy. Para muestra, pongo este video.

avid media composer - nitris dx

presentación 2.0

Bueno, me dieron ganas de empezar una nueva época en este blog. Hasta ahora servía para mostrar mis trabajos a los cuatro gatos que me leen y escribir alguna que otra cosa sin mayor relevancia, pero creo que eso ya no tiene mucho sentido. Tengo DeviantArt donde expongo mi "arte" digital, tengo Vimeo donde subo los videos que hago, tengo un Twitter que oficialmente sirve para escribir boberas sin relevancia y tengo Guayaquil Insumiso que es donde escribo mi pensamiento ideológico.

La gran mayoría del tiempo que no estoy en la calle o trabajando estoy leyendo en internet; y casi todo lo que leo tiene que ver con política y teorías libertarias, o con cine y las nuevas tecnologías en video. Ya tengo un blog donde escribo de política, me faltaba uno donde escribir de videocinematografía.

Seguiré subiendo cosas personales y cada vez que pueda escribiré algo con sentido, que taggearé específicamente para poder diferenciar. ¿Qué escribiré? Pues cosas relacionadas al cine y la televisión que me interesan y puedan interesarle a alguien. No soy un director conocido ni un gurú de la tecnología, pero creo que se lo suficiente como para poder dar mi opinión al respecto; si hay gente que trabaja en el medio audiovisual y me busca para hacerme consultas, por algo ha de ser.

Me gusta trabajar en la industria audiovisual, busco seguir avanzando y al igual que he aprendido mucho de varios maestros, yo también pienso compartir lo que voy aprendiendo en el camino. Así que, eso: bienvenidos y ojalá encuentren algo que les sea de ayuda, y al mismo tiempo me puedan ayudar a mi. ¡Salud!

Ernesto Yitux