13.12.10

Mi animación favorita de todos los tiempos.

Sí, no es la gran cosa. De hecho es bastante simple. Pero aún así es el trabajo que más me gusta de todos los que he hecho durante este tiempo. Personalmente este videíto significa mucho. Significó mucho en el momento de su realización y años después obtuvo un significado mucho mayor y más verdadero.

Fue la primera animación que me propuse hacer de verdad, y la terminé porque la sentía mía. Y la guardé. Muchos experimentos anteriores y posteriores quedaron a medias, o se perdieron por falta de ese feeling.

Con este video decidí qué quería ser y hacer de mi vida. Es como cuando un adolescente coge una guitarra, compone su primera canción y sueña con ser cantante. Eso, pero en animación.
Técnicamente esta animación representó un reto inmenso. Fue hecha en el 2005, cuando aún estaba en el colegio. No tenía idea de cómo se hacía algo así y el único software que había aprendido a manejar al braveo era Corel Photopaint, en el cual "diseñaba" volantes para conciertos de rock imaginarios.

Lo dibujé con pluma, lo escaneé en la computadora de mi abuelo, y lo pinte en Photoshop cuadro a cuadro. Recién había descubierto los imprescindibles Layers. No sabía cómo hacer uno nuevo, sino que creaba un sólido para que se cree automáticamente y luego lo ponía fuera de encuadre para que no estorbe. Sin embargo así conseguí separar los personajes del fondo, y me ahorré el temblor que tienen las líneas cuando son dibujadas nuevamente cada cuadro.

Tenía un archivo .PSD e iba exportando .JPGs según iba avanzando la animación. Un JPG por movimiento. Es decir "mueve un poquito, exporta, mueve otro poquito, exporta". Recuerdo repitiendo esto infinitas veces, hasta lograr que las estrellas parecieran tintinear.

La simulación de movimiento de cámara también fue un descubrimiento. Originalmente era un plano abajo, y otro plano igualito pero arriba. Luego vi que podía tener un archivo de determinadas dimensiones pero un dibujo mucho más alto para poder moverlo. Del mismo modo fue simulado el anochecer. Un fondo en degradè que lo moví para dar la impresión de que iba oscuresciendo.

Para ver cómo iba quedando le daba rapísimo a las flechas en la Prevista de Windows. Al final compuse todo en Windows Movie Maker, a 8 cuadros por segundo, porque eso es lo máximo que ese programa permitía.

No recuerdo cuánto tardé en completarlo, pero sí recuerdo los reclamos de una amiga porque solamente pasaba metido dibujando en vez de salir a joder. Quiero volver a hacer algo así: que signifique algo y que signifique por sí solo. Que no importe la técnica, ni el gusto, ni nadie más aparte de mi, y nada más aparte de mi placer por crearlo. Que no tenga grupo objetivo, ni límite de tiempo, ni precio, ni calificación. Quiero volver a hacer algo que me salga de las entrañas, como la poesía para los poetas.

Debo dejar de trabajar tanto. Voy a renunciar.

2.12.10

Infografías Detergentes

Este fue uno de mis últimos trabajos recién entregados. La verdad es que fue bastante complejo pero divertido. Se trataba de animar el proceso de manufactura de detergente en una reconocida fábrica. Aunque dormí menos de 20 horas en 10 días, creo que la parte más difícil fue la comunicación con el cliente. Yo estoy acostumbrado a tratar con gente audiovisual que cuando ve una animación le pone efectos de sonido con la boca, y ellos están acostumbrados a tratar entre ingenieros químicos. Explicarles que un animatic es solamente para medir tiempos y ritmos, y que el acabado final será diferente una vez renderizado; fue un trabajito más o menos.

Así mismo, mi propuesta inicial no fue aceptada. Yo quería hacer algo lleno de movimientos de cámara, y desbaratar la fábrica en partes. Ellos querían un plano general, seco, donde cada paso se explique ortodoxamente. Al final los convencí un poco de no ser tan lineales, y les hice comprender que el ojo necesita algo que lo vaya guiando a travez de la pantalla. El resultado final, me gusta bastante. Tanto como para postearlo aquí.

Lo único que no me convencen son los textos. También quería que vayan apareciendo de otra manera, pero debido a que todo fue de apuro no había tiempo de arriesgarse y que no les guste.

Me dieron unas ilustraciones vectoriales del catálogo para que yo tenga referencia de cómo querían el acabado. También me enseñaron un video anterior del mismo proceso, y me dijeron que porfavor haga que eso se vea bien.

El levantamiendo de la planta, me lo dieron hecho en AutoCad. La animación fue hecha en Maya, y me tocó instalar 3DStudio Max para usarlo como puente y convertir los archivos .dwg a .obj. Todo el render fue hecho con Mental Ray y trabajé con Afte Effects para la composición y Media Composer para el montaje final.

Al parecer quedó mejor de lo que esperaban.

30.11.10

Fotografía 3D

"In the camera, cinematic is all about angles, lighting, bokeh and sound." Sara Frances

maya + mental ray
yitux / 2010

ambos renders son de exactamente el mismo modelado
(la imagen de más arriba me la entregaron con los levantamientos originales de los planos)

22.11.10

Post-dosis

¿Alguna vez te imaginaste cómo sería vivir dentro de un tanque mixer de postdosis?
Yo creo que sería mas o menos así.


nParticles + MentalRay inside Maya
yitux / 2010

11.11.10

Que se vea "como cine"

El video y el cine son muy diferentes. He visto cosas excelentes tanto como en video como en película; sin embargo hay factores netamente técnicos que los distinguen. No se por qué pero "que se vea como cine" es un requisito más pedido de lo que yo esperaría. Este es mi análisis de los elementos que conforman este "look de cine" y por qué no me terminan de convencer.

Frame rate: esta es sin duda la diferencia más famosa entre video y cine. Justo en este momento estoy convirtiendo una secuencia de 60i a 24p "para que se vea como cine". El video en NTSC (que es el sistema que usamos aquí y en casi toda América y Japón) se graba a 30 cuadros por segundo, mientras que el cine corre a 24 cuadros por segundo. No es la gran diferencia, pero si uno presta atención sí se nota: el cine se ve un poco entrecortado el movimiento en comparación al video.

Por qué el video corre a un frame rate y el cine a otra pues es algo confuso de explicar. El sistema NTSC corre realmente a 29,97fps y esto se debe a cuestiones técnicas de ancho de bandas. ¿Es mejor el cine porque corre a 24fps? Pues lo dudo. La única razón por la que el cine corre a 24fps es para ahorrar dinero. Recuerden que en cine cada cuadro cuesta, el pietaje se mide en longitud, y comprar más pies de celuloide es caro (¿de dónde creías que venía la palabra pietaje?) Por esto quienes hacían cine en sus inicios buscaron el menor número posible de cuadros por segundo que el cerebro humano pueda interpretar como movimiento fluido. Este número era 18. Sin embargo cuando se incorporó el cine con audio, tuvo que aumentarse a 24 o las voces parecían fuera de sincronismo.Esto explica por qué películas como las de Chaplin se ven aceleradas: fueron grabadas originalmente a 18fps pero se las corre ahora a 24fps.

¿Por qué alguien preferiría 24p? Pues no lo se. A mi parecer por nostalgia pura. De echo creo que el render eterno que estoy haciendo es una pérdida de tiempo. Por lógica un video a 30fps se ve más fluido que a 24fps, y uno a 60fps se ve muchísimo más fluído aún. Sin embargo las pruebas a 60fps no han dado buenos resultados; las personas en quienes testearon, dijeron que se veía muy como "video" y poco como "cine". Por eso dejaron de hacer cine digital a frame rates más altos, y los videoastas se parten la cabeza tratando de grabar a 24p.

Shutter angle: este es un factor poco conocido pero que creo influye más en el modo cómo vemos una imagen en movimiento. El obturador en las cámaras de cine funcionaban con un semicírculo que rotaba dejando el fotograma a exposición durante una fracción de segundo. El tiempo que el cuadro está expuesto repercute en el motion blur que se imprime. Como el obturador tenía que tapar la entrada de luz para que el siguiente fotograma baje y luego volver a destapar la entrada de luz, el ángulo del semicírculo por lo general era de 180°. Lo cual indicaría una velocidad de obturación de la mitad del frame rate. Si grababan a 24fps, el obturador estaba a 1/48seg. Exponer el cuadro por menos tiempo sería posible usando un ángulo de abertura menor a 180°, pero exponerlo por más tiempo sería físicamente imposible. El video por su parte no tiene un obturador físico, sino electrónico. Por esta razón sí es posible usar velocidades menores a la mitad del frame rate (las cuales equivaldrían a más de 180°). Por ejemplo si grabamos video a 24fps, sí sería posible poner el obturador a 1/24seg. Esto crea más motion blur y la imagen se ve más videesca, razón por la cual siempre que se quiere imitar la imagen del celuloide se usa el obturador en la mitad del frame rate.

¿Por qué preferiríamos un obturador en 180°? Nuevamente por costumbre pura. Como ya dije antes, esto se ve representado en el motion blur de la imagen. Grabando video con velocidades más lentas se crea un efecto de filage en las imágenes, imposible de crear en el cine. Esto me parece una ventaja del video sobre el cine, ya que el obturador puede ser usado de manera muy creativa. Sin embargo cuando se busca imitar la imagen del celuloide, siempre se escoge un obturador basándonos en la regla de 180°.

Aspect ratio: Este punto es el que más me llama la atención. Considero que debe haber algo detrás de por qué el ojo humano prefiere algunos aspectos y otros no. Aún no descubro qué es pero algo debe haber. Confieso que prefiero los videos que están a 2.35:1 y la mayoría de gente parece también preferir este formato. A pesar de esto, me parece un sinsentido ver algo en formato widescreen, si tenemos un monitor normal de 4:3. Y menos sentido tiene todavía grabar a 4:3 y luego montarle barras para volverlo 16:9

¿Por qué reducir la resolución del video para ajustarlo a un formato widescreen? Realmente no se por qué se hace tanto esto. La única razón por la que existe el formato 16:9 es porque es el rectángulo exacto en el cual corvengen interior y exteriormente los otros formatos usados, desde el 4:3 usado en TV hasta el 2.39:1 usado en el cine anamórfico.

Ahora el video en alta definición ha elegido el 16:9 como formato estándar y todo se está grabando en widescreen. Cuando la televisión digital llegue a Ecuador esa será la norma, pero mientras la inmensa mayoría tenga televisores 4:3 no encuentro una razón verdadera para tener un video en 16:9 pues lo único que se logra es que la imagen sea más pequeña y tenga unas barras negras arriba y abajo.

Granulación: Esta es sin duda la más absurdas de todas, sin embargo muchísimas veces he visto videos que le ponen grano en postproducción para simular que fue grabado en película. A mi parecer esto es un error tremendo, ya que la granulación fue por mucho tiempo una faya que los cineastas buscaban evitar. El objetivo es generar una imagen lo más limpia posible, pero películas con ASAs elevados creaban este efecto.

La imagen producida químicamente se basa en diminutos puntos de haluro de plata fotosensibles, al igual que la imagen digital está basada en diminutos puntos llamados pixeles. Cuando una imagen generada a cierto tamaño, es reproducida a un tamaño mayor, estos puntos se ven. Es decir cuando vemos el grano en una película, se podría decir que la estamos viendo "pixeleada" pero químicamente. Como todas las películas son grabadas en formatos pequeños y reproducidas en formatos inmensos, esto es prácticamente la norma, y se volvió tan usual que ya ni siquiera se lo considera un error.

La ventaja real que tienen estos cristales de sal de plata frente a los pixeles, es que no están dispuestos uniformemente. Los pixeles en un sensor digital siempre están en el mismo lugar formando una cuadrícula, las sales en el celuloide cambian cada fotograma, por esto notamos los pixeles mucho más que el grano que parece bailar en la pantalla.

¿Pero por qué ponerle grano en postproducción a un video que fue grabado nítido? No hay razón lógica para eso. Simplemente que el grano nos recuerda al celuloide, las fotos que vemos con grano nos recuerdan a fotos análogas de ISOs altos, y un video con grano nos hace pensar que fue grabado en 16mm y lo asociamos falsamente con algo más artístico o personal. Es sentimentalismo puro.

Hay otros factores técnicos que diferencian el video del cine y que sí son ventajas reales como el rango dinámico del celuloide o que no produce ruido como el digital, pero estos son cosas que no pueden ser imitadas. La única forma de obtener esas ventajas es filmando realmente en cine.

Si grabamos en video y buscamos que "se vea como cine" debemos ser conscientes de que no hay ninguna ventaja real y tangible, más que el factor psicológico. Mi teoría es que así lo vimos desde chiquitos, así lo vimos en la pantalla grande, con grandes presupuestos y actores famosos; y nos acostumbramos a eso. Nuestro cerebro ve el movimiento semi strobeado del 24p e inconscientemente lo asocia con Hollywood, mientras que ve algo a 60i y lo asocia con la Feria de la Alegría; ve algo en 16:9 y lo asocia con producción de calidad, mientras que ve algo en 4:3 y lo asocia con el video casero del cumpleaños de tu tía.¡Quién diría!

29.10.10

Un verdadero homenaje audiovisual a Johnny Cash

Esto es algo sobre lo que tenía que escribir. Es simplemente increíble. Soy fanático de la rotoscopía, de los audiovisuales colaborativos y de la música de Johnny Cash. ¡Y este video junta las tres cosas! Como video musical para su último disco postmortem American VI: Ain't No Grave, se optó por una alternativa única.

El director Chris Milk, famoso por su corto Last Day Dream, optó por hacer de este un video colaborativo que solamente pudo existir gracias al internet y la globalización cybernética. Milk ya es reconocido por haber hecho video clips interactivos en HTML5 e incluso videojuegos musicales. Esta vez la idea del director fue darle vida a la música del "Hombre de Negro" a travez de sus propios fans.

La propuesta fue crear una página web donde cada uno de nosotros pudo dibujar uno o varios frames del video a su manera, y luego gracias a la ayuda de cientos de miles de frames dibujados, se creó una rotoscopía única en el mundo.

Lo más interesante es que los frames que se muestran, son seleccionados según el ranking en la misma página; por lo que el video "oficial" está cambiando constantemente. Como dicen los testimonios anteriores: esta animación es un ser vivo, se mantiene en movimiento y evolución constante, tanto así que es posible ver miles de versiones diferentes, una cada vez.

Me parece algo maravilloso. Un video musical que realmente tiene alma, que lleva impregnados los sentimientos e interpretaciones de sus propios admiradores en él. Yo también dibujé mi fotograma y me alegra saber que contribuí en un verdadero homenaje a una leyenda como Johnny Cash.

Si quieres contrubuir con tu dibujo o ver las otras versiones del video visita la página de The Johnny Cash Project donde además se encuentran todas las versiones de cada fotograma con los créditos incluídos.

20.10.10

En Ecuador sí hay 3D

No soy para nada nacionalista. Nunca he defendido algo solamente porque "es talento ecuatoriano". Yo soy de los que piensan que las cosas hay que ganárselas, y uno defiende lo que es bueno. Sin embargo sí es decepcionante ver que algo que bien pudo haber sido hecho aquí, se lo manda a hacer afuera sin razón alguna. Bastantes casos he visto de comerciales, especialmente de animación 3D, que son enviados a Argentina, Chile o Perú. No porque allá tengan mejor calidad ni sean más económicos ni rápidos; sino simplemente porque desconfían de quienes trabajamos en la industria local. Simplemente no creen que algo bueno pueda ser hecho en Ecuador.







Los anteriores videos demuestran lo contrario. Son ejemplos claros de que sí se puede hacer animación 3D de calidad en el país. Estos pequeños cortos, fueron realizados por compañeros míos como proyecto de tesis. Fueron elaborados entre 1 o 2 personas, contando con un bajísimo o nulo presupuesto. ¡Ahora imagínense lo que se podría hacer en conjunto y con billete!

Si bien hay cositas que pudieron haber salido mejor y un par de detallitos que pulir, el resultado final es excelente y muestra lo buenos artistas que son. Yo planeo hacer mi tesis el próximo año, y espero poder demostrar que sí podemos hacer buen 3D en Ecuador.

*Si te interesa estudiar 3D, visita la página de la Escuela de Artes Digitales, donde Rafael "el Pollo" Lozano (uno de los mejores postproductores en el país) enseña casi que personalizadamente. Agradezco a él por toda su paciencia e interés en formar buenos profesionales.

17.10.10

Legalización de los colores

Esta es sin duda la parte menos creativa, y más aburrida de mi trabajo; aunque sin duda es un paso sumamente importante. Luego de emparejar colores, y pintar la imagen, toca volverla legal. Las imágenes de arriba, se deberían ver decentes en un monitor de computadora (dependiendo de cómo esté calibrado), sin embargo al ser transmitidas al aire, no se verán tan bien. 

El color en los monitores de computadora es RGB y el rango es de 0-255 por cada canal, mientras que en televisión NTSC se usa el 601, que va de 7.5 IRE como negro absoluto a 100 IRE, como blanco absoluto lo que en RGB equivale a 16-235 por cada canal. Todo pixel que esté fuera de ese rango es un pixel ilegal, y aparte de no ser representado correctamente en un televisor, puede ocasionar grandes problemas en la señal. Para algo tenemos las barras de calibración y todos los sistemas de monitoreo de color.

En el primer caso de arriba, vemos en el vectorscopio que el amarillo está demasiado saturado, lo cual causaría que queme e invada los colores vecinos; incluso se podría dar el caso que el color parpadee al aire. En el segundo caso, la crominancia están bien, pero la luminancia está fuera de rango. En el waveform vemos que hay pixeles que están por debajo de lo legal; los cuales se empastarían eliminando cualquier detalle que pueda haber en la ropa negra. Así mismo vemos que hay pixeles que están por encima de los rangos y esto causaría que vibren al aire, e incluso puede ser que los valores sean tan altos que parte de la señal de la imagen interfiera con la señal del audio, distorsionándolo. ¿Nunca han visto un programa de televisión nacional en el cual cuando enfocan a una ventana soleada, el audio se daña y cuando enfocan otra cosa vuelve a la normalidad? Pues bien, hacer que eso no pase es algo que todo editor y postproductor debería saber. Aunque raros son los casos.

Existen formas de hacer esto de manera automática, y si no me equivoco todo software de edición  profesional viene con un limitador de crominancia y luminancia; o sólo de luminancia en el peor de los casos. El problema con esto, es que no se tiene control sobre lo que la máquina hace, y mi forma de pensar es que ningún profesional debe dejar que la computadora decida por él.

Pongo como ejemplo la misma escena de Carlos Valencia, que está arriba, sólo que en un cuadro diferente. Escogí ésta porque me parece que el director de foto, los camarógrafos, el productor de campo que consiguió la locación, y los actores hicieron un gran trabajo que no debería verse opacado por fallas técnicas (además yo la edité y me quedó pepa! jaja)

Esta es la toma que me trajeron. Solamente le corregí el balance de blancos un poco y le di un poco de saturación, ya que como grabaron a pleno sol la imagen se veía un poquito azulada y opaca. Sin embargo, si analizamos el waveform, nos damos cuenta que está bastante fuera del rango permitido. Todo lo que en en las ondas se ve blanco es lo que está por encima de 100 y por debajo de 7.5 IREs.
El fondo blanco, a pleno sol es justamente el que está reventando la imagen; mientras que la camisa negra está por debajo de los límites. Sin embargo, también nos damos cuenta que hay escases de tonos medios. Esto último es netamente subjetivo, y por eso siempre el hombre le gana a la máquina en este aspecto. La computadora no puede dicernir si algo le gusta o no, solamente se rige de acuerdo a parámetros exactos. No tiene noción del gusto y la imagen debe ser tratada según cada caso estético concreto. Para esta imagen yo quiero que los detalles en la camisa y el cabello se vean al aire, porque los considero necesarios; mientras que el fondo no me interesa tanto, y la cara creo que debería estar un poco más iluminada.

Ahora bien, si aplicamos un filtro legalizador, el software (en este caso Avid Media Composer) hará que todos los pixeles que estén por debajo de 16 RGB y por encima de 235, se ajusten a estos valores.  Todos los colores que oscilaban entre 0 y 15, ahora tienen 16 y los que estaban entre 236 y 255 ahora están empastados en 235. Si nos damos cuenta la forma de las ondas no cambia, sigue siendo exactamente igual sólo que ahora lo que estaba ilegal fue eliminado. Esto es una ventaja y un problema dependiendo del caso. En este caso no me sirve de nada pues si bien ya no hay errores técnicamente, los detalles de la camisa y del cabello se siguen perdiendo.

Existe otro método automático de hacer la legalización, y es a travez de los auto-niveles dentro del modo de corrección de color. Con esto se logra modificar no solo los pixeles fuera de rango, sino la gama entera. Es decir que si el rango de nuestra imagen actual es de 3-120 IREs, el software calcula matemáticamente y reescala todos los valores para justarlo a 7.5-100 IREs. Ahora no tengo colores ilegales y gané detalle en la camisa y el cabello; sin embargo también perdí el contraste tonal de la imagen, y la cara se ve mucho más plana puesto que gané detalle en la pared blanca de fondo. Tampoco es lo que quería. Si nos damos cuenta, la forma de las ondas es exactamente la misma  que la original pero más chiquita.

 
Por esta razón es que antes de hacer cualquier cosa automáticamente, siempre prefiero hacerla por mí mismo. En este caso subí los valores del negro (generalmente Lift o Setup en los softwares y conocido en el bajo mundo como Pedestal) hasta que todos sean visibles, es decir a R16, G16, B16. También subí los tonos medios (generalmente Gamma) un poco para separar la cara (las pieles casi siempre están en los tonos medios) de las sombras, pero los brillos (generalmente Gain) ni siquiera los toqué para dejar el contraste de la imagen.

Una vez ajustada la imagen a mi gusto, recién apliqué un filtro legalizador para eliminar todos los brillos que quedaron fuera de rango. Ahora sí tengo una imagen totalmente legal, y tal cual yo la quería. Si nos damos cuenta la forma en el waveform a cambiado: ya no se ve una línea totalmente recta en la parte de abajo como en el primer ejemplo; pero los blancos tampoco bajaron tanto hasta mezclarse como en el segundo. Esto se traduce en que obtuve el detalle que tanto quería en la camisa negra, mientras los blancos quedaron prácticamente iguales y la piel un poco más clara.
 
¿Y qué pasó con el taxi? Pues es básicamente lo mismo pero en torno a la crominancia en vez de la luminancia. Tendríamos que bajarle la saturación al amarillo, sin caer en el error de bajársela a la imagen completa. Talvez escriba un post sobre cómo se hace eso, pero lo importante por ahora es que aprendas a leer el vectorscopio y el waveform, si te vas a atrever a envíar cualquier cosa al aire, es algo escencial.

15.10.10

La revolución HDSLR

Hace no tantos años atrás, la diferencia entre video y cine era enorme. Prácticamente era algo inalcansable para el video, por cuestiones técnicas, llegar a tener la calidad del celuloide. Hoy gracias a la tecnología, eso es cosa del pasado. Existen cámaras digitales como la RED One o la Arri Alexa, capaces de grabar en resoluciones quizás mayores a las necesarias, con alto rango dinámico y muy buena sensibilidad a la luz. Nada que envidiar a la imagen química.

Pero muy aparte de estas cámaras profesionales, en el último par de años se ha revolucionado la industria de una manera nunca antes vista. Se descubrió que con una cámara réflex digital, que grabe video, se pueden sacar imágenes bellísimas jamás imaginadas como posibles en video. Esta es la revolución HDSLR (High Definition/Digital Single Lense Reflex), que desde ahí no ha parado sino que cada vez se crean nuevos equipos y accesorios para mejorar la forma de grabar con estas cámaras.
La principal razón por la que fueron reconocidas estas cámaras digitales es el tamaño del sensor. Como son cámaras fotográficas, poseen un sensor mucho más grande que cualquier cámara de video hace un par de años y esa había sido una lucha imparable de quienes trabajaban con video. Un sensor más grande, aparte de ser más sensible a la luz obteniendo imágenes más nítidas; genera una profundidad de campo bastante corta, pudiendo enfocar algo y desenfocar el resto según la distancia o cambiar sutilmente el foco desde el fondo hacia la cara del actor por ejemplo. Esto se lo conoce como rack focus, y fue durante años la mayor ventaja creativa de las cámaras de película sobre las de cinta magnética.

Pero existen otras ventajas como lo son el echo de trabajar con lentes intercambiables, grabar en High Definition, frame rates variables desde 24p a 60p, y por supuesto su bajo, bajísimo precio. Se podría decir que ahora sí se democratizó la industria audiovisual. Ya no es necesario tener cientos de miles de dólares para grabar con la misma cámara que se graban producciones profesionales internacionalmente. Ahora si es factible pensar en ahorrar para comprarse una cámara para prosumidores (el intermedio entre productores y consumidores), y tener calidad de salas de cine. La siguiente imagen la robé del blog Cultura B de Juan Fernando Andrade; donde se muestra el rodaje de "Pescador", el nuevo film de Sebastián Cordero y apreciamos que fue grabado en una Canon 7D.

Y sí, como son cámaras pensadas y creadas para tomar fotos, tienen muchas deficiencias al ser usadas como cámaras de video pero nada que la creatividad y el desarrollo de nuevos accesorios no hayan solucionado ya. Y sí, esos nuevos accesorios y tener todos los juguetes también cuesta, pero nada comparándolos con sus competidores; además con la cámara sola y un equipo para registrar buen audio es suficiente.

Lo más impresionante de esta revolución cinematográfica, es la cantidad de gente que se suma, incluyendo a grandes monstruos de la industria y otros de otras industrias; que hoy son íconos del cine digital. Por un lado tenemos a Shane Hurlbut, cinematógrafo, que fue director de fotografía en "Terminator Salvation", y que había filmado toda su vida en película; ahora ha terminado de grabar un film que será el primer largometraje de estudio grabado completamente con una Canon 5D. En el otro extremo en cambio tenemos a Phillip Bloom, que empezó su carrera como camarógrafo de noticias, para pasar a documentales, comerciales, etc y ahora es uno de los cinematógrafos más famosos del mundo y uno de los íconos que también emigraron hacia el cine HDSLR.

Gale Tattesall, reconocido por su trabajo en "13 Fantasmas", trabaja ahora como director de fotografía en "Dr. House". Esta serie se filma normalmente en cine, usando una cámara Arriflex de 35mm. Por eso fue una noticia bastante llamativa la decisión de grabar el final de la 5ta temporada totalmente en la Canon 5D, demostrando la calidad de estas cámaras.

Estos son tres casos puntuales de grandes cinematógrafos y videoastas que han visto en las cámaras réflex un potencial expotable. Pero también está el otro lado de la historia. Con esta nueva tecnología de cámaras de foto con un nuevo "Modo Video" que graba en HD, muchas personas que ya tenían sus réflex, se han lanzado al ruedo de hacer video también. Y quién mejor para dirigir la fotografía de un video, que los mismos fotógrafos experimentados. Es el caso de Dan Chung y Vincent Laforet; ambos leyendas de la fotografía que ahora son excelentes representantes del cine digital también. De echo "Reverie" el corto de Laforet, fue el primer video del mundo en ser grabado a 1080p con una cámara de fotos.

Espero que se desarrollen más y mejores opciones para estas cámaras, y aunque Panasonic acaba de sacar al mercado una cámara que dicen que corrige todas las fayas que las DLSR tienen yo creo que por baratas y por el simple hecho de haber pegado primero, muchos se quedarán con ellas. Aparte que aún no existe ninguna cámara que tenga un sensor del tamaño de una Canon 5D Mark ii y que no cueste más de 20 veces de lo que esta. Yo por mi parte, ya estoy empezando a ahorrar.

13.10.10

El look Blockbuster

Acabo de terminar un cachuelo en el que me pedían que corrija el color del video para que se vea "más bonito". Cabe aclarar que yo no soy colorista, mi trabajo implica corregir color de ciertas cosas, cuadrar el color entre toma y toma, dar algún feeling especial que el director pida pero ser colorista es otra cosa totalmente aparte; muy especializada. Sin embargo creo que sí puedo hacer que una toma se vea "más bonita" pintándola adecuadamente.

Hay quienes creen que se trata de ponerle un filtro a la imagen, e ir moneando hasta ver algo que nos guste. Sin embargo, al igual que un buen diseñador, tenemos que saber lo que hacemos y por qué lo hacemos. Entregar una toma agradable al ojo, legal y que transmita lo que el cliente buscaba no es cuestión de suerte.

Existe una técnica muy conocida y que muchas veces me ha dado resultado. Aunque creo que está siendo sobreusada la defiendo pues me parece que parte de un buen marco teórico y no es solo hacer por hacer. Es lo que comúnmente se conoce como el "Blockbuster look".

Si nos fijamos bien, casi todas las películas que vienen de Hollywood usan la misma paleta de colores. La gran mayoría de lo que se pasa en cines, está pintado de naranja y turquesa. Naranja para las pieles y brillos y turquesa para todo el resto de elementos y sombras. Este es el look Blockbuster.Hay gente que ama este look. Stu Maschwitz tiene una serie de tutoriales para lograrlo usando Colorista II. Incluso Red Giant, tiene el Magic Bullet Mojo que es un plugin que está hecho solamente para lograr este efecto de forma automática. Algo por ahí me hace pensar que tanto amor por este tipo de coloración tiene bastante que ver con marketing (Maschwitz trabaja para Red Giant)

Por otro lado están los detractores de este tipo de coloración. En el blog de Todd Miro (de donde saqué las imágenes de arriba) hay una serie de post dedicados en contra del Blockbuster look. Según él y los que piensan como él, este look ha llegado a límites absurdos.

A mi el look en general me gusta bastante, y tiene sustento si nos basamos en la teoría del color. Una de las cosas que un cineasta debe aprender a hacer para contar su historia, es poder guiar el ojo del espectador a donde él quiere que vaya. En gran parte de los encuadres, lo más importante es la cara del actor, complementado con ciertos elementos; el resto es solamente ambiente, no pueden tener el mismo peso visual. Para dar relevancia al elemento principal el director puede usar muchos recursos: encuadre, enfoque, iluminación, movimiento, color o todos juntos como en la imagen siguiente. ¡A que no adivinan qué es lo que el director quiere mostrarnos!
Volviendo a la teoría, sabemos que lo que vuelve interesante una imagen, es el buen uso del contraste. Cuando uno ve una imagen "lavada", sin mayor contraste, el ojo no distingue diferencias, se confunde y no sabe a dónde mirar; no hay detalles ni elementos que resalten. Si hablamos de color, el contraste se puede crear tanto cromáticamente como lumínicamente. Y ahí está el éxito del Blockbuster look.

La piel humana es básicamente anarajada. Varía en cantidad de saturación y tono, pero todas las pieles humanas se mantienen en el mismo matiz (hue). Eric Escobar grabó personas de diferentes pieles y todas están en el mismo ángulo del vectorscopio; entre el rojo y el amarillo. La explicación a esto es que el color de piel está dado por la sangre y la melanina; y la sangre y la melanina son del mismo matiz/color siempre. La variación de cada una de estas da el tono y saturación de nuestra piel.

Entonces si queremos que la piel en nuestra película se vea natural y no marciana, tendrá que ser entre roja y amarilla masomenos; y para que resalte, la rodearemos de un ambiente con su color complementario y sucede que el complementario de algo medio anaranjado, es justamente algo medio cyan/turquesa.Esto explica por qué es tan famosa esta forma de pintar películas. ¿Pero por qué es agradable al ojo? Aparte de que las pieles nos siguen pareciendo humanas y el turqueza/cyan/azul hace que resalten, hay algunas teorías del color que explicaría por qué esto nos llama tanto la atención.

La Ley de Consistencia de Color nos indica que si exponemos nuestros ojos a un color brillante, inmediatamente nuestro cerebro nos pedirá el complementario, y si no se lo damos, lo pondrá automáticamente donde pueda. Si no creen esto, en Paint dibujen un cuadro gris neutro dentro de un fondo rojo y verán cómo automáticamente el cuadrado gris empieza a vibrar y a tener un borde cyan.
Esta es la razón por la cual nuestro cerebro ve la gama completa en los cubos anteriores, aunque verídicamente los bloques azules en la parte de arriba de la imagen amarilla, y los bloques amarillos en la parte superior de la imagen azul; son exactamente del mismo tono de gris.
Del mismo modo existe una razón más fuerte para pintar de turquesa las sombras, y de naranja los claros. Nos basamos en la Fórmula de Müller, que predice que a la gran mayoría de personas les parecerán desagrables estas combinaciones:pero les gustarán estas:Esto se debe al brillo natural de cada color. Los amarillos son más brillantes naturalmente que los azules, y según Müller toda combinación que siga este principio natural será preferida frente a cualquier otra que no. En la primera imagen el azul más oscuro tiene un tinte amarillo, y el más claro un tinte más morado, lo que es contrario al brillo natural y por eso se vuelve algo desagradable. Al contrario en la segunda imagen, el azul más oscuro tiende al morado, mientras el más claro tiene algo de amarillo, siguiendo el brillo natural y volviéndose más agrable a nuestra vista.

Por eso se ve mejor una imagen con sombras frías y brillos cálidos:
que una con sombras cálidas y brillos fríos.

Denver Riddle en Digital Cinema Foundry, también tiene un post explicando este tipo de coloración. Incluso según él, esta teoría explicaría por qué los dos momento más "bonitos" del día son los atardeceres y los amaneceres: sol de frente, largas sombras, alto contraste, brillos cálidos y sombras frías. ¿Tiene sentido, verdad?

Riddle también trata de explicar que el método funciona debido a que el contraste entre el amarillo y el azul, es el más contrastado entre todos los complementarios (sí, el contraste más contrastado, aunque suene tonto), sin embargo yo creo que es todo lo contrario.

Para mí la mezcla naranja/turquesa funciona tan bien, debido a que son armoniosos lumínicamente. Si vemos la imagen siguiente, notamos que el contraste amarillo/azul es realmente el más contrastado en cuanto a brillo, y el cyan/rojo el segundo. Como nuestra imagen no es ni amarilla ni roja, sino algo naranja; y no es ni cyan ni azul, sino algo turquesa, nuestra tonalidad está justo en el medio de ambas combinaciones. Y si combinamos el más claro con el segundo más oscuro, y el más oscuro con el segundo más claro nos da como resultado un contraste equivalente al magenta/verde que es el menos contrastado de todos lumínicamente creando una imagen armoniosa y no tan chocante.
Si movemos el vector hacia algo más amarillo/azul o algo más rojo/cyan debemos recordar la Ley de Compensación para mantener el equilibrio. Es decir que si tenemos un contraste medio ambos colores pueden permanecer juntos sin opacarse; pero si aumentamos el brillo de uno, debemos compensar la composición reduciendo su tamaño total. En esto considero que reposa la magia de este tinturado: en el rango que da para jugar con él, sin sacrificar los tonos de piel naturales.

Hay que recordar que esta es sólo una técnica, y que existen muchas más que debemos entender a cabalidad también para saber mezclarlas todas de la manera correcta. Me gusta y he comprobado que funciona. Que Hollywood la esté explotando incansablemente no le quita méritos, igual que un guión de 3 actos puede encantar si está bien estructurado, aunque siempre es mejor buscar mejores y propias alternativas según los requisitos propios de cada video.

10.10.10

Sobre campos y frame rates

Este es un post cortico, solo una explicación que me hubiera gustado que alguien me de antes de embarrilarnos a trabajar en alta definición

Todos en televisión ecuatoriana estamos acostumbrados al NTSC, nos sentimos seguros en NTSC: el video es de 720x480, corre a 29.97fps, es entrelazado, con campo inferior primero, y el aspecto de pixel es de 0.9. Fácil, así nos lo enseñaron y así trabajamos siempre... hasta ahora.

Otro día explicaré mejor todos los demás factores, ahora sólo quiero dejar algo claro: 59.94i=29.97fps. Sí, por más raro que parezca, nosotros que estamos acostumbrados a ver esa cifra como indicador de cuadros por segundo, ahora debemos poner más atención. Por alguna razón que no le encuentro mucho sentido, los fabricantes de cámaras han cambiado la forma de utilizar el numerito.

Ahora cuando veas 60p, quiere decir que son 60 cuadros por segundo, porque es progresivo. Pero si ves 60i, quiere decir que son 60 campos por segundo, porque es entrelazado; es decir 30 cuadros por segundo. Esto ha causado más de una confusión. En el blog de Shane Ross, hay un extenso debate explicando y discutiendo el por qué de esta pendejada.

Hay cámaras que graban a 24p, 30p, 60p y otras a 60i, y creéme, es bastante confuso si nadie te ha explicado nada. Especialmente si vienes de un ambiente Avid, donde estás acostumbrado a ver una secuencia a 30i, lo que indicaba que corría a 30 cuadros por segundos y que el muestreo era entrelazado. Actualmente esto querría decir que hay 30 campos por segundo, es decir sólo 15 cuadros, lo cual no tendría sentido. Más claro ahora 30i simplemente no existe.

Aviso esto con especial importancia, porque por experiencia propia a mi y al postproductor, nos costó mucho tiempo, y esfuerzo entender por qué cuando exportábamos un archivo XDCam que decía que estaba a 59.94i, al abrirlo en After Effects nos indicaba que estaba a 29.97fps.

Si les sucede esto, trabajen tranquilamente, sin miedo. Tan solo no se olviden de renderizar todo con campo superior, porque recuerden todo HD, sí todo HD es siempre odd/upper field. Otra cosa que también nos costó algunas amanecidas descubrir.

8.10.10

¿Adobo completo?

No se si soy demasiado adefesioso, pero el chef al cual encuentre usando "adobo completo" perderá todo mi respeto.

Hace unos días un director de fotografía me dijo "lo único que no me gusta de este software es que se complica demasiado. Para una cosita sencilla te pide sal, luego pimienta, luego curry, no existe una forma de que pida adobo completo?" Yo lo respeto como DF, y por eso me dejó totalmente asombrado con ese comentario.

Para mí toda aplicación profesional debe pedir ser calibrada hasta en los más pequeños detalles, y todo operador profesional debe saber calibrar su máquina según las necesidades específicas de cada ocasión. Eso es lo que diferencia a un profesional de un aficionado: el control que tiene sobre cada uno de los factores que componen su trabajo.

Ningún fotógrafo que se respete usa la cámara en modo automático. Ningún diseñador que se respete usa los preseteados. Ningún sonidista que se respete deja que la consola decida por él. Ningún chef que se respete usa el mismo aliño prepreparado para todos los platos: pone la sal y la pimienta según cada caso. ¿Por qué algún editor que se respete esperaría solamente "arrastrar de la carpeta al timeline, sin tanta preguntadera"?

6.10.10

Video en HDR, ¡soñé tanto contigo!

Sinceramente pensé que nunca vería esto. Desde que conocí la fotografía en HDR, pasé divagando en cómo sería hacer lo mismo en video. Se tendrían que grabar varias exposiciones al mismo tiempo. ¿Con dos cámaras? ¿Dos pasadas exactamente iguales con movimiento robótico? ¿Y si hay personas y movimiento real? ¿Dos sensores? ¿Al mismo tiempo? ¿Y si grabamos en algún formato RAW?

Un tiempo después el internet me enseñó a Jay Burlage, más conocido como MiLapse que es uno de los más grandes genios de los videos timelapse. Usando controles de cámara computarizados y controles de movimientos mecánicos, más un software que creo que él mismo logró desarrollar; tomaba varias fotos en diferentes exposiciones y luego las unía todas para crear imágenes de alto rango dinámico, que a su vez creaban el video en alto rango dinámico.
El problema aquí es que sólo puede hacerse con objetos estáticos, el movimiento lo dan los paneos y dollys robóticos extremadamente lentos. Según leí en su propio foro, Burlage tomaba entre 3 y 9 exposiciones diferentes por cada frame. Para grabar movimiento real se necesitaría una cámara que procese de 2 a 9 exposiciones por cuadro a un promedio de 24 cuadros por segundo. Simplemente imposible.

Luego conocí que Jim Jannard (quien por cierto es el creado de Oakley) había sacado una cárama que podía grabar en un formato RAW. Es decir sin procesar. Cuando una toma una foto en JPG esta ya está procesada, es como un revelado, con ajuste de color, contraste y detalle. Cuando uno toma una foto en RAW vendría a ser como un negativo, que luego será procesado por uno mismo. Mucho más trabajo, pero muchas más opciones creativas. Jannard al parecer había logrado hacer eso con una cámara de video: la RED One. No era HDR pero era algo muy muy bueno.

Hace un mes masomenos los videogeeks quedaron impávidos al ver que la gente de Soviet Montage Production había logrado crear el primer video en HDR de una persona en movimiento real. Hicieron esto con dos Canon 5D, cada una con exposiciones diferentes pero grabando exactamente la misma imagen a travez de un divisor de haz. Esto si es realmente increíble.
Ahora hace pocos días, Jim Jannard nuevamente anuncia una bestialidad en la industria cinematográfica: su nueva RED Epic tiene un sistema para grabar HDR directamente. Al parecer han logrado grabar el mismo video, a dos exposiciones diferentes y procesarlo dentro de la misma cámara. Este es un cuadro sacado de un video con la Epic y aquí está el link al foro RED donde se discute acerca de esta nueva tecnología.

¡Miren el rango de tonalidades que es capaz de captar al mismo tiempo! Ninguna otra cámara de video, ni de cine, hasta ahora había podido hacer eso. Esta imagen tiene detalles tanto en el exterior soleado como en el interior totalmente a oscuras. ¡Miren la montaña al fondo, tiene relieve y miren los objetos de adentro, también se les nota la textura!

Para que quede evidencia que es video de verdad aquí se pueden bajar el video original http://red.cachefly.net/walk.m4v y acá tienen otro ejemplo grabado en Las Vegas http://red.cachefly.net/17hx.mov Miren el relieve que tienen los focos y el detalle en las pieles. Eso hubiera sido imposible de lograr al mismo tiempo. O era uno o lo otro.

En verdad pasé mucho tiempo soñando con esto, por eso me entusiasma tanto, y si tuviera $60 000 en este momento, me compraría una RED Epic en vez de una casa. Así de fácil.

5.10.10

¿Cine colectivo?

Ya se, ya se, el cine es siempre colectivo. Es el resultado del esfuerzo de todos los miembros del equipo, desde el director, hasta los tramoyas, el gaffer, el booman, el editor, los actores, productores, electricistas, cámaras, y etc, etc. No me refiero a eso, me refiero al cine dirigido colectivamente. Uno de mis sueños era (y sigue siendo) que cuando seamos directores famosos, con un pana dirigir yo la mitad de una película desde un punto de vista y él la otra mitad desde el otro punto de vista. Sería bastante interesante, o al menos eso nos parece a nosotros.

Al parecer a la gente de Canon también. Ellos idearon un concurso para promocionar obviamente sus productos a travez de cortos grabados con cámaras DSLR. No se si alguna vez hicieron esto, pero yo me acuerdo que de chiquito mi madre empezaba una historia, y la dejaba a medias para que yo la continuara, y luego la continuaba mi hermana y mi otra hermana hasta que salía un cuento único e inimaginable. "The Story Beyond the Still" es básicamente eso, pero con cortometrajes. 
Canon le dio una foto a Vincen Laforet, uno de los fotógrafos más reconocidos del mundo y el papá de la nueva generación de cineastas con cámaras réflex, y éste grabó un cortometraje basado en lo que se imaginó de esa foto. El cortometraje de Laforet a su vez, terminó en otra foto de la cual los participantes tendrían que hacer un corto basado en lo que se les ocurría. El corto ganador terminaría en una foto, con la cual empezaría otra ronda de cortos y así sucesivamente hasta completar los 7 capítulos del concurso.Los participantes tenían un mes a partir de que haya sido seleccionado el ganador anterior para presentar su video.

Si los vemos de corrido veremos un mediometraje, armado en especies de episodios, cada uno dirigido por un director diferente con un staff diferente. La historia seguramente terminó siendo algo que ninguno hubiera imaginado, y ahí está la magia del asunto. Lo más interesante aún es que en la página del concurso están los finalistas que no ganaron también, osea que se puede ir mezclando episodios y saldrás con una historia totalmente diferente a la que yo vi. Según mis cálculos si hay 5 finalistas y son 6 capítulos, se pueden hacer 15625 combinaciones diferentes!

Aquí les dejo los 7 cortos de los directores premiados, los cuales por cierto grabarán una 8va parte junto a Laforet! (eso sí es un premio)












Ahora nos toca esperar a ver qué hacen en el capítulo final. Estén atentos, de seguro será una belleza.

3.10.10

El reto de eliminar un color

Nos enfrentamos a un nuevo reto. Me llamaron para un cachuelo que me parece bastante interesante. El productor quiere sacar un video, donde ciertas partes estén a color y otras no. Algo bastante simple si fuera un sólo elemento, o si fuera un video corto.

El asunto aquí es que en un escenario quieren que todo sea gris, salvo ciertos elementos que sí estén a color. Pero en el otro escenario, quieren que sólo un personaje esté gris mientras los demás y el entorno sigue a color.

En el primer escenario, básicamente sería un efecto Pleasantville (más conocido como el efecto de Sin City). Es algo relativamente fácil, y para nada nuevo: ya lo usó Spielberg en La Lista de Schindler.


El segundo escenario sin embargo, sí se nos está haciendo más complicado. Discutiendo nos acordamos de Enrique el Antiguo, del show de Francella. Lo primero que se me ocurrió es usar máscaras en algún software de post, pero el detalle es que es un video de 30 minutos, que pretende llegar a ser una serie de varios capítulos. Mascarear todo eso sería absurdo. Tenemos que buscar otra forma.

Hasta ahora, lo que tenemos en mente es vestir al personaje de "azul croma" y eliminar sólo ese color. Si nos fijamos bien en Enrique el Antiguo no hay ningún elemento azul, todo en el ambiente es anaranjado y rosado y alguna que otra cosa verde. Para el pelo se podría usar una peluca también azul croma, pero la piel es la parte complicada. Probaremos con maquillaje azul haber si logramos que funcione como queremos. Probaremos si es mejor hacerlo todo en post, o eliminar el color directo desde el switcher. Según yo todo tendría que ser corregido en post, porque también es necesario eliminar el color en los ojos, lengua, etc. 

Otros están pensando en maquillar y vestir al personaje totalmente de gris. Aquí les dejo el video de muestra, para ver cómo se les ocurre que se puede lograr eso de la manera más óptima.

2.10.10

¿Qué hace un editor online?

Este es el primer post redactado en este blog, así que empezaré con algo con lo que estoy muy familiarizado: mi trabajo. Alguien me preguntó qué mismo es un editor online, que cuál mismo era mi función en la novela. Trataré de explicarlo.

El material se graba en XDcam a 1080i de 50mbs. Como es casi casi full HD (digo casi porque aunque es 1080 sigue siendo entrelazado y no progresivo) es bastante pesado, para lo cual se necesita una buena máquina para poder correrlo sin problema y bastantísimo espacio para almacenarlo. Como sacamos un capítulo de 45min por día, y son muchos capítulos, almacenar todo se nos hace imposible.

¿Qué se hace? Se trabaja en una resolución menor o proxy, generalmente de 15:1, con la cual se hace la edición creativa. Esto se la conoce como edición offline. Aquí quedan fijos los tiempos, el ritmo, orden, contenido, etc, etc.

Una vez revisado y aprobado el offline, se recaptura todo en alta definición y se procede a pulir detalles que no pueden hacerse con el proxy. Para muestra, pongo este video.

avid media composer - nitris dx

presentación 2.0

Bueno, me dieron ganas de empezar una nueva época en este blog. Hasta ahora servía para mostrar mis trabajos a los cuatro gatos que me leen y escribir alguna que otra cosa sin mayor relevancia, pero creo que eso ya no tiene mucho sentido. Tengo DeviantArt donde expongo mi "arte" digital, tengo Vimeo donde subo los videos que hago, tengo un Twitter que oficialmente sirve para escribir boberas sin relevancia y tengo Guayaquil Insumiso que es donde escribo mi pensamiento ideológico.

La gran mayoría del tiempo que no estoy en la calle o trabajando estoy leyendo en internet; y casi todo lo que leo tiene que ver con política y teorías libertarias, o con cine y las nuevas tecnologías en video. Ya tengo un blog donde escribo de política, me faltaba uno donde escribir de videocinematografía.

Seguiré subiendo cosas personales y cada vez que pueda escribiré algo con sentido, que taggearé específicamente para poder diferenciar. ¿Qué escribiré? Pues cosas relacionadas al cine y la televisión que me interesan y puedan interesarle a alguien. No soy un director conocido ni un gurú de la tecnología, pero creo que se lo suficiente como para poder dar mi opinión al respecto; si hay gente que trabaja en el medio audiovisual y me busca para hacerme consultas, por algo ha de ser.

Me gusta trabajar en la industria audiovisual, busco seguir avanzando y al igual que he aprendido mucho de varios maestros, yo también pienso compartir lo que voy aprendiendo en el camino. Así que, eso: bienvenidos y ojalá encuentren algo que les sea de ayuda, y al mismo tiempo me puedan ayudar a mi. ¡Salud!

Ernesto Yitux

17.9.10

Pesadilla - Guión literario

ESC 1 - INT/NOCHE - CUARTO ÉL

EL y ELLA están teniendo sexo en una cama pequeña, de sábanas azules. EL un joven de unos veintitantos años, gordo y de pelo largo; ELLA una mujer algo mayor que EL, de pechos grandes y caderas anchas, pelo corto. Es un cuarto mediano, no se distinguen detalles, pero vemos algunas cosas regadas en el piso. Están acostados de lado con las piernas recogidas, EL detrás de ELLA, penetrándola analmente mientras besa y muerde su espalda y cuello. Se escuchan gemidos y respiración cortada. Ni una palabra. EL con ambas manos le aprieta las tetas, y luego baja hacia su nalga mientras se mueve con fuerza de atrás hacia adelante. ELLA le toma la mano y se la dirige hacia su entrepierna. EL introduce un dedo en su vagina y la empieza a masturbar bruscamente. Sin ser gritos, los gemidos aumentan y se entremezclan con el rechinar de la cama.

La puerta de la entrada al cuarto se abre suavemente, EL mira asustado y deja de moverse. Vemos sus ojos abiertos y su cara paralizada de temor. ELLA lo agarra del brazo buscando protección. Escuchamos pasos, y vemos entrar una sombra al cuarto. Es una figura amorfa y cambiante, sólo se distinguen sus ojos claros.

EL (desafiante)
- ¿Quién eres?

La sombra continúa caminando circundando la cama.

EL (insistente)
- ¿¡Qué quién eres?!

La sombra continúa caminando circundando la cama, mientras su mirada está fijamente en ellos.

EL (furibundo)
- ¿¡Que quién mierda eres hijueputa!? ¡Dime quién eres!

La sombra continúa caminando circundando la cama, ya va por la mitad del semicírculo que forma su trayectoria. ELLA espantada agarra fuermente a EL del brazo, clavándole las uñas y sollozango levemente. La sombra se detiene justo frente a ellos, y su forma cambiante y deforme se amolda a un cuerpo humano. Es la silueta de un hombre alto, calvo, que mira fijamente a la pareja.

EL (extremadamente asustado)
- ¿Quién chucha eres y qué quieres?

ELLA toma la mano de EL y rápidamente la posa sobre su clítoris. EL introduce su dedo nuevamente y lo retira asustado. Entre sus dedos hay un líquido espeso como la sangre, algo pegajoso. EL intenta abrazarla pero vemos como todo el cuerpo de ELLA empieza a derretirse en la misma sustancia viscosa. EL voltea espantado a ver a la sombra y ésta sin quitarle la mirada de encima, se disuelve de la misma forma en el piso. EL queda en la cama sin poderse mover, ni hablar. Una lágrima baja por su mejilla.

FADE A NEGRO

15.8.10

prueba colorista II


Una parte de mi trabajo como finishing editor, es hacer que lo que se ve bien en grabación, se vea aún mejor en pantalla.

prueba con Colorista II dentro de After Effects
(lo que se logra en un feriado con fiebre no?)

5.8.10

Mi editora

Soy editor online de una novela nacional. No es el trabajo soñado, pero me siento orgulloso. Es lo que paga mis vicios, y la mayoría del tiempo lo disfruto. Además, me da la oportunidad de experimentar y aprender con equipos que juntos podrían costar más que una casa. Salud! avid media composer nitris dx workstation

16.7.10

reel_yitux


yitux / 2010

"Life is too short to be working with people who don´t fill you up with artistic and/or emotional fulfillment"
Norman Hollyn

11.7.10

PERRO - prueba color

probando una Sony FX1 y el recién bajado Magic Bullet Looks Builder

16.6.10

Quisiera decirte

Un mar de cerezas
se quema en silencio,
cuando el sol se ahoga
al borde del horizonte.
Y ahora que la noche
enreda entre las basuras,
y la vieja dama del blues,
se cuela por la ventana.

Quisiera decirte niña que...
quisiera decirte:
que seas mi amiga,
a veces amante y olvidar
tanta estupidez sobre el amor.

29.5.10

La cámara

"La cámara es sin duda uno de los más importantes de todos los inventos... es la única herramienta que tiene la capacidad de detener el tiempo, grabar la historia, generar arte, contar historias y transmitir mensajes que trascienden el lenguaje como ninguna otra cosa jamás concebida."

10.5.10

No se bien por qué

¿Por qué tuviste que fundir el acero
y convertir la pasión en el último infierno?

Cicatrices de otros tiempos, volvieron a doler
y tu lengua las lamía, no se bien por qué....

yitux / photoshop + wacom

20.4.10

abuela

dicen que ahora se puede reír sin miedo a ahogarse,
y que come chocolate sin pensar en la insulina...
yo sólo se que hace un año no la veo.

27.3.10

Abrazado a la tristeza

He salido a la calle abrazado a la tristeza:
vi lo que no mira nadie y me dio vergüenza y pena.


Soledad que te pegas a mi alma
en la dulce soledad de este campo de otoño.
No hay momentos de sosiego.
Rebeldía pura de amore sin amore.


Ilusiones puras y puros conformismos
intentando levantar el espíritu nostálgico
de querer estar contigo y nunca estarlo.


Los llantos desconsolados que estrangulan las gargantas;
los ancianos encorvados: parece que la tierra les llama.


Volverás de vez en cuando a estas tierras agrietadas
y verás de nuevo a quien te ama borracho;
borracho de amore y libertade.
Y también de vinos por olvidarte. Borracho... Borracho...


Me da pena que se admire el valor en la batalla;
menos mal que con los rifles no se matan las palabras.


Y si surgen saludos y palabras
tal vez notes la dureza de mi estilo
queriendo no herirte en nada,
y en mi soledad sólo herirme yo mismo.

La justicia está arrestada por orden de la avaricia;
el dinero que te salva es el mismo que asesina.


Y verás sin duda el resurgir poderoso del guerrero
sin miedo a leyes ni a nostalgias
y lo verás caer una y mil veces y levantarse de nuevo,
con la pura bandera de su raza.

Soledad de amore triste y pura,
soledad de amore y locura.

21.2.10

Motion Capture v.3.5


una pequeña muestra de un gran trabajo en equipo

18.2.10

Peligrosa piel

yitux / 2010
// photoshop

17.2.10

Torpe corazón

Como quisiera aprender
a mirar por tus ojos
ponerme en tu piel
mostrarte el prisma manchado
por el que yo miro
por el que ahora grito ¡te quiero!

Cuantas cosas sabe mi cabeza
que mi torpe corazón aún no entiende.

14.2.10

¡Atángana!

1 - 2 - 3! (ting-ting-ting) / De regreso a la realidad.
Aunque por ese rato volvimos a ser niños y ver con ilusión como dos gigantes teatreros realizan un tombstone piledriver.

The Undertaker vs. Batista
Guayaquil - 2010 - Road to WrestleMania
foto tomada con el BlackBerry de Gnoki