Mostrando entradas con la etiqueta escritos. Mostrar todas las entradas
Mostrando entradas con la etiqueta escritos. Mostrar todas las entradas

27.2.15

Lo que un vestido nos enseña del color

El internet se volvió loco por un vestido. Una foto publicada en Tumblr preguntando si el vestido era blanco con dorado o azul con negro se volvió tendencia mundial en menos de un día. A estas alturas, ya sabemos que se trata de una foto sobreexpuesta de un vestido azul con negro pero aún hay quienes lo ven de otra manera.
La foto original en el centro y las versiones con el color modificado según cada caso a los lados.
Esto se debe a que los colores no son datos objetivos sino que dependen de la percepción de nuestro cerebro. A continuación explico algunos fenómenos del color, cómo se relacionan con el caso del vestido y qué podemos aprender de esto quienes trabajamos con imágenes digitales.

1.- Contraste de color. Los colores que rodean un color influyen en la percepción de ese color.

Doy por sentado que la foto del vestido fue tomada por un teléfono en modo automático. Al intentar exponer correctamente, la cámara quiso llevar el azul oscuro a un tono medio y sobreexpuso el resto de la toma. Esto dejó una imagen cuyos valores objetivos son un gris azulado y un café bastante opaco. En esa ambigüedad reside lo divertido de la imagen.
Los colores de la foto promediados. No hay azul, ni negro, ni blanco, ni dorado.
Si no hay nada 'más negro', nuestro cerebro interpreta la parte más oscura de la imagen como el negro. Sin embargo, si tenemos un negro real cerca, el cerebro se confunde e interpreta el de la foto como otro color. Muy probablemente, quienes votaron a favor del azul con negro la estaban viendo sobre un fondo claro. Y quienes opinaron que era blanco con dorado, tenían un fondo más oscuro. [El marco de un iPhone vs. el marco de otro smartphone negro, por ejemplo.]
Aunque no lo parezca, los cuadros del centro en una misma línea son siempre del mismo tono.
El contraste de color puede ser simultáneo como sucesivo. Esto quiere decir que afectan tanto los colores que tenemos alrededor, como los colores que venimos viendo de nuestro entorno. Por eso es importante colorizar en un ambiente de luz constante y colores neutros. Si alguna vez has dejado una toma con un color listo pero al verla de noche, o en otras circunstancias diferentes a las iniciales, ya no se ve del mismo color, puedes estar teniendo problemas con el ambiente donde trabajas.

2.- Constancia del color. El ojo humano tiende a ver el color de un objeto siempre igual, independientemente de la luz que rebote sobre él.  

Al recibir la información, nuestro cerebro realiza un proceso de restarle la luz del ambiente al color reflejado. Dicho de manera audiovisual, nuestros ojos viven haciendo 'balance de blancos' automáticamente todo el tiempo. Es por esto que una fruta roja sigue siendo igual de roja en la luz azul del medía día como en la luz amarilla de un interior iluminado con focos incandecentes.
Al restarle el color 'ambiente' el cerebro interpreta los cuadros grises como azules y amarillos, respectivamente.
A las cámaras digitales, sin embargo, hay que indicarles un punto blanco puro para que pueda realizar este proceso. Al estar en automático, y al no haber mayor información de dónde tomar referencia, puesto que el vestido ocupa casi todo el encuadre, la cámara en este caso ha intentado restar un poco de azul a la toma, dejando los tonos neutros en dirección hacia los naranjas. Esta es la razón por la que el azul no se ve tan azul y los negros se ven teñidos de dorado.

No es raro el caso de camarógrafos [sobretodo en documentales o reportajes de noticia] que cambian de ambiente y olvidan o no tienen oportunidad de setear nuevamente el blanco. Cuando nos llegue una toma así, la mejor forma de corregirla es ver de qué tonos tienen los pixeles más claros y más oscuros, para empezar a aumentar su color complementario. En este caso los neutros tienen al naranja, tocaría aumentar el azul.

3.- Contexto. Sin referencia no hay color.

Sabemos que las cosas son de determinado color y no han cambiado, porque constantemente tenemos al mundo como referencia. El cielo siempre es azul y el pasto siempre es verde. En una foto, en cambio, ese mundo se ve reducido a sus márgenes.
Otra foto del vestido, donde queda comprobado su color real.
Todo el enredo de este vestido se debe a que en la foto no hay ningún otro elemento que dé contexto. Al no tener nada en base a qué analizar su tamaño, bien podríamos elucubrar sobre si es diminuto o extraordinariamente grande. Lo mismo pasa con el color.

Los dos factores anteriores entran en juego en el momento en que no vemos nada más en cuadro. Contrario a la realidad, nuestro cerebro bien puede pensar que es una foto de una tela blanca que se ha teñido un poco de azul al estar en exteriores o una tela azul dentro de un cuarto con luces cálidas. Al no tener un cielo o una piel humana, no tenemos contra qué comparar objetivamente.
 Bien podría ser un vestido oscuro y estar a la luz o uno claro y estar a la sombra.







Si la foto del color correcto la modificamos para que quede como la viralizada, queda demostrado que el contexto nos hubiese dado la respuesta mucho más rápido.
¿De qué color viste tú el vestido? ¿Crees que estos conceptos sirven para mejorar nuestro trabajo con las imágenes? ¿Qué otras técnicas conoces donde se apliquen?

9.9.11

El porno que me gustaría grabar

No se si la pornografía cuente como género cinematográfico, pero en todo caso debería. No soy un gran consumidor de videos sexuales, pero sí me gustaría producir uno. Mejor dicho: me gustaría dirigir uno, pero uno rico estéticamente. No hablo de cine erótico, suave y políticamente correcto. Hablo del cine que 'explícitamente muestra el acto sexual y cuyo propósito es excitar al espectador'. Hablo de hacer porno, de ese que nos convierte en objetos sexuales y asusta a las feministas aburridas.

Obviamente siempre es mejor jugar al fútbol que ver el fútbol, pero la razón primordial por la que no soy tan fan de la pornografía, es porque la gran mayoría es pésima. Desde mi perspectiva, una película porno debería ser algo más que un grupo de personas tirando. Tiene que tener algo que llame la atención, algo que realmente inspire lujuria. Ver a Aletta Ocean vestida de enfermera, haciendo lo mismo que ya la vi haciendo vestida de profesora, empieza a ser aburrido.

Cinematográficamente la gran mayoría de films que vienen de San Fernando Valley, son tan interesantes como cualquier novela venezolana. Y los videos amateurs, equivalen al video de tu cumpleaños: a menos que seas tú la que participa en el Bukkake, no hay nada lo suficientemente lascivo.

No estoy hablando de historias. Meterle 'trama' a una porno, es uno de los más fallidos intentos de volverla atractiva. Creo que nadie recuerda de qué tratan las películas de Tinto Brass pero todos recuerdan lo excitantes que son. Eso se debe a cómo manejaba la fotografía, la puesta en escena y sobre todo la edición. Siempre se dice que si un director no siente el mise en scéne, es mejor que ni agarre la cámara. Yo creo que en el cine sexual eso también se debería aplicar.

Me gustaría grabar una porno como las de Andrew Blake. Él logra transmitir el erotismo en sus películas de la manera que quiere según la situación y eso convierte un simple coito en algo espectacular. Es decir: digno de un espectáculo, digno de salir en la pantalla grande. Ese es el éxito de una buena porno.

Directores que logran esto, son pocos. Mike Flirt, director de Beautiful Porn y The Art of Blowjob, en una entrevista para Sin2.0 declaró que "la magia de hacer cine está en la profundidad de campo, lentes y luces. Y la mayoría del contenido producido allá afuera, solamente usa una videocámara regular y se olvidan de toda la parte artística que debería ir detrás."

Erika Lust es otra directora que admiro. Aunque no se por qué declara que su cine es para mujeres, su película "Cinco historias para ellas" me pareció bastante buena. Líbido puro. Muy bien producida, por supuesto muy bien dirigida y fue una de las primeras películas que me demostraron que se podía hacer porno y arte a la vez.

Ella también maneja LustCinema donde intentan darle difusión a una pornografía diferente, no tan escasa al parecer. Encontramos ahí cosas bastante interesantes y directores nuevos, con nuevas propuestas; de esas que gustan a los crápulas. Incluso entre los directores que participan está María Beatty, una de las más reconocidas realizadoras de cine de autor, erótico y fetichista.

Ver porno es el voyeurismo cobarde. Hacer porno debe ser el voyeurismo solidario. Sentarse a observar, meticulosa y pacientemente, sin participar, cómo follan tus amigos para luego compartirlo. Y contarlo con tino, igual como se debe contar cualquier historia para no matarla por más asombrosa que sea. Videos como los de X-Art equivalen a que te lo cuente un poeta, sentado en primera fila, sin esos planos de documental médico a los que nos acostumbró Penthouse.

No recuerdo quién fue que dijo que no importa lo que se grabe, sino cómo se lo graba. ¿Has visto alguna vez el teaser de I Feel Myself? Son sólo mujeres masturbándose, la forma como está construido el video es lo que lo vuelve exquisito. 

Este es el porno que me gustaría grabar. Ya sea sexo puro y natural, o el más salvaje BDSM; lo importante es la perspectiva cómo se lo mira, la iluminación, el montaje, el tratamiento. El arte que va detrás del video es lo importante. Me gustaría grabar un porno diferente, ya que como alguna vez declaró Blake "el porno común, es anti-erótico".

16.5.11

Tras las cámaras de un documental en Ruanda.

Como todos, he visto muchos documentales. Para bien o para mal, la mayoría siempre estuvo dividida entre documentales de gigantes como NatGeo o la BBC; y documentales independientes, 'militantes', de alguna u otra forma políticos y no tan bien producidos. De vez en cuando llegaba a mis ojos algún trabajo independiente, bien hecho, que nos dejaba boquiabiertos. El cine político de Big Noise Films es uno de los mejores ejemplos de cine militante, independiente y de calidad. Siempre me pregunté cómo lo hacían. Cómo lograban meterse en ciertos lugares, traer la nota, y encima que se vea súper bien.

Este es el caso de Rising Fron Ashes, un documental que trata sobre el equipo nacional de ciclismo de Ruanda. El trailer me ha gustado bastante. No es una cosa extraordinaria, pero la imagen se ve muy bien. Y es ahí donde me quedo preguntando: ¿Cómo logran grabar una imagen tan buena en estilo documental? ¿Cómo logran entrar a un país recontra pobre y obtener esto?
Realmente algo para aplaudir, y honestamente este trailer me ha dejado con ganas de ver el documental completo. Obviamente cuentan con buenos equipos y presupuesto suficiente, pero tampoco son un canal gigante de televisión europea. El director, T.C. Johnstone, es reconocido por su trabajo como cineasta independiente. De hecho es el fundador de Gratis 7, una especie de colectivo/compañía dedicada a catapultar proyectos de cine no convencional. Lo que hace la diferencia en este tipo de trabajos, no es la cantidad de dinero, sino la calidad del equipo humano con el que trabajes.

Pero volviendo al '¿cómo lo hicieron?', ellos han colgado en internet un par de videos donde explican qué luces y qué equipos de computadora usaron, cómo y por qué. Bastante interesante, pero hay mucho más: la gente de Zacuto con la producción de Steve Weiss, han estrenado una nueva serie web llamada BTS (Behind the Scenes) donde nos muestran un 'tras cámaras' de cómo fue grabar este documental: las complicaciones, el presupuesto, el equipo, la parte divertida, los conflictos, cómo solucionaron y obtuvieron lo que quisieron, etc. Es algo que vale la pena conocer.

El episodio de estreno trata sobre los primeros 5 días de rodaje. Siempre he dicho que a veces la mejor parte de una obra es ver cómo la hicieron, y aquí realmente nos lo explican como nunca antes yo lo había visto. Si te preguntabas cómo es irse a grabar un documental a África, esto es algo que tienes que ver.

9.5.11

Retratos de 60 segundos.

En esta época de timelapses en HDR y movimiento de cámaras increíbles; siempre es bueno regresar un poco a lo básico, a la belleza audiovisual que no necesariamente es despampanante. Chase Jarvis es mi ejemplo en esta ocasión. Él es uno de los fotógrafos comerciales más reconocidos del mundo y es fundador de creative Live, la página web que ofrece talleres gratuitos con las mayores eminencias de la fotografía.

Jarvis ha estado experimentando con lo que él llama "retratos de 60 segundos", que consisten justamente en eso: una cámara fija viendo a una persona por un minuto entero. Es increíble la fuerza que tienen esos videos, a pesar de ser tan sencillos. ¿Menos es más? Aquí dejo un par de ejemplos.


El segundo ejemplo es parte de un "reto de fin de semana". En su blog, Jarvis incentiva a la gente que lo lee a hacer un retrato de 60 segundos a un paisaje. Al mejor paisaje que podamos encontrar. Sin nada pretencioso, solamente el paisaje. Creo que aquí cabe perfectamente la opinión de Vincent Laforet sobre por qué las fotos, a veces son más poderosas que la televisión:
"Vivimos en un mundo donde hay Twitter, Facebook, e-mail, web, TV; que va a un ritmo demasiado rápido y la fotografía fija, es uno de los pocos momentos donde uno se detiene, y observa y piensa."
Esta irónica ruptura con el actual lenguaje de la cámara siempre en movimiento, me parece una rica experiencia sobre el arte de observar. Solo eso, observar. 

5.5.11

Otro gran ejemplo independiente

Malviviendo es una serie web que conocí hace ya algún tiempo. Es quizás la serie que más me enganchó, no solo por su temática, sino por la forma como está hecha. Dirigida por David Sainz, nos cuenta la historia de cuatro amigos y la mala vida que llevan. Ha sido totalmente un éxito en internet, tanto así que su último capítulo estrenado el pasado lunes ya tiene más de 55000 visitas.

La calidad es impresionante, y la imagen nos habla de gente que sabe lo que hace, rompiendo con el molde de que lo independiente se verá siempre igual. En el blog EfectoHD hay una entrevista a Javi Lería, el encargado de la postproducción del programa, sinceramente alguien que respetar. Grabado con una DVX100 en los primeros capítulos, luego con una HVX200 y ahora con una Canon5D; logran una imagen espectacular. Sorprendente es enterarse que todas las escenas dentro de carros son trabajadas con tela verde por falta de recursos para grabar realmente en un carro en movimiento.

Es que la falta de recursos, si bien no es un justificativo para decir que algo es bueno, sí es una razón para admirar mucho más a estos artistas. Dicen que el primer capítulo de la serie tan solo les costó 40 euros. Bajo un flujo de trabajo DIY, el mismo director y guionista actúa de personaje principal "El Negro"; al igual que el director de foto Tomás Moreno quien hace de "El Kaki". 

Se han ganado su reputación, y han salido del ghetto. Ahora trabajan en varios proyectos; independientes y por comisión, donde también hacen gala de su habilidad para lo audiovisual. Recomiendo ver el corto "El curioso caso del corredor paulatino", sin duda es una excelente muestra de cómo una idea sencilla y absurda puede ser una buena historia dependiendo de quién la cuenta y cómo. Es un equipo que admiro bastante, a David Sainz por su emprendimiento y su habilidad de contar buenas historias y a Javi Lería por su trabajo técnico y por lograr con pocos recursos imágenes muy profesionales. Dejo un capítulo especial llamado Mortal Topic, que me ha hecho cagar de risa y me ha dejado boquiabierto con esas balaceras.

26.4.11

Guayaquil Informal - 2 años después

Dos años han pasado y muchas cosas en ese transcurso. El documental se estrenó un jueves de marzo del 2009. Aún me emociona recordar el auditorio del Ministerio del Litoral lleno, con gente sentada en los pasillos y parada al fondo. Óscar Pineda cubrió el evento con una nota en El Telégrafo y para nosotros eso ya era bastante. Luego Silvia Buendía, Héctor Chiriboga y Xavier Andrade escribirían sobre el video. 

El documental se lo pasó otro día en la calle, con un proyector, en 6 de Marzo y 10 de Agosto. También fue transmitido por EcuadorTV un domingo a las 21h00 y luego por Gama un jueves a las 8h30 causando polémica. Tenía más de 40 llamadas perdidas en mi teléfono. Supuestamente representantes del partido Social-Cristiano hablaron a los noticieros en contra del documental. Yo me desperté a las 14h00, chuchaqui.

Nuestros nombres mal escritos salieron en todos los periódicos. Nos dijeron que nos iban a demandar y amenazaron a algunos de los comerciantes que participaron con nosotros. Tuvimos que "contratar" un abogado y andábamos cagados de miedo. En mi celular recibí una llamada de Fernando Alvarado, diciendo que al Presidente le había gustado nuestro trabajo y deseaba una copia. Nunca se la enviamos. Nos reunimos con Enrique Arosemena en TC, quien nos otorgó permiso para usar bastante material de archivo (que ya habíamos usado sin permiso) y aclaramos que el problema legal por la transmisión de Gama no era asunto nuestro. Un año después reeditamos el documental con una entrevista nueva y precisa a Miguel Salazar Haro. Esta vez se llenó la sala del MAAC Cine. 

La Federación de Comerciantes Minoristas del Guayas, en su aniversario nos entregó un diploma simbólico. Ernesto Toledo nos presentó como "dos jóvenes que rompen paradigmas, que están donde nadie los ha llamado, que dicen lo que nadie se atrevía a decir y que se arriesgaron a mostrar la realidad del comercio minorista en Guayaquil." Nos tomamos una foto con la Madre Símbolo de la asociación. Nos hicimos panas de los comerciantes, un par de oficialistas intentaron aprovecharse, los conservadores guayacos nos tacharon de traidores a la ciudad.

Con esta, nuestra ópera prima, participamos en el 1er Encuentro de Documental Comunitario "Imagen de los Pueblos". Fuimos invitados al 2do Encuentro de Documentalistas Latinoamericanos y del Caribe - DOCLAT, que se llevó a cabo en Guayaquil. Conocimos a mucha gente interesante y aunque no logramos participar, fuimos invitados y "becados" al festival Encuentros del Otro Cine - EDOC 9, en la ciudad de Quito. Por bastante tiempo Guayaquil Informal estuvo colgado en la extinta página EcuaCanal.com y gracias a varios amigos mochileros, el DVD ha recorrido casi toda latinoamérica. Me han contado que la última presentación fue en un foro del Movimiento Sin Tierra en Brasil.

"(Guayaquil Informal) es una clara muestra de lo que hace el cine documental militante en el sentido de movilizar conciencias, que la película se convierta en una Acto en el que las personas reflexionen sobre la situación de su ciudad. Es un documental de denuncia que cuestiona la gestión municipal de Jaime Nebot, que se ha encargado de perseguir, criminalizar y torturar a los comerciantes informales de Guayaquil. (...) 

Los realizadores del documental asumen la responsabilidad de mostrar lo que ha sucedido en el pasado, contextualizando el presente con toda una década de represión por parte del municipio guayaquileño.  (…) 

Más allá de su valor técnico, su principal mérito está en su potencia como herramienta generadora de discusión sobre cuestiones que el guayaquileño común da por sentado."

1.4.11

La evolución y muerte de las noticias

La forma en que se documentan las noticias está cambiando. Nuevas tecnologías se desarrollan y con ellos, nuevos lenguajes y nuevas formas de comunicarse con la audiencia. La relativa facilidad con la que ahora podemos contar con cámaras High Definition, sensores iguales o mayores a los de cámara de cine, edición no lineal y corrección de color en la propia casa y demás herramientas que antes eran un lujo; hacen que la cinematografía se acerque más a nosotros incluso en el género documental. Hay quienes disfrutamos este cambio, al igual que hay quienes se resisten.

Hace un año exactamente, el vidoasta Khalid Mohtaseb causó polémica con un video documentando Haití luego de un terremoto. Hoy la historia se repite. Las críticas caen esta vez sobre Dan Chung, por la realización de este video sobre Japón.


Quienes lo critican lo tachan de "aprovecharse para hacer arte de un desastre", así como por hacer un video "demasiado subjetivo" contrario a la "objetividad" esperada por un camarógrafo de noticias. Las quejas se basan en las tomas hechas con pequeños dollys o sliders, así como por utilizar música y editar como si fuera un reel. Dan Chung se defiende diciendo que él lo que intentaba, era crear un video que transmitiera lo que él sintió al estar ahí. En su blog escribió:
No hay nada acerca de un paquete estándar de noticias que sea "real" o "auténtico" o "sin estilo". Cuenta con convenios propios. Lo que me preocupa es que creo que hay una desconexión de lo que sale "en las noticias" debido a que se lo presenta de una forma pre-envasada. (...) 
Las noticias en TV, raramente te dan la sensación de estar en un lugar, como el cine hace. Debido a que el cine tiene un lenguaje fácilmente entendido por la audiencia, no tienen que aprender un lenguaje visual nuevo o ajeno como con otros medios multimedia. La diferencia es que mientras el cine usa esta técnica para que se suspenda la incredulidad y transportarte a otro mundo - yo estoy tratando de llevarte a un lugar en el mundo real. 
Yo apoyo completamente a Chung. Este es el primer video en el que pienso realmente que ocurrió un desastre. Incluso sin mostrarme texto ni testimonios, como sí hizo en la versión que salió en las noticias, se crea una empatía a mi parecer por la sensación de que estás ahí metido.

Hay quienes han dicho que ese video es una falta de respeto, y que una intromisión grabar en una zona de desastre con un slider. Sin embargo, como Chung mismo afirma, "seguramente no es más irrespetuoso o intrusivo que el amplio grupo de trabajo de las noticias japonesas o los grupos de cuatro personas de la BBC. Igual que no es más artificial que un fotógrafo tomando fotos en blanco y negro, cuando el mundo es a color." Es verdad que un paneo es mucho más natural que un traveling, nosotros paneamos naturalmente con nuestra cabeza. Sin embargo así mismo, un traveling es infinitamente más natural que un zoom. Después de todo, un humano jamás en la historia ha podido hacer un zoom con sus ojos; podemos caminar y acercarnos al objeto pero jamás podríamos cambiar la distancia focal de nuestros ojos.

Aquí no se está juzgando lo que es más natural o no. Aquí se está criticando a quienes han decidido romper el molde y contarnos la historia de otra forma. Las noticias no son "más reales" por usar tomas fijas o cámara al hombro en situaciones de emergencia; nos parecen más reales porque a eso nos acostumbramos durante 50 años de noticieros en televisión. Quienes hacen las cosas diferente ahora son señalados, como genios por unos y como irrespetuosos y falsos por otros.

"La realidad" existe, está ahí afuera y es única. Depende de cada ojo cómo la captura. No existe la objetividad pura. Desde decisiones más notorias como elegir qué graba y qué no graba, cuáles bytes edita y cuáles no; así como decisiones menos obvias como qué lente usar, qué angulo, qué encuadre, qué formato, etc, etc; todas afectan. Todas construyen juntas, la visión subjetiva del realizador.

Criticar a los videógrafos que hacen un gran trabajo, y que se podría decir que hacen arte incluso al documentar las situaciones más difíciles, sería como haber criticado a Patrick Chauvel por tomar fotos increíbles; incluso en la guerra.
Esta foto me parece una belleza, incluso pensaría que es una pintura. El encuadre y los colores son perfectos. El contexto es durísimo, es un cadáver tirado en la tierra, pero la foto es excelente. Capaz por eso se volvió famosa y ayudó a muchos a sentir empatía y concientizar sobre las barbaridades de Pol Pot. Lo mismo creo ahora con los videos.

Saltándonos totalmente al otro extremo y por asombrosa coincidencia; es interesante también que ahora Chauvel junto a Danfung Dennis, reconocido por su documental sobre la guerra en Afganistán "Hell and Back Again", están trabajando en un proyecto para hacer de los videos documentales una experiencia más "inmersiva".

Han desarrollado una tecnología con la que graban un video captando todo el campo de visión humana, para luego proyectarlo en una especia de domo u Omnimax miniatura. Más increíble aún es que con una aplicación en iPad se puede manejar la cámara, paneando como si estuviéramos realmente ahí metidos.

Este trailer, al parecer con un prototipo de la tecnología, fue grabado en Libia durante las protestas y el conflicto armado contra la dictadura de Gadafi.

Simplemente asombroso. ¿Volverá esta nueva tecnología "más reales" a los noticieros? ¿Es esta forma de audiovisual más objetiva que la usada en Hell and Back Again? Sea cual sea la respuesta, lo que sí nos queda claro, es que la forma en que vemos las noticias ha evolucionado. El video de noticiero ortodoxo, donde el reportero narra y el camarógrafo grafica desde su trípode, ya no funciona. Las noticias como las hemos visto hasta ahora están a punto de morir, y con ellas los canales de televisión; pues quienes mueven el mundo no son quienes critican sentados, sino quienes deciden pensar y hacer las cosas fuera del molde.

29.3.11

Alphas: ¿Straight o Premultiplied?

Entender cómo funcionan los canales alpha puede ser algo confuso, pero es bastante importante para cualquiera que haga postproducción de video. Uno de los errores más conocidos en televisión nacional son las sobreimposiciones mal tratadas donde se ve un halo feísimo en vez de un corte preciso.

Creo que todos entendemos que el canal alpha es un canal adicional a una imagen RGB, el cual indica el grado de transparencia/opacidad de un pixel. Sin embargo hay dos formas de obtener un canal alpha: straight y premultiplied. Como sus nombres lo indican el primero es "recto" y el segundo es "pre-multiplicado". ¿Sencillo verdad?

Hay que dejar claro que en ambos casos el canal alpha es exactamente igual, lo que cambia es el relleno del mismo. En un straight alpha, los canales RGB muestran solamente información de color y el cuarto canal muestra el grado de transparencia. Esto es lo idóneo. En este caso el relleno RGB existe fuera de dependencia de la transparencia. Al contrario en un premultiplied alpha, los canales RGB están combinados con la transparencia y se multiplican con el color de fondo del archivo (generalmente negro o blanco).

Para ponerlo en cristiano, cuando cortas una imagen en Photoshop, los pixeles en los bordes generalmente tienen un grado de transparencia. Si grabas esa imagen cortada en un formato que no acepta alpha (.jpg, .pict, etc) no podrá interpretar los pixeles semitransparentes y se verá obligado a mezclarlo (multiplicarlo) con el fondo (en el caso de Photoshop blanco). Para entender mejor recomiendo que lean este escrito, así como la ayuda de Adobe, y si quieren ponerse científicos recomiendo esto también.

Más importante que saber las ecuaciones que forman un pixel, creo que es saber con qué estás trabajando y cómo reacciona cada software que usas frente a eso. Un día recibí un zócalo que mostraba un halo de color cyan alrededor de todo lo que tenía motion blur. ¡Sí cyan! Así que el problema es grave. El diseñador había renderizado el archivo con premultiplied alpha, pero aparte había cambiado el background color en After Effects. Si renderizan premultiplied, asegúrense que el color de fondo sea blanco o negro; caso contrario al software se le hará difícil dividir el color de los pixeles y resultará una transparencia horrible.

Ahora bien; como ya dije anteriormente hay que saber cómo trabaja cada herramienta que usamos. After Effects puede interpretar y generar perfectamente un alpha straight o premultiplied. Lastimosamente de los NLE que conozco, solo Premiere Pro puede interpretar premultiplied; tanto Media Composer como Final Cut, esperan que usemos straight alphas (aunque si no me equivoco en Final Cut hay un filtro para solucionar eso). El problema viene porque Photoshop, por ejemplo, no nos crea un straight alpha a menos que lo hagamos manualmente. Igual que los renders de Maya y Lightwave vienen con premultiplied por default.

La solución a todo este lío para mi es sencilla: siempre, siempre renderizar straight alpha. Es lo óptimo. Los alphas premultiplicados existen solamente porque habían softwares incapaces de interpretar el cuarto canal. Lo único que tienen que tener en cuenta es que los archivos sin premultiplicar se verán feos si los ven en un software que no permite visualizar el alpha correctamente (QuickTime por ejemplo) Los bordes se verán duros y con el "efecto escalera" típico de un croma mal cortado. Sin embargo se verá perfecto una vez que se interprete la transparencia en el software apropiado.

Para renderizar con After Effects correctamente en los Render Settings se debe marcar RGB+, Million Colors+ y por supuesto Straight Alpha. 
En Photoshop lo que hay que hacer es hacer un Merge de todas las capas, seleccionar el Merge con Ctrl+click y crear un Alpha Channel a partir de la selección. 
En Maya, utilizando Mental Ray lo que hay que hacer es dentro de la pestaña Quality, bajar hasta donde dice Framebuffer y deseleccionar la opción Premultiply.
Hacer esto me permite importar los renders 3D o los dibujos con drop shadows directamente al Media Composer sin nigún tipo de halo negro dañando la imagen. En el ejemplo siguiente la imagen de la izquierda es con straight alpha mientras que la de la derecha es con premultiply. Nótese la diferencia de calidad especialmente cuando la transparencia celeste se combina con la lámpara de la imagen de fondo.

10.3.11

La nueva belleza de Sony

Hace unos meses, tuve la oportunidad de asistir a una presentación de Sony. Lo bacán de estos eventos es que comes bocaditos mientras una modelo te explica las cualidades del producto. Lo increíble de estos eventos es que puedes jugar con equipos carísimos y atosigar con preguntas a los ingenieros y representantes de la marca.

En esta ocasión lo que más me llamó la atención fue la nueva cámara PMW-F3, una cámara XDCam con sensor de 35mm. Realmente impresionante: una profundidad de campo cinematográfica que solo se lograba con cámaras DSLR o con adaptadores; una calidad de color excelente y un nivel de ruido casi nulo (incluso grabaron a +18db y el ruido era casi inexistente)

Buscando en internet me encontré con un video que al parecer es el primer cortometraje grabado con una F3. Lo dirigió Martin Scanlan y la foto la hizo Steve Lawes. Lo chévere de este trabajo es que han subido la versión offline al igual que la versión final. En el offline podemos ver lo que la cámara realmente grabó, y en el online podemos ver cómo quedó una vez subido en mejor calidad y tratado el color de las imágenes.



Asombrosas dos cosas: lo excelente que graba la cámara por sí sola y lo muchísimo que una toma puede mejorar con tan solo corregirle el color. Según leo en los comentarios, el offline fue editado con los archivos XDCam de la tarjeta SxS de la cámara mientras que el online fue grabado en un equipo externo en HDCam-SR. Esto significa 8bits 4:2:0 vs 10bits 4:2:2, por lo cual se nota una diferencia de calidad incluso en la versión comprimida para web.

Según lo que pregunté esta cámara en Ecuador la venderán a $26 000 e incluirá un juego básico de 3 lentes. Excesivamente cara para el mercado ecuatoriano, pero al parecer apropiada para el mercado indie de los países desarrollados. Debemos tener en cuenta que existen cámaras de estudio con sensores de 2/3" que cuestan más de $100 000. Aquí dejo una promo sobre esta nueva belleza donde entrevistan al director de foto del corto anterior.

10.2.11

The Story Beyond the Still

En un post anterior ya había hablado acerca de "The Story Beyond the Still", el concurso organizado por Canon y Vimeo sobre cinematografía HDSLR. La semana pasada en el Sundance Film Festival, se estrenó el octavo y último capítulo de este concurso.

Este corto fue escrito por los directores de los 6 episodios anteriores, lo dirigió Vincent Laforet y la fotografía la manejó Joe DeSalvo. A continuación dejo el video final "Corridors" y un trascámaras. Si no vieron los capítulos anteriores, o quieren volver a verlos todos juntos de corrido, la historia completa está aquí. 



El premio mayor sinceramente para los 6 ganadores, fue la oportunidad de estar en el set de Laforet, ver cómo trabaja, preguntar y aprender de él. Realmente envidiable y admirable. Ryan Booth, uno de los afortunados, escribió un post donde explica cómo fue la experiencia. HD Video Pro tiene también un artículo sobre el concurso, donde ha entrevistado a los participantes, recomendado.

4.2.11

¿Qué cámara comprar?

Escribo este post como terapia para ordenar toda la información y elegir yo mismo. Esta es una decisión sumamente subjetiva; sería como decirle a un pintor qué pinceles debe comprar. La única respuesta correcta es: con los que se sienta más cómodo y sirvan a sus necesidades. Sin embargo sí hay varios factores que considerar y tener en cuenta antes de comprar herramientas; especialmente si es una cámara que te la estás comprando con los ahorros de mucho trabajo.

Escribo desde mi posición de realizador independiente aspirante a videoasta de profesión, así como desde la realidad económica y profesional del Ecuador. Por esta razón he limitado las opciones a cámaras prosumers  de no más de $5000. Estas son las cámaras que conozco, de las que me interesa (más) leer, y las que eventualmente compraría. Cuando tenga plata para una Alexa, las analizaré.

Decidirse por una cámara depende tanto del presupuesto como de para qué será usada. Para no confundirme y que sea más fácil elegir he dividido las descripciones según categorías: 3 según presupuesto y 2 según trabajo. Según presupuesto las separé en: menos de $2000, entre $2000-$3000 y más de $3000. Según trabajo, osea según para qué serán usadas las separé en: cámaras de video propiamente dicho y HDSLR. La diferencia es que generalmente una cámara de video es "todo terreno": sirve para bodas, cumpleaños, cortos, noticias, documentales, ficción, etc; es decir situaciones tanto controladas como no controladas. Las HDSLR si bien dan una imagen espectacular, difícilmente podrán ser usadas en situaciones no controladas.

Estas son las cámaras que a mi me han llamado la atención, seguramente faltan muchas. Así mismo analizo solamente los factores que me harían decidir a mi y tal vez se me pasen algunos datos importantes. En todo caso aquí vamos. Espero que esto le sea de ayuda a alguien.

Cámaras de video.
Más de $3000.-
Si mi presupuesto fuera de más de tres lucas, yo miraría tres cámaras: la Panasonic HPX-170, la Sony Z5 y la Canon XL-H1. Las tres son excelentes cámaras bastante usadas en el ámbito profesional. 
La Z5 y la XLH1 vienen con un zoom 20x, aunque la XLH1 tiene lentes intercambiables lo que le da una ventaja. La HPX en cambio viene con un zoom 13x lo cual podría ser una desventaja si tu trabajo requiere de distancias focales mayores a 400mm. Sin embargo la HPX tiene zoom manual mientras que las otras dos tienen zooms servos es decir que la rueda del zoom reacciona electrónicamente al movimiento, algo que no es tan del agrado de los camarógrafos profesionales.

La Z5 y la XLH1 graban en cassette MiniDV; lo cual para mí haría que queden descalificadas inmediatamente pero hay muchas personas que prefieren la cinta, especialmente si piensas alquilar la cámara. La HPX-170 por su parte graba en tarjetas P2, que son muchísimo más rápidas y eficientes que la cinta, pero su precio va acorde a su velocidad.

La Z5 y la XLH1 graban HDV, mientras que la HPX graba en DVCProHD. Esto para mi es un factor sumamente importante. El HDV es un formato que me ha traído muchos problemas. El DVCProHD es mucho más estable, menos comprimido y tiene un sampleo de color de 4:2:2 mientras que el HDV tiene la mitad. Como mi trabajo incluye cortar cromas y hacer bastantes cosas en post el DVCProHD sería una ventaja enorme.

Las 3 cámaras tienen sensores de 1/3". Sin embargo la Z5 tiene sensores CMOS, mientras que la HXP y la XLH1 tienen sensores CCD.  Si tu trabajo incluye grabar con cámara al hombro, objetos en rápidos movimientos o eventos con flashes; un sensor CMOS te puede traer muchos problemas (especialmente la imagen gelatinezca ocasionada por el rolling shutter)

Las 3 pueden grabar 1080 a 30 cuadros por segundo, entrelazado o progresivo. Las 3 pueden grabar a 24 cuadros progresivo, que es un factor muy importante para quienes buscan imitar el cine. Pero solo la HXP-170 puede grabar a 60 cuadros progresivos en 720p, que es algo bastante útil para hacer cámaras lentas de mucha mejor calidad.

En conclusión aunque la XL-H1 sea la hermana High Definition de la Canon XL-1s, una cámara bastante recordada en los tiempos DV y que me gusta bastante; si yo contara con el presupuesto me compraría una Panasonic HPX-170. Tarjeta P2, formato DVCProHD y 720/60p son algunas ventajas que me hacen decidir inmediatamente.

$2000-$3000
Este es mi presupuesto actual real, y hay varias opciones por considerar. De Panasonic tenemos la HMC-150 y la HVX-200, de Canon la XH-A1, de Sony la famosa HVR-Z1 y de JVC la HM100.
La Canon viene con un zoom de 20x, la JVC de 10x y las otras tres comparten un 13x. Sin embargo la HMC tiene un lente más angular, empezando en 28mm mientras que la HVX y la Z1 empiezan en 32.5mm. De igual modo la HMC tiene un zoom manual, mientras que las demás tienen zoom servo. Incluso la HM100 comparte la misma rueda tanto para zoom como para el foco.

La Sony y la Canon graban HDV en MiniDV, la JVC en XDCam EX y la Panasonic HMC en AVCHD. Todos estos son codecs son Long GOP y tienen un sampleo de color de 4:2:0. En este caso la HVX200 tiene una enorme ventaja al grabar en DVCPro HD que es un codec IntraFrame y con un sampleo de color de 4:2:2. Así mismo el DVCPro llega a 100mbps mientras que el XDCam solo a 35mbps y el HDV a 25mbps, lo que representa mucha menos información en la imagen. La única desventaja nuevamente es que al grabar en tarjetas P2, el precio aumenta considerablemente. Por otro lado la HM100 tiene la opción de grabar XDCam EX en un wrapper QuickTime lo que lo hace extremadamente fácil de editar si utilizas Final Cut.

Estas cinco cámaras comparten sensores CCD, pero el sensor de la HM100 es de 1/4" mientras que el de las demás es de 1/3". Esto representa menor capacidad de trabajar en situaciones de poca luz generando mucho ruido. Un sensor más pequeño también significa una mayor profundidad de campo, lo cual puede ser una ventaja o desventaja según como lo mires.

Todas estas cámaras graban 1080i a 30 cuadros entrelazado y progresivo. Así mismo, todas menos la Z1 son capaces de grabar a 24 cuadros e incluso a 60 cuadros en modo 720p. Pero solamente la HVX200 tiene la capacidad de grabar con framerates variables (12, 18, 20, 22, 24, 26, 30, 32, 36, 48, 60)

Mi conclusión es que si quieres una cámara que no te complique la vida, que grabe benito y se edite fácil, cómprate la HM100 e instala Final Cut. La Sony Z1 queda descartada, aunque podemos encontrar a su gemela bastarda: la Sony FX1 por bastante menos precio y es exactamente la misma cámara pero sin entradas XLR para micrófono (tienes que conectarlo vía mini plug 1/8") Esa si podría

Mi cámara preferida en este rango es la HVX200. Nuevamente las tarjetas P2 y el DVCPro me hacen elegirla. Esta cámara vendría a ser la hermana High Definition de la DVX100; pero da la casualidad de que la DVX fue famosa por ofrecer 24 cuadros por segundo y video progresivo a un precio accesible para realizadores independientes. Por esta razón se dice que la verdadera sucesora de esta leyenda es la HMC-150.

La Panasonic HMC-150 es la cámara que recomiendo y que tal vez me compre pronto. Es más barata que la HVX-200 y graba en tarjetas SDHC que son tremendamente más económicas que las P2. La única falencia es que graba en AVCHD, pero cuenta con muchas de las herramientas de cámaras más caras (incluso tiene un waveform igual que la HPX-170 que la HVX-200 no tiene)

Menos de $2000
Esta es tal vez la categoría más difícil. Conseguir una cámara barata que haga todo lo que nosotros queremos que haga es complicado. Al sacar un producto barato, generalmente enfocado en los consumidores, se tienen que sacrificar muchas opciones importantes. Por menos de $2000 hay dos cámaras que realmente han revolucionado el mercado semi-pro: la Sony HDR-FX7 y la Panasonic HMC-40. Ambas son las versiones económicas de cámaras que ya mencioné arriba: la Sony HDR-FX1 y la Panasonic HMC-150 respectivamente.
La Sony viene con un zoom 20x mientras que la Panasonic solo con 12x. Ninguna de las dos son lo suficiente gran angulares (38mm y 40mm) así que el hecho de tener un buen tele (700mm) vendría a ser una ventaja para la Sony. Ambas tienen una rueda de zoom servo y no manual, sin embargo la FX7 tiene una rueda para el zoom y una para el foco mientras que la HCM40 comparte la misma rueda para las tres funciones (incluído el iris, y seleccionables mediante un menú).

Nuevamente una gran diferencia es el formato de grabación. La FX7 graba HDV en MiniDV mientras que la HMC graba AVCHD en tarjetas SDHC. Debemos recordar que si bien ambos codecs son Long GOP, 4:2:0 y 25mbps; el AVCHD es 1920x1080 real, mientras que el HDV es 1440x1080 con pixeles no cuadrados.

Las dos cámaras comparten 3 sensores CMOS de 1/4" lo cual los hace poco sensibles a situaciones de poca luz. Ambas graban 1080/60i pero solamente la Panasonic es capaz de grabar 24 cuadros progresivos, así como 60 cuadros por segundo en modo 720p.

Mi voto en esta categoría va para la Panasonic HMC-40. La FX7 tiene mejores controles manuales y más botones de acceso directo, pero el hecho de que sea tapeless, y pueda grabar 24p y 60p hacen que prefiera la HMC-40. Además la FX7 carece de entradas de micrófono XLR así como de filtros ND.


HDSLR.
De esta categoría no puedo hablar mucho. Solamente en un par de ocasiones he visto trabajar una DSLR en modo video. Recomiendo leer esta guía sobre cinematografía con cámaras de fotos. En resumen si tienes más de $3000 piensa en la Canon 5D Mark II, que hasta ahora es la favorita de los entendidos.

En este caso, no creo que sea lógico invertir máss de $1500 en una cámara que luego necesitará una infinidad de accesorios para funcionar en todo su esplendor. Por esta razón, limito mis opciones a tres cámaras: la Canon T2i, la Canon 60D y la Panasonic GH2. Sobre cuál escoger, aquí está analizado en detalle.
Yo me quedaría con la Panasonic GH2. Las opciones 24p y 60p me hacen elegirla, así como la supuesta mejora en el video que elimina el moiré. Otro dato importante para preferirla es el hecho de que esta cámara puede trabajar con lentes Canon FD, que son extremadamente baratos por ser antiguos, manuales pero buenos.

Extra.-
Hay una cámara que me llama muchísimo la atención y no entra en ninguna de estas categorías. Es la Panasonic TM700. Es una cámara consumer, casera, "de cumpleaños" como dicen por ahí, sin embargo tienes muchas opciones bastantes seductoras.
Aunque no lo creas, esta camarita es la única de las aquí nombradas capaz de grabar 1080/60p. Generalmente las cámaras que pueden grabar a 60 cuadros por segundo, lo hacen a 1280x720 pero esta lo puede hacer a 1920x1080. Además también puede grabar en 24p nativamente. Estas son dos características de por si suficientemente valiosas.

Por otro lado, aunque es una cámara que puede entrar en una mano, igual cuenta con modos de foco y exposición manuales. ¡Incluso tiene una rueda de enfoque! También cuenta entre sus opciones cosas muy interesantes como el focus assist y el modo de timelapse.

Lamentablemente también graba en AVCHD y tiene sensores CMOS de 1/4" lo cual significa ruido en situaciones de poca luz y gelatineo en situaciones de mucho movimiento.

¿Conclusión?.-
Considero que la TM700 es una gran opción. Actualmente tengo una GS-180 a la cual le compré un adaptador para lentes 35mm. Con buena iluminación y sabiéndola manejar da buenos resultados, imagino lo mismo en HD a 60 cuadros y me entusiasma bastante. Sin embargo yo ya grabé la mitad de un documental con una cámara consumer y se lo fastidioso que es tener todos los controles manuales dentro de menús y submenús en vez de botones reales y prácticos. Es algo que simplemente no pienso repetir. Si voy a comprar una cámara, tiene que tener controles físicos.

Como dije, tengo un adaptador de 35mm por lo que tengo un juego de lentes Canon FD. Poder usarlos en una cámara con un sensor realmente más grande y sensible a la luz es algo que también me entusiasma mucho. Me encantaría comprar la GH2 pero no sería práctico en lo absoluto. Yo necesito una cámara que se ponga a camellar sola; desde grabar un video institucional o un documental callejero y nocturno hasta un set en croma. Tenía en la mira a la HPX-170, sin embargo soy consciente y prefiero quedarme con la HMC-150 y el resto invertirlo en micrófonos, trípodes, luces, etc. Siempre hay que recordar que la cámara es solo una parte del equipo necesario.

27.1.11

Calibrated {Q}

A veces nos olvidamos que las grandes marcas, son empresas, manejadas por personas igual que cualquier otro negocio. Tal vez podamos personificar a Apple a travez de Steve Jobs, pero nos cuesta bastante pensar que detrás de Sony, Canon y JVC hay humanos tomando decisiones, buenas y malas.

La HM100 de JVC se podría decir que es una cámara casera con opciones profesionales. Este tipo de productos obviamente van apuntados a quienes carecemos de presupuesto. Sin embargo hay varios contras que tuvieron que decidirse para crear una cámara así. Para que sea barata debe ser más pequeña y usar elementos más baratos. Al ser pequeña, hay varias opciones que se deben sacrificar, como tener menos botones, menos controles manuales, etc. Pero mucho más importante es que el hardware está limitado a un codec casero debido a que procesar un codec más pesado generaría más calor y la cámara simplemente no soportaría.

JVC hizo una alianza con Sony para que sus cámara grabaran en formato XDCam EX. Aparte como estaban apuntando al mercado casero, querían algo que sea touch-n-go en cuanto a la edición. Acordaron con Apple una forma que la cámara grabe XDCam dentro de un wrapper QuickTime. Sin embargo como todo se trata de estrategias de ventas, Apple negoció para que el único software que pueda manejar ese codec en ese wrapper sea Final Cut. Ahí está el problema, porque perdían a todos los consumidores que no son usuarios Mac.  La gente de JVC decidió aceptar esa condición, pero también desarrolló una forma en que la cámara pudiera grabar tanto en .mov como en .mp4 para quienes no usamos Final Cut.

Actualmente edito para una productora cuyo presupuesto era bastante limitado, por lo cual compraron estas cámaras. Como en este medio seguimos acostumbrados a grabar, grabar, grabar y luego pensar; lo más común es que graben todo sin preguntar a los encargados de postproducirlo y luego buscar soluciones contra reloj. En este caso me hubieran ahorrado un montón de tiempo, con tal solo grabar en .mp4, guardando las carpetas originales y teniendo un buen script; en vez de renombrarlas según el temario del programa.

No me voy a comprar una Mac en este momento, ni voy a cambiar todo mi flujo de trabajo solo por un cachuelo, así que en teoría estaba ahorcado. Quien me contrató, luego me dijo que nunca habían conseguido que alguien en PC edite su material. Por suerte la gente de Calibration Software, ha creado un decodificador que permite leer los archivos .mov que fueron creados como "Apple only" en una computadora con Windows. No solo me permite visualizarlos desde el explorador, sino que permite que todo software que tenga acceso a archivos .mov también pueda interpretarlos. Esto me solucionó muchísmos problemas, ya que también me permite transcodificar los archivos XDCam a DNx145 o ProRes422 que son formatos mucho más estables. Este programa en particular tiene muchas capas de video y post, gráficos, zócalos, corrección de color, etc y renderizar eso en un formato Long-GOP (como el XDCam) iba a ser simplemente un dolor de cabeza.

Si utilizas una PC, editas en Avid o en Premiere y te entregan el material en XDCam o en DVCProHD, los productos Calibrated Q son algo que debes comprar de ley.

26.1.11

La cinta debe morir.

Hoy, después de casi un año trabajando exclusivamente en formatos de video en memorias, me tocó capturar un cassette HDV y comprobé lo que me negaba a creer: la cinta debe morir. El flujo de trabajo en cassette es lento y entorpecedor. Tener que capturar algo en tiempo real es demasiada pérdida de tiempo. Complicado es estar adelantando y retrocediendo para escoger partes pre-seleccionadas. Sin contar que se te puede dropear el cassette y si no tienes una buena VCR hacer eso jamás será muy preciso que digamos.

Estoy pensando en comprarme una cámara semi-profesional. Tenía en mente la Canon XH-A1, porque graba en cassette, y el cassette es barato, bastante barato. Sin embargo, ahora sin duda esta cámara queda descartada y me inclino por cualquier cámara que grabe en tarjetas de memoria sean SDHC, P2 o SxS. El flujo de trabajo con tarjetas de memoria es sumamente rápido. El único problema es la inmensa cantidad de codecs y wrapers que hay en el mercado HD, pero con el software y hardware indicado esto es lo de menos.

En mi corta experiencia he tenido la oportunidad de trabajar en diversas producciones nacionales, he editado tanto series como reportajes de programas en vivo. Considero que trabajar con cinta es útil para los programas en vivo. Cuando tienes una nota sin editar que sale al aire en 15 minutos, o cuando llega un reportero con la última noticia, no tienes tiempo de subir todo el material, vas adelantando, subiendo pedazos, prácticamente editando sobre la marcha. Lo importante es que la nota salga, el resto es lo de menos y trabajar en cassette talvez ayude a llevar ese ritmo. En producción dramática sin embargo, sí nos beneficiamos inmensamente al trabajar con discos XDCam y tarjetas P2.
Antes subir los 90 minutos grabados, se demoraba 90 eternos minutos. Eso si lo subías de corrido; si ibas cogiendo el timecode y separando cada toma de cada escena, se te llevaba toda la mañana solo en subir y organizar el material. Ahora subir los 90 minutos grabados se demora menos de media hora, y todos los clips vienen separados y numerados. Antes el departamento de programación nos devolvía algunos programas másters porque la cinta se había dropeado. Ahora con una novela del doble de capítulos, ni un solo disco máster fue regresado.

Pero la ventaja suprema desde mi punto de vista, de por qué es mejor grabar dramatizados en memorias que en cinta es el timecode. Una de mis herramientas favoritas del Media Composer es el Log en el modo de captura. En vez de ir capturando escena por escena, lo que yo hacía era loggear (marcar in y out) todas las tomas de determinado capítulo y luego dejar que la máquina capture todo automáticamente mientras yo me iba a desayunar con la gente del noticiero. El problema era que generalmente al regresar en vez de ver el trabajo terminado, veía un mensaje de error que indicaba que había un salto en el código de tiempo.

Estos brincos son muy comunes y se ocasionan en el momento que uno detiene el cassette, lo retrocede, lo vuelve a avanzar tratándo de ponerlo "a punto" y vuelve a grabar. Como en dramatizados el director está constantemente chequeando lo que grabó, es uno de los errores técnicos más vistos en televisión. Pero el problema real no es que me haya tocado capturar cada escena manualmente, sino que una vez borrado ese capítulo, eliminábamos toda posibilidad de reedición futura.

Ahora que trabajamos con discos XDCam, yo puedo borrar el material en bruto sin remordimiento porque mientras conserve mi timeline con su respectivo EDL, puedo indicarle a la máquina que haga un batch import y ésta me empezará a pedir disco por disco y a subir clip por clip armando automáticamente el capítulo que ya habíamos borrado hace 6 meses. Esta opción es imprensidible. Ahora el director puede revisar cualquier toma en cualquier momento, cuantas veces quiera, sin que los editores lo odiemos. Y aunque es verdad que a los discos y las tarjetas también se les puede dañar el código de tiempo, esto ocurre por otras razones y es muy poco probable. De casi 200 discos que he usado en este proyecto, solo 1 me dio problemas; antes era todos los días. Por eso la cinta debe morir.

PD: el truco para salvar un cassette con código de tiempo malo, es copiándolo entero a una cinta nueva. De este modo se genera un nuevo timecode de corrido, sin saltos. El detalle es que necesitas otro cassette, dos players (una para rodar el original y la otra para poner a copiar el virgen), se demora otros 90 minutos, y habría que sacar un nuevo script. Lo bueno es que cuando manden a reeditar ese capítulo bien puedes estar almorzando (con) una reportera, mientras la máquina hace el resto,

13.12.10

Mi animación favorita de todos los tiempos.

Sí, no es la gran cosa. De hecho es bastante simple. Pero aún así es el trabajo que más me gusta de todos los que he hecho durante este tiempo. Personalmente este videíto significa mucho. Significó mucho en el momento de su realización y años después obtuvo un significado mucho mayor y más verdadero.

Fue la primera animación que me propuse hacer de verdad, y la terminé porque la sentía mía. Y la guardé. Muchos experimentos anteriores y posteriores quedaron a medias, o se perdieron por falta de ese feeling.

Con este video decidí qué quería ser y hacer de mi vida. Es como cuando un adolescente coge una guitarra, compone su primera canción y sueña con ser cantante. Eso, pero en animación.
Técnicamente esta animación representó un reto inmenso. Fue hecha en el 2005, cuando aún estaba en el colegio. No tenía idea de cómo se hacía algo así y el único software que había aprendido a manejar al braveo era Corel Photopaint, en el cual "diseñaba" volantes para conciertos de rock imaginarios.

Lo dibujé con pluma, lo escaneé en la computadora de mi abuelo, y lo pinte en Photoshop cuadro a cuadro. Recién había descubierto los imprescindibles Layers. No sabía cómo hacer uno nuevo, sino que creaba un sólido para que se cree automáticamente y luego lo ponía fuera de encuadre para que no estorbe. Sin embargo así conseguí separar los personajes del fondo, y me ahorré el temblor que tienen las líneas cuando son dibujadas nuevamente cada cuadro.

Tenía un archivo .PSD e iba exportando .JPGs según iba avanzando la animación. Un JPG por movimiento. Es decir "mueve un poquito, exporta, mueve otro poquito, exporta". Recuerdo repitiendo esto infinitas veces, hasta lograr que las estrellas parecieran tintinear.

La simulación de movimiento de cámara también fue un descubrimiento. Originalmente era un plano abajo, y otro plano igualito pero arriba. Luego vi que podía tener un archivo de determinadas dimensiones pero un dibujo mucho más alto para poder moverlo. Del mismo modo fue simulado el anochecer. Un fondo en degradè que lo moví para dar la impresión de que iba oscuresciendo.

Para ver cómo iba quedando le daba rapísimo a las flechas en la Prevista de Windows. Al final compuse todo en Windows Movie Maker, a 8 cuadros por segundo, porque eso es lo máximo que ese programa permitía.

No recuerdo cuánto tardé en completarlo, pero sí recuerdo los reclamos de una amiga porque solamente pasaba metido dibujando en vez de salir a joder. Quiero volver a hacer algo así: que signifique algo y que signifique por sí solo. Que no importe la técnica, ni el gusto, ni nadie más aparte de mi, y nada más aparte de mi placer por crearlo. Que no tenga grupo objetivo, ni límite de tiempo, ni precio, ni calificación. Quiero volver a hacer algo que me salga de las entrañas, como la poesía para los poetas.

Debo dejar de trabajar tanto. Voy a renunciar.

11.11.10

Que se vea "como cine"

El video y el cine son muy diferentes. He visto cosas excelentes tanto como en video como en película; sin embargo hay factores netamente técnicos que los distinguen. No se por qué pero "que se vea como cine" es un requisito más pedido de lo que yo esperaría. Este es mi análisis de los elementos que conforman este "look de cine" y por qué no me terminan de convencer.

Frame rate: esta es sin duda la diferencia más famosa entre video y cine. Justo en este momento estoy convirtiendo una secuencia de 60i a 24p "para que se vea como cine". El video en NTSC (que es el sistema que usamos aquí y en casi toda América y Japón) se graba a 30 cuadros por segundo, mientras que el cine corre a 24 cuadros por segundo. No es la gran diferencia, pero si uno presta atención sí se nota: el cine se ve un poco entrecortado el movimiento en comparación al video.

Por qué el video corre a un frame rate y el cine a otra pues es algo confuso de explicar. El sistema NTSC corre realmente a 29,97fps y esto se debe a cuestiones técnicas de ancho de bandas. ¿Es mejor el cine porque corre a 24fps? Pues lo dudo. La única razón por la que el cine corre a 24fps es para ahorrar dinero. Recuerden que en cine cada cuadro cuesta, el pietaje se mide en longitud, y comprar más pies de celuloide es caro (¿de dónde creías que venía la palabra pietaje?) Por esto quienes hacían cine en sus inicios buscaron el menor número posible de cuadros por segundo que el cerebro humano pueda interpretar como movimiento fluido. Este número era 18. Sin embargo cuando se incorporó el cine con audio, tuvo que aumentarse a 24 o las voces parecían fuera de sincronismo.Esto explica por qué películas como las de Chaplin se ven aceleradas: fueron grabadas originalmente a 18fps pero se las corre ahora a 24fps.

¿Por qué alguien preferiría 24p? Pues no lo se. A mi parecer por nostalgia pura. De echo creo que el render eterno que estoy haciendo es una pérdida de tiempo. Por lógica un video a 30fps se ve más fluido que a 24fps, y uno a 60fps se ve muchísimo más fluído aún. Sin embargo las pruebas a 60fps no han dado buenos resultados; las personas en quienes testearon, dijeron que se veía muy como "video" y poco como "cine". Por eso dejaron de hacer cine digital a frame rates más altos, y los videoastas se parten la cabeza tratando de grabar a 24p.

Shutter angle: este es un factor poco conocido pero que creo influye más en el modo cómo vemos una imagen en movimiento. El obturador en las cámaras de cine funcionaban con un semicírculo que rotaba dejando el fotograma a exposición durante una fracción de segundo. El tiempo que el cuadro está expuesto repercute en el motion blur que se imprime. Como el obturador tenía que tapar la entrada de luz para que el siguiente fotograma baje y luego volver a destapar la entrada de luz, el ángulo del semicírculo por lo general era de 180°. Lo cual indicaría una velocidad de obturación de la mitad del frame rate. Si grababan a 24fps, el obturador estaba a 1/48seg. Exponer el cuadro por menos tiempo sería posible usando un ángulo de abertura menor a 180°, pero exponerlo por más tiempo sería físicamente imposible. El video por su parte no tiene un obturador físico, sino electrónico. Por esta razón sí es posible usar velocidades menores a la mitad del frame rate (las cuales equivaldrían a más de 180°). Por ejemplo si grabamos video a 24fps, sí sería posible poner el obturador a 1/24seg. Esto crea más motion blur y la imagen se ve más videesca, razón por la cual siempre que se quiere imitar la imagen del celuloide se usa el obturador en la mitad del frame rate.

¿Por qué preferiríamos un obturador en 180°? Nuevamente por costumbre pura. Como ya dije antes, esto se ve representado en el motion blur de la imagen. Grabando video con velocidades más lentas se crea un efecto de filage en las imágenes, imposible de crear en el cine. Esto me parece una ventaja del video sobre el cine, ya que el obturador puede ser usado de manera muy creativa. Sin embargo cuando se busca imitar la imagen del celuloide, siempre se escoge un obturador basándonos en la regla de 180°.

Aspect ratio: Este punto es el que más me llama la atención. Considero que debe haber algo detrás de por qué el ojo humano prefiere algunos aspectos y otros no. Aún no descubro qué es pero algo debe haber. Confieso que prefiero los videos que están a 2.35:1 y la mayoría de gente parece también preferir este formato. A pesar de esto, me parece un sinsentido ver algo en formato widescreen, si tenemos un monitor normal de 4:3. Y menos sentido tiene todavía grabar a 4:3 y luego montarle barras para volverlo 16:9

¿Por qué reducir la resolución del video para ajustarlo a un formato widescreen? Realmente no se por qué se hace tanto esto. La única razón por la que existe el formato 16:9 es porque es el rectángulo exacto en el cual corvengen interior y exteriormente los otros formatos usados, desde el 4:3 usado en TV hasta el 2.39:1 usado en el cine anamórfico.

Ahora el video en alta definición ha elegido el 16:9 como formato estándar y todo se está grabando en widescreen. Cuando la televisión digital llegue a Ecuador esa será la norma, pero mientras la inmensa mayoría tenga televisores 4:3 no encuentro una razón verdadera para tener un video en 16:9 pues lo único que se logra es que la imagen sea más pequeña y tenga unas barras negras arriba y abajo.

Granulación: Esta es sin duda la más absurdas de todas, sin embargo muchísimas veces he visto videos que le ponen grano en postproducción para simular que fue grabado en película. A mi parecer esto es un error tremendo, ya que la granulación fue por mucho tiempo una faya que los cineastas buscaban evitar. El objetivo es generar una imagen lo más limpia posible, pero películas con ASAs elevados creaban este efecto.

La imagen producida químicamente se basa en diminutos puntos de haluro de plata fotosensibles, al igual que la imagen digital está basada en diminutos puntos llamados pixeles. Cuando una imagen generada a cierto tamaño, es reproducida a un tamaño mayor, estos puntos se ven. Es decir cuando vemos el grano en una película, se podría decir que la estamos viendo "pixeleada" pero químicamente. Como todas las películas son grabadas en formatos pequeños y reproducidas en formatos inmensos, esto es prácticamente la norma, y se volvió tan usual que ya ni siquiera se lo considera un error.

La ventaja real que tienen estos cristales de sal de plata frente a los pixeles, es que no están dispuestos uniformemente. Los pixeles en un sensor digital siempre están en el mismo lugar formando una cuadrícula, las sales en el celuloide cambian cada fotograma, por esto notamos los pixeles mucho más que el grano que parece bailar en la pantalla.

¿Pero por qué ponerle grano en postproducción a un video que fue grabado nítido? No hay razón lógica para eso. Simplemente que el grano nos recuerda al celuloide, las fotos que vemos con grano nos recuerdan a fotos análogas de ISOs altos, y un video con grano nos hace pensar que fue grabado en 16mm y lo asociamos falsamente con algo más artístico o personal. Es sentimentalismo puro.

Hay otros factores técnicos que diferencian el video del cine y que sí son ventajas reales como el rango dinámico del celuloide o que no produce ruido como el digital, pero estos son cosas que no pueden ser imitadas. La única forma de obtener esas ventajas es filmando realmente en cine.

Si grabamos en video y buscamos que "se vea como cine" debemos ser conscientes de que no hay ninguna ventaja real y tangible, más que el factor psicológico. Mi teoría es que así lo vimos desde chiquitos, así lo vimos en la pantalla grande, con grandes presupuestos y actores famosos; y nos acostumbramos a eso. Nuestro cerebro ve el movimiento semi strobeado del 24p e inconscientemente lo asocia con Hollywood, mientras que ve algo a 60i y lo asocia con la Feria de la Alegría; ve algo en 16:9 y lo asocia con producción de calidad, mientras que ve algo en 4:3 y lo asocia con el video casero del cumpleaños de tu tía.¡Quién diría!

29.10.10

Un verdadero homenaje audiovisual a Johnny Cash

Esto es algo sobre lo que tenía que escribir. Es simplemente increíble. Soy fanático de la rotoscopía, de los audiovisuales colaborativos y de la música de Johnny Cash. ¡Y este video junta las tres cosas! Como video musical para su último disco postmortem American VI: Ain't No Grave, se optó por una alternativa única.

El director Chris Milk, famoso por su corto Last Day Dream, optó por hacer de este un video colaborativo que solamente pudo existir gracias al internet y la globalización cybernética. Milk ya es reconocido por haber hecho video clips interactivos en HTML5 e incluso videojuegos musicales. Esta vez la idea del director fue darle vida a la música del "Hombre de Negro" a travez de sus propios fans.

La propuesta fue crear una página web donde cada uno de nosotros pudo dibujar uno o varios frames del video a su manera, y luego gracias a la ayuda de cientos de miles de frames dibujados, se creó una rotoscopía única en el mundo.

Lo más interesante es que los frames que se muestran, son seleccionados según el ranking en la misma página; por lo que el video "oficial" está cambiando constantemente. Como dicen los testimonios anteriores: esta animación es un ser vivo, se mantiene en movimiento y evolución constante, tanto así que es posible ver miles de versiones diferentes, una cada vez.

Me parece algo maravilloso. Un video musical que realmente tiene alma, que lleva impregnados los sentimientos e interpretaciones de sus propios admiradores en él. Yo también dibujé mi fotograma y me alegra saber que contribuí en un verdadero homenaje a una leyenda como Johnny Cash.

Si quieres contrubuir con tu dibujo o ver las otras versiones del video visita la página de The Johnny Cash Project donde además se encuentran todas las versiones de cada fotograma con los créditos incluídos.