Reportajes

Al principio de la red

twfirst

La primera película en streaming fue una película experimental titulada Wax: or the Discovery of Television Among the Bees y su retransmisión fue un completo desastre.

Wax no fue concebida para su retransmisión en streaming. En realidad, fue estrenada en primer lugar en 1991, en la culminación de siete años de trabajo de su director y protagonista, David Blair. La película, de 85 minutos de duración y coproducida con la televisión pública alemana, la ZDF, se estrenó en los hogares alemanes en primer lugar antes de presentarse en 26 salas estadounidenses.

David Blair

David Blair

Es una película de la que es imposible hablar con brevedad más allá de las líneas generales de su trama: Jacob Maker (el propio Blair) es un ingeniero nuclear que diseña sistemas de guiado de misiles, y que tiene la apicultura como hobby. Aquí la historia se complica: las abejas pertenecen a una línea especial procedentes de la antigua Mesopotamia, cradas por el abuelo de Maker (William S. Burroughs, en un cameo), y están capacitadas para entablar una conexión mental con su criador a través de imágenes de televisión. Las abejas encargan a Jacob restaurar “el equilibrio en el mundo” cometiendo un asesinato, uno que remite a su propio pasado y a su labor profesional como creador de misiles, en el marco del incio de la Guerra del Golfo de 1991.

El caso es que  Wax or the Discovery of Television Among the Bees parecía desde el incio una obra destinada a presentarse en un medio digital. La pieza combina documental, narración, imágenes de archivo y, como nota particular, imágenes creadas por ordenador, desde artísticas y creadas por el propio Rubin hasta topografías en 3D de vuelos militares. La propia película — con ideas inspiradas en Thomas Pynchon, el propio Burroughs, o Jean Baudrillard — se autoproclamó en la carátula de su edición doméstica como una “película independiente de ciencia ficción electrónica”.

Imagen 1

“Hay que tener en cuenta”, explicó Blair en 1992 durante una conferencia sobre Futurismo en San Francisco, “que cuando empecé la película en 1985 no existía la realidad virtual o, al menos, un término que la definiera. En ese momento la gente no tenía ni idea del realismo que estaban expresando estas simulaciones de vuelo que preparaba el Ejército. Más que hablar de la realidad virtual, Wax hablaba de los conceptos que acabarían generando interés en esta tecnología. Max Headroom, la serie de televisión, apareció por esa época”.

A la propia naturaleza de la película se sumó el interés que generó su estreno en circuitos minoritarios de Nueva York y la labor de difusión del propio Blair entre la comunidad artística. Todo sumado, fue suficiente como para trazar la idea de que Wax or the Discovery se convirtiera en la primera película retransmitida a través de la red. Su artífice fue un amigo de Blair, Vincent Bilotta, diseñador de equipo de efectos de vídeo para Silicon Graphics. El 22 de mayo de 1993, la película fue retransmitida a 400 organizaciones de Estados Unidos.

Bilotta y Blair describen el proceso en términos sencillos. “Conectamos el VHS a un procesador de imagen Silicon Graphics, conectado  a una línea T1 a través de una “mbone”. Este lenguaje para los más jóvenes resultará arcaico: una línea T1 es simplemente el cable de red empleado para comunicar los datos, bien fibra óptica o bien de cobre, que en aquella época era uno de los colmos de la velocidad (1,5 megas por segundo). La “mbone” es la llamada “multicast backbone”, la red de comunicación empleada para retransmisión en línea simultánea durante los años 90).

Una de estas empresas conectadas fue la sede de Sun Microsystems — ya extinta tras su adquisición por Oracle en 2010, como Silicon Graphics un año antes –, donde se trasladó el periodista del New York Times John Markoff, uno de los primeros testigos del cine en streaming. Una experiencia “histórica” que demostró, no obstante, que la tecnología todavía estaba en su infancia.

nyt

“Wax: Or the Discovery of Television Among the Bees”, relata Markoff, “comenzó retransmitida en un borroso blanco y negro. De hecho, no fue hasta que los ingenieros de Sun Microsystems pudieron encontrar la señal correcta que comenzó su retransmisión en color”.

“Y cuando finalmente comenzaron a aparecer las imágenes en los monitores de ocho pulgadas, queda bastante claro que la retransmisión digital todavía no está lista. En parte por la limitada capacidad de transporte de datos, que motivó que la película se viera a la mitad de resolución de una televisión normal”, relata el periodista. Hablamos aproximadamente de unos 240 x 240 píxeles.

“La banda sonora llegaba de manera intermitente, rota con frecuencia por lo que los ingenieros describieron como una ‘pérdida de paquetes’, que ocurre cuando internet se congestiona con mucho tráfico de datos”, añade Markoff, antes de rematar: “Y lo que más desoerienta es el hecho de que la película fue retransmitida a unos oníricos dos frames por segundo en lugar de los 24 originales, un factor que le acabó dando una calidad todavía más surreal que su original cinematográfico”.

Con todo, añade Markoff, “los ingenieros de Sun Microsystems consideraron la premiere como un éxito. ‘No terminamos de entender el problema que comporta el envío simultáneo de miles de imágenes digitales… aún. Si nos dan seis meses, funcionará de maravilla”.

Al estreno digital de la película le acompañó su propia página web, Waxweb, que Blair conserva entera, funcional y prácticamente sin retoques a día de hoy. En ella se encuentran recortes, entrevistas, vídeos, arte y, claro está,  la propia película (que por motivos de calidad os pasamos al final de este post en su enlace oficial de Vimeo). En ella se recuerda además otra primicia de Wax or the…, al tratarse, según sus palabras, de la primera película independiente que empleó un programa de edición no lineal, el Montage.

“Conseguimos pasar de blanco y negro a color en menos de una sesión: hicimos un salto generacional en menos de dos horas”, explicó Bilotta en su día, con proféticas palabras, al defender una tecnología “capacitada para que cada uno, en su hogar y en un futuro, sea capaz no solo de gestionar el márketing de la obra, sino su exhibición, distribución y postproducción, con innumerables beneficios para los cineastas independientes del mundo entero”.

Aquí, la película completa.

  • jacks_brain

    La peli en sí no pienso verla pero qué interesante todo lo que rodeó a este proyecto. Es la hostia estos artículos que os curráis de investigación en temas que de otro modo jamás me habrían llegado por ningún otro canal. Muchas gracias!

  • TassaDarK

    Cojonudo comentario. Yo soy informático de profesión y ni me había parado a pensar y poner en perspectiva la cantidad de factores que entraban en juego para que aquello funcionara. Fijo que las tarjetas de red ISA con conexión coaxial no ayudaban xDDD.

  • El Dogma

    Muy interesante y didáctico.

    Este artículo tiene actualmente solo tres comentarios contando el mío a casi un día después de su publicación, una cantidad de comentarios bastante escasa comparando la media de veinte, cincuenta o cien según la cualidad mediática de la noticia, pero para mí este es el contenido que le da interés y calidad a la página. ¡Seguid así!

  • GoldenEyeEDD

    Así que este es el hombre que “mató al cine”. Que no lo pille Nolan o los de Cannes, que no llega vivo al final del día.

  • MrBlogger

    Aquí se dan varias cosas distintas:

    Por un lado, el formato de video. Si alguien recuerda cómo eran los primeros contenedores y codecs de video de consumo “a nivel usuario” para los SO de la época dejaban bastante que desear. Por otro, la potencia de cálculo necesaria para reproducirlos (para hacernos una idea, podemos comparar la diferencia de calidad en cualquier videojuego que contenga secuencias FMV -full motion video- viéndolos en una saturn y una playstation, dado que esta última tenía chips específicos para reproducir vídeo y la primera no). Los contenedores y codecs de video evolucionaron muchísimo en poco tiempo, así como buscaron la eficiencia en cuanto a codificar más información -y por tanto calidad, tanto de imagen como de sonido- en menor espacio sin merendarse por el camino los recursos disponibles (en aquellos tiempos, ni la ram ni la potencia de las CPU de los eran gran cosa, ni siquiera en las potentes estaciones de trabajo de SGI o Sun).

    Por otro lado está todo lo relacionado con la red. Si bien los protocolos de internet ya estaban bastante establecidos y funcionaban correctamente, el hardware intermedio, tarjetas de red, etc. aún no estaban a la altura para permitir una comunicación fluída. Si a eso unimos que muchos protocolos necesarios para evitar o mitigar congestiones en la red estaban en pañales y que la parte de software no estaba diseñada para escalar al manejo de tanta información podemos hacernos una idea de que aquí teníamos otro cuello de botella. Incluso haciendo una comunicación broadcast o multicast (donde aprovechan mejor el ancho de banda, dado que todos los receptores están a la escucha del mismo mensaje que llena todo el canal, no cada uno pidiendo su parte de mensaje y cada parte comiéndose el preciado ancho de banda común, si no incluso causando interferencias al saturar el canal, aparte de la sobrecarga que conllevan los paquetes de control extra para cada receptor), es posible que saturara a los receptores o a los dispositivos intermedios (routers, switches, etc) y provocara una pérdida de paquetes.

    En comunicaciones, un paquete lleva un item de información, así como otra información necesaria para poder llevar esa información al lugar correcto (pensemos en que internet es como las ramas de un árbol, y tenemos que ir desde una hoja concreta hasta cualquier otra sin perdernos y sólo en las bifurcaciones de cada rama hay información de cómo llegar a las ramas cercanas o al tronco). Algunos protocolos (formas de comunicarse entre hojas) no garantizan que llegue toda la información (si quieres datos en tiempo real igual no te interesa que paquetes antiguos ocupen ancho de banda y son descartados en favor de unos más nuevos si estos llegan antes), mientras que otros si, pero no garantizan que llegue todo por la misma ruta ni en el mismo momento (dependiendo de las circunstancias de tráfico, igual dar un rodeo hace que llegues antes, como si fueran coches por una red urbana), así que suele incorporarse el número de paquete dentro de una serie, que es lo que permite al receptor ensamblar correctamente los datos que le llegan.

    Parece ser que este primer streaming primaba la inmediatez a que llegara toda la información porque querían hacer una comunicación en tiempo real (youtube y similares acumulan información antes de reproducirla, por ejemplo), de ahí que se perdiera tanta información, apenas se reprodujeran algunos frames sueltos y el sonido fuera a saltos (que aunque el sonido es una cantidad de información menor y si llegara lo que tuviera que llegar luego está el tema de la sincronización con el video, con lo que seguramente durante la reproducción se descartaría mucho).

    O sea, tenemos por un lado un software muy verde, un hardware muy limitado, un ancho de banda demasiado restringido y un internet que aún no se había enfrentado al trasiego de datos tan brutal que tendría que manejar no tanto tiempo después. Y aún así, este tipo de experimentos son los que hacen que todo evolucione, descubres los problemas, te planteas nuevos retos y se desarrollan nuevas soluciones.

    Y para este problema en particular, parece mentira la cantidad de palos que se tocan y el número ingente de ingenieros de distintas disciplinas y la cantidad enorme de horas y recursos que se han tenido que invertir para que hoy podamos hacer streaming en tiempo real a/desde dispositivos móviles de decenas de euros cuando en esa época equipos de decenas de miles de euros no pudieran apenas ver algo pregrabado de manera coherente.

Críticas

predator

Pintaba muy bien.

la monja

Terror perezoso sostenido en un escenario terrorífico.

equalizer 2

Tu amigo y vecino Denzel.

Captura

La bestia domada.

mi6

Pillad palomítas.

Twitter

Podcast