Coelho habla sobre Derechos de Autor

Paulo Coelho no necesita mayor presentación. El carioca guste o no es uno de los escritores más exitosos y prolíficos del momento. Desde la aparición de su primera entrega «Manual práctico del vampirismo» (1986) hasta la última «El vencedor está sólo» (2009) se han sucedido doce títulos que han situado a Coelho como uno de los escritores de más ventas en la actualidad.

De lo que no cabe duda, independientemente de la opinión que se tenga de su valía literaria, es que es nos encontramos ante un escritor que conecta con la sensibilidad de las mayorías y para sorpresa de algunos -me incluyo- anda espabilado en estas cosas de las nuevas tecnologías. Para muestra un botón, el discurso de Coelho en la Feria del Libro de Frankfurt (Frankfurter Buchmesse) nos presenta una visión acertada sobre los derechos de autor y el camino que tendría que seguir la industria editorial si quiere sobrevivir en este campo minado de redes P2P, espacio donde la industria musical viene cosechando estruendosos fracasos.

Para Coelho las tecnologías que tienen éxito son aquellas que permiten hacer circular las ideas y alcanzar a la mayor audiencia posible. Las Leyes se adaptaron a este contexto y no al revés. El concepto jurídico de derecho de autor creció de la mano con la era industrial, donde la producción y los costos de distribución eran relativamente altos.

Con la web, se impone una nueva forma de compartir las ideas que desafía al viejo modelo económico. Hay una diferencia, entre la web con las anteriores plataformas: la web no impone costos de producción y distribución. Las personas ya no son espectadores pasivos de las transformaciones de la sociedad, sino que interfieren en el proceso colectivo. Siempre y cuando se tenga una conexión a Internet, la criatura se convierte en el creador.

Coelho identifica bien que hay un elemento del que la mayoría de las personas no son plenamente conscientes: la gente está compartiendo lo que estima pertinente en forma libre y espera que lo mismo ocurra con todos los sistemas de comunicación de masas.

En este contexto la industria editorial parece más «protegida» en la web que la música o el cine. El libro se ha librado hasta ahora de la web, porque, en comparación con otros medios de comunicación, tiene ventajas en este nuevo entorno tecnológico. Los costos de producción son infinitamente más bajos que en el cine o la música. El negocio editorial se ha elevado gracias a un renacimiento por la lectura y lo que es más importante, todavía no ha visto la desmaterialización de la obra como un vaso de ideas.

Coelho señala que contrariamente a lo que dicta el sentido común la mejor fórmula para sobrevivir es el que más da, más gana. Sostiene esta afirmación con algunos ejemplos. Sus libros tuvieron un comienzo muy difícil en Rusia donde inicialmente las ventas fueron muy bajas. Con la aparición de una copia pirata digital de «El Alquimista» – que más tarde se incluyó en su web oficial – las ventas se dispararon de forma increíble hasta alcanzar el millón de libros. Hoy, han llegado a la marca de más de 10 millones.

El Coelho Pirata estuvo en la web durante tres años, siendo alimentado por lectores de todo el mundo, y nadie en la industria se quejó de ello, en parte porque las ventas siempre crecieron. Por ello una vez al mes desde el año 2008, sube uno de sus títulos, para ser leído en línea.

Para Coelho esta es la prueba viviente de lo que impulsa a la industria: el uso de la web como un mecanismo de promoción que se refleja en el mundo físico. Esta, es la idea detrás del sitio web Pirate Coelho, donde se compilan los enlaces torrent de todos los libros del autor para descarga. La gente puede decidir después si van a comprar el libro físico.

Finalmente, Coelho reflexiona sobre el futuro de los derechos de autor y la sostenibilidad de la industria editorial. No tiene una respuesta. Pero reconoce que aun cuando se gana la vida con sus derechos de autor tiene que adaptarse. No sólo por la posibilidad de generar una conexión más directa con sus lectores, sino también por el desarrollo de un lenguaje nuevo, basado en Internet, que será el idioma del futuro: directo, sencillo, sin ser superficiales. Internet enseña: no tener miedo de compartir las ideas.

Starbucks sin laptops

Negro como el tono de las almas del purgatorio es el café que me tomo por las mañanas y es sobre el café y laptops que trata este post. En marzo de este año andaba en un Starbucks de Madrid, creo que era el de la calle Princesa pero no podría sostenerlo con certeza. A un par de mesas de nosotros, en un espacio con capacidad para unas ocho personas, un grupo de estudiantes con rasgos típicamente asiáticos hacían sus trabajos de máster o pregrado. Era evidente, por la cantidad de cafés que se exponían sobre la mesa y la modorra que los abrumaba que ya llevaban varias horas allí y no los notaba con intenciones de moverse pronto. Al verlos, mientras atendía la conversación del círculo en el que estaba, pensaba si era adecuada la práctica de Starbucks de permitir indiscriminadamente el alquiler de un espacio y de una conexión Wi-Fi para atender negocios o tareas académicas a cambio de un café. La imagen me llevó instintivamente a otro tiempo y a otro lugar, menos sofisticado tal vez pero donde podemos encontrar incentivos similares.

Cafetería de la Universidad de Lima a fines de los años 80, andaba revisando unos apuntes para la segunda práctica de Mate I cuando el administrador empezó a desalojarnos sin compasión, nada de tontear sin consumir de 12 a 2. Era lógico, los espacios de la cafetería, abundantes durante toda la mañana, se volvían escasos a la hora de almuerzo y por lo tanto debía ceder del que disponía a algun hambriento compañero, el cual por otro lado estaba dispuesto a pagar más por el espacio que utilizaba graciosamente.

Chris Matyszczyk en Technically Incorrect (Should Starbucks ban laptops?) comenta cómo en el local de Starbucks donde es habitual, hay un hombre calvo que lleva siempre las mismas zapatillas blancas de tenis. Este hombre anda con una laptop abierta delante de él y administra sus negocios durante horas utilizando un dispositivo Bluetooth. Matyszczyk nunca lo ha visto comer y a lo sumo se despacha uno o dos cafés al día. Es decir, el alquiler de su «oficina» le cuesta alrededor de 7 dólares al día.

Este problema que noté casual y distraidamente hace casi seis meses en Madrid ha sido recogido también por Erica Alini en una nota que publica The Wall Street Journal (No More Perks: Coffee Shops Pull the Plug on Laptop Users). El artículo da numerosos ejemplos de establecimientos de la ciudad de Nueva York que vienen cambiando su política de permitir indiscriminadamente el uso de laptops, al menos durante las horas de mayor concurrencia. No es casual que esta nueva política se produzca justo cuando el número de quienes usan laptops en cafés y restaurantes parece haber aumentado de forma dramática.

Una razón que explica el incremento del uso de laptops en estos locales parece relacionarse directamente con la recesión económica. Muchas personas que han perdido su trabajo o ya no pueden pagar los alquileres de sus oficinas utilizan locales públicos con conexión inalámbrica como plataformas para hacer negocios, ello a cambio de unos pocos dólares al día.

La práctica de permitir el uso de laptops en Starbucks tiene unos diez años aproximadamente. Hace una década la famosa cadena de café no era muy popular y el uso de laptops tampoco se había generalizado. En este escenario, no parecía descabellado permitir a quienes tuvieran una laptop que permanecieran horas en el establecimiento, pues no generaban un costo de oportunidad excesivo a la cadena.

Podemos realizar en este extremo un análisis típico de la congestión. Durante determinadas horas del día -horas valle- un local de Starbucks tiene caracterísiticas de un bien público, pues al haber espacios vacíos el hecho que una persona apenas consuma un café al tiempo que despacha sus negocios con su laptop no rivaliza con el espacio ansiado por otros clientes. Sin embargo, durante las horas pico, ocurre lo contrario, y la mesa que ocupa el amigo calvo de Matyszczyk con su laptop no permite que otros clientes la puedan utilizar.

Es evidente que a Starbucks le interesaría que en las horas pico se encontraran en su local los clientes que van a realizar los consumos más elevados. Como no es posible obtener la información necesaria para hacer una discriminación perfecta en este sentido, un buen mecanismo para identificar a los malos consumidores es a partir del uso de laptops. Como señala con acierto Enrique Dans (Los portatiles no son bienvenidos) una laptop es sólo un mero indicador, como a Starbucks le interesa el índice de rentabilidad de cada mesa y durante las horas pico este se vuelve en un problema central, una buena medida para mantener este nivel alto es limitar el  uso de laptops durante estas horas.

Diferencias entre el Carterphone y el iPhone Jailbreaking

El año pasado se cumplió el 40 aniversario del famoso caso Carterfone (13 F.C.C.2d 420 (1968); 13 Rad. Reg. 2d (P & F) 597). Creemos que vale la pena dedicar pluma al tema. Básicamente porque no nos encontramos ante un proceso legal cualquiera -aunque en su momento pasó casi desapercibido- y también por el contexto actual, en el que se viene discutiendo la posible legalización del iPhone Jailbreaking.

El Carterfone fue un dispositivo inventado por Thomas Carter (propietario de la Carter Electronics Corporation con sede en Dallas) a fines de la década de los 60, el cual permitía conectar manualmente un sistema de radio móvil a la red telefónica pública conmutada (RTPC). En la práctica, el Carterfone era un sistema de comunicaciones privado independiente del operador de la red telefónica.

AT&T, la compañía telefónica más importante de los Estados Unidos en aquella época y la General Telephone & Electronics Corporation la última empresa de telecomunicaciones independiente del sistema Bell, se opusieron ferozmente a que este dispositivo se implementara. El mensaje a los clientes era sencillo, no debían utilizar el Carterfone ya que era un «dispositivo de interconexión prohibido». En este período los consumidores estadounidenses sólo podían comprar los aparatos telefónicos a AT&T gracias a que la Federal Communications Commission (FCC) en su Arancel Número 132 había señalado que: «Ningún equipo, aparato, circuito o dispositivo que no sea suministrado por la compañía telefónica se puede conectar a la o a las instalaciones relacionadas con el servicio proporcionado por la compañía telefónica, ya sea físicamente, por inducción o de otro tipo. «

Carter no se amilanó ante estas amenazas y llevó el caso a la FCC, la cual en 1968 -en una histórica decisión- revocó el monopolio de AT&T sobre los equipos terminales al considerarlo «indebidamente discriminatorio«. De esta forma, el regulador americano de las telecomunicaciones descartó el argumento de AT&T que proponía la necesidad de controlar todo equipo que se conectara a la red como una forma de garantizar su buen funcionamiento.

Es por ello, que desde 1968 se constituye la posibilidad de conectar dispositivos a las redes domésticas (right to attach devices) como un derecho del consumidor de las telecomunicaciones.

Este principio derivado del caso Carterfone ha tenido importantes alcances que son destacados sin mesura (ars technica: Any lawful device: 40 years after the Carterfone decision y BNET: Carterfone Changes Our World) por numerosos especialistas. La capacidad de construir un dispositivo para normalizar la interfaz de red (el enchufe de teléfono, conocido como RJ-11) permitió la aparición de un nuevo mercado de equipos terminales y el desarrollo de una  multitud de innovaciones como el fax, la contestadora automática y el módem se suelen citar como beneficios de la Decisión Carterfone. Algunos analistas (Wu – Wireless Net Neutrality: Cellular Carterfone and consumer Choice in Mobile Broadband) creen que el caso Carterfone impulsó la innovación de forma descentralizada en la medida que cualquier empresa o individuo puede construir una clavija telefónica normalizada, sin tener que obtener el permiso de la compañía telefónica.

El mes pasado vimos (iPhone Jailbreaking) como contractualmente Apple no permite crear o desarrollar aplicaciones que vulneren los niveles de seguridad del iPhone, además de limitar la distribución de aplicaciones fuera de su tienda iTunes Store. También señalamos que a pesar de estas restricciones, los usuarios del iPhone rompen los dispositivos de seguridad para instalar aplicaciones no autorizadas por Apple, práctica que se conoce como iPhone Jailbreaking.

Cabría preguntarnos, en este contexto, si el principio Carterfone es válido para sostener la legalidad del iPhone Jailbreaking.

Partimos del hecho de que el iPhone no es otra cosa que un teléfono móvil inteligente multimedia con conexión a internet. Es decir, por definición estamos ante un equipo terminal, tal como lo fue el Carterfone en su oportunidad. En dicha línea no podemos considerar al iPhone como una red de telecomunicaciones, sino tan sólo como un dispositivo periférico que además de transmitir señales de voz es capaz de agregar una serie de aplicaciones y contenidos multimedia. No parece razonable entonces que se impongan las mismas condiciones de libre conectividad a los equipos terminales conectados a la red, pues para desarrollarlos es necesario dinero, paciencia, suerte e inventiva. Si en el caso Carterfone la decisión de la FCC potenció las funcionalidades de la red de telefonía, no necesariamente el mismo efecto se produciría de extenderse este principio a los componentes de la red. Por el contrario es altamente que genere efectos del tipo free-rider y constituyan un freno a la innovación.

Michael Jackson y la patente «Smooth Criminal»

Fuente http://www.itsnicethat.com

Fuente http://www.itsnicethat.com

Siguiendo con la Jackson manía postuma, encontramos un dato muy curioso. Descubrimos que Michael Jackson no fue sólo un excelente bailarín, interprete, compositor y autor, sino también un ingenioso creador de inventos. Efectivamente, a través del blog Monkey Daemon, nos enteramos acerca de la patente bajo la cual Jackson registró el método para crear el efecto anti-gravedad que aparecía en su video «Smooth Criminal».  El resumen de la patente indica lo siguiente:

«A system for allowing a shoe wearer to lean forwardly beyond his center of gravity by virtue of wearing a specially designed pair of shoes which will engage with a hitch member movably projectable through a stage surface. The shoes have a specially designed heel slot which can be detachably engaged with the hitch member by simply sliding the shoe wearer’s foot forward, thereby engaging with the hitch member«.

Como indica un blog venezolano de culto a Jackson:

«El truco consiste en un par de zapatos especialmente diseñados por Jackson y sus colaboradores. Los zapatos se amarran fuertemente a la pierna (de forma oculta bajo una media falsa) y poseen una cuña en el taco, la cual permite aferrarse a un gancho pequeño en el suelo del escenario. De esta manera, el bailarín puede inclinarse hacia adelante hasta unos 45 grados dando la ilusión de antigravedad«.

Realmente sorprendente y revelador respecto del gran talento de Jackson no sólo en la producción de cada video, show o coreografía que realizara sino además el hecho de diligentemente recurrir al sistema de propiedad intelectual a efectos de proteger su invento. Así que la comercialización de los referidos zapatos sin la respectiva autorización puede convertirte en un «Smooth Criminal».

Como el Yamato en el Titicaca

El Yamato fue el mayor buque de guerra de la Armada Imperial Japonesa durante la Segunda Guerra Mundial. Este mostruo de acero flotante medía 256 metros de longitud y estaba armado con las mayores piezas de artillería embarcadas jamás en un buque de guerra.

Imaginemos que Bolivia, en honor a su inveterada reclamación marítima decidiera dotarse de una poderosa flota. No tiene mar. No importa, esta armada guardaría la soberanía del país altiplánico surcando las aguas del lago Titicaca. En este trance decide dotar a su armada lacustre de un buque de las dimensiones del Yamato. Esfuerzo inútil, no cabe duda.

Recientemente OSIPTEL ha aprobado por Resolución Nº 023-2009-CD/OSIPTEL, la «Metodología y Procedimiento para determinar a los Proveedores Importantes de Servicios Públicos de Telecomunicaciones sujetos a obligaciones establecidas en el Decreto Legislativo N° 1019«.

Por Decreto Legislativo Nº 1019, se aprobó en el marco de la implementación del Tratado de Libre Comercio con los Estados Unidos, la Ley de Acceso a la Infraestructura de los Proveedores Importantes de Servicios Públicos de Telecomunicaciones. Norma que fue reglamentada por la Resolución Nº 020-2008-CD/OSIPTEL (Disposiciones Complementarias de la Ley de Acceso a la Infraestructura de los Proveedores Importantes de Servicios Públicos de Telecomunicaciones).

En principio, el objetivo previsto por esta regulación es el establecer un marco normativo adecuado que permita el uso compartido de la infraestructura de telecomunicaciones de los llamados «proveedores importantes» a fin de reducir la brecha en infraestructura y promover la competencia en la prestación de los servicios públicos de telecomunicaciones. En tal sentido, como las obligaciones de compartición pesan básicamente sobre las espaldas de los llamados «operadores importantes» la Resolución bajo comentario describe cuáles son los mecanismos que utilizará OSIPTEL para su designación.

De acuerdo con el procedimiento aprobado, para determinar a los «proveedores importantes» se establecerán un conjunto de mercados de partida los cuales servirán para el análisis de los casos que se presenten, así como para el estudio de aquéllos iniciados de oficio por OSIPTEL. Para tal fin, se elaborará el llamado Documento Marco en el que se identificarán dichos mercados de partida.

Este Documento Marco incluirá la designación de un subconjunto de mercados para los cuales el OSIPTEL iniciará, de oficio, un análisis de proveedores importantes en dichos mercados, por ser considerados “mercados prioritarios” para el desarrollo de la competencia en el sector.

Como quiera que OSIPTEL pretende analizar todos los mercados de telecomunicaciones en el Perú, éstos se han agrupado inicialmente de la siguiente forma: i) comunicaciones de voz provistas desde ubicaciones fijas, ii) comunicaciones de voz provistas en ubicaciones móviles, iii) transmisión de datos provista desde ubicaciones fijas, iv) transmisión de datos provista en ubicaciones móviles y v) servicios de distribución de radiodifusión. A partir de estos mercados se determinarán los mercados relevantes existentes dentro de cada grupo.

Como se observa, OSIPTEL copia en parte la regulación europea en la materia contenida en un paquete de directivas comunitarias en materia de telecomunicaciones aprobadas el 2002 (Paquete telecom). De acuerdo con esta legislación corresponde a los diferentes reguladores nacionales europeos definir 18 mercados del sector de las comunicaciones con carácter periódico. A partir de dicha información los reguladores verificarán si estos mercados se desarrollan en un entorno de competencia efectiva y en caso esto no ocurra, impondrán las obligaciones necesarias.

Este mecanismo regulador del mercado si bien en esencia tiene una vocación desreguladora -lo cual es importante-, ha sido criticado en la medida que establece una serie de mercados rígidos en un entorno convergente y cambiante.

Pero este no es el problema en nuestro caso, nos encontramos ante una serie de instrumentos costosos y complejos de elaborar que únicamente tienen la utilidad declarada de imponer determinadas cargas de compartición de infraestructura. ¿Vale la pena tanto esfuerzo? Creemos sinceramente es como ver al Yamato en el Titicaca.

2008, aprobó las “Disposiciones Complementarias de la Ley de Acceso a la
Infraestructura de los Proveedores Importantes de Servicios Públicos de
Telecomunicaciones”, que constituye la norma reglamentaria para la implementación
del citado Decreto Legislativo Nº 1019;

¿Es Internet como una carretera?

Es común utilizar términos como autopista y carretera para referirnos a Internet. Este modismo se popularizó en la década de los noventa gracias a la iniciativa del senador y luego vicepresidente de los Estados Unidos Al Gore al describir una serie de infraestructuras oficiales de comunicación de los Estados Unidos.

Pues bien, uno de los grandes problemas que enfrentaron las carreteras desde el tiempo incluso del viejo Imperio Romano fue la congestión. Roma era una ciudad comercial, bulliciosa y cosmopolita. Con casi un millón de habitantes sus calles estaban inundadas de carruajes y vehículos de todo tipo, tanto que con los primeros problemas de congestión aparecieron también las primeras regulaciones.

Julio César intentó poner orden al caos y prohibió que los carros tirados por animales circularan por las calles principales por las mañanas. También limitó el tráfico de estos vehículos por el Foro desde el amanecer hasta las cuatro de la tarde, permitiendo la circulación sólo de los peatones. Esta última prohibición no alcanzaba a los carros dedicados al culto, a las obras públicas, a los espectáculos y a la limpieza urbana. Al parecer, estas regulaciones no solucionaron el problema.

Sobre el problema del tráfico y cómo solucionarlo, Stephen J. Dubner escribió un par de posts en Freakonomics (Why You’ll Love Paying for Roads That Used to Be Free: A Guest Post y primera y segunda parte). Partamos de la premisa que estamos ante un problema incremental, si los viajeros urbanos de los Estados Unidos perdieron 14 horas en congestiones en el año 1982, esta cifra había aumentado hasta 38 horas en el 2005.

¿Cómo solucionar este problema? Pues con el pago de un peaje. Algunos economistas defienden el cobro de un peaje al transporte relacionado con el nivel de congestión de la carretera. A más congestión, mayor peaje. Sin embargo, esta propuesta tiene sus detractores, en la medida que se presentan argumentos del tipo ¿Por qué deberían los conductores pagar por utilizar una carretera que se ha hecho con sus impuestos? y también ¿No es una medida discriminatoria que sólo favorece a los ricos?

Sin embargo, el hecho que no se cobre un peaje no significa que el viaje sea gratis. En lugar de pagar dinero, los usuarios de las carreteras congestionadas pagan con esfuerzo y tiempo para llegar a su destino. El uso de peajes ayuda a internalizar la externalidad de la congestión en la medida que reduce el número de viajes realizados en las carreteras más congestionadas en las horas pico, traslada el tráfico a rutas menos congestionadas e incluso hace que algunos opten por no viajar. De esta manera, se reducen los costos de congestión.

Para Dubner la mejor solución es incorporar peajes de tiempo real sobre la base de un análisis de las actuales condiciones del tráfico. Existen proyectos piloto de telepeajes en algunas carreteras de Minnesota y California. A través de sensores en el pavimento se controla el número y la velocidad de los vehículos en marcha. Un programa calcula el importe del peaje para atraer sólo al número de automóviles que garantice una alta velocidad en el trayecto.

Sin embargo, dado que medidas de este tipo son impopulares políticamente y los funcionarios no tienen ningún deseo de perder sus puestos, una opción más realista, es cobrar peaje sólo en algunos carriles. Los otros se dejan libres y tambien para la congestión. Los conductores tienen entonces dos opciones: esperar o pagar.

Tim Hardford en su conocido betseller «El economista camuflado«, realiza un análisis parecido. En Inglaterra, para conducir es necesario pagar un impuesto de suma fija llamado vehicle exise duty, sin embargo, la congestión persiste y ello no se debe a que el impuesto tenga un valor por cada viaje realizado muy barato, sino por el hecho que en realidad el único viaje que tiene valor es el primero, luego todos son gratis.

Si revisan los posts de Stephen J. Dubner y las páginas pertinentes del libro de Tim Hardford notarán que a la imposición de peajes en las carreteras se le hacen la mismas objeciones que a la gestión de tráficos en Internet. En los dos casos las críticas no parecen válidas. En ambos casos tenemos un problema de externalidades y si estas no se internalizan no se solucionará el problema de la congestión. En esta línea cabría preguntarnos ¿Por qué no son válidas las políticas de gestión de carreteras en las superautopistas de la información?

Diez años de El Código de Lessig

En 1999 el número de usuarios de Internet apenas superaba los 50 millones, hoy tiene más de mil millones. Es decir, si hace diez años sólo el 1,1 por ciento de los habitantes del planeta estaba conectado a la Red hoy esa cifra se ha incrementado hasta alcanzar un nada despreciable índice de 14,7 por ciento.

No vale la pena hacer un recuento de cómo era la Red hace dos lustros para comparar cómo es ahora. La mayoría de las personas, sobre la base de su propia experiencia, sabe cuales son las diferencias entre el Internet del año 1999 y el del 2009. Los contrastes son incluso mayores que la distancia fría entre el número de usuarios conectados hoy y el de hace diez años.

Es por ello la importancia del décimo aniversario de la edición en inglés del ya clásico e influyente libro de Lawrence Lessig, Code and Other Laws of Cyberspace (existe edición en español, El código y otras leyes del ciberespacio, Taurus, 2001). Si bien, cualquier reseña que se haga de este trabajo no puede dejar de advertir la obviedad de que Internet ya no es lo que era, tampoco dejará de destacar que, pese a ello, El Código sigue teniendo una enorme vigencia, lo cual es un mérito innegable de Lessig. Cuando esto ocurre en uno de los campos más dinámicos del mundo moderno, sólo puede deberse a dos situaciones: que nos encontramos ante un libro adelantado a su tiempo o porque está plagado de dogmática e ideología. La entrega de Lessig tiene las dos cosas.

Es cierto que los acontecimientos ocurridos desde la publicación del libro han hecho que se haya desfasado, sin embargo, ello no invalida en esencia la tesis de Lessig, por el contrario el tiempo pareciera haberle dado la razón. Situándonos en contexto, El Código pretendía cuestionar una serie de nociones profundamente enraizadas a fines del siglo pasado. Estas ideas, que podríamos llamar utópicas, nos decían que la Red se mantendría lejos de las garras del gobierno y de sus mecanismos de control tradicionales. Lessig trajo malas noticias, previó la posibilidad de un Internet controlado a partir de tecnologías para estimular el comercio apoyadas por la ley tradicional.

Para Lessig, Internet en sus orígenes no era un entorno inherentemente libre. Aunque era un espacio donde la ley estatal encontraba muchas dificultades para imponerse, esta situación, gracias a la arquitectura de la Red (código), era coyuntural. Un nuevo código podía hacer que Internet fuera permeable no sólo a la regulación estatal sino a algunos intereses privados lejos de los controles de la sociedad democrática.

Para evitar esta situación, Lessig proponía el diseño de una arquitectura que limitara el poder que pudieran ejercer los gobiernos y las empresas, y por lo tanto, que garantizara algunos derechos básicos, como la libertad de expresión o la privacidad. Este es el punto clave del libro, la diferencia entre el software propietario y el libre. Si el código está en manos de unas pocas personas, puede ser desarrollado de una forma tal que se asegure el control sobre sus usos, sin que sea posible poner límites a ese control. Por el contrario, si el código no es propiedad de nadie o lo es de muchos, se produce una suerte de propiedad comunal, donde se respeten los derechos fundamentales y es tierra fértil para la innovación.

Pero esta historia no termina aquí, existe nueva versión del libro, la cual como se señala en su Prefacio: «es una revisión de un libro viejo, de hecho, en Internet, es una revisión de un texto antiguo«. Nos referimos al Code version 2.0, escrito a partir de una Wiki alimentada por aquellos interados en participar. Puede descargarse en formato PDF y también puede comprarse en AmazonBarnes&Noble. Esto último, según eadvierte el autor en su blog, es «una sabia elección, ya que es más barata que la impresión del libro en la mayoría de los contextos».

La regulación de la (in)decencia, a propósito del caso FCC v. Fox

El 1 de febrero de 2004 se jugó la XXXVIII edición del Super Bowl en el estadio Reliant de Houston. Los campeones de la Conferencia Nacional, los Patriots de Nueva Inglaterra se enfrentaban a los mejores de la Conferencia Americana, los Carolina Panthers. Los Patriots vencieron por 32 a 29, adjudicándose la Liga Nacional de Fútbol (NFL) americano. ¿Alguien se acuerda del partido? Seguro que no, una crónica en español en esmas. Pero es una de las ediciones más controvertidas y recordadas del Super Bowl.

Durante el entretiempo, Justin Timberlake cantó Rock your body a dúo con Janet Jackson. La Jackson estaba vestida de cuero negro, con un ajustado corsé. Al final de la canción y justo cuando Timberlake cantaba «Cause I, gotta have you naked by the end of this song«, el ex novio de Britney Spears dejó a Janet Jackson con un seno al aire. Como suele ocurrir en los Estados Unidos en este tipo de casos las cámaras cambiaron de plano al instante y ningún locutor comentó el hecho. Pueden ver el vídeo  en Youtube. La Federal Communications Commission (FCC) impuso una multa de US$ 550,000 a la CBS por el incidente.

En los Billboard Music Awards del año 2002, transmitidos por Fox, Cher al ganar uno de los premios, obsequió algunos comentarios a aquellos críticos que le pedían el retiro por razón de su edad: «People have been telling me I’m on the way out every year, right? So fuck ‘em«. En los premios del año siguiente la presentadora, Nicole Richie, disertó sobre la dificultad de  «have you ever tried to get cow shit out of a Prada purse? It’s not so fucking simple«. También en el 2003 y en el marco de la entrega de los Golden Globe Awards, el lider de la banda U2, Bono, señaló al recibir su premio que esto era «really, really fucking brilliant«. En otro hecho, el programa policiaco NYPD Blue, transmitido por ABC, comenzó a incluir lenguaje vulgar en las voces de algunos de sus protagonistas, especialmente el detective Andy Sipowitz, utilizaba expresiones como «bullshit,» «dick,» y «dickhead«. Finalmente, durante el reality show de la CBS, Survivor: Vanuatu – Islands of fire, uno de los participantes se refirió a un colega como un «bullshitter«.

La FCC dictaminó, cambiando un criterio anterior, que las interjecciones fugaces de Cher y de Nicole Richie en los Billboard Music Awards eran indecentes. En los Estados Unidos existe una legislación que prohibe la programación de contenidos potencialmente indecentes entre las 10 de la noche y las 6 de la mañana. La Corte Suprema (en el caso de 1978, FCC v. Pacifica Foundation) declaró que, a diferencia de los libros o los periódicos, la emisión por ondas son excepcionalmente influyentes y omnipresentes en la vida de los estadounidenses, y que, por tanto, la regulación gubernamental de su contenido no viola la Primera Enmienda.

La CBS y la Fox cuestionaron la decisión de la FCC en los tribunales y en principio la decisión judicial les fue favorable. En el caso Janet Jackson (CBS Corporation v. FCC) la Corte de Apelaciones del Tercer Circuito fustigó la actuación de la FCC al considerar que ésta no puede cambiar una línea de acción sin advertirlo y motivarlo previamente. Razonamiento similar señaló la Corte de Apelaciones del Segundo Circuito en el caso Fox Television Stations v. FCC .

La FCC apeló ambas decisiones. El pasado 28 de abril, la Corte Suprema de los Estados Unidos falló (FCC v. Fox Television Stationsen favor de la política de la FCC aunque omitió pronunciarse sobre la posible vulneración de la Primera Enmienda. El caso Jackson todavía no ha sido resuelto.

Lo interesante de ambos casos, es que nos permiten discutir la racionalidad de continuar aplicando una regulación para las emisiones de radiodifusión (radio y televisión) en medio del fenómeno de la convergencia tecnológica. Tal como señala Adam Thierer (The Thechnology Liberation Front: Supreme Court Decision in FCC v. Fox (Part 3: The Majority Decision)) los niños que la Corte Suprema cree que la FCC protege están más tiempo en YouTube o en Hulu viendo imágenes potencialmente obscenas o escuchando lenguaje procaz.

La abundancia de plataformas tecnológicas de comunicación es el argumento que estaría utilizando la FCC para endurecer la regulación de los contenidos de radio y televisión, según señala tiene la intención de convertir estas señales en un puerto seguro de contenido indecente. No parece un argumento razonable, desde que la escasez fue la excusa que justificó la regulación de la radiodifusión antes de la aparicón de la convergencia.

Tras cuernos, palos

The Pirate Bay (TPB) es el mayor tracker de BitTorrent del mundo. Gracias a TPB es posible realizar búsquedas de material multimedia en archivos del tipo .torrent (enlaces a la red P2P de BitTorrent). Como ha sido ampliamente difundido por distintos medios (Pirate Bay Founders Found Guilty: One Year Jail Sentence, Likely To Appeal), un tribunal sueco (donde domicilia TPB) condenó hace un par de semanas a los titulares del sitio a un año de cárcel y al pago de 30 millones de coronas suecas (US$ 3 millones 724 mil dólares aproximadamente) por la violación de la legislación de los derechos de autor. Ya nos estaremos ocupando de esta decisión.

Pero los problemas para TPB no se detienen aquí. Pocos días después del cuestionado fallo de la justicia sueca, se reportó en Inglaterra que diversos operadores británicos de telefonía móvil estarían procediendo a bloquear la página desde su servicio de banda ancha (BT Blocking Pirate Bay To Dongle Users Due To ‘Adult’ Content). Aun cuando muchas empresas móviles restringen el acceso a estas páginas alegando que congestionan sus redes, aparentemente la medida se habría producido como una forma de protección a los usuarios menores de edad.

Un portavoz de British Telecom (BT says Pirate Bay block is ‘nothing to do with filesharing’) señaló que la razón del bloqueo, se sustentaba en la necesidad de regular este tipo de contenidos en un entorno de banda ancha móvil, pues a diferencia de los servicios de banda ancha en el hogar donde los contratantes son mayores de edad, los usuarios de algunos servicios de banda ancha móvil (como mobile broadband dongle) no necesitan tener más de 18 años. 

Este bloqueo se habría realizado en el marco del código de prácticas para la autoregulación de nuevas formas de contenidos en la telefonía móvil (UK code of practice for the self-regulation of new forms of content on mobiles) suscrito por las operadoras móviles británicas (OrangeO2T-MobileVirgin MobileVodafone 3) en enero de 2004. Este código obliga a las operadoras a restringir el acceso de aquellos contenidos considerados inadecuados para sus clientes menores de 18 años. 

Según el código, los operadores de telefonía móvil deben designar a un órgano independiente (Internet Watch Foundation) encargado de clasificar los contenidos comerciales inadecuados para clientes menores de 18 años. La clasificación debe ser compatible con los estándares utilizados en otros medios para la clasificación de material equivalente, como revistas, películas, vídeos y juegos de computador. 

Por defecto, todos los contenidos comerciales no clasificados como inadecuados para menores de edad no deben estar restringidos. Sólo podrán ser accesibles los contenidos vedados para menores de edad, una vez que el operador de telefonía móvil se ha cerciorado – a través de un proceso de verificación de la edad- que el solicitante tiene más de 18 años.

Uno de los grandes problemas de la telefonía móvil, es que a diferencia que los servicios contratados para el hogar como telefonía fija o la banda ancha, que suelen estar bajo algún nivel de control por parte de padres o tutores, en el mundo móvil los terminales son entregados libremente a los menores de edad de tal forma que éstos pueden utilizarlos sin ningún tipo de control.

En el Perú, dado el régimen de contratación restrictivo impuesto por el organismo regulador, sólo es posible contratar un servicio de telecomunicaciones si se es mayor de edad, con lo cual posible el acceso a menores de material adulto no tendría el mismo origen que en Inglaterra. Sin embargo, podría evaluarse la implementación de una medida de esta naturaleza dado que muchos padres contratan el servicio para entregárselos a sus hijos, los cuales podrían tener un equipo sin ninguna restricción a material adulto. Claro que en el Perú, al menos por el momento, los equipos con capacidad de banda ancha todavía no están al alcance de la mayoría.

¿Por qué fracasan las redes municipales?

En posts anteriores (Monticello, de la escasez a la abundanciaWi-Fi, las Administraciones Públicas y la CMT!Chim Pum¡ Internet y Carmen de la Legua-Reynoso y su acceso libre a Internet) hemos dedicado algunas líneas al tema del despliegue de infraestructuras públicas (básicamente con fondos municipales) para dotar a los hogares de acceso a Internet de banda ancha. Creo particularmente, en atención al rol subsidiario que hemos asignado al Estado, que constituye un error y que salvo algunas excepciones (bibliotecas municipales, colegios, universidades y algunas plazas públicas) estamos ante una actividad que deberiamos dejar en manos privadas. 

En el número 6 (2) de «The FTTH Prism» hemos encontrado un interesante artículo sobre el tema (Why Municipal Fiber Hasn’t Succeeded) de Robert Atkinson y George Ou.

Para Atkinson y Ou uno de los principales argumentos a favor de una banda ancha municipal es, que una red subvencionada adicional incrementa el nivel de competencia con lo que se logra una disminución de los precios. Sin embargo, éstos defensores no sostienen que las ciudades deben invertir en una nueva red eléctrica o en una segunda red de gas. La construcción de una «tubería» adicional para cualquiera de estos servicios costaría una cantidad enorme, superior a cualquier beneficio que genera una mayor competencia. 

La economía de la banda ancha no es diferente. La duplicación de una red cuesta una gran cantidad de dinero y, a menudo, no proporciona un mejor servicio. Los efectos de esta subvención se dejarán sentir tanto dentro como fuera de la comunidad. Una nueva red significará un menor número de suscriptores para los proveedores tradicionales. Estas pérdidas de ingresos lleva al proveedor tradicional a subir sus precios en toda la red. También se producirán menores inversiones en redes de próxima generación por parte de los operadores tradicionales fuera de la comunidad, ya que tendrán menos incentivos para apoyar estas inversiones. Es decir, tenemos una externalidad negativa para la sociedad en su conjunto. 

Los políticos municipales podrían argumentar que no les interesa el bienestar de los residentes fuera de su comunidad. Sin embargo, se pasa por alto el hecho que los precios de banda ancha son de naturaleza regional y no con base en una comunidad. Para que funcione la competencia no tiene que existir un competidor en cada calle. En la medida que las empresas no incurran en discriminación, siempre que existan dos competidores en una porción de la región, se disciplinarán los precios.

En Utah, en el Condado de Provo, la red «iProvo» de fibra de servicios municipales fue un fracaso financiero, tanto que las autoridades se vieron obligados a dar la red al operador de red privada Broadweave Networks. Otros once condados de Utah, formaron una coalición llamada Utah Telecommunication Open Infrastructure Agency (UTOPIA), la cual estuvo al borde del colapso financiero en el 2008, tanto que sólo pudo sobrevivir con impuestos adicionales y nada asegura que sea viable en el futuro. 

Estos modelos fracasaron por sobreestimar las tasas de penetración y subestimar la competencia. Si los proyectos municipales no pueden tener los suficientes abonados para cubrir sus gastos, los precios bajos sólo se pueden mantener subvencionados por otras fuentes. 

En Burlington, Vermont, tenemos a Burlington Telecom, que es considerada la más exitosa operación de fibra municipal de los Estados Unidos. Sin embargo, ofrece un menor desempeño a un mayor precio que el más importante proveedor de Fiber to the Home (FTTH) del país, Verizon. Burlington Telecom ofrece 8 Mbps por US$ 72 por mes en comparación con los 20 Mbps de Verizon a US$ 70 por mes. Esta diferencia de precios se puede atribuir a las eficiencias de escala. Los grandes operadores de red como Verizon operan redes telefónicas que les permiten gestionar las grandes redes de Internet sin costo adicional.

Mientras que la fibra municipal casi siempre representa una pérdida para la comunidad, hay ocasiones en que pueden estar justificadas. Ciudades que necesitan una red de banda ancha más rápida, sin embargo, debería considerar la posibilidad de disponer una red municipal como último recurso. Suponiendo que una comunidad tiene más de un proveedor de banda ancha, debería tratar de incentivar a sus operadores de telefonía o de cable para llegar a un óptimo rendimiento de banda ancha, y no una tecnología específica, como FTTH. Debe hacerlo mediante la participación en una asociación público-privada para financiar al menos algunos de los costos de la ampliación y mejora de las redes existentes. También podrían reducir las barreras regulatorias, tales como los derechos de vía o tributos municipales.