Antonio Rodriguez Lobatón

Abogado por la Universidad de Lima. Cursos completos en la Maestría de Derecho y Economía de la Regulación de Servicios Públicos de la Universidad Peruana de Ciencias Aplicadas. Profesor de la Universidad Peruana de Ciencias Aplicadas y la Pontificia Universidad Católica del Perú. Miembro investigador del Instituto Riva Agüero. Especialista en derecho de telecomunicaciones, competencia y regulación de servicios públicos.

¿Habrá una ley pro Net Neutrality en USA?

Cord Blomquist hace una polla (en el Perú lo que en otros lares es apuesta o lotería): en este año no se aprobarán las tan deseadas leyes que aseguren la neutralidad de la red. Esta profecía, aparece sustentada en un extenso post (Prediction 2009: No Net Neutrality Regulation) de OpenMarket.org, blog del Competitive Enterprise Institute. A continuación resumimos la posición de Blomquist no sin antes recomendar su lectura.

Para el autor el 2009 podría ver la muerte de las posturas en favor de la regulación de la Net neutrality y veremos a algunos de los más ardientes partidarios de la neutralidad suavizar sus posturas, pues parece obvio que las soluciones no neutrales son el mejor camino para hacer frente al aumento de los contenidos en Internet. 

La mayor útilidad neta de la neutralidad ha sido generar discusión política sobre la censura, la cuestión de la priorización de tráfico y sobre la arquitectura física de la Internet.

Censura. La historia ha demostrado que ninguna ley asegura que los proveedores de servicios se mantengan neutrales con relación a los contenidos. Es la acción pública la que ha forzado a los proveedores de Internet a caminar hacia la neutralidad. Como ejemplo, en setiembre de 2007 Verizon denegó una solicitud de la National Abortion Rights Action League (NARAL) para enviar un mensaje SMS a aquellos de sus miembros que habían autorizado su recibo. La decisión se interpretó como un ataque contra el movimiento. El clamor público generó un cambio en las políticas de Verizon, que finalmente concedió a NARAL la posibilidad de enviar sus mensajes y el mismo trato se dio a los grupos pro-vida.

Priorizar Tráfico. Un sofisticado proceso de priorización de datos ha acompañado el crecimiento de Internet, lo cual permite dar una respuesta a la dinámica de la demanda y reducir los abusos de prácticas como el spam. Los impulsores de la neutralidad creen que las técnicas de gestión de red son inaceptables. Sin embargo, el Internet comercial ha sido siempre un sistema de prioridades. Como ejemplo señala el caso de Comcast -que hemos seguido en este blog (Los seguidores de la Net Neutrality se anotan una victoriaComcast podría ser sancionada en agostoComcast incumplió las políticas de la FCC, pero no será multada), donde la operadora fue finalmente obligada a detener la práctica de bloquear el tráfico de BitTorrent y a asociarse con ésta para abordar el problema de la gestión de la red. La presión pública fue tan grande que Comcast cambió su política y aprobó un tope mensual de 250 gigabytes de tráfico para los usuarios.

Arquitectura de la Red. Internet está físicamente construido por muchas pequeñas redes. Estas redes intercambian datos entre sí para formar Internet. Este modelo de red, sin embargo, se ha construdo a través de lo que se conoce comúnmente como «lineas cortas» y «vías rápidas». Las líneas cortas son utilizadas por compañías como Akamai y Google para brindar un mejor servicio, colocando los datos cerca a los usuarios. Las vías rápidas permiten burlar rápidamente las vías con mayor tráfico. Durante los Juegos Olímpicos de Beijing, los servidores del Comité Organizador enviaban los videos de los Juegos sobre su propia red mundial de fibra óptica a los servidores de los proveedores de servicios de Internet. Los partidarios de la neutralidad creen que un acuerdo de este tipo representa una ventaja injusta a las empresas más poderosas.

Algunos partidarios de la neutralidad se están apartando de la causa. A pesar del reciente artículo del Wall Street Journal (Google se pasa al lado oscuro, ahora es elooG), que señalaba que Google estaba construyendo su propia vía rápida, fue inexacto (en realidad se trataba de una línea corta), la historia era en parte cierta. Muchos de los partidarios de la neutralidad como Microsoft, Yahoo y Amazon han cambiado de tono. Estas empresas están realizando acuerdos con proveedores de servicios de Internet para ofrecer sus contenidos de manera más eficiente.

La muerte de la reglamentación de la neutralidad representa el reconocimiento de que el tribunal de la opinión pública es mucho más rápido y justo que cualquier regulador. La política pública debe centrarse en asegurar que haya más lugares para los consumidores. Incrementar la competencia en los mercados de banda ancha a través de la flexibilización de las restricciones a las redes inalámbricas sería un buen comienzo. Ya sea a través de la ampliación de los bienes comunes o (preferiblemente) con la creación de propiedad privada sobre grandes franjas del espectro. No es necesario para ello una ley pro Net neutrality.

Born Digital

Born Digital es el nuevo libro de John Palfrey y Urs Gasser del Berkman Center for Internet & Society de la Harvard Law School como parte del progecto Digital Natives.

De acuerdo con las reseñas que se han hecho y de la información colgada en la web del libro, los autores intentan describir la generación de aquellos jóvenes nacidos después de 1980 (nativos digitales), es decir de aquellos que han crecido rodeados por la tecnología digital. Al contrario que las generaciones nacidas antes (inmigrantes digitales), los nativos digitales se relacionan socialmente, consumen información y ven al mundo condicionados por los medios digitales.

Según su web, el libro intenta responder a preguntas como: ¿Qué significa la identidad para los jóvenes que tienen docenas de perfiles y avatars en internet? ¿Tenemos que preocuparnos por las cuestiones de privacidad – o es la privacidad siquiera una cuestión para los nativos digitales? ¿Cuál es el impacto de internet sobre la capacidad y el aprendizaje? ¿A qué va a atenerse esta generación -socialmente, profesionalmente y psicológicamente?

Cómo se pueden abodar estos problemas, hay una sola solución – sostienen-, y es la educación. Los autores desean que los padres, educadores y legisladores participen y dialogen con la generación digital, en lugar de dejarlos a su suerte. 

Algunas reseñas de este libro se pueden encontrar en: apophenia («Born Digital» by John Palfrey and Urs Gasser), cadaunadas (Born Digital), elia (presentación sobre los nativos digitales), periodismociudadano (nacidos en la era digital) y The Technology Liberation Front (book review: Palfrey & Gasser’s «Born Digital»).

Lessig quiere demoler la FCC

En una reciente columna de la revista Newsweek (Reboot the FCC) el profesor Larence Lessig sostiene que la Comisión Federal de las Telecomunicaciones (Federal Communications Commission – FCC), regulador de los Estados Unidos de las Telecomunicaciones, en lugar de proteger la innovación, ha sucumbido a un irresistible deseo de proteger a los más poderosos. Es decir, cree que la FCC es un ejemplo perfecto de cómo los reguladores, creados a inicios del siglo pasado, son un freno para el desarrollo.

La FCC se ha convertido en el centro que coordina casi todos los aspectos importantes relacionados con la tecnología. Es el protector de Internet y regulador de la radio, televisión y de las comunicaciones satelitales. En las próximas décadas, Lessig cree que podría convertirse en el regulador por defecto de cada nueva tecnología de las comunicaciones y especialmente, de las nuevas formas de utilizar las comunicaciones inalámbricas, que hoy portan las señales de televisión, radio, internet y telefonía celular, las que podrán proporcionar acceso a Internet de alta velocidad.

El inconveniente de la FCC es que, con tantas facultades a su alcance, se ha convertido en blanco de campañas de enorme influencia. Sus comisionados tienen que ser «expertos» e «independientes», pero en la realidad, para el autor, nunca han sido realmente expertos y ahora están abiertamente influenciados por el juego político. La solución. Como las inconsistencias de la FCC son estructurales, están en su ADN no se pueden maquillar, la FCC se tiene que enterrar. No es la primera vez que Lessig aboga por su destrucción, en marzo de este año sostuvo una posición similar en una entrevista para National Review Online (Professor Lessig Is In). La alternativa es crear una institución diferente, que Lessig llama Innovation Environment Protection Agency (IEPA), algo así como Agencia de la Protección para el Fomento de la Innovación, la cual tendría una misión muy simple: «mínima intervención para incrementar al máximo la innovación«.

La primera tarea de la IEPA, sería frenar el poder incontrolado de los monopolios. Como ejemplo, gran parte del espectro radioeléctrico ha sido subastado en los Estados Unidos a monopolios de telecomunicaciones, sobre la base de que sólo mediante este monopolio las empresas podrán emprender la costosa tarea de construir una red de estaciones de radiodifusión. La IEPA pondría a prueba esta hipótesis. De esta forma, un organismo fortalecido con la prohibición de cualquier tipo de vínculos con la industria se podría evitar la cultura de favoritismo que viene definiendo el accionar de la FCC. Y si logra alcanzar credibilidad en el control de los monopolios, la agencia podría aplicar esta experiencia en otras áreas como patentes y derechos de autor.

El título del artículo de Lessig nos da la idea de una crítica al sistema de regulación, o mejor dicho una crítica institucional, sin embargo nos encontramos ante un cuestionamiento meramente formal: la FCC no sirve hay que crear otro organismo que lo reemplace, «desvestir a un santo para vestir a otro» decimos por estos lares. Pero cabe preguntarnos, «quis custodiet ipsos custodes» (¿quien vigila a los vigilantes?), es una conocida locución latina del poeta Juvenal. La idea de crear un nuevo regulador libre de los vicios que se suelen imputarse a las diferentes agencias gubernamentales es conmovedora por su inocencia. El problema de los fallos regulatorios, que los hay y muchos, no es formal es estructural y la noticia más desalentadora -y es un apunte particular- es que una nueva institución no los solucionará, pues el defecto está en el ADN de la propia burocracia que sirve a estos organismos.

Sobre el particular recomiendo leer el post de Adam Thierer (Lessig on Building a Better Bureaucrat) en Technology Liberation Front cuando nos dice que muchos expertos y políticos creen tontamente que todo sería mejor, como por arte de magia, una vez que las normas sean aplicadas por infalibles reyes-filósofos, personas que caminarán por los pasillos del nuevo IEPA. Es claro, la burocracia estatal tiene su propia lógica. No existe ninguna razón que nos lleve a pensar que estos reyes-filósofos de la IEPA tendrán un mejor desempeño que sus antecesores de la FCC.

Esta observación es también aplicable a otras realidades. Por ejemplo en el caso peruano aparecen de cuando en vez críticas importantes para con el accionar de los organismos reguladores (OSIPTEL, OSITRAN, OSINERGMIN y SUNASS). Una de las formas que se levantan para resolver estos inconvenientes es la creación de una superintendencia que realice las funciones agregadas de todos ellos. Creemos que no es la salida, la única ventaja si se crara una Superintendencia sería un pequeño ahorro presupuestal, sin embargo, se perdería en especialización y sería más sencillo para el poder político captar a esta nueva institución que a las cuatro anteriores.

El turno de Google Transit

Desde hace algún tiempo el destino de Google parece estar marcado por el signo del enfrentamiento. Hagamos un breve recuento: el sistema de búsqueda de imágenes en miniatura (thumbnails) ha sido cuestionado en Alemania (Google se estrella contra el muro alemán); Google News ha chocado duramente con los editores de diarios e incluso perdió -aunque el fallo no es definitivo- un juicio con la Société de Gestion de Droits des Éditeurs de Presse Quotidienne Francophone et Germanophone Belge (Copiepresse), que agrupa a los editores de prensa belgas; la implementación del Google books – la biblioteca digital de Google- le ha valido un enfrentamiento con la industria editorial; Youtube, su popular portal de videos ha sido profundamente discutido por la industria de contenidos (YouTube en la telearañaYouTube debe retirar videos de Telecinco, pero…) por vulnerar sus derechos de autor; hasta su propio motor de búsquedas está sometido a análisis por una demanda en Barcelona (Google y la sentencia de la Audiencia de Barcelona). El imperio Google avanza y con él también los celos, pasiones y quejas de quienes se sientes afectados. Algunas veces como en el caso de la industria editorial los reclamos parecen tener un trasfondo razonable -aunque perdamos una gran oportunidad de masificar la cultura y la información- pero otros cuestionamientos son sólo reflejo de actitudes oportunistas que intentan meter como sea diente a los cuantiosos ingresos de la transnacional americana. 

Todos los problemas reseñados han tenido como actores a empresas privadas, las cuales alegan que los servicios del gigante de Mountain View, vulneran algún tipo de derecho patrimonial. Sin embargo, parece que las entidades del Estado tampoco serían ajenas a esta tendencia. La Autoridad de Tránsito del Área Metropolitana de Washington (Metropolitan Area Transit AuthorityWMATA) es una agencia gubernamental que opera el servicio de transporte en el área metropolitana de Washington DC y el servicio cuestionado, de acuerdo con el Wall Street Journal (Google Vs Washington D.C.’s Public Transit System), es el Google Transit, como no podía ser de otra forma en etapa beta.

Google Transit permite saber cuál es la ruta más eficiente paso a paso utilizando las unidades de transporte público. Proporciona un mapa de la ruta, la duración del viaje y un cuadro comparativo con los costos entre el servicio público y hacer la ruta en auto privado, incluyendo el precio de la gasolina. El servicio puede utilizarse desde una PC y dispositivos móviles. El inconveniente es que el servicio, se soporta en los datos de las autoridades de transporte y en el caso de la ciudad de Washington con la WMATA. 

La WMATA, ha decidido dejar de proporcionar sus datos a Google Transit. Un representante de la entidad advirtió que no habían podido ponerse de acuerdo con el mecanismo de repartición de ingresos. Al parecer, el gran inconveniente es que la WMATA acaba de actualizar su sitio web y su plan de viajes. La WMATA pretende impulsar que sus usuarios visiten su sitio web. 

Lo discutible del caso es cómo la información elaborada por una entidad de la administración que brinda un servicio público la retacea sólo para rentabilizar su sitio web. Recordemos con en el Perú de forma similar, el Diario Oficial El Peruano cuestionó la publicación por parte de Gaceta Jurídica de una versión digitalizada del boletín de normas en su web. Nos encontramos ante un peligroso precedente, básicamente porque patrimonializa información que siempre debe tener carácter público, es decir no sólo la autoridad administrativa no debería limitar su acceso a quien quiera explotarla, sino que tampoco está habilitada a entregarla en exclusiva.

Sólo las ciudades latinoamericanas de Belo Horizonte y São Paulo en Brasil están por el momento dentro del programa. ¿Cuándo aparecerá en el Google Transit nuestra querida ruta Cocharcas – José Leal?

La RIAA deja los juicios, ahora corta el servicio

Luego del supuesto abandono de Google de los criterios de la Net Neutrality o neutralidad de la red (Google se pasa al lado oscuro, ahora es elooG) el Wall Street Journal publica otra noticia importante (Music Industry to Abandon Mass Suits). Según el diario la Recording Industry Association of America (RIAA), luego de varios años de demandar a miles de ciudadanos por descargar supuestamente música a través de Internet, está dispuesta a abandonar esta estrategia en la medida que ahora estima que existen formas más eficaces de luchar contra estas actividades.

A partir del año 2003 la RIAA inició una serie de demandas contra los supuestos infractores de sus derechos de autor hasta alcanzar la suma de 35.000 personas, estas acciones no sólo afectaron de forma importante la imagen de la industria sino que tampoco hicieron gran cosa para evitar que los usuarios de Internet continuaran descargando música masivamente. Como se recordará, gracias al modelo empleado para emplazar a los demandados conocido como «John Doe«, la RIAA inculpó a menores de edad, ancianos, una impresora láser y hasta a una persona que había fallecido. Esta seguidilla de demandas, no sólo ha desgastado a la industria sino que tampoco puede exhibir ningún precedente judicial importante a su favor. 

Según la nota, la RIAA pretende alcanzar una serie de alianzas con los ISPs más importantes, a partir de las cuales desarrollar un procedimiento, similar al de la Digial Millennium Copyright Act (DMCA), que suponga un freno para las descargas ilegales en Internet. De acuerdo con la nota, una vez que se ha detectado al infractor, se le enviará un correo electrónico al proveedor. Dependiendo del acuerdo alcanzado, el ISP alertará a sus clientes suspendan la actividad, si éstos continúan con la práctica, recibirán un par de mensajes más, o quizá aletargando su servicio de acceso a Internet. Por último, el ISP podrá cortar el acceso por completo. El modelo no es original, se ha implementado en Francia por el gobierno del presidente Sarkozy y se está discutiendo en Inglaterra.

Es posible que en esta oportunidad los ISPs tengan una mayor predisposición a colaborar con la RIAA que en años anteriores, pues vienen desarrollando modelos de negocio con sellos discográficos propios que podrían colisionar directamente con la descarga de contenidos por parte de sus usuarios. Por otro lado, el hecho que sean ahora los propios ISPs quienes se comunicarán con sus abonados, evita que revelen la identidad de los infractores, lo cual suaviza uno de los aspectos más polémicos de la anterior estrategia.

Sobre el particular, existen demasiados puntos oscuros que tal vez se vayan aclarando hasta conocer el verdadero alcance de los acuerdos, cuando existan, de la industria con los ISP. Una cuestión importante es determinar hasta qué punto los ISPs están dispuestos a colaborar con la RIAA sólo porque sus abonados desarrollan una actividad que estaría colisionando con un nuevo modelo de negocio sustentado en los contenidos, pues no olvidemos que la DMCA tiene una serie de disposiciones del tipo puerto seguro que relevan a los ISPs de mayor responsabilidad en estos casos. Mehan Jayasuriya (RIAA Strikes a ‘Three Strikes’ Deal, Everybody Loses) cree que esta colaboración se podría entender desde que de esta forma los ISPs podrían disciplinar a sus usuarios que consumen un mayor ancho de banda, dado que, cuando quisieron desarrollar algún tipo de gestión del tráfico, los activistas de la neutralidad de la red lo impidieron.

He leido por allí que bastaría que un ISP señalara que no está dentro del acuerdo para que todos los usuarios se vayan con él. Reconozco que al principio pensé que esta era una alternativa plausible, pero es un error, los usuarios que consumen una gran cantidad de ancho de banda son como los glotones en un servicio de hostelería del tipo «todo incluido», mientras más glotones tenga mi local la media de alimentos que tengo que comprar aumenta y con ello también el precio medio y por ende el margen disminuye. Con lo cual el mejor de los mundos es aquél donde pueda sacarme a los glotones de encima y tener hospedados sólo a consumidores con un consumo promedio. En Internet ocurre lo mismo, no existe un negocio del tipo de acceso que sólo pueda sostenerse sólo con heavy users, por ello parece razonable que los ISPs se vean tentados a aceptar la propuesta de la RIAA.

Sobre las posibles alegaciones de vulneración a la neutralidad de la red que podría tener la medida, rescato uno de los comentarios que sobre el particular aparece en el blog Denken Über (La RIAA abandona la estrategia de juicios por «piratería») que no tiene desperdicio: «la neutralidad de la red … no existe… nunca existió… ya basta con esto«.

Bajas música, videojuegos y porno: paga

De acuerdo con una nota que publica la BBC (Cash demand over ‘porn downloads’) y que recoge bandaancha.eu, (Protestas de los internautas británicos poniendo el caso español Promusicae vs. Telefónica como ejemplo) en el Reino Unido seis millones de personas descargan música y archivos de películas de forma gratuita cada año, más de la mitad de éstos son menores de 25 años y las redes más utilizadas: Gnutella, eDonkey y BitTorrent.

Esta noticia no tiene nada de novedosa, pero lo curioso de ella ver cómo en la mayoría de países la industria musical o del entretenimiento sigue el mismo patrón para intentar disciplinar a aquellas personas que bajan contenidos de Internet sin pagar los correspondientes derechos de autor. La polémica empezó cuando la Corte Suprema británica decidió que los ISP estaban obligados a proporcionar los datos personales de los clientes que intercambiaban archivos protegidos de una serie videojuegos. Recordemos que en España, la Asociación de Productores de Música de España (Promusicae) intentó hacer lo mismo pero el Tribunal de Justicia de las Comunidades Europeas no lo permitió. Ya comentamos este caso en su oportunidad (Operadores de acceso pueden mantener el anonimato de quienes decargan música).

Con estos datos, las empresas propietarias de los contenidos tienen todo un abanico de posibilidades para presionar a los internautas para que paguen por los videos que han descargado. El método empleado en Inglaterra, de forma similar a las políticas seguidas por la Recording Industry Association of America (RIAA) en los Estados Unidos, consiste en el envío de cartas por correo en las que se acusa al destinatario de intercambiar archivos ilegalmente y exigiendo por ello el pago de 500 libras por concepto de compensación. Estas comunicaciones advierten que si no se realiza el pago se tomarán las medidas legales correspondientes, las cuales podrían derivar en un pago superior.

Lo interesante del caso es que mientras que, de acuerdo con la experiencia de los Estados Unidos, en la mayoría de los casos los denunciados se han negado a pagar por el material que han bajado gratuitamente, en Inglaterra podría ocurrir lo contrario, en la medida que una de las compañías que está enviando las comunicaciones es la alemana DigiProtect, la cual acusa a los destinatarios de descargar películas para adultos, en otras palabras de bajar pornografía. Una cosa es que se acuse a las personas de bajar canciones o películas y otra de formar parte de una red que intercambia porno duro.

Una de los principales problemas de la industria del porno antes de la aparición de las nuevas tecnologías era su carácter marginal. Sin embargo, si alguna industria de contenidos puede sentirse satisfecha, en alguna medida, con la aparición de Internet es la del porno. Los portales de Internet y las redes P2P han tomado el lugar de revistas, DVDs y videos VHS. Las posibilidades de búsqueda casi infinita de material porno, el aumento en la cantidad del material sexual transmitido a los usuarios, la velocidad de entrega y la privacidad que se percibe al consumir este tipo productos en Internet han logrado un aumento considerable de la demanda de productos pornográficos (Fabio D’Orlando).

Si el anonimato es una de las características que más valora el usuario que consume pornografía a través de Internet, coincidiremos que DigiProtect es consciente que gran parte de los que han recibido sus comunicaciones pagarán sin chistar el importe requerido, ello por el pánico que tienen de ser relacionados como consumidores de pornografía.

Sin embargo, el problema del tipo de mecanismo empleado por DigiProtect para identificar el uso de sus películas es su falta de confiabilidad. Por ejemplo, tal como señala la nota de la BBC, la creciente popularidad de las tecnologías inalámbricas, Wi-Fi o home networks implican la posibilidad de compartir una conexión de internet con una serie de personas, lo cual dificulta la plena identificación de los posibles consumidores de las películas de DigiProtect.

Si bien es comprensible y hasta entendible que las empresas exijan el pago de estos derechos, el mecanismo empleado por DigiProtect para exigirlos es cuestionable pues afecta una serie de derechos fundamentales como a la reputación y la privacidad. No son los únicos problemas. La perdida de la lealtad de sus posibles consumidores es otro, aunque tratándose de la industria del porno esta última afectación no creo que le importe mucho a DigiProtect.

Suspenden en Francia la exclusiva de Orange sobre iPhone

El Consejo de la Competencia francés (Conseil de la concurrence) acaba de dictar una medida cautelar que suspende temporalmente la vigencia de los contratos de exclusividad suscritos entre Orange France (subsidiaria de France Telecom) y Apple con relación al iPhone. El caso, iniciado por Bouygues Telecom, cuestiona la legalidad de este acuerdo que en la práctica le significaría tener que esperar por lo menos tres años – que se pueden prolongar a cinco – para operar el iPhone en su red móvil.

Al dictar la medida cautelar el Consejo tomó en cuenta que Orange cuenta con una posición de liderazgo en el mercado francés con el 43,8% de los abonados, posición que se ha mantenido particularmente estable. Este efecto es ocasionado por varias características de la oferta de telefonía móvil en Francia, como la existencia de programas de lealtad y los factores que inciden directamente en los costos de cambio del operador que tienden a mitigar el juego competitivo. En este contexto, la exclusividad de Orange sobre el iPhone es probable que introduzca un nuevo factor de rigidez.

Si bien el Consejo reconoce que cuando un producto requiere inversiones específicas, un contrato en exclusiva puede proteger a los inversionistas de riesgos oportunistas, en el caso de iPhone este riesgo es relativo, dado que el acuerdo de exclusiva se celebró con una marca global cuya de indiscutible reputación y cuyos productos electrónicos han experimentado un considerable éxito en los últimos años.

Un aspecto interesante analizado por el Consejo es la configuración que podría tener el mercado de prosperar acuerdos de esta naturaleza. Nos señala el Consejo que, el anuncio realizado por SFR (Société Française de Radiotéléphone) de dos asociaciones con Blackberry y HTC en exclusiva, no sólo no relativiza los efectos de la exclusividad de Orange, sino que por el contrario, demuestra que la exclusiva pactada por SFR tiene un efecto acumulativo que podría causar un reparto vertical del mercado móvil. Esta evolución reduciría la competencia entre los operadores sobre los precios, la calidad de las redes, la infraestructura y la calidad del servicio. Por ejemplo, iPhone corre sobre un sistema operativo (Mac OS X). La compra y descarga de contenido se realizan a través de la App Store, así como de música en iTunes Store (con DRM), contenidos que no pueden migrar a otro smartphone, al correr con sistemas operativos que no son interoperables. De esta forma los costos de cambio (switching costs) en el mercado de las telecomunicaciones se incrementan por los costos del cambio en la propiedad de los smartphones, dada la falta de interoperabilidad de los sistemas operativos, en tal sentido, los consumidores no pueden cambiar de marca de smartphone sin perder al mismo tiempo su biblioteca de música o las aplicaciones que podrían haber comprado.

Esta estructura de mercado podría lograrse a expensas de los operadores con menores índices de penetración, que son, por naturaleza, los operadores menos atractivos para los fabricantes de smartphones. Por lo tanto, señala el Consejo, si este tipo de exclusividades se generaliza existe en el largo plazo un riesgo de exclusión de Bouygues Telecom del mercado.

Como era de esperarse Orange ha anunciado que recurrirá la medida y ha zarandeado el sistema regulatorio y de control de competencia europeo, Jean-Yves Larrouturou, director ejecutivo de France Telecom, a advertido que: «Es una decisión sin equivalente en Europa. Telefónica tiene la exclusividad del iPhone en España y en el Reino Unido, Deutsche Telekom en Alemania. ¿Se puede tomar este tipo de decisión sin preocuparse de lo que pasa en otros países? Nosotros competimos con actores franceses, pero sobre todo con actores internacionales como Google, que está completamente desregulado o Telefónica, que se beneficia de decisiones radicalmente opuestas de su regulador en España, donde nosotros estamos presentes«.

En el Perú el iPhone se viene comercializando sin alegaciones de esta naturaleza, pues las dos operadoras de servicios móviles más importantes (Movistar y Claro) vienen ofreciendo el iPhone sin contar con acuerdos de exclusiva con Apple.

50 años no es nada

«Sentir, que es un soplo la vida, que veinte años no es nada (…)», es el tango que cantaba Carlos Gardel (1890?-1935) hace casi un siglo, pues parece que en Inglaterra están pensando lo mismo, sólo que en lugar de 20 años, nos dicen que 50 años son una quimera. Según una nota que publica la BBC (Copyright law ‘could be extended’), el Ministro de Cultura del Reino Unido Andy Burnham anunció, que su gobierno se estaría mostrando favorable a que los artistas, intérpretes y ejecutantes se beneficien de sus creaciones por espacio de 70 años y no 50 como ocurre en la actualidad. De acuerdo con Burnham la medida buscaría adaptar el plazo de la ley con la esperanza de vida del artista.

Como es lógico suponer, este anuncio tiene sus aduladores entre ellos Cliff Richard y Roger Daltrey, los cuales tienen algunos trabajos que están a punto de entrar en el dominio público. No son los únicos. Algunas canciones de The Beatles pasarán al dominio público en el año 2013. De la misma idea es Geoff Taylor, jefe ejecutivo de la Industria Fonográfica Británica (British Phonographic Industry), quien dijo estar «encantado» con la posición del gobierno, en la medida que el copyright estimula la inversión, el talento musical y la innovación, miles de artistas, cientos de compañías de música y todos los amantes de la música británica se beneficiarán de un justo término los derechos de autor.

El sistema de propiedad intelectual inglés es un tanto complicado, por decir lo menos. Allí tenemos una serie de derechos superpuestos tales como derechos de autor de la Corona, derechos de autor del Parlamento y derechos de autor de los actos y medidas y de las organizaciones internacionales los cuales son independientes de los derechos de autor de las obras ordinarias. En este último caso, la Copyright, Designs and Patents Act de 1988 dispone que para el caso de las obras literarias, dramáticas, musicales o artísticas el derecho expira luego de 50 años de la muerte del autor y con relación de la titularidad sobre grabaciones sonoras y películas el derecho concluye a de los 50 años desde el año natural en que se hizo.

Se suele afirmar que los derechos de autor son necesarios en tanto incentiva la creación, pues en la medida que se remuneran los costos de producción los creadores tienen una esperanza de obtener réditos suficientes para seguir produciendo y al mismo tiempo incentivar a otros a producir.

Más allá de discutir el plazo de protección de la creación que llegados a este punto es irrelevante, lo importante es discutir seriamente cuál puede ser una alternativa válida al sistema que existe actualmente. La primera alternativa es su extinción, un mundo sin propiedad, es una alternativa válida, muchas personas reniegan abiertamente de su existencia. ¿Cuáles son las consecuencias de una decisión de esta naturaleza? Pues la de un mundo sin propiedad intelectual, algunos países latinoamericanos son un buen ejemplo de ello, lo cual genera una modificación de la industria, una reducción considerable de la producción, pero tal vez en algunos rubros como el musical de mayor calidad.

En este mundo sin propiedad desaparecen las grandes producciones cinematográficas, la industria editorial prácticamente se esfumaría y pasarían a tener una gran relevancia las editoriales universitarias, los best-seller se extinguen, aparecen con mayor fuerza los mecenas para cubrir ciertas publicaciones, los grandes sellos musicales son reemplazados por cientos de marcas independientes y claro se le pediría al estado que pague y fomente la cultura con los impuestos de todos … ¿Estamos dispuestos a aceptar este cambio?

Google se pasa al lado oscuro, ahora es elooG

¿Quién ha dicho que en occidente las religiones han muerto? Al menos en Internet esta sería una afirmación, por decir lo menos, cuestionable. Porque Internet es en sí misma una religión, con su ciudad sagrada (Sillicon Vally), sus sumos sacerdotes, fieles (millones), conversos, congregaciones (Google), demonios (Microsoft y las telcos), libros sagrados (Neuromante y la Declaración de Independencia del Ciberespacio), reliquias (Netscape) y por supuesto sus mandamientos, elevados a dogma de fe, verdades reveladas, incorruptibles, inalterables, inquebrantables e inmutables. Eterno fuego para el que ose quebrantarlos. Una de estas verdades es, sin lugar a dudas, la neutralidad de la red o Net Neutrality. 

Google es la congregación más poderosa de esta religión -algo así como los Jesuitas en la Contrarreforma- que a punto está de perder algunos de sus más fieles devotos. Éstos se han sentido tan desilusionados -ya vienen perdiendo la fe desde hace tiempo- con algunas de las últimas acciones, que hasta la amenazan en blogs y foros con dejar de seguirla, de usar sus servicios y de migrar a otra congregación que respete a pie firme la letra del catecismo vulnerado. Sólo podrá evitar esta maldición si se retracta públicamente y demuestra que sigue fiel a los principios eternos de la neutralidad de la red. ¿Qué es lo que ha pasado?

El lunes 15 de este mes, el diario neoyorkino The Wall Street Journal publicó un artículo (Google Wants Its Own Fast Track on the Web) donde nos señalaba como Google se había puesto en contacto con una serie de empresas de telecomunicaciones para proponerles la creación de un carril rápido que privilegie sus contenidos en Internet. Lo cual no debiera ser un problema, si no fuera porque Google ha sido tradicionalmente uno de los más acérrimos defensores de la neutralidad de la red, aparentemente la noticia la ponía vulnerando este credo que tanto había ayudado a construir, para decirlo en contexto fue descubierta blasfemando contra su prédica. El revuelo en el templo ha sido tremendo y desproporcionado: Lessig, Wired, Wu, Bennett, Dans y BusinessWeek por citar algunos casos.

Sobre este aquelarre podemos sacar dos conclusiones, a tenor de uno de los últimos post (Net neutrality and the benefits of caching) publicado en el blog de Google. La primera conclusión, es que la noticia es cierta -lo de los contactos con las telecos- y la segunda que Google no abandona la neutralidad de la red. Al parecer, lo que Google pretende es crear una red de distribución de contenidos (Content Delivery Network – CDN) propia del tipo Akamai. Las redes del tipo CDN operan a través de unos servidores que se encuentran físicamente más cerca de los usuarios. Al solicitarse un contenido, en lugar de responder los servidores centrales, la solicitud es atendida por el servidor más cercano al usuario.

La neutralidad de la red es un principio tan ambiguo y etéreo que es difícil tener unanimidad con respecto a qué se quiere decir cuando se lo invoca. Algunas veces parece que estamos ante una frase en Wookle, idioma de los jedis o para darle contenido local, de nuestro hoy popular cuy mágico. Existen, según uno se encuentre, dos tendencias con relación a la neutralidad de la red. Al ala izquierda de la doctrina están quienes afirman que cualquier intervención es negativa y todo el tráfico de la red tiene que tener el mismo trato independientemente de quien lo origine y a donde vaya. Por otro lado tenemos a quienes propugnan que es una limitación para que quienes dominan ciertos elementos de red no prioricen determinado tráfico en beneficio propio y en perjuicio de sus competidores.

No parece que la posición del ala izquierda sea plausible, en la medida que ataría de manos tanto a proveedores de contenidos como a operadores de servicios de telecomunicaciones para desarrollar tecnologías que permitan aligerar el tráfico de Internet. La posición del ala derecha parece más razonable (Lessig), lo que no está permitido es limitar los contenidos de los competidores y priorizar los propios. Desde este punto de vista es válido que los proveedores de contenidos pacten con los operadores de servicios de telecomunicaciones soluciones más eficientes o rutas preferentes para su tráfico. No olvidemos que en Internet uno de los criterios de competencia es claramente la velocidad con que los servicios llegan al usuario, es más, en algunos casos la latencia es crítica incluso para recibir el servicio en sí mismo (vídeos, juegos). No encuentro ninguna razón que amerite castigar a Google por intentar alcanzar soluciones que eliminan externalidades y benefician a los usuarios. Tal vez porque no creo en la neutralidad de la red como un dogma de fe.

¿Viene el exaflood?

Exaflood es el término acuñado para definir el posible colapso de Internet por la sobrecarga de tráfico de Internet. Sobre el tema el conocido diario británico The Economist, la prestigiosa revista británica, ha publicado y colgado el 4 de diciembre un artículo (Surviving the exaflood) donde nos detalla tanto las más dramáticas profecías como aquellas posiciones que las desmienten. No debo señalar que vale la pena leerlo.

El neologismo (del exabyte, 1018 bytes o mil millones de giga bytes) fue acuñado por Brett Swanson, del Discovery Institute, que predijo en enero del año 2007 (The Coming Exaflood) que Internet no está ni remotamente preparado para manejar el diluvio de datos que está procesando en la actualidad. Swanson, trabaja hoy en Washington en la Fundación para la Libertad y el Progreso (Progress and Freedom Foundation) considera que existen varias tecnologías que son capaces de generar extremadamente una gran cantidad de tráfico, como los sitios de video sharing, videoconferencia, descargas de películas, juegos en línea, televisión sobre protocolo de Internet, los video teléfonos, imágenes médicas a distancia y servicios de back-up que almacenan documentos en línea. YouTube generó solo más tráfico en Internet en el año 2006 que todo el Internet en el año 2000.

No es el primer caso, tampoco será el último. En 1995 Robert Metcalfe, el famoso ingeniero que elaboró la Ley de  Metcalfe y fundador de 3Com, predijo en un artículo que Internet sufriría un colapso aproximadamente en los próximos años. Para reforzar su apuesta, prometió comerse sus palabras si esto no legaba a suceder, al parecer las tomó literalmente. En 1997 con ocasión de la Sexta conferencia internacional de la World Wide Web, Metcalfe tomó una hoja con su columna y tras mezclarla con un liquido amenazó con comérsela. Finalmente no se la comió por las protestas del respetable que decidieron liberarlo finalmente de tal carga.

Anécdotas a parte, Nemertes, una consultora de investigación de mercados, publicó un documento (Internet Interrupted: Why Architectural Limitations Will Fracture the ‘Net) a fines del año pasado donde advertía que la demanda de los usuarios de Internet podría superar la capacidad de aquí al 2010. El costo global de mejorar la red para evitar una disminución en la calidad del servicio ha sido calculado por Nemertes en $ 137 mil millones de dólares (una bicoca si vemos los que está costando la crisis del sistema financiero americano) para los operadores de redes de los Estados Unidos, los cuales estarían invirtiendo un 60-70% menos de lo que debieran para mantener Internet indemne de riesgos. 

Sin embargo, tal como señala la nota, carece de sentido exponer datos sobre el crecimiento del tráfico de forma aislada, si no se tiene en cuenta la capacidad. Según TeleGeography, una consultora con sede en Washington, el crecimiento del tráfico superó el crecimiento de la red durante varios años después de 2002. Lo cual no era de extrañar por el exceso de capacidad resultante luego de la explosión de la burbuja de Internet. Sin embargo, apuntan, en los años  2007 y 2008, esta situación se ha revertido y la capacidad crece más velozmente que el tráfico.

Sin embargo, en los dos últimos años ha habido una inversión sustancial en infraestructuras en todo el mundo, lo cual puede traer otro problema. La verdadera amenaza puede provenir de una reducción en el crecimiento del tráfico de Internet. De acuerdo con Andrew Odlyzko, del Minnesota Internet Traffic Studies de la Universidad de Minnesota una tasa de crecimiento de tráfico del 50%, combinada con una disminución constante en los costos de los equipos y el estancamiento de los ingresos medios apenas animan a la industria. Si el crecimiento del tráfico desciende se frenan tanto la demanda de conexiones de alta velocidad como la de nuevos equipos.

¿En qué quedamos? Exaflood o parálisis por inanición. La discusión es compleja pues existen muchos intereses en juego, por un lado tenemos a las empresas de telecomunicaciones que vienen desplegando infraestructura y por el otro a los proveedores de contenidos desarrollando servicios cada vez más demandantes de ancho de banda, en el medio tenemos a la administración que está empezando a solventar cada vez con mayor recurrencia el gasto de estas nuevas redes. La época no es buena, por razones que todos conocemos, para discusiones académicas, en este contexto no sonará descabellado uando algunos Estados volteen la cara para mirar a los proveedores de contenidos y les digan: – ¡Y cómo es! Paga tu también…