El turno de Google Transit
Desde hace algún tiempo el destino de Google parece estar marcado por el signo del enfrentamiento. Hagamos un breve recuento: el sistema de búsqueda de imágenes en miniatura (thumbnails) ha sido cuestionado en Alemania (Google se estrella contra el muro alemán); Google News ha chocado duramente con los editores de diarios e incluso perdió -aunque el fallo no es definitivo- un juicio con la Société de Gestion de Droits des Éditeurs de Presse Quotidienne Francophone et Germanophone Belge (Copiepresse), que agrupa a los editores de prensa belgas; la implementación del Google books – la biblioteca digital de Google- le ha valido un enfrentamiento con la industria editorial; Youtube, su popular portal de videos ha sido profundamente discutido por la industria de contenidos (YouTube en la telearaña, YouTube debe retirar videos de Telecinco, pero…) por vulnerar sus derechos de autor; hasta su propio motor de búsquedas está sometido a análisis por una demanda en Barcelona (Google y la sentencia de la Audiencia de Barcelona). El imperio Google avanza y con él también los celos, pasiones y quejas de quienes se sientes afectados. Algunas veces como en el caso de la industria editorial los reclamos parecen tener un trasfondo razonable -aunque perdamos una gran oportunidad de masificar la cultura y la información- pero otros cuestionamientos son sólo reflejo de actitudes oportunistas que intentan meter como sea diente a los cuantiosos ingresos de la transnacional americana.
Todos los problemas reseñados han tenido como actores a empresas privadas, las cuales alegan que los servicios del gigante de Mountain View, vulneran algún tipo de derecho patrimonial. Sin embargo, parece que las entidades del Estado tampoco serían ajenas a esta tendencia. La Autoridad de Tránsito del Área Metropolitana de Washington (Metropolitan Area Transit Authority – WMATA) es una agencia gubernamental que opera el servicio de transporte en el área metropolitana de Washington DC y el servicio cuestionado, de acuerdo con el Wall Street Journal (Google Vs Washington D.C.’s Public Transit System), es el Google Transit, como no podía ser de otra forma en etapa beta.
Google Transit permite saber cuál es la ruta más eficiente paso a paso utilizando las unidades de transporte público. Proporciona un mapa de la ruta, la duración del viaje y un cuadro comparativo con los costos entre el servicio público y hacer la ruta en auto privado, incluyendo el precio de la gasolina. El servicio puede utilizarse desde una PC y dispositivos móviles. El inconveniente es que el servicio, se soporta en los datos de las autoridades de transporte y en el caso de la ciudad de Washington con la WMATA.
La WMATA, ha decidido dejar de proporcionar sus datos a Google Transit. Un representante de la entidad advirtió que no habían podido ponerse de acuerdo con el mecanismo de repartición de ingresos. Al parecer, el gran inconveniente es que la WMATA acaba de actualizar su sitio web y su plan de viajes. La WMATA pretende impulsar que sus usuarios visiten su sitio web.
Lo discutible del caso es cómo la información elaborada por una entidad de la administración que brinda un servicio público la retacea sólo para rentabilizar su sitio web. Recordemos con en el Perú de forma similar, el Diario Oficial El Peruano cuestionó la publicación por parte de Gaceta Jurídica de una versión digitalizada del boletín de normas en su web. Nos encontramos ante un peligroso precedente, básicamente porque patrimonializa información que siempre debe tener carácter público, es decir no sólo la autoridad administrativa no debería limitar su acceso a quien quiera explotarla, sino que tampoco está habilitada a entregarla en exclusiva.
Sólo las ciudades latinoamericanas de Belo Horizonte y São Paulo en Brasil están por el momento dentro del programa. ¿Cuándo aparecerá en el Google Transit nuestra querida ruta Cocharcas – José Leal?
La RIAA deja los juicios, ahora corta el servicio
Luego del supuesto abandono de Google de los criterios de la Net Neutrality o neutralidad de la red (Google se pasa al lado oscuro, ahora es elooG) el Wall Street Journal publica otra noticia importante (Music Industry to Abandon Mass Suits). Según el diario la Recording Industry Association of America (RIAA), luego de varios años de demandar a miles de ciudadanos por descargar supuestamente música a través de Internet, está dispuesta a abandonar esta estrategia en la medida que ahora estima que existen formas más eficaces de luchar contra estas actividades.
A partir del año 2003 la RIAA inició una serie de demandas contra los supuestos infractores de sus derechos de autor hasta alcanzar la suma de 35.000 personas, estas acciones no sólo afectaron de forma importante la imagen de la industria sino que tampoco hicieron gran cosa para evitar que los usuarios de Internet continuaran descargando música masivamente. Como se recordará, gracias al modelo empleado para emplazar a los demandados conocido como «John Doe«, la RIAA inculpó a menores de edad, ancianos, una impresora láser y hasta a una persona que había fallecido. Esta seguidilla de demandas, no sólo ha desgastado a la industria sino que tampoco puede exhibir ningún precedente judicial importante a su favor.
Según la nota, la RIAA pretende alcanzar una serie de alianzas con los ISPs más importantes, a partir de las cuales desarrollar un procedimiento, similar al de la Digial Millennium Copyright Act (DMCA), que suponga un freno para las descargas ilegales en Internet. De acuerdo con la nota, una vez que se ha detectado al infractor, se le enviará un correo electrónico al proveedor. Dependiendo del acuerdo alcanzado, el ISP alertará a sus clientes suspendan la actividad, si éstos continúan con la práctica, recibirán un par de mensajes más, o quizá aletargando su servicio de acceso a Internet. Por último, el ISP podrá cortar el acceso por completo. El modelo no es original, se ha implementado en Francia por el gobierno del presidente Sarkozy y se está discutiendo en Inglaterra.
Es posible que en esta oportunidad los ISPs tengan una mayor predisposición a colaborar con la RIAA que en años anteriores, pues vienen desarrollando modelos de negocio con sellos discográficos propios que podrían colisionar directamente con la descarga de contenidos por parte de sus usuarios. Por otro lado, el hecho que sean ahora los propios ISPs quienes se comunicarán con sus abonados, evita que revelen la identidad de los infractores, lo cual suaviza uno de los aspectos más polémicos de la anterior estrategia.
Sobre el particular, existen demasiados puntos oscuros que tal vez se vayan aclarando hasta conocer el verdadero alcance de los acuerdos, cuando existan, de la industria con los ISP. Una cuestión importante es determinar hasta qué punto los ISPs están dispuestos a colaborar con la RIAA sólo porque sus abonados desarrollan una actividad que estaría colisionando con un nuevo modelo de negocio sustentado en los contenidos, pues no olvidemos que la DMCA tiene una serie de disposiciones del tipo puerto seguro que relevan a los ISPs de mayor responsabilidad en estos casos. Mehan Jayasuriya (RIAA Strikes a ‘Three Strikes’ Deal, Everybody Loses) cree que esta colaboración se podría entender desde que de esta forma los ISPs podrían disciplinar a sus usuarios que consumen un mayor ancho de banda, dado que, cuando quisieron desarrollar algún tipo de gestión del tráfico, los activistas de la neutralidad de la red lo impidieron.
He leido por allí que bastaría que un ISP señalara que no está dentro del acuerdo para que todos los usuarios se vayan con él. Reconozco que al principio pensé que esta era una alternativa plausible, pero es un error, los usuarios que consumen una gran cantidad de ancho de banda son como los glotones en un servicio de hostelería del tipo «todo incluido», mientras más glotones tenga mi local la media de alimentos que tengo que comprar aumenta y con ello también el precio medio y por ende el margen disminuye. Con lo cual el mejor de los mundos es aquél donde pueda sacarme a los glotones de encima y tener hospedados sólo a consumidores con un consumo promedio. En Internet ocurre lo mismo, no existe un negocio del tipo de acceso que sólo pueda sostenerse sólo con heavy users, por ello parece razonable que los ISPs se vean tentados a aceptar la propuesta de la RIAA.
Sobre las posibles alegaciones de vulneración a la neutralidad de la red que podría tener la medida, rescato uno de los comentarios que sobre el particular aparece en el blog Denken Über (La RIAA abandona la estrategia de juicios por «piratería») que no tiene desperdicio: «la neutralidad de la red … no existe… nunca existió… ya basta con esto«.
Bajas música, videojuegos y porno: paga
De acuerdo con una nota que publica la BBC (Cash demand over ‘porn downloads’) y que recoge bandaancha.eu, (Protestas de los internautas británicos poniendo el caso español Promusicae vs. Telefónica como ejemplo) en el Reino Unido seis millones de personas descargan música y archivos de películas de forma gratuita cada año, más de la mitad de éstos son menores de 25 años y las redes más utilizadas: Gnutella, eDonkey y BitTorrent.
Esta noticia no tiene nada de novedosa, pero lo curioso de ella ver cómo en la mayoría de países la industria musical o del entretenimiento sigue el mismo patrón para intentar disciplinar a aquellas personas que bajan contenidos de Internet sin pagar los correspondientes derechos de autor. La polémica empezó cuando la Corte Suprema británica decidió que los ISP estaban obligados a proporcionar los datos personales de los clientes que intercambiaban archivos protegidos de una serie videojuegos. Recordemos que en España, la Asociación de Productores de Música de España (Promusicae) intentó hacer lo mismo pero el Tribunal de Justicia de las Comunidades Europeas no lo permitió. Ya comentamos este caso en su oportunidad (Operadores de acceso pueden mantener el anonimato de quienes decargan música).
Con estos datos, las empresas propietarias de los contenidos tienen todo un abanico de posibilidades para presionar a los internautas para que paguen por los videos que han descargado. El método empleado en Inglaterra, de forma similar a las políticas seguidas por la Recording Industry Association of America (RIAA) en los Estados Unidos, consiste en el envío de cartas por correo en las que se acusa al destinatario de intercambiar archivos ilegalmente y exigiendo por ello el pago de 500 libras por concepto de compensación. Estas comunicaciones advierten que si no se realiza el pago se tomarán las medidas legales correspondientes, las cuales podrían derivar en un pago superior.
Lo interesante del caso es que mientras que, de acuerdo con la experiencia de los Estados Unidos, en la mayoría de los casos los denunciados se han negado a pagar por el material que han bajado gratuitamente, en Inglaterra podría ocurrir lo contrario, en la medida que una de las compañías que está enviando las comunicaciones es la alemana DigiProtect, la cual acusa a los destinatarios de descargar películas para adultos, en otras palabras de bajar pornografía. Una cosa es que se acuse a las personas de bajar canciones o películas y otra de formar parte de una red que intercambia porno duro.
Una de los principales problemas de la industria del porno antes de la aparición de las nuevas tecnologías era su carácter marginal. Sin embargo, si alguna industria de contenidos puede sentirse satisfecha, en alguna medida, con la aparición de Internet es la del porno. Los portales de Internet y las redes P2P han tomado el lugar de revistas, DVDs y videos VHS. Las posibilidades de búsqueda casi infinita de material porno, el aumento en la cantidad del material sexual transmitido a los usuarios, la velocidad de entrega y la privacidad que se percibe al consumir este tipo productos en Internet han logrado un aumento considerable de la demanda de productos pornográficos (Fabio D’Orlando).
Si el anonimato es una de las características que más valora el usuario que consume pornografía a través de Internet, coincidiremos que DigiProtect es consciente que gran parte de los que han recibido sus comunicaciones pagarán sin chistar el importe requerido, ello por el pánico que tienen de ser relacionados como consumidores de pornografía.
Sin embargo, el problema del tipo de mecanismo empleado por DigiProtect para identificar el uso de sus películas es su falta de confiabilidad. Por ejemplo, tal como señala la nota de la BBC, la creciente popularidad de las tecnologías inalámbricas, Wi-Fi o home networks implican la posibilidad de compartir una conexión de internet con una serie de personas, lo cual dificulta la plena identificación de los posibles consumidores de las películas de DigiProtect.
Si bien es comprensible y hasta entendible que las empresas exijan el pago de estos derechos, el mecanismo empleado por DigiProtect para exigirlos es cuestionable pues afecta una serie de derechos fundamentales como a la reputación y la privacidad. No son los únicos problemas. La perdida de la lealtad de sus posibles consumidores es otro, aunque tratándose de la industria del porno esta última afectación no creo que le importe mucho a DigiProtect.
Suspenden en Francia la exclusiva de Orange sobre iPhone
El Consejo de la Competencia francés (Conseil de la concurrence) acaba de dictar una medida cautelar que suspende temporalmente la vigencia de los contratos de exclusividad suscritos entre Orange France (subsidiaria de France Telecom) y Apple con relación al iPhone. El caso, iniciado por Bouygues Telecom, cuestiona la legalidad de este acuerdo que en la práctica le significaría tener que esperar por lo menos tres años – que se pueden prolongar a cinco – para operar el iPhone en su red móvil.
Al dictar la medida cautelar el Consejo tomó en cuenta que Orange cuenta con una posición de liderazgo en el mercado francés con el 43,8% de los abonados, posición que se ha mantenido particularmente estable. Este efecto es ocasionado por varias características de la oferta de telefonía móvil en Francia, como la existencia de programas de lealtad y los factores que inciden directamente en los costos de cambio del operador que tienden a mitigar el juego competitivo. En este contexto, la exclusividad de Orange sobre el iPhone es probable que introduzca un nuevo factor de rigidez.
Si bien el Consejo reconoce que cuando un producto requiere inversiones específicas, un contrato en exclusiva puede proteger a los inversionistas de riesgos oportunistas, en el caso de iPhone este riesgo es relativo, dado que el acuerdo de exclusiva se celebró con una marca global cuya de indiscutible reputación y cuyos productos electrónicos han experimentado un considerable éxito en los últimos años.
Un aspecto interesante analizado por el Consejo es la configuración que podría tener el mercado de prosperar acuerdos de esta naturaleza. Nos señala el Consejo que, el anuncio realizado por SFR (Société Française de Radiotéléphone) de dos asociaciones con Blackberry y HTC en exclusiva, no sólo no relativiza los efectos de la exclusividad de Orange, sino que por el contrario, demuestra que la exclusiva pactada por SFR tiene un efecto acumulativo que podría causar un reparto vertical del mercado móvil. Esta evolución reduciría la competencia entre los operadores sobre los precios, la calidad de las redes, la infraestructura y la calidad del servicio. Por ejemplo, iPhone corre sobre un sistema operativo (Mac OS X). La compra y descarga de contenido se realizan a través de la App Store, así como de música en iTunes Store (con DRM), contenidos que no pueden migrar a otro smartphone, al correr con sistemas operativos que no son interoperables. De esta forma los costos de cambio (switching costs) en el mercado de las telecomunicaciones se incrementan por los costos del cambio en la propiedad de los smartphones, dada la falta de interoperabilidad de los sistemas operativos, en tal sentido, los consumidores no pueden cambiar de marca de smartphone sin perder al mismo tiempo su biblioteca de música o las aplicaciones que podrían haber comprado.
Esta estructura de mercado podría lograrse a expensas de los operadores con menores índices de penetración, que son, por naturaleza, los operadores menos atractivos para los fabricantes de smartphones. Por lo tanto, señala el Consejo, si este tipo de exclusividades se generaliza existe en el largo plazo un riesgo de exclusión de Bouygues Telecom del mercado.
Como era de esperarse Orange ha anunciado que recurrirá la medida y ha zarandeado el sistema regulatorio y de control de competencia europeo, Jean-Yves Larrouturou, director ejecutivo de France Telecom, a advertido que: «Es una decisión sin equivalente en Europa. Telefónica tiene la exclusividad del iPhone en España y en el Reino Unido, Deutsche Telekom en Alemania. ¿Se puede tomar este tipo de decisión sin preocuparse de lo que pasa en otros países? Nosotros competimos con actores franceses, pero sobre todo con actores internacionales como Google, que está completamente desregulado o Telefónica, que se beneficia de decisiones radicalmente opuestas de su regulador en España, donde nosotros estamos presentes«.
En el Perú el iPhone se viene comercializando sin alegaciones de esta naturaleza, pues las dos operadoras de servicios móviles más importantes (Movistar y Claro) vienen ofreciendo el iPhone sin contar con acuerdos de exclusiva con Apple.
50 años no es nada
«Sentir, que es un soplo la vida, que veinte años no es nada (…)», es el tango que cantaba Carlos Gardel (1890?-1935) hace casi un siglo, pues parece que en Inglaterra están pensando lo mismo, sólo que en lugar de 20 años, nos dicen que 50 años son una quimera. Según una nota que publica la BBC (Copyright law ‘could be extended’), el Ministro de Cultura del Reino Unido Andy Burnham anunció, que su gobierno se estaría mostrando favorable a que los artistas, intérpretes y ejecutantes se beneficien de sus creaciones por espacio de 70 años y no 50 como ocurre en la actualidad. De acuerdo con Burnham la medida buscaría adaptar el plazo de la ley con la esperanza de vida del artista.
Como es lógico suponer, este anuncio tiene sus aduladores entre ellos Cliff Richard y Roger Daltrey, los cuales tienen algunos trabajos que están a punto de entrar en el dominio público. No son los únicos. Algunas canciones de The Beatles pasarán al dominio público en el año 2013. De la misma idea es Geoff Taylor, jefe ejecutivo de la Industria Fonográfica Británica (British Phonographic Industry), quien dijo estar «encantado» con la posición del gobierno, en la medida que el copyright estimula la inversión, el talento musical y la innovación, miles de artistas, cientos de compañías de música y todos los amantes de la música británica se beneficiarán de un justo término los derechos de autor.
El sistema de propiedad intelectual inglés es un tanto complicado, por decir lo menos. Allí tenemos una serie de derechos superpuestos tales como derechos de autor de la Corona, derechos de autor del Parlamento y derechos de autor de los actos y medidas y de las organizaciones internacionales los cuales son independientes de los derechos de autor de las obras ordinarias. En este último caso, la Copyright, Designs and Patents Act de 1988 dispone que para el caso de las obras literarias, dramáticas, musicales o artísticas el derecho expira luego de 50 años de la muerte del autor y con relación de la titularidad sobre grabaciones sonoras y películas el derecho concluye a de los 50 años desde el año natural en que se hizo.
Se suele afirmar que los derechos de autor son necesarios en tanto incentiva la creación, pues en la medida que se remuneran los costos de producción los creadores tienen una esperanza de obtener réditos suficientes para seguir produciendo y al mismo tiempo incentivar a otros a producir.
Más allá de discutir el plazo de protección de la creación que llegados a este punto es irrelevante, lo importante es discutir seriamente cuál puede ser una alternativa válida al sistema que existe actualmente. La primera alternativa es su extinción, un mundo sin propiedad, es una alternativa válida, muchas personas reniegan abiertamente de su existencia. ¿Cuáles son las consecuencias de una decisión de esta naturaleza? Pues la de un mundo sin propiedad intelectual, algunos países latinoamericanos son un buen ejemplo de ello, lo cual genera una modificación de la industria, una reducción considerable de la producción, pero tal vez en algunos rubros como el musical de mayor calidad.
En este mundo sin propiedad desaparecen las grandes producciones cinematográficas, la industria editorial prácticamente se esfumaría y pasarían a tener una gran relevancia las editoriales universitarias, los best-seller se extinguen, aparecen con mayor fuerza los mecenas para cubrir ciertas publicaciones, los grandes sellos musicales son reemplazados por cientos de marcas independientes y claro se le pediría al estado que pague y fomente la cultura con los impuestos de todos … ¿Estamos dispuestos a aceptar este cambio?
Transparencia en portales del Estado para dummies
El 5 de diciembre se publicó en El Peruano la Resolución Ministerial No. 398-2008-PCM que aprobó la Directiva Nº 004-2008-PCM/SGP que establece los “Lineamientos para la uniformización del contenido de los portales de transparencia de las entidades públicas”. Esta Directiva constituye un nuevo intento del Ejecutivo por uniformizar el contenido de los Portales de Transparencia de las entidades públicas de acuerdo al artículo 5 del Decreto Supremo No. 043-2003-PCM – TUO de la Ley de Transparencia. Se acompañan a la norma los criterios mínimos que, en cuanto a contenido, deberán respetar todos los portales estatales para la presentación de su información (así, en lo referido a Datos Generales, Información Financiera y Presupuestas, Proyectos de Inversión, Personal, Agendas de Actividades Oficiales, entre otros rubros).
Llama la atención, en su artículo 8, la forma en la que se definen las cuatro caracterísiticas básicas con las que deberán contar los portales.
- Facilidad de acceso: la forma de presentación de la información debe tener un formato «amigable» (sic) que sea de fácil utilización.
- Simplicidad: utilizar terminología sencilla y de fácil comprensión por los ciudadanos.
- Veracidad: toda información contenida en el portal se presume como veraz, debiendo ser acualizada mensualmente pero manteniendo la anterior para poder realizar comparaciones.
- Legalidad: la información deberá respetar el marco legal sobre la materia.
La publicidad en Internet es, sin duda, la herramienta menos costosa y más directa que tiene el Estado para poner a disposición de las grandes mayorías la información pública. Sin embargo, no basta con enunciar el principio y cumplirlo «en la medida que sea posible». En ese sentido, resulta una saludable iniciativa intentar otorgar un cuerpo uniforme a la argamasa de información que aparece en las páginas web de las distintas entidades públicas. Sin embargo, creo que no basta con normar sobre el contenido si no también sobre la forma en la que ésta se presenta. Ya habíamos hablado de las limitaciones técnicas del diseño de las páginas, pero es simplemente sorprendente lo descuidadas que están algunas páginas web del Estado. Una verdadera reforma destinada a promover el acceso a la información pública debe de tener en cuenta estos aspectos. Por ejemplo, aunque suene paradójico, los reto a que traten de encontrar en línea la Agenda Digital Peruana (el link que aparece en la página principal del Portal del Estado está muerto). ¿Y el Responsable del Portal? Finalmente, quizás no tengamos una agenda clara y ese sea nuestro problema. Ojalá que el resto de entidades del Estado se esfuerecen por hacer páginas web cada vez más simples, claras y transparentes y se alejen de comportamientos como los de OSIPTEL.
Google se pasa al lado oscuro, ahora es elooG
¿Quién ha dicho que en occidente las religiones han muerto? Al menos en Internet esta sería una afirmación, por decir lo menos, cuestionable. Porque Internet es en sí misma una religión, con su ciudad sagrada (Sillicon Vally), sus sumos sacerdotes, fieles (millones), conversos, congregaciones (Google), demonios (Microsoft y las telcos), libros sagrados (Neuromante y la Declaración de Independencia del Ciberespacio), reliquias (Netscape) y por supuesto sus mandamientos, elevados a dogma de fe, verdades reveladas, incorruptibles, inalterables, inquebrantables e inmutables. Eterno fuego para el que ose quebrantarlos. Una de estas verdades es, sin lugar a dudas, la neutralidad de la red o Net Neutrality.
Google es la congregación más poderosa de esta religión -algo así como los Jesuitas en la Contrarreforma- que a punto está de perder algunos de sus más fieles devotos. Éstos se han sentido tan desilusionados -ya vienen perdiendo la fe desde hace tiempo- con algunas de las últimas acciones, que hasta la amenazan en blogs y foros con dejar de seguirla, de usar sus servicios y de migrar a otra congregación que respete a pie firme la letra del catecismo vulnerado. Sólo podrá evitar esta maldición si se retracta públicamente y demuestra que sigue fiel a los principios eternos de la neutralidad de la red. ¿Qué es lo que ha pasado?
El lunes 15 de este mes, el diario neoyorkino The Wall Street Journal publicó un artículo (Google Wants Its Own Fast Track on the Web) donde nos señalaba como Google se había puesto en contacto con una serie de empresas de telecomunicaciones para proponerles la creación de un carril rápido que privilegie sus contenidos en Internet. Lo cual no debiera ser un problema, si no fuera porque Google ha sido tradicionalmente uno de los más acérrimos defensores de la neutralidad de la red, aparentemente la noticia la ponía vulnerando este credo que tanto había ayudado a construir, para decirlo en contexto fue descubierta blasfemando contra su prédica. El revuelo en el templo ha sido tremendo y desproporcionado: Lessig, Wired, Wu, Bennett, Dans y BusinessWeek por citar algunos casos.
Sobre este aquelarre podemos sacar dos conclusiones, a tenor de uno de los últimos post (Net neutrality and the benefits of caching) publicado en el blog de Google. La primera conclusión, es que la noticia es cierta -lo de los contactos con las telecos- y la segunda que Google no abandona la neutralidad de la red. Al parecer, lo que Google pretende es crear una red de distribución de contenidos (Content Delivery Network – CDN) propia del tipo Akamai. Las redes del tipo CDN operan a través de unos servidores que se encuentran físicamente más cerca de los usuarios. Al solicitarse un contenido, en lugar de responder los servidores centrales, la solicitud es atendida por el servidor más cercano al usuario.
La neutralidad de la red es un principio tan ambiguo y etéreo que es difícil tener unanimidad con respecto a qué se quiere decir cuando se lo invoca. Algunas veces parece que estamos ante una frase en Wookle, idioma de los jedis o para darle contenido local, de nuestro hoy popular cuy mágico. Existen, según uno se encuentre, dos tendencias con relación a la neutralidad de la red. Al ala izquierda de la doctrina están quienes afirman que cualquier intervención es negativa y todo el tráfico de la red tiene que tener el mismo trato independientemente de quien lo origine y a donde vaya. Por otro lado tenemos a quienes propugnan que es una limitación para que quienes dominan ciertos elementos de red no prioricen determinado tráfico en beneficio propio y en perjuicio de sus competidores.
No parece que la posición del ala izquierda sea plausible, en la medida que ataría de manos tanto a proveedores de contenidos como a operadores de servicios de telecomunicaciones para desarrollar tecnologías que permitan aligerar el tráfico de Internet. La posición del ala derecha parece más razonable (Lessig), lo que no está permitido es limitar los contenidos de los competidores y priorizar los propios. Desde este punto de vista es válido que los proveedores de contenidos pacten con los operadores de servicios de telecomunicaciones soluciones más eficientes o rutas preferentes para su tráfico. No olvidemos que en Internet uno de los criterios de competencia es claramente la velocidad con que los servicios llegan al usuario, es más, en algunos casos la latencia es crítica incluso para recibir el servicio en sí mismo (vídeos, juegos). No encuentro ninguna razón que amerite castigar a Google por intentar alcanzar soluciones que eliminan externalidades y benefician a los usuarios. Tal vez porque no creo en la neutralidad de la red como un dogma de fe.
¿Viene el exaflood?
Exaflood es el término acuñado para definir el posible colapso de Internet por la sobrecarga de tráfico de Internet. Sobre el tema el conocido diario británico The Economist, la prestigiosa revista británica, ha publicado y colgado el 4 de diciembre un artículo (Surviving the exaflood) donde nos detalla tanto las más dramáticas profecías como aquellas posiciones que las desmienten. No debo señalar que vale la pena leerlo.
El neologismo (del exabyte, 1018 bytes o mil millones de giga bytes) fue acuñado por Brett Swanson, del Discovery Institute, que predijo en enero del año 2007 (The Coming Exaflood) que Internet no está ni remotamente preparado para manejar el diluvio de datos que está procesando en la actualidad. Swanson, trabaja hoy en Washington en la Fundación para la Libertad y el Progreso (Progress and Freedom Foundation) considera que existen varias tecnologías que son capaces de generar extremadamente una gran cantidad de tráfico, como los sitios de video sharing, videoconferencia, descargas de películas, juegos en línea, televisión sobre protocolo de Internet, los video teléfonos, imágenes médicas a distancia y servicios de back-up que almacenan documentos en línea. YouTube generó solo más tráfico en Internet en el año 2006 que todo el Internet en el año 2000.
No es el primer caso, tampoco será el último. En 1995 Robert Metcalfe, el famoso ingeniero que elaboró la Ley de Metcalfe y fundador de 3Com, predijo en un artículo que Internet sufriría un colapso aproximadamente en los próximos años. Para reforzar su apuesta, prometió comerse sus palabras si esto no legaba a suceder, al parecer las tomó literalmente. En 1997 con ocasión de la Sexta conferencia internacional de la World Wide Web, Metcalfe tomó una hoja con su columna y tras mezclarla con un liquido amenazó con comérsela. Finalmente no se la comió por las protestas del respetable que decidieron liberarlo finalmente de tal carga.
Anécdotas a parte, Nemertes, una consultora de investigación de mercados, publicó un documento (Internet Interrupted: Why Architectural Limitations Will Fracture the ‘Net) a fines del año pasado donde advertía que la demanda de los usuarios de Internet podría superar la capacidad de aquí al 2010. El costo global de mejorar la red para evitar una disminución en la calidad del servicio ha sido calculado por Nemertes en $ 137 mil millones de dólares (una bicoca si vemos los que está costando la crisis del sistema financiero americano) para los operadores de redes de los Estados Unidos, los cuales estarían invirtiendo un 60-70% menos de lo que debieran para mantener Internet indemne de riesgos.
Sin embargo, tal como señala la nota, carece de sentido exponer datos sobre el crecimiento del tráfico de forma aislada, si no se tiene en cuenta la capacidad. Según TeleGeography, una consultora con sede en Washington, el crecimiento del tráfico superó el crecimiento de la red durante varios años después de 2002. Lo cual no era de extrañar por el exceso de capacidad resultante luego de la explosión de la burbuja de Internet. Sin embargo, apuntan, en los años 2007 y 2008, esta situación se ha revertido y la capacidad crece más velozmente que el tráfico.
Sin embargo, en los dos últimos años ha habido una inversión sustancial en infraestructuras en todo el mundo, lo cual puede traer otro problema. La verdadera amenaza puede provenir de una reducción en el crecimiento del tráfico de Internet. De acuerdo con Andrew Odlyzko, del Minnesota Internet Traffic Studies de la Universidad de Minnesota una tasa de crecimiento de tráfico del 50%, combinada con una disminución constante en los costos de los equipos y el estancamiento de los ingresos medios apenas animan a la industria. Si el crecimiento del tráfico desciende se frenan tanto la demanda de conexiones de alta velocidad como la de nuevos equipos.
¿En qué quedamos? Exaflood o parálisis por inanición. La discusión es compleja pues existen muchos intereses en juego, por un lado tenemos a las empresas de telecomunicaciones que vienen desplegando infraestructura y por el otro a los proveedores de contenidos desarrollando servicios cada vez más demandantes de ancho de banda, en el medio tenemos a la administración que está empezando a solventar cada vez con mayor recurrencia el gasto de estas nuevas redes. La época no es buena, por razones que todos conocemos, para discusiones académicas, en este contexto no sonará descabellado uando algunos Estados volteen la cara para mirar a los proveedores de contenidos y les digan: – ¡Y cómo es! Paga tu también…
Separación funcional de Telecom Italia
Este último 11 de diciembre el regulador italiano de las telecomunicaciones, AGCOM (Autorità per le Garanzie nelle Comunicazioni – Autoridad para la Garantía de las Comunicaciones), anunció un paquete de medidas conducentes a que el operador dominante de la telefonía fija, Telecom Italia, desagregue en dos unidades de negocio su red troncal y los accesos mayoristas de los accesos locales. De esta forma se pone fin a una larga disputa entre la compañía de teléfonos y el regulador italiano, que de no haber tomado la iniciativa Telecom Italia, habría terminado irremediablemente con la desagregación de las actividades mayorista y minorista de la empresa, sólo que impuesta manu militare.
Open Access di Telecom (Open Access), será la nueva división encargada de de gestionar de forma independientela la red de Telecom Italia. El objetivo de esta iniciativa es garantizar en igualdad de condiciones el acceso a la red mayorista por parte de los competidores de Telecom Italia. Esta medida empezará a materializarse a partir del próximo 1 de enero.
Algunos analistas ven en la decisión del Grupo, una forma para liderar el proceso antes que entregárselo al regulador, también un mecanismo con el cual financiar su nueva red de alta velocidad valorizada en unos 6.500 millones de euros para los próximos diez años y finalmente, con la cual exigir a AGCOM que disminuya la presión regulatoria en la comercialización.
Si bien este modelo como un mecanismo para evitar prácticas anticompetitivas ha generado importantes debates desde hace muchos años, recién se llevó a la práctica cuando en el mercado británico se separaron las redes minorista y mayorista de British Telecom en el 2005. OpenReach, es la encargada de controlar y operar las fibras, los hilos de cobre y otros recursos no electrónicos de la red de acceso, lo que ha venido a llamarse la primera milla (Brochure corporativo). Para asegurar la transparencia del proceso se han establecido una serie de procesos del tipo muralla china entre Openreach y el resto de las operaciones y sistemas del Grupo British Telecom. Esta unidad está supervisada por un «Consejo de Igualdad de Acceso» con directores independientes. Modelos similares se vienen discutiendo en Australia (Telstra), Nueva Zelanda (TNZ), Suecia (Telia Sonera) y Singapur (SingTel). Nótese que salvo los casos sueco e italiano -en Italia todo es particular- el efecto contagio viene afectando principalmente a países de la esfera de la Commonwealth, donde la influencia británica es más que evidente.
¿Son necesarias estas medidas? Particularmente creemos que mientras los beneficios de la separación estructural son cuestionables, los costos de esta decisión son más que evidentes. Una serie de investigaciones para el caso británico señalan que la medida sigue siendo cuestionable en la medida que muchos de los éxitos alcanzados se habrían producido a través de remedios regulatorios.
Sin embargo, los inconvenientes de la separación funcional son más claros. Como se sabe es una tendencia en el mundo desarrollado sustituir del cobre por redes de banda ancha como el Fiber to Home (FTH). De tal suerte que los operadores no invierten en una red de fibra hasta que identifican las zonas donde la inversión es rentable. Si la operación está desintegrada se quiebra la coordinación entre la inversión y las necesidades de comercialización. En este escenario las opciones para invertir no parecen las más aconsejables, para qué hacerlo si se tiene una red explotada monopólicamente que no puede ser retada.
Por otro lado, la separación parte por entender a la red como un ente estático, lo cual no es cierto. Como se sabe los avances tecnológicos son capaces de modificar el mercado en un breve período de tiempo, sin embargo una estructura de esta naturaleza puede constituirse en un límite para el desarrollo de nuevas plataformas que reten a la existente.
Finalmente, esta medida parece más destinada a asegurar la existencia misma del regulador antes que destinada a fomentar la competencia. Al privatizar los servicios de telecomunicaciones, se pensó que después de un determinado lapso de tiempo con la introducción de cada vez más competencia en los diferentes mercados éstos se irían liberalizando progresivamente. Por el contrario la separación estructural como reta este concepto, pues al existir un sólo operador monopólico de la primera milla, siempre será necesaria la existencia de un regulador que lo supervise.
Cabe recordar que en la reciente reunión de ministros de telecomunicaciones de la Unión Europea (Reguladores y cambio tecnológico y Unión Europea regula SMS) uno de los temas de agenda fue la posible separación funcional de la red de los operadores de telecomunicaciones, al final se acordó que las autoridades regulatorias podían aplicar esta decisión sólo como una «medida extraordinaria».