Antonio Rodriguez Lobatón

Abogado por la Universidad de Lima. Cursos completos en la Maestría de Derecho y Economía de la Regulación de Servicios Públicos de la Universidad Peruana de Ciencias Aplicadas. Profesor de la Universidad Peruana de Ciencias Aplicadas y la Pontificia Universidad Católica del Perú. Miembro investigador del Instituto Riva Agüero. Especialista en derecho de telecomunicaciones, competencia y regulación de servicios públicos.

El faenón del hermanón

Ricardo Belmont Casinelli (1945- ) es una extraña mezcla de broadcaster, político, conductor de programas de televisión y cultor de filosofías de autoayuda. Actividades todas que ha desarrollado de una forma, digamos más bien modesta, aunque hay que reconocerle algunos éxitos en la década de los ochenta (Teletón, alcalde de Lima). Si bien el resultado poco auspicioso de sus últimos emprendimientos lo convierten en una figura insustancial en términos políticos, pareciera que Belmont intenta aprovechar su fugaz paso por el Congreso para saldar viejas deudas, básicamente con la empresa investigadora de medios Ibope Time.

En su versión más conocida Belmont es propietario del Canal 11 (RBC), señal que a pesar de sus esfuerzos -y muchos esperpentos- no logra hacer despegar. También ocupa escaño en el Congreso gracias a la fatalidad. Cuando Alberto Andrade fallece de una fibrosis pulmonar, el Jurado Nacional de Elecciones declaró su vacancia y le otorgó la credencial al accesitario expedito, que no era otro que el ex alcalde de Lima.

En el Congreso, Belmont aprovecha la coyuntura y dirige su puntería contra Ibope Time hasta el punto que ha logrado convencer a Juvenal Silva, presidente de la Comisión de Transportes y Comunicaciones, para formar un grupo de trabajo que se encargará de investigar la metodología de Ibope para medir la teleaudiencia. Pero no es el único intento de Belmont para imponer su ley en la televisión local. En su empeño por limpiar de imágenes obscenas a la televisión peruana ha presentado un Proyecto de Ley que pretende reprimir con pena privativa de la libertad -cárcel- no menor de dos ni mayor de seis a quien «publicite» imágenes o audios obscenos o pornográficos (03621/2009-CR).

No nos corresponde criticar o cuestionar la calidad del Canal 11 pues ya se ha escrito bastante sobre el particular (elmorsa.pe: Un canal positivo), lo que sí vamos a hacer es analizar la idoneidad de estas dos propuestas «positivas».

Con relación a la investigación sobre la metodología de Ibope Time, cabría recordar que nos encontramos ante una empresa privada dedicada básicamente a medir los ratings de los programas de televisión locales. Información sólo de utilidad para anunciantes y canales. No debiera llamar la atención que el Congreso se entrometa en asuntos de estricto índole empresarial, no olvidemos los intentos de investigar las cutras (supuestas o reales) en el futbolero club Sporting Cristal (Comisión espera versión de Claudio Pizarro sobre caso Image), lo que sí sorprende es que sea Belmont quien tenga que liderar esta cruzada.

El mercado publicitario, como todos, funciona de acuerdo con las reglas de la oferta y la demanda. Si mucha gente ve un programa de televisión, anunciar en él valdrá mucho dinero y si por el contrario los televidentes se cuentan por centenas los espacios publicitarios serán muy baratos. Es decir, en un abierto conflicto de intereses, Belmont intenta que el Congreso investigue a quien durante años ha venido diciendo que sus programas no valen nada, en términos de mercado claro está pues todos sabemos lo que cuestan las piernas de Lucecita. Sea disculpado este rapto machista.

El otro afán de Belmont es luchar contra la pornografía en los medios de comunicación -vistos, escritos y hablados (¿?)-. Para ello está el Proyecto de Ley encarcelando a los pornógrafos. La fórmula empleada para tipificar el delito es tan vaga como imprecisa. Se castiga con cárcel a quien publique («publicite» en el original) imágenes o audios obscenos o pornográficos. Ignoró que entenderá Belmont por audio porno, pero mucho me temo que se refiere a cualquier aullido o gemido instintivo de índole libidinoso típico de las relaciones coitales, aunque con el hermanón nunca se sabe.

La mayoría de legislaciones restringen de alguna forma la emisión de imágenes pornográficas en las señales de televisión abierta. Por ejemplo, en los Estados Unidos se prohíbe la programación de contenidos potencialmente indecentes entre las 10 de la noche y las 6 de la mañana (La regulación de la (in)decencia, a propósito del caso FCC v. Fox), en España el proyecto de Ley General de Comunicación Audiovisual restringe la emisión en abierto de contenidos pornográficos o con violencia gratuita, los cuales sólo podrán emitirse codificados bajo control parental entre las 22.00 y 06.00 horas. En el Perú la Ley 28278 prohíbe que los servicios de radiodifusión difundan programas con contenido pornográfico o que promuevan el comercio sexual.

Si la legislación nacional ya impide la difusión de imágenes pornográficas, cuál es el sentido de sancionar a los infractores con pena de cárcel. No bastaría, en todo caso, con incrementar el nivel de la sanción administrativa o tipificar mejor la conducta antijurídica.

Recomiendo leer la Exposición de Motivos del proyecto en la web del Congreso, no tiene desperdicio. También la columna que sobre el particular escribiera César Hildebrandt.

 

Sueños de libertad

Hace veinte años el gobierno de la República Democrática Alemana (Deutsche Demokratische Republik) con Egon Krenz a la cabeza hacía agua por todos lados. En medio de grandes protestas populares, el Politburó del Partido Socialista Unificado de Alemania (Sozialistische Einheitspartei Deutschlands, SED) discutía la forma de superar la crisis. La vieja cortina de hierro que creó Stalin para protegerse de occidente se oxidaba rápida e irremediablemente. Para aliviar la enorme presión de los sectores reformistas el SED decidió, el 7 de noviembre de 1989, regular los viajes al exterior de los ciudadanos. Dos días después, en una histórica conferencia de prensa, el miembro del Politburó, Günter Schabowski, anunció el levantamiento de las prohibiciones que impedían viajar a occidente. A la pregunta del periodista italiano Riccardo Ehrman: – ¿Cuándo entrará en vigor? Schabowski contestó: – Desde este momento. Fue la dulce caída del Muro de Berlín. Horas después miles de pobladores de Alemania del Este cruzaban por el paso fronterizo de Bornholmerstrasse.

¿Seríamos capaces de imaginar la caída del Muro de Berlín con Internet y en un contexto de la web 2.0? En primera fila, la conferencia de prensa de Günter Schabowski transmitida por la Deutscher Fernsehfunk (televisión pública de la República Democrática Alemana) aparecería casi inmediatamente colgada en Youtube (seguro que los alemanes del este habrían desarrollado un sistema similar, al que llamaremos DeinRöhre). Minutos después miles de berlineses envían mensajes de texto a través de sus celulares (otra licencia) con la frase –Die Mauer fiel. La noticia se retwitea millones de veces, inunda el orbe y se enlaza en todas las redes sociales. Al día siguiente, mientras los bloggers van haciendo lo suyo, las páginas web de los diarios se nutren con fotos y videos tomados por los propios protagonistas. Una semana después pedazos del Muro empiezan a subastarse en eBay.

Existen decenas de casos de activismo político teniendo a Internet como éter comunicante. el pucelano Rodríguez Zapatero ganó sus primeras elecciones en España, en parte, gracias a las movilizaciones y protestas masivas ocurridas luego de los atentados del jueves 11 de marzo. No es el único caso. En junio de este año se celebraron elecciones en Irán, donde salió vencedor Mahmud Ahmadinejad. Algunos ciudadanos cuestionaron el resultado al considerarlo fruto de una tremenda trafa. Estas protestas hubieran pasado desapercibidas, gracias a la censura impuesta por el régimen de Teherán, de no ser por Internet y su cadena viral de redes sociales, blogs y sobre todo de Twitter (en lo que significó su debut político).

Pero si de activismo político y lucha por las libertades civiles se trata, hay muchos individuos que están amenazados por decir lo que piensan a través de Internet. Para identificar a estas personas Global Voices Advocacy lanzó una plataforma (Threatened Voices – Voces Amenazadas) que permite recopilar información de quienes ven coaccionada su libertad de expresión online, en particular, cuando la ejercen a través de blogs.

Veo en el mapa de Threatened Voices a Cuba. Tres casos. Poco me parece. Destaco un nombre, el de Yoani Sánchez, que como ella misma se presenta: «… reside en La Habana y combina su pasión por la informática con su trabajo en el Portal Desde Cuba«. Además es blogera y crítica del régimen castrista. Para los que no la conocen lean su blog (Generación Y). Les dejo un párrafo, endiabladamente delicioso:

«A partir del otoño de 1993 los que querían lucir bien tuvieron la oportunidad de adquirir novedosos productos y hasta de elegir entre varias marcas, pero tenían que llevar en su cartera la moneda del “enemigo”. Así que al precio de muchos sacrificios, las féminas de esta Isla no se dejaron derrotar en su deseo de verse más bonitas. Con sus labios pintados y la ropa ceñida, se ríen de aquellos que –en los momentos de mayor extremismo- definían como “frivolidad capitalista” a la humana intención de acicalarse. Pintarse el pelo de azul, hacerse un tatuaje o enganchase un argolla en el ombligo ya no es visto como una debilidad ideológica. Sobre los cuerpos han comenzado a brotar las señales de la seducción y del cambio.»

Yoani acaba de ser zurrada por tres individuos mientras asistía a una marcha contra la violencia. Cuando empecé a escribir esta entrada, antes que el camarada Abel me arrebatara el espacio por unos días con su Abogado 2.0, parecía que el régimen había tolerado, no sin algún empujón, la prosa irreverente y directa de Generación Y. Pero los autoritarismos, por eso son lo que son, tienen poca tolerancia y acaban siempre con las libertades de los opositores a mazazos, en realidad la más de las veces a balazos.

Yoani se recupera en un hospital local, mientras, desde Lima siento que escribir esta entrada es un ejercicio superficial, insípido, trivial.

[vsw id=»N7iwNkiYzuM» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Riccardo Ehrman entrevistado en LA F.m. (Riccardo Ehrman, periodista de la Agencia Ansa, quien hizo la pregunta que precipitó la caída del Muro de Berlín)

Net neutrality a consulta pública

Coincidiendo con el caso Medison River Communications en el 2005, algunos intelectuales y proveedores de contenidos en Internet lanzaron la idea de aprobar legislativamente el principio conocido como neutralidad de la red o Net neutrality. Desde aquel momento, openistas y regulacionistas han venido afilando el hacha y se han enfrentando regularmente, ya sea para negar o estimular la validez de esta pretensión.

Y así andaban, como Massé y Sifuentes en Radio Capital (Massé y Sifuentes a porrazos), hasta que el hoy presidente Barack Obama, rendido a los pies del ciberactivismo más radical, anunció durante la campaña electoral presidencial americana su firme compromiso con la Net neutrality. También prometió implementar, durante su primer año en funciones, el marco legislativo para asegurar su escrupuloso cumplimiento. De esta forma el movimiento pro neutralidad empezó a mover sus fichas.

httpv://www.youtube.com/watch?v=Vd8qY6myrrE

A finales del mes de junio Barack Obama nombró al defensor de la Net neutrality, Julius Genachowski, como presidente de la Federal Communications Commission (Comisión Federal de Comunicaciones – FCC), el regulador de las telecomunicaciones en los Estados Unidos (Cambios en la FCC). Una vez cumplido este trámite, lo único que cabía era esperar cuando se anunciarían las medidas legislativas en favor de la Net Neutrality.

Hace poco más de un mes, el pasado 21 de septiembre para ser exactos, el flamante presidente de la FCC pronunció un discurso ante The Brookings Institution, en el que desvelaba su programa para «preservar una Internet libre y abierta: una plataforma para la innovación, la oportunidad y la prosperidad». La propuesta de Genachowski significa en la práctica el incremento de la regulación y de las obligaciones que soportan los operadores de red de telecomunicaciones. Específicamente se pretende incorporar al marco regulatorio seis nuevas obligaciones para los operadores de red. Estas obligaciones parten del proceso de incorporar dos nuevas recomendaciones a las cuatro ya existentes sobre la neutralidad de red (New Principles Preserve and Promote the Open and Interconnected Nature of Public Internet), vigentes desde agosto de 2005, y de elevar todas a rango de ley. No nos olvidemos que estas recomendaciones, únicamente constituían principios informadores de las políticas de la FCC.

Las dos obligaciones adicionales serían: (5) Principio de no discriminación: Los proveedores de acceso no pueden discriminar contra contenidos o aplicaciones concretas, siempre que sean legales; y, (6) Principio de transparencia: los operadores de red deben informar de los mecanismos que utilicen para gestionar el tráfico en la red.

Siguiendo esta línea, el 22 de octubre, la FCC ha iniciado una consulta pública (Nota de prensa) sobre el proyecto de reglamento para complementar los principios de apertura existente en Internet (Propuesta de regulación). Pero como a toda acción le sigue una reacción, de acuerdo con la Tercera Ley de Newton, ya se están presentando en el congreso de los Estados Unidos diversas iniciativas para limitar el papel regulador de la FCC sobre Internet (McCain introduces bill to block Net neutrality).

En diciembre del año pasado Cord Blonquist en openmarket.org profetizaba que el 2009 vería el apaciguamiento de las posiciones de quienes defendían la Net nutrality (¿Habrá una ley pro Net Neutrality en USA?). Parece que acertó, no tendremos ley pro neutralidad de la red este año, pero es más que probable que se apruebe el año que viene. Creo que la principal virtud de quienes propusieron regular sobre la neutralidad de la red, ha sido traer al tapete aspectos tan importantes como la gestión del tráfico, el financiamiento de la red, la censura y la necesidad -o no- de mantener la arquitectura original de Internet. No mucho más.

Los regulacionistas no vociferan la necesidad de la Net neutrality para proteger a Internet de una epidemia moderna, lo hacen para evitar que determinadas organizaciones puedan imponer una serie de restricciones consideradas ilegítimas -o por lo menos cuestionables- en un futuro. Aclarando, no lo han hecho pero se presume que podrían hacerlo. Es decir, reconocen la maldad intrínseca de los operadores de red y por lo tanto es necesario reprimir su capacidad para dañar a Internet. No creo que nos encontremos ante un argumento plausible.

Todos los casos reportados como amenazas al Internet libre (Medison River Communications o Comcast), fueron solucionados por las instancias competentes sin necesidad de echar mano a ningún nuevo ordenamiento (Comcast incumplió las políticas de la FCC, pero no será multada). No parece pues necesario desplegar todo un cuerpo legislativo para componer algo que no está malogrado.

Desarrollaremos estas ideas en entradas posteriores.

[vsw id=»dF7rbOj-HPA» source=»youtube» width=»425″ height=»344″ autoplay=»no»]

Discruso de Julius Genachowski en el Brookings Institute

La regulación de medios audiovisuales en tiempos convergentes

El Senado argentino aprobó hace unas semanas (madrugada del 10 de octubre) la polémica Ley de Servicios de Comunicación Audiovisual (Ley de Medios) que reemplaza a la Ley de Radiodifusión, vigente desde la dictadura militar. La Ley de Medios, impulsada desde el kischnerismo, no es otra cosa que una muestra de intervencionismo estatal en los medios de comunicación. Bajo la excusa de desmonopolizar el sector audiovisual argentino se crean una serie de organismos administrativos encargados -más o menos- de controlar a los medios y se incorporan una serie de restricciones y obligaciones que difícilmente ayudarán a asegurar la libertad de expresión y la calidad de las emisiones.

No estoy al tanto de la política argentina y por eso carezco de la capacidad para leer entre líneas, sin embargo, estimo que la Ley de Medios parte de la premisa de que la regulación es la solución para los grandes males (supuestos o reales) del sector. En cada uno de sus artículos se adivinan viejas aspiraciones de productores locales a los que la Ley mima sin compasión.

Pareciera que los ponentes de la Ley de Medios ven en el mercado al problema para el normal desarrollo del sector, tanto que excluye a los agentes económicos tradicionales de la explotación de una parte importante de las licencias. De esta forma, corresponderán al Estado, organizaciones sin ánimo de lucro -fundamentalmente la Iglesia Católica-, sindicatos, pueblos originarios y a las universidades cerca de la tercera parte de las licencias para radio y televisión existentes.

El proyecto también prevé abrir el mercado argentino de la televisión de pago a las compañías de telecomunicaciones que deseen ofrecer el triple servicio de telefonía, Internet y televisión. Sin embargo, se impide que una empresa que ofrezca servicios de televisión abierta pueda ofertar también servicios de cable y, asimismo, impide que una empresa cope más del 35% del mercado audiovisual argentino.

Aún cuando la Ley de Medios es la última de esta naturaleza en aprobarse existen iniciativas similares en otras latitudes. Por ejemplo, la Directiva 2007/65/CE del Parlamento Europeo y del Consejo de Europa de diciembre de 2007 (Directiva «Servicios de medios audiovisuales sin fronteras») regula el ejercicio de actividades de radiodifusión televisiva. Esta última se encuentra todavía en etapa de transposición a las legislaciones locales por parte de los estos miembros de la Unión Europea.

Casi desde su nacimiento las industrias de radiodifusión han sido objeto de intensa regulación. Cuando el Estado no se reservaba la explotación de las frecuencias establecía una serie de límites para el uso de licencias otorgadas o la cantidad de contenidos nacionales que se debían transmitir por las mismas. La premisa principal que soportaba todas estas medidas regulatorias era sencilla y casi un dogma de fe: el espectro radioeléctrico es un recurso natural, es escaso y por lo tanto el Estado está obligado a asegurar su uso eficiente.

Sin embargo, el actual desarrollo de la tecnología hace que gran parte de las justificaciones que inspiraron estas regulaciones se encuentre en entredicho. Casi al mismo tiempo que se discutía la Ley de Medios en Argentina, el blog de YouTube anunciaba (Y,000,000,000uTube) que la popular web servía a más de mil millones de visitantes al día. Por la misma fecha, la selección nacional de Inglaterra disputó un partido clasificatorio para el mundial de Sudáfrica 2010 en Ucrania, lo más destacado del encuentro no fue que el equipo ingles, dirigido por el italiano Fabio Capello, perdiera el invicto, sino que éste fue transmitido exclusivamente por Internet (BBC: England web tie appears a success). Finalmente, para poder hacer esta entrada, he tenido que luchar a brazo partido con mis dos hijas que veían «Clave Uno, médicos en alerta«, una serie de la televisión local cuyos capítulos se pueden ver íntegramente en Youtube; pues precisamente para eso, ver series de televisión a través de Internet, está Hulu (Hulu y el futuro de Youtube).

En un contexto de creciente convergencia no tiene mucho sentido seguir regulando intensamente algunos servicios de las industrias audiovisuales, mientras que el resto permanece sin regular. Si durante décadas la industria del entretenimiento estuvo dominada por la radio y la televisión, hoy ese control ha sido erosionado por una enorme cantidad de actores y tecnologías, entre las que podemos incluir: televisión por cable y televisión satelital, radio por satélite, VCR y DVD, Internet, blogging, redes sociales, podcasts, equipos de música y vídeo digitales portátiles, videoconsolas, etc.

No es factible en este mundo convergente y cambiante, imponer regulaciones a los servicios audiovisuales como si nos encontráramos en la década de los cincuenta. Es indispensable antes, hacer un análisis del mercado relevante. Si lo hiciéramos veríamos que en un mismo mercado convergen además de los medios de comunicación tradicionales -radio y televisión-, diversas tecnologías que difícilmente serán alcanzados por la regulación gubernamental tradicional y su largo brazo de corruptelas y sobrecostos.

Elinor Ostrom, premio inesperado a los comunes

Garret Hardin fue un biólogo graduado en las universidades de Chicago y Stanford y su nombre habría pasado casi desapercibido si en 1968 no hubiera publicado el conocido e influyente estudio The tragedy of the commons (La tragedia de los comunes). Hardin explica la tragedia de los bienes comunales a partir del ejemplo de un pastizal en una situación de estabilidad social. Un pastor racional añadirá tantos animales a su rebaño como le sea posible, de tal forma que la libertad de explotar los recursos comunes resultará en la ruina para todos, pues el pastizal no es un recurso ilimitado.

El trabajo de Hardin se hizo muy popular entre los economistas para desacreditar la viabilidad de los bienes comunes. Sin embargo, matizando las cosas, el ejemplo citado por Hardin no es en estricto sentido un bien común, es un páramo, un espacio de frontera, una tierra del lejano oeste. Como señala con acierto David Bollier (Los bienes comunes: un sector soslayado de la creación de riqueza) «Hardin describe un régimen de acceso abierto no regulado, la tierra de la que habla no tiene límites, ni existen reglas para gestionar el acceso a ella y su uso. Cualquiera se puede apropiar de lo que desee. Nadie está gestionando las tierras comunes. Dicho de otra forma, de lo que habla Hardin es de una tierra de nadie.«

Hace unos días la Real Academia Sueca de Ciencias decidió otorgar el Premio Nobel de Economía a los estadounidenses (curiosamente también californianos) Elinor Ostrom (primera mujer en conseguirlo) y Oliver E. Williamson. Confieso, en lo que debe ser una evidencia de mi pereza, que es la primera vez que los suecos entregan el Nobel a alguien que ya había leído y en este caso lo he hecho con los dos.

En lo que nos ocupa. Es quizá el premio de Ostrom el que tendrá mayor repercusión para analizar algunos aspectos relacionados con la gestión de Internet y es, sobretodo, una puesta en valor de las posiciones de quienes venían cuestionando los postulados de Hardin.

La mayor parte de los trabajos de Ostrom se han dedicado al estudio de cómo se gestionan los recursos comunes, como bosques, ríos o pastizales. De esta forma, intenta echar por tierra la tesis de que los individuos racionales utilizan generalmente de forma excesiva estos recursos comunales y que la asignación de derechos de propiedad es el mejor camino para evitar su depredación.

Ostrom encontró que diversas sociedades tienden a crear y mantener a lo largo del tiempo complejas reglas, normas y sanciones para garantizar que estos recursos comunales se utilicen de forma sostenible y llega a la conclusión que este mecanismo de gobierno a menudo funciona bien, pudiendo rivalizar en eficiencia con formas tradicionales de propiedad.

Aunque Ostrom no ha estudiado el fenómeno de Internet como un bien común, distintos autores como Lessig, Boyle o Benkler parecen haber hecho correctamente esta tarea. En principio Internet puede entenderse como una sucesión de niveles o capas. En la capa de red, se afirma, que Internet es viable gracias a la creación de un conjunto de protocolos no propietarios que permiten la interconexión de las diferentes computadoras. De esta forma Internet se habría convertido en el mayor y más robusto bien comunal de la historia.

Existen innumerables ejemplos de bienes comunes digitales como Linux y demás software de código abierto. Wikipedia, Craigslist (anuncios clasificados), Flickr (compartir fotos), Internet Archive (webs históricas), SourceForge (Aguantan los comunes) y Public.Resource.org (información gubernanmetal). Cada web comunal actúa como un administrador eficiente de su riqueza colectiva.

David Bollier (Elinor Ostrom And The Digital Commons) sostiene que una de las razones fundamentales para la creación y proliferación de que todos estos bienes comunales digitales, es que los comuneros no tienen que obtener el permiso de nadie o efectuar pagos a un intermediario empresarial. Pueden construir lo que quieren directamente, y gestionar su trabajo de la forma que deseen.

Creo que tanto como las tesis de Ostrom resultan aplicables a bosques y pastizales, lo contrario se podría afirmar de los postulados de Hardin para bienes informacionales. Cabe recordar que hace algún tiempo (La virtud de no dar, a prósito del último libro de Michael Heller) señalamos que cuanto más propiedad se entregue sobre un recurso cultural, más difícil será que se construya a partir de ellos. En este contexto la administración comunal de bienes digitales no parece descabellada. Aunque no debemos olvidar que Internet es un ecosistema complejo y hay espacio para todos y para todas las formas de gestión en él.

En el site de la Asociación Internacional para el Estudio de los Bienes Comunes (The International Association for the Study of the Commons – IASC) se pueden revisar más de cien documentos de Ostrom (aquí) además de una selección de textos (aquí). El Fondo de Cultura Económica (2000) tradujo al español el que tal vez sea su trabajo más representativo (El gobierno de los bienes comunes. La evolución de las instituciones de accion colectiva).

Algunos comentarios de la entrega del Nobel a Ostrom:

Quemar las naves (El premio nobel del bien)

Soitu.es (Sobre el gobierno de los ‘ecosistemas digitales’: en honor de Elinor Ostrom)

The Economist (The Nobel prize for economics, The bigger picture)

Pagar por «linkear»

Ilustración: David Horsey

Ira Shapira, es un periodista del Washington Post que escribió una nota (Speaking to Generation Nexus, Guru Explains Gens X, Y, Boomer To One Another) sobre Anne Loehr una “consultora generacional”. El artículo detallaba los problemas entre la generación X (nacidos en la década de 1970) y los Baby boomers (nacidos entre los años 1946 y principios de la década de 1960) para relacionarse con la generación Y (nacidos a finales de 1970 y principios de 1980). Hamilton Nolan recogió la historia del Post e hizo una breve entrada (‘Generational Consultant’ Holds America’s Fakest Job) en Gawker -una sarcástica web sobre la vida cultural de Nueva York- copiando algunos párrafos del artículo original y cuidándose de enlazar su artículo con la versión del Post.

Inicialmente, Shapira se mostró entusiasmado con el rebote de su artículo; pero, posteriormente montó en cólera, tanto que publicó otro artículo denunciando el hecho (The Death of Journalism (Gawker Edition)). En esta segunda entrega, Shapira describe el arduo trabajo que le costó hacer la nota de 1,500 palabras: participar en un seminario generacional, notas preparatorias, cita con Anne Loher y todo un día para redactarlo. Para Hamilton Nolan de Gawker el trabajo no fue tan arduo, entre media y una hora.

Como la ley de derechos de autor americana permite reutilizar el trabajo de los diarios y vender anuncios sin pago alguno, Shapira propone revivir algunas regulaciones que se dejaron de lado desde fines de la década de 1970. Recuerda que en 1918 la Corte Suprema de los Estados Unidos falló a favor de Associated Press en un caso contra una agencia de noticias que había copiado sus noticias. Cuando el Congreso revisó las leyes del copyright en 1976, el Department of Justice (DoJ) se opuso a la decisión de la Corte Suprema, argumentando que otorgaba a los medios de comunicación un «monopolio sin límites» sobre las noticias.

Resumiendo, Shapira pretende que los bloggers citen la fuente original de inmediato; y, si se quiere una cita textual importante, se tendría que pagar una tasa.

Richard Posner en el blog que mantiene con Gary Becker (The Future of Newspapers) también piensa que para salvar a la prensa es necesario expandir las protecciones legales a los autores. Posner considera que si los periódicos tradicionales desaparecen y pasan a publicarse íntegramente en línea, sería muy difícil que sigan realizando su labor como lo hacen hoy, pues es más fácil aprovecharse gratuitamente de las distintas fuentes en línea y apropiarse de la información de los medios impresos. Para solucionar el problema, Posner propone ampliar los derechos de autor limitando los links hacia contenidos protegidos sin el consentimiento del titular e impedir el refraseo de los artículos sin contar con autorización expresa.

De la crisis de la prensa se viene hablando incluso desde antes que la crisis financiera mundial la exacerbara (The Economist: Who killed the newspaper?). Blawyer ha dedicado algunas entradas al tema (Y el culpable es… !Google¡, Un zoco o un gran almacénMuere la prensa). Creemos que es posible abordar esta crisis desde un doble análisis. Primero determinar si es acertada la posición de quienes creen que el único modelo de prensa posible es el tradicional y por lo tanto son necesarias protecciones especiales para evitar su desaparición. Ya habrá tiempo para discutir sobre este tópico. El otro es verificar si las propuestas de protección son plausibles. Creo sinceramente que no.

Como es conocido los derechos de autor otorgan una protección especial a los creadores para incentivarlos a seguir creando. Sin embargo, este derecho no es absoluto. Para limitarlo están aquellas disposiciones que reducen esta exclusividad sólo por un período de tiempo, también lo que los americanos llaman fair use o uso justo, que en nuestra jurisdicción se conoce como limitaciones al derecho de explotación; como el derecho de cita, derecho a hacer críticas o realizar copias con fines académicos.

Estas limitaciones pretenden, no sólo paliar los efectos negativos del monopolio otorgado a los autores, sino también racionalizar los efectos que supondrían otorgar unos derechos absolutos. De esta forma el derecho de cita al tiempo que permite la difusión del trabajo referido, reduce los costos que implicaría exigir la autorización del titular cada vez que se hace una referencia.

Las posiciones de Shapira y Posner parecieran no ser recomendables, en la medida que las citas y los links de artículos y noticias benefician a los diarios al aumentar, gracias a ellos, las audiencias de sus ediciones en línea. Por otro lado, expandir los derechos de autor de la forma aconsejada generaría un aumento de los costos de transacción. Finalmente, un aspecto que no debe olvidarse, las normas están hechas para cumplirse y no veo la forma, dado el desarrollo actual de la Red y sus patrones de consumo, cómo una medida como la propuesta podría cumplirse.

Borges 2.0

«Nadie rebaje a lágrima o reproche esta declaración de la maestría de Dios, que con magnífica ironía me dio a la vez los libros y la noche«.

Mi contacto con Borges (1899 – 1986) fue más bien tardío, creo que andaba por el ecuador de la carrera de Derecho en la Universidad de Lima. Ficciones fue el libro que escogí -o me eligió- para adentrarme en la obra del genio porteño, confieso que su prosa me sedujo para siempre inmisericordemente. Curiosamente también por aquella época empecé a leer novelas de ciencia ficción, nombres como Isaac Asimov, Arthur C. Clarke, Alfred Bester o Roger Zelazny se convirtieron en habituales sobre mi mesa de noche. Como veremos el enroque entre Borges y la novela de ciencia ficción, casual en mi experiencia, no es forzado.

Ficciones es tal vez el título más conocido de Borges. Siempre encontré misteriosa la forma en la que estaba dividido (El jardín de senderos que se bifurcan y Artificios), sin embargo, hace poco descubrí que el motivo de su seccionamiento se debía a que la primera parte fue publicada tres años antes, en 1941. La edición de 1944, tiene un prólogo adicional y seis cuentos más, completada en 1956 con tres nuevos relatos.

Miguel Morachimo ya se refirió a alguno de estos cuentos en una de sus primeras entradas (La biblioteca de Babel y la paternidad responsable de los derechos de autor). Borges está de moda, por tanto no es casualidad que una antología de sus trabajos (Labyrinths) se haya reeditado el año pasado en los Estados Unidos luego de casi cincuenta años por New Directions. Tampoco es accidental que esta edición esté prologada por William Gibson, el famoso novelista padre del ciberpunk que acuñara el término ciberespacio.

Una de las razones que parece impulsar este renovado acercamiento con la prosa de Borges, es que algunos (Umberto Ecco entre ellos) creen ver en sus relatos referencias a Internet y al fenómeno blogger, supongo que otra razón será su calidad narrativa, aunque nunca se sabe.

Perla Sassón-Henry, profesora asociada del departamento de estudios lingüísticos de la Academia Naval de los Estados Unidos, publicó el año pasado Borges 2.0: From text to virtual worlds (Borges 2.0: Del texto a las palabras virtuales), donde explora las conexiones entre la Internet descentralizada YouTube, los blogs y la Wikipedia -la web 2.0- y algunas de las historias de Borges.

Noam Cohen, en una reseña del libro publicada originalmente en The New York Times (Borges and the Foreseeable Future), nos advierte que un grupo central de las historias de Borges -Funes el memorioso, La biblioteca de Babel y Tlön, Uqbar, Orbis Tertius-, con sus bibliotecas y hombres que no olvidan (Si Internet no olvida, Google tampoco), enciclopedias de colaboradores (Un nuevo paradigma: ¿todos pueden usar mi contenido?), mundos virtuales evocados desde la página impresa (La muerte y los impuestos) y portales que vigilan  todo el planeta (Viacom y la privacidad de los usuarios de YouTube), se han convertido en canon para los que encuentran una intersección entre las nuevas tecnologías y la literatura.

Cy-Borges: Memories of the Posthumous in the Work of Jorge Luis Borges (Cy-Borges: Recuerdo de lo póstumo en la obra de Jorge Luis Borges) de Stefan Herbrechter (Trinity and All Saints College, Universidad de Leeds) e Ivan Callus (Universidad de Malta) iría en la misma línea, lamentablemente, más allá de la escueta reseña en Amazon no he podido encontrar más sobre este libro.

Algunos párrafos de Ficciones, como verán si hasta parece ciberpunk:

De «La Biblioteca de Babel«

«Cuando se proclamó que la Biblioteca abarcaba todos los libros, la primera impresión fue de extravagante felicidad. Todos los hombres se sintieron señores de un tesoro intacto y secreto. No había problema personal o mundial cuya elocuente solución no existiera: en algún hexágono. El universo estaba justificado, el universo bruscamente usurpó las dimensiones ilimitadas de la esperanza. En aquel tiempo se habló mucho de las Vindicaciones: libros de apología y de profecía, que para siempre vindicaban los actos de cada hombre del universo y guardaban arcanos prodigiosos para su porvenir. Miles de codiciosos abandonaron el dulce hexágono natal y se lanzaron escaleras arriba, urgidos por el vano propósito de encontrar su Vindicación. Esos peregrinos disputaban en los corredores estrechos, proferían oscuras maldiciones, se estrangulaban en las escaleras divinas, arrojaban los libros engañosos al fondo de los túneles, morían despeñados por los hombres de regiones remotas. Otros se enloquecieron… »

De «Tlön, Uqbar, Orbis Tertius«:

«Ese arriesgado cómputo nos retrae al problema fundamental: ¿Quiénes inventaron a Tlön? El plural es inevitable, porque la hipótesis de un solo inventor –de un infinito Leibniz obrando en la tiniebla y en la modestia– ha sido descartada unánimemente. Se conjetura que este brave new world es obra de una sociedad secreta de astrónomos, de biólogos, de ingenieros, de metafísicos, de poetas, de químicos, de algebristas, de moralistas, de pintores, de geómetras… dirigidos por un oscuro hombre de genio. Abundan individuos que dominan esas disciplinas diversas, pero no los capaces de invención y menos los capaces de subordinar la invención a un riguroso plan sistemático. Ese plan es tan vasto que la contribución de cada escritor es infinitesimal. Al principio se creyó que Tlön era un mero caos, una irresponsable licencia de la imaginación; ahora se sabe que es un cosmos y las íntimas leves que lo rigen han sido formuladas, siquiera en modo provisional

Memorias de un pueblo fantasma, cerveza gratis y socialismo 2.0

Es difícil emplear conceptos acuñados en el pasado para describir los actuales procesos sociales. Creo que es precisamente lo que ocurre con el término socialismo para aplicarlo a algunos fenómenos de Internet. Hace unos días realizamos una breve crónica (¿Es la web 2.0 socialista?) de la discusión que mantenían Lawrence Lessig y Kevin Kelly respecto de si Internet es socialista. Coincido con Kelly cuando señala que muchos de los esfuerzos de lo que hoy en día llamamos web 2.0 son colectivos y por tanto podrían presentar algunas similitudes con un modelo de organización colectivista o cooperativo. Sin embargo, considero que Lessig tiene razón, aunque discrepe con su análisis político, respecto que Internet no es socialista. Sobre el particular el comentario que hace Miguel Morachimo a la entrada me parece de lo más acertado.

En la misma línea, destaco otro comentario al post. Lupi nos dice que «…llame como se le llame, socialismo o etc. Si no altera en nada las bases materiales, pues, no altera nada radicalmente (más sí, obviamente, en el campo cultural, lo cual podría cambiar todo luego). Mas no nada radicalmente. Los ricos siguen siendo menos. Los pobres siguen siendo más. Cuando cambie algo en eso, podría recién hablarse de palabras mayores.«

Ignoro cuál es la carga de profundidad que tiene el comentario de Lupi, pero en esencia vale para entender que la posición de Kelly es una versión descafeinada de socialismo, pues la existencia de estructuras comunitarias organizadas no es suficiente para calificar a la web 2.0 como socialista. Me valdré para ello de algunos ejemplos.

En el artículo de Kelly en Wired (The New Socialism: Global Collectivist Society Is Coming Online) que utilicé para contraponer su tesis a la de Lessig, se hace una cronología moderna del socialismo, en ella aparecen diversos hitos del socialismo 2.0 como Blogger, Wikipedia, Facebbok y Twiter junto con la Revolución de Octubre o la Revolución cubana. ¿Son en realidad socialistas modelos como Wikiedia o Facebook?

Wikipedia es una de esas raras historias en las que el postre termina siendo más importante que el plato de fondo. En el 2000, Jimmy Wales lanzó Nupedia, una enciclopedia en línea alimentada por artículos de especialistas no remunerados y un proceso de revisión entre pares. Como el proyecto avanzaba lentamente se creó un wiki para agilizar la creación de artículos. La historia siguientes es conocida Wikipedia se tragó a Nupedia que dejó de funcionar en el 2003.

Sin embargo, lo importante en este extremo no es determinar quien tiene la capacidad de colaborar en el desarrollo del sitio, sino cuál es el modelo de gestión. Veremos otro ejemplo.

¿Quién no se acuerda de GeoCities? GeoCities (antecedente de redes como Facebook, MySpace y de plataformas de blogs como Blogger y WordPress) era un servicio gratuito de webhosting fundado en 1994 como Beverly Hills Internet (BHI). Originalmente, los usuarios seleccionaban un «barrio» en el cual alojaban su página web de acuerdo con su contenido. En enero de 2000 Yahoo! compró GeoCities por 4 millones de dólares, lo gestionó fatal y sus ciudadanos migraron masivamente a plataformas más amigables. Nueve años después de su compra Yahoo anunció el cierre definitivo de GeoCities (So Long, GeoCities: We Forgot You Still Existed) y que sus archivos serán eliminados de los servidores. Se veía venir, hacía tiempo que GeoCities era un pueblo fantasma.

¿En qué se parecen Wikipedia y GeoCities? En que ambos son -eran- gratuitos. ¿Qué los diferencia? Que en Wikipedia los niveles de participación escalan hasta la cabeza y en Geocities como hoy en Facebook, MySpace o Blogger el sitio era -es- administrado por una empresa bajo patrones de dirección capitalistas. No es lo mismo hablar de un bien común que tener cerveza gratis.

David Bollier en onthecommons.org (When Web Communities Become Ghost Towns) señala algunas cosas interesantes sobre cuándo nos encontramos ante un bien común o ante una iniciativa empresarial. Muchas empresas desarrollan sitios de acceso libre, porque esa es la dinámica del mercado, es la forma para atraer una mayor audiencia y la forma obtener mayores ingresos por publicidad.

No olvidemos que en muchos de estos esquemas la razón de ser del site es hacer dinero y las condiciones del servicio se diseñan para alcanzar este objetivo. Aquellas comunidades alojadas en un sitio de esta naturaleza están subordinadas a un agente empresarial y éste impone una serie de condiciones sobre los contenidos generados por los usuarios como apropiarse de este material.

Resumiendo, creo que la economía de Internet ha logrado moldear gran parte de su dinámica social. Muchos sitios son gratuitos porque los modelos de pago fracasaron estrepitósamente y porque hay alguien dispuesto a pagar vía la publicidad por esta gratuidad. El hecho que en estos sitios se pueda compartir material no los aparta de la dinámica del mercado y por supuesto no los convierte en espacios libres de la lógica capitalista. Cerveza gratis no es socialismo.

Un mundo en guerra

Al alba del 1 de septiembre de 1939 el viejo acorazado alemán Schleswig-Holstein reposaba tranquilamente en el estuario del puerto de Danzig cerca de la desembocadura del Vístula. A las 4:30 de la mañana leva anclas y suavemente se traslada por el canal, hasta tomar posición de combate frente al fuerte polaco de Westerplatte. Imagino al capitán del barco, al todavía joven KzS Gustav Kleikamp, intuir apenas la silueta de la fortaleza con sus prismáticos y lo veo unos minutos después ordenando a su artillería escupir fuego contra los descuidados defensores. El cabo Ignacy Skowron se encontraba de guardia en ese momento, lo siento somnoliento y cansado ignorante de lo que se le vendrá encima, cuando observa desde su parapeto que una chispa sale de un costado del acorazado alemán. Décimas después, un proyectil de 280 mm impacta contra las defensas. La Segunda Guerra Mundial ha comenzado, hace casi exactamente 70 años.

Este es el mundo real y sabemos que la evolución de la humanidad es una historia de guerras y matanzas. Pero contrariamente a lo que podíamos pensar, el ciberespacio no ha estado libre de enfrentamientos, menos sangrientos tal vez pero igual de virulentos. Creo que mucho del Internet que tenemos y el que se está moldeando es y será fruto de estas guerras, de las que han sido y de las que vendrán.

La más famosa de todas es la Guerra de los Navegadores (The Browser Wars), algo así como la Gran Guerra de Internet. La Primera Guerra de los Navegadores (1996 – 2002) enfrentó a Microsoft, con su buque insignia el navegador Internet Explorer y Netscape, con su Navigator, por la dominancia del mercado de navegadores web. Microsoft con más recursos logró controlar las principales vías de aprovisionamiento de su contrincante hasta aplastarle y borrarlo del mapa. La Segunda Guerra de los Navegadores (2005 – 2007), nos permitió intuir lo que vendría después, en ella Internet Explorer enfrentó a los herederos de Nescape como Mozilla, FirefoxSafari Opera. La Tercera Guerra de los Navegadores (2008 – ) se disputa entre los cinco principales navegadores de la actualidad: Internet Explorer, Mozilla Firefox, Safari, Opera y Chrome. Ya hicimos el parte de guerra (Google Chrome y las Browser Wars).

No podemos pasar por alto a las Guerras de Competencia. La primera es la Sublevación de Washington (1998 -2001), 19 Estados de la Unión lideraron una sublevación en el corazón de los dominios de Microsof liderados por «Atila» Jackson. Una vez perdidos sus aliados políticos el ejército rebelde diezmado y agotado no logró que se sancionara a Microsoft por entorpecer la competencia en el mercado de Internet de los Estados Unidos. Luego estalló la Gran Guerra Europea de la Competencia, entre la Comisión Europea y la división oriental de Microsoft. La primera etapa de este enfrentamiento fue la Guerra del Reproductor (1999 – 2004). Esta vez Microsoft enfrentó a un rival de fuste que vengó sin paliativos a los valientes de Washington hasta imponerle una multa de 497.2 millones de euros por destruir el mercado de reproductores multimedia. Reconfortada por esta victoria, la Comisión intenta saldar viejas deudas y ha iniciado la Guerra Europea del Navegador (2008 – ) contra Microsoft por agregar a su sistema operativo el Internet Explorer. Tenemos parte de guerra (Microsoft y la UE: la guerra continúa).

Otro enfrentamiento trascendente es el de las Guerras de los Derechos de Autor (Intellectual Property and Copyright Wars). Lucha feroz donde los regulares de los derechos de autor se enfrentan no sólo a rivales de línea sino también a una enorme guerrilla que los hace retroceder constantemente. Las Guerras de los Derechos de Autor comenzaron en 1995 cuando la industria de contenidos (una alianza formada por la industria musical, la cinematográfica y la editorial) de los Estados Unidos elaboró una estrategia para defenderse del ataque de las tecnologías digitales. Entre 1997 y 1998 se aprobaron una serie de leyes destinadas a extender la vida útil de los derechos de autor, reforzar las sanciones penales y castigar el uso de tecnologías que trataban de eludir los sistemas de seguridad de los contenidos digitales. A estas leyes se sucedió una ofensiva litigiosa contra las entidades más representativas de esta amenaza como MP3.com y Napster. Luego, como el pueblo estaba armado, la alianza intentó reprimir a los internautas acusándolos de descargar música o permitir a otros a hacer lo mismo. Sólo en junio de 2006, la Recording Industry Association of América (RIAA) demandó a 17.587 personas por vulnerar los derechos de autor. Al día de hoy los combates continúan.

Un frente menor lo constituyen las llamadas Guerras de la Privacidad (Privacy Wars). Recordemos que la Primera Guerra de la Privacidad (1990 – 2001), comenzó cuando la Comisión Federal de Comercio (Federal Trade Commission) fomentó inicialmente la autorregulación de la industria para luego pedir al Congreso de los Estados Unidos legislar para hacer cumplir la privacidad de los sitios web, finalmente no lo hizo. La Segunda Guerra de la Privacidad (2009 -) acaba de comenzar, una coalición de defensoras de los derechos de los consumidores vienen atacando los mecanismos de publicidad dirigida, exigiendo que el Estado instaure una suerte de privacidad preventiva deteniendo los anuncios en línea personalizados sobre la base de los hábitos de los consumidores. La crónica completa en Liberation Front (Privacy War II (Part 1): Attack of the Anti-Advertising Axis).

El panorama parece desolador y nuevos combates se vislumbran en el horizonte mejor dicho en el aire con la cloud computingo computación en nube, que nos promete una serie deserviciosdirectamente a través de Internet. Veremos que pasa, pero creo que a diferencia de las guerras del mundo real de éstas saldremos ganando todos.

Para los interesados les dejo la primera escena de la Segunda Guerra Mundial: el Schleswig-Holstein castiga la fortaleza de Westerplatte el 1 de septiembre de 1939.

[vsw id=»NgENjoWBFf4″ source=»youtube» width=»425″ height=»344″ autoplay=»no»]

¿Es la web 2.0 socialista?

Si algo ha desaparecido en los últimos tiempos del mundo real  es la discusión dogmática. La otrora confrontación de ideas políticas, con su propuesta de mundos ideales según se viera desde la derecha o izquierda, ha sido dejada de lado por una retórica más o menos insulsa sobre la mejor forma de administrar la cosa pública. Salvo algunos alucinantes proyectos, encabezados por el Chavismo venezolano y sus satélites latinoamericanos, la nueva arena política es tan entretenida como bailar con la hermana. Mejor.

Pero el ciberespacio es otra cosa. Aquí se discuten con profundidad algunos tópicos que hace unos lustros estaban reservados para otras realidades. Mientras que en el mundo real tenemos practicidad aquí encontramos dogmática, si allí desinterés aquí participación y frente a la apatía en el metaverso se actúa con pasión.

Prueba de ello son dos de los últimos posts del blog de Lessig (Et tu, KK? (aka, No, Kevin, this is not «socialism»On «socialism»: round II), que nos dejan una interesante polémica con Kevin Kelly, de la cual participaré humildemente desde este pequeño rincón. El tema es sugerente, aunque ignoro cuál sea su utilidad: ¿Es la web 2.0 socialista?

Kelly sostiene en un artículo publicado en Wired (The New Socialism: Global Collectivist Society Is Coming Online), que la fiebre mundial para conectar a todos con todos es una versión revisada del socialismo. Para Kelly los aspectos comunitarios de la cultura digital son profundos y amplios. Wikipedia es un ejemplo notable de un colectivismo emergente. Proliferan los sitios de colaboración como Digg, StumbleUpon, The Hype Machine y Twine, los cuales sugieren un movimiento constante hacia una especie de socialismo sintonizado con un mundo en red.

En este socialismo en lugar de granjas colectivas, nos reunimos en mundos colectivos. En lugar de fábricas estatales, tenemos fábricas de escritorio conectados a cooperativas virtuales. En lugar de compartir brocas, picos y palas, se comparten aplicaciones, scripts y APIs. En lugar de politburós sin rostro, tenemos una meritocracia sin rostro, donde lo único que importa es hacer las cosas. Si las masas poseen los medios de producción, contribuyen hacia una meta común sin salario y sin gozar de los frutos de su esfuerzo ¿No es razonable decir que es socialismo?

Lessig discrepa y cree que por el contrario web 2.0 no es socialista (Et tu, KK? (aka, No, Kevin, this is not «socialism») y On «socialism»: round II). Considera que El núcleo del socialismo es la coacción (justificada o no). El núcleo de las conductas que Kelly celebra es la libertad.

Lessig mete mano a un clásico -nada menos que a Adam Shmith-. Señala, el objetivo de Smith era tanto entender el papel del mercado como explicar la provisión de los bienes públicos. Sólo se puede comprender el papel del mercado en un contexto de bienes públicos y un asunto de vital importancia es cómo una sociedad los produce.

Smith estuvo fascinado por los bienes públicos (no rivales y no excluyentes, como los economistas conceptuaron más tarde), pero que no fueron creados por cualquier actor central como el Estado, sino por las acciones voluntarias de los individuos. Lo que Smith estaba señalando no es razonable llamarlo socialismo, debido a que el socialismo utiliza el poder del Estado para obtener un resultado que de otro modo no habría sido sostenido voluntariamente por las personas.

Lessig cree que no es momento de hacer una redefinición lúdica de un término que tiene un sentido claro y particular. Lo que quiera que el «socialismo» pudo haber sido si no hubiera sido secuestrado por las revoluciones en el Este es intrascendente, pues el significado del término no es lo que es hoy Wikipedia.

Ignoro si nos encontramos ante una discusión trascendente, en realidad muy pocas lo son, pero no cabe duda que es interesante. Hace unos días conversaba con Enrique Pasquel con ocasión de la presentación del  libro «El impacto de las innovaciones tecnológicas en el Derecho Privado«, precisamente sobre este tópico. Anotábamos, como algunas posiciones antagónicas en otros escenarios -los derechos de propiedad reales específicamente- no lo son tanto en la Red, donde austriacos y neo marxistas parecen coincidir.

Jorge del Prado (1910-1999), miembro del Partido Comunista Peruano, definió al socialismo como la «socialización de los medios de consumo para liberar a los hombres de la explotación» (HILDEBRANT, Cesar. Cambio de palabras. 2008). Es difícil, atendiendo a su concepto clásico, calificar a Internet como socialista. El hecho que se produzcan una serie de desarrollos colaborativos no afecta en esencia el hecho de que la web siga siendo capitalista. Lo que está en manos de los usuarios, son algunos insumos y el producto del proceso productivo, pero los medios de producción no son colectivos. Bajo este esquema no es posible definir a la web 2.0 como socialista. Punto para Lessig.