Palabras en juego

Anuncio
Palabras en juego
Enfoques Multiculturales sobre
las Sociedades de la Información
2005 - 2006
Coordinado por
Alain Ambrosi
Valérie Peugeot
Daniel Pimienta
Publicado por
C & F Éditions
Fuente:
Vecam
Palabras en juego
El texto es publicado bajo licencia
Creative Commons Atribución,
su uso comercial no está autorizado.
El conocimiento debe ser ofrecido en libre acceso...
No obstante, los autores y editores necesitan un ingreso
para continuar con su trabajo.
Si usted tuviera la posibilidad, no dude en hacer su
pedido en línea (€ 39).
Contenido
Hacia sociedades de saberes
compartidos
Alain Ambrosi / Valérie Peugeot /
Daniel Pimienta
Palabras en juego: historia de
un proyecto
Alain Ambrosi / Valérie Peugeot /
Daniel Pimienta
Sociedad de la información y
Sociedad del conocimiento
Sally Burch
Gobernanza en red y
gobernanza electrónica
Partha Pratim Sarker
La Gobernanza de Internet
Carlos Afonso
Diversidad cultural
Alain Kiyindou
Infraestructura y acceso
universal
Raphaël Ntambue
La brecha digital
Kemly Camacho
Acceso público a Internet
Subbiah Arunachalam
Mujeres
Mavic Cabrera-Balleza
Accesibilidad
Catherine Roy
Inteligencia cooperativa
Felix Stalder
Expresión ciudadana
Michel Briand
La innovación por el uso
Dominique Cardon
Comunidades virtuales
Luis Ángel Fernández Hermana
Bibliotecas digitales
Hervé Le Crosnier
Gestión de saberes
Pascal Renaud
Educación
Rosa María Torres
Derechos humanos
Rikke Frank Jørgensen
Delito informático
Stephanie Perrin
Derechos de la comunicación
Sean O’ Siochru / Alan Alegre
Medios de comunicación
Marc Raboy / Marcelo
Solervicens
Piratería
Sasha Costanza-Chock /
Christine Schweidler
Software libre
Marcelo d’Elia Branco
Los derechos de propiedad
intelectual
Mouhamadou Moustapha Lo
Economía de la información
Roberto Verzola
Los desafíos del
multilingüismo
Adriana Lau
Los autores
Alain Ambrosi
Es el actual director del “Carrefour Mondial de l’Internet Citoyen”,
responsable de la conferencia de GlobalCN Montreal 2002. Ha
trabajado durante varios años en cooperación internacional en el
seno de ONGs y ante gobiernos y agencias multilaterales en el
campo de la comunicación para el desarrollo. Investigador
independiente y consultor, es autor de numerosos artículos y editor de
obras en diferentes idiomas. También ha producido y dirigido
películas documentales sobre diversos continentes.
Su interés y su militancia en el transcurso de los últimos diez años se
concentran en la puesta en red de las organizaciones de la sociedad
civil en el campo de la comunicación democrática. Ex director del
Servicio Universitario Canadiense Ultramar y co - fundador de las
ONG Video Tiers-Monde y Vidéazimut, ha participado desde 1995 en
numerosas “redes de redes” internacionales de profesionales y de
investigadores (entre ellas la Plataforma de Londres, Voices 21, la
Table Ronde MacBride, CRIS). Es miembro del partenariado de
Global CN desde Barcelona 2000. Ha organizado encuentros
internacionales en todos los continentes. En 1998 organizaba para
Vidéazimut la conferencia virtual sobre “El derecho a comunicar”.
http://videazimut.lecarrefour.org.
Daniel Pimienta
Director de FUNREDES, Asociación Redes y Desarrollo para la
promoción de Internet en el Caribe, Daniel Pimienta ha participado en
la gestión de comunidades virtuales, la formación de usarios, la
creación de recursos de información, la negociación de acuerdos de
mutuo beneficio con proveedores de Internet.
Anteriormente, luego de una carrera de arquitecto de sistema de
telecomunicaciones para IBM en Francia, posteriormente en Estados
Unidos, asumió el puesto de Consejero Científico de la Unión Latina
en Santo Domingo y el de Director de la Oficina del proyecto
REDALC (Red para América Latina y el Caribe). Se dedica a la
diseminación de las Tecnologías de la Información y Comunicación en
los países en Desarrollo, hacia los sectores de la educación, la
investigación y el desarrollo.
Valérie Peugeot
Diplomada en Ciencias Políticas, trabaja y milita desde hace quince
años en el mundo asociativo, en torno a las cuestiones de renovación
democrática y de ciudadanía activa. Europa política, mundialización,
salida de la sociedad salarial, alternativas a la sociedad de mercado
son algunos de los temas sobre los cuales se ha comprometido.
Actualmente es consultora en telecomunicaciones e Internet y
administradora de la asociación VECAM - reflexión y acción para el
Internet ciudadano. Esta asociación busca promover los usos sociales
y democráticos de las TIC (tecnologías de la información y de la
comunicación) y anticipar los cambios de sociedad generados por la
entrada en la era de la información. Ella también es miembro del
comité de redacción de la revista Transversales Sciences Culture.
Sally Burch
Periodista independiente británica, residente en Ecuador desde 1983.
Es directora ejecutiva de la Agencia Latinoamericana de Información
(ALAI). Ha publicado numerosos escritos sobre el tema de
comunicación y nuevas tecnologías. Co-autora de los libros:
Movimientos Sociales en la Red (ALAI, 2001) y “Se cayó el sistema”:
Enredos de la Sociedad de la Información (ALAI, 2003).
Entre 1990 y 1993, lideró la implementación del primer nodo de
correo electrónico en Ecuador (Ecuanex). En 1993-95 fue
coordinadora mundial del Programa de Apoyo a las Redes de
Mujeres de la Asociación para el Progreso de las Comunicaciones
(APC), iniciativa pionera en motivar a las mujeres a apropiarse del
uso de Internet para la IV Conferencia Mundial de la Mujer de la ONU.
En 2001-2003 actuó como co-coordinadora del Grupo de Trabajo
sobre Contenidos y Temas de Sociedad Civil en el marco de la
Cumbre Mundial de la Sociedad de la Información de la ONU. Es
licenciada en literatura de la Universidad de Warwick (Inglaterra) y
tiene un diploma en periodismo de la Universidad Concordia
(Montreal, Canadá).
Partha Pratim Sarker
Partha Pratim Sarker trabaja como especialista en “TIC para el
Desarrollo” y es cofundador de la red ciudadana “Bytes for All”
(http://www.bytesforall.net) una de las principales comunidades en
línea del Sur de Asia. Posee una larga experiencia en el ámbito de la
documentación y la coordinación de proyectos de TIC para el
Desarrollo relacionados con los derechos a la comunicación, la
disminución de la pobreza, los medios y la comunicación a nivel
popular, la gobernanza electrónica, los medios de vida rurales, etc.
Actualmente trabaja como Coordinador de Proyecto para APC Asia
ICT Policy Monitor Network (http://asia.rights.¬ apc.org).
El Sr. Sarker ha trabajado o ha tenido experiencias como consultor en
organizaciones tales como el IDRC, la Oficina Regional Asia Pacífico
de la UNESCO, la Secretaría de GKP, APC, el Instituto del Banco
Asiático de Desarrollo (ADBI por sus siglas en inglés), etc. También
escribe y ha redactado informes de investigación para diferentes
publicaciones internacionales como Government Technology
International Magazine, Southern Review Journal, Asia Pacific
Internet Handbook, etc.
Uno de sus primeros sitios Web - http://www.drik.net - que él diseñó y
utilizó - recibió el premio Global Bangemann Winner Award en la
categoría de Cultura y Medios en 1999. Diseñador de multimedia en
los primeros años de su vida profesional, el Sr. Sarker ha recibido
numerosos premios, becas y reconocimientos por su trabajo en el
sector de TIC para el Desarrollo.
Carlos Afonso
Luego de haber realizado estudios de ingeniero en la escuela
politécnica y más tarde de economía, comenzó a trabajar en el campo
del desarrollo humano en los años 70.
Fue cofundador en 1981, con Herbert de Souza, de IBASE - Instituto
Brasilero de Análisis Sociales y Económicos, época en la cual lanza el
primer sistema de información destinado a las organizaciones de la
sociedad civil en América Latina (AlterNex). Es igualmente
cofundador de la ONG internacional APC - Association for
Progressive Communications. En el curso de los años 90, fue
miembro del comité de gestión de Internet del Brasil, presidente del
comité ejecutivo de APC y llevó a cabo seis evaluaciones del impacto
social de la implantación de proveedores de acceso en los países
asiáticos para el CRDI (Canadá). Desde 1998, es director de
planificación de la ONG brasilera RITS, Rede de informações para o
terceiro setor, que busca promover los debates políticos públicos en
torno a las cuestiones de inclusión digital y proveer servicios de
Internet a las otras organizaciones de la sociedad civil. Entre 2003 y
2005 ha sido miembro de GNSO (Generic Names Supporting
Organization), una de las organizaciones de apoyo en la ICANN que
representa a los utilizadores no comerciales. De 2004 a 205 ha sido
miembro del grupo de trabajo de la ONU sobre la gobernabilidad de
Internet (WGIG). Interviene también como consultor ante diferentes
instituciones internacionales y es autor de varias obras que giran en
torno a temáticas sociales y políticas en relación con Internet.
Alain Kiyindou
Es maestro de conferencias y ocupa actualmente la función de jefe
del Departamento de Información y Comunicación en el Instituto
Universitario de Tecnología (Universidad Robert Schuman) de
Estrasburgo. Sus principales trabajos tratan de la comunicación para
el desarrollo en Africa, con una visión particular sobre la inserción de
las TIC, el lugar de la cultura en la apropiación de las tecnologías y de
la información, la diversidad cultural en los medios de comunicación,
los contenidos africanos en Internet, la sociedad de la información, la
fractura de la información y/o digital.
Nacido en el Congo, estudió y también vivió en Costa de Marfil,
donde participó en la eclosión de la prensa independiente de la era
multipartidista creando el periódico El Desafío.
Raphaël Ntambue
Investigador asociado al CEAN (IEP - CNRS) Burdeos, es también
director del Instituto de Investigación IRTAVI (Bruselas) y redactor en
jefe de la “Revue des problématiques africaines”.
Es doctor en filosofía y letras, formación completada con dos
maestrías en informática y en cooperación al desarrollo. Fue director
de investigaciones asociado al CNRS y es actualmente investigador
invitado en la Escuela Nacional de Administración de Estrasburgo. Es
autor de varios libros y artículos sobre Internet, el Africa y las
cuestiones de desarrollo.
Kemly Camacho
Kemly Camacho es investigadora de la Fundación Acceso, a cargo
del área de investigación sobre el impacto social de las tecnologías
de información y comunicación.
Trabaja en procesos de investigación participativa, analizando en
conjunto con actores locales centroamericanos el papel que
desempeñan las tecnologías en los procesos de desarrollo de los
países de la región y que son liderados por estos mismos actores,
interesados en transformar la realidad de los países pobres.
Su formación es una combinación de ingeniería en computación,
antropología, evaluación y actualmente cursa el doctorado en
sociedad de información y conocimiento en la Universidad Abierta de
Cataluña, Barcelona.
Kemly es también coordinadora de la Oficina Latinoamericana de
Bellanet -secretariado internacional de Centro de Investigaciones
Internacionales para el Desarrollo de Canadá. También es profesora
de la Universidad de Costa Rica y de FLACSO (Facultad
Latinoamericana de Ciencias Sociales) en su maestría en
comunicación, Internet y políticas públicas.
Kemly tiene varias publicaciones en estos temas. Estos pueden ser
leídos en el sitio
http://www.acceso.or.cr/publicaciones
Subbiah Arunachalam
Subbiah Arunachalam (Arun) es consultor de información radicado en
Madras (llamada actualmente Chennai) en el Sur de la India. Ha
estado vinculado a las comunidades académicas y científicas indias
durante más de tres décadas.
Ha sido editor de revistas científicas (Indian Journal of Technology,
Journal of Scientific & Industrial Research, Indian Journal of
Chemistry, Proceedings of the Indian Academy of Sciences, y
Pramana - Journal of Physics), escritor científico, investigador en
química, profesor de Ciencias de la Información, bibliotecario en un
laboratorio nacional, Secretario Ejecutivo de la Academia de Ciencias
de la India y miembro de los consejos editoriales de revistas
científicas.
Actualmente es miembro distinguido de la Fundación para la
Investigación M S Swaminathan y profesor invitado a media jornada
en el Instituto Indio de Tecnología, Chennai. Entre sus intereses de
investigación se incluyen la ciencia en la periferia, la cientometría y el
acceso a la información.
Mavic Cabrera-Balleza
Mavic Cabrera-Balleza es activista feminista de las Filipinas, ha
trabajado principalmente en los temas relacionados con los medios, la
información y la comunicación y su impacto en las mujeres. Participa
activamente en la defensa de intereses a escala nacional, regional e
internacional para lograr un cambio en las políticas relacionadas con
las mujeres, los medios y las tecnologías de la información y las
comunicaciones. Ha producido programas de radio y otros materiales
de difusión para las radios comunitarias, así como para la radio
gubernamental y la radio comercial privada. También revisa y escribe
para varias publicaciones internacionales. Mavic fue co-coordinadora
del trabajo de la ONG Grupo de Trabajo sobre las Estrategias de
Género durante la primera fase de la Cumbre Mundial sobre la
Sociedad de la Información. Además, participó en el Grupo de Trabajo
sobre los Medios Comunitarios durante la CMSI.
Mavic es Socia Ejecutiva del Programa del Centro Internacional de la
Tribuna de la Mujer. Además, es Vicepresidenta de AMARC
(Asociación Mundial de Programadoras de la Radio Comunitaria). A la
vez, es miembro del Comité Directivo del Grupo de Trabajo sobre
Cuestiones de Género de la Unión Internacional de
Telecomunicaciones. También es miembro de la Asian
Communication Network. Antes de ocupar su actual cargo, Mavic era
Directora del Programa para los Medios y los Servicios de
Información y Comunicación en Isis Internacional-Manila.
Catherine Roy
Consultora que trabaja desde hace quince años en los medios de
personas discapacitadas y comunitarios, colabora con diversas
organizaciones preocupadas por las implicancias de la accesibilidad
arquitectónica, la salud y los servicios sociales, la educación y el
empleo, así como las políticas y programas públicos.
Desde 1999, trabaja principalmente sobre el acceso de los
quebequenses discapacitados a las tecnologías de la información.
Pertenece igualmente a diversos comités y consejos de organismos
preocupados por estos temas. Es vicepresidenta del W3 Quebec y
miembro del Consejo de Administración de “Communautique”, del
“Carrefour mondial de l’Internet citoyen” y de la ¬Comisión
Internacional sobre las tecnologías y la accesibilidad - capítulo
norteamericano.
Felix Stalder
Félix Stalder es cofundador de Openflows, una compañía de redes
especializada en los aspectos técnicos y sociales de los ambientes
colaborativos en línea, y el software libre en general. Además, es
conferenciante sobre economía de los medios en la Academia de
Artes y Diseño de Zurich, Suiza. Posee un Doctorado de la
Universidad de Toronto y ha escrito ampliamente sobre el “código
abierto como principio social” para medios académicos y populares.
Vive en Viena.
Sus textos están disponibles en http://felix.openflows.org
Michel Briand
Militante asociativo y electo local en Brest, es igualmente director
adjunto de formación en una escuela de ingenieros, el ENST de
Bretaña del Grupo de Escuelas de las Telecomunicaciones.
Participó en la creación de la red “CRéATIF” apoyándose sobre los
Papi Brestois (punto de acceso público a Internet) y el trabajo llevado
a cabo en el seno de la OTV (observatorio de tecnologías en la
ciudad). Creó y animó el grupo de trabajo municipal “ciudadanía y
noticias tecnológicas”, crisol de las iniciativas de Brest (foro y portal
de las asociaciones, llamado a proyecto, red de escuelas de Brest...).
Luego del acceso público, el escrito público, la cobertura equitativa de
los territorios, y la información como bien público son para Michel
Briand los temas mayores de la sociedad de la información. En lo
opuesto de las posiciones de poder, un funcionamiento abierto a la
iniciativa, la creatividad, el debate, la participación, da sentido y eco a
las realizaciones locales, crea el bien común. Es el sentido de su
compromiso dentro de la red 13C del Internet creativo, cooperativo y
ciudadano.
Dominique Cardon
Es sociólogo en el Laboratorio de usos de France Télécom R&D e
investigador asociado en el Centro de Estudio de los Movimientos
Sociales de la Escuela de Altos Estudios en Ciencias Sociales.
Sus trabajos se refieren a las relaciones entre los usos de las nuevas
tecnologías y las prácticas culturales y mediáticas. Si bien las nuevas
tecnologías contribuyen a transformar las relaciones sociales de los
individuos, también modifican el espacio público, los medios de
comunicación y la manera de producir la información. La articulación
entre sociabilidades y espacio público está en el origen de diferentes
trabajos que tratan sobre las prácticas culturales, los medios
alternativos o los programas televisados “interactivos”. Se interesa
especialmente en los usos de las nuevas tecnologías por los
militantes internacionales del movimiento altermundialista.
Luis Ángel Fernández Hermana
Periodista científico desde 1969, Luis Ángel Fernández Hermana
ejerció en América Latina y en Europa y es corresponsal científico del
Periódico de Catalunya desde 1982. Es miembro fundador del “Grupo
de periodistas digitales” creado en 1996 en Cataluña.Trabajó mucho
en torno al concepto de “gestión del conocimiento en red”, a partir del
cual elaboró un método de colaboración en red y de animación de
comunidades virtuales.
Dirigió de 1996 a 2004 la empresa “enredando.com”, editora de la
revista del mismo nombre dedicada a la reflexión sobre el impacto de
Internet sobre la sociedad y que ha publicado más de 425 artículos
acerca de este tema. Participó también en el origen de las tres
jornadas internacionales “en.red.ando” (Barcelona 2000, 2001 y 2003)
dedicadas a la visualización de la informática, la web inteligente y la
web semántica). “Enredando” también coorganizó con las
Universidades de las Islas Baleares y Vic, masters en comunicación
digital.
Actualmente continua su actividad de consultor y de periodista,
enfocada hacia la aplicación de las tecnologías de la información a
las organizaciones, la gestión de saberes en red, el desarrollo de
sistemas de información para las comunicaciones virtuales.
http://lafh.info
Hervé Le Crosnier
Es maestro de conferencias en la Universidad de Caen, donde
enseña las tecnologías de Internet desde 1995. Sus investigaciones
se refieren principalmente al impacto del desarrollo de Internet sobre
la sociedad.
Anteriormente fue conservador de biblioteca y creó la lista de difusión
BIBLIO-FR, que agrupa a los profesionales francófonos de las
bibliotecas, del libro y de la documentación (13.000 abonados y
abonadas actualmente).
Pascal Renaud
Economista e informático de formación, dedica actualmente sus
investigaciones a temas relacionados a las TIC para los países en
desarrollo, en el seno de la IRD (Unidad de investigación “saberes &
desarrollo”).
Desde 1985, en la Orstom - actual IRD, Instituto de Investigación
para el Desarrollo - coordina la instalación de una red TCP/IP entre
los diferentes establecimientos del Instituto, primeramente en Francia,
luego en Africa francófona y en los centros del Pacífico y de las
Antillas. Este proyecto adquirirá una dimensión política cuando los
organismos de investigación africanos, así como las ONG
internacionales se asociarán a él, contribuyendo a la preparación de
la Cumbre de la Tierra en 1992.
Entre 1995 y 2004 comisionado en la UNITAR, agencia de las
Naciones Unidas para la formación de cuadros de los países en
desarrollo, conduce el programa “sociedad de la información &
desarrollo”.
Rosa-María Torres
Lingüista, pedagoga y activista social con vasta experiencia en las
áreas de la enseñanza, la investigación y la asesoría. Actualmente
trabaja desde su propio instituto - Instituto Fronesis y es Secretaria
Regional para América Latina y el Caribe de la World Culture Open
(WCO).
En Ecuador, fue Directora Pedagógica de la Campaña Nacional de
Alfabetización “Monseñor Leonidas Proaño” (1988-2000) y Ministra de
Educación y Cultura (2003), designada por el Movimiento
Plurinacional Pachakutik. En Nicaragua (1981-1986) trabajó como
consejera en el Viceministerio de Educación de Adultos y luego como
coordinadora del Proyecto Regional de Educación Popular y
Comunicación en la Coordinadora Regional de Investigaciones
Económicas y Sociales (CRIES). Después de la Conferencia Mundial
sobre Educación para Todos (1990), pasó a trabajar en UNICEFNueva York como Asesora Principal de Educación y editora de
UNICEF’s Education News (1991-1996). Fue Directora del Programa
para América Latina y el Caribe en la Fundación W.K. Kellogg (199698), donde desarrolló la Iniciativa de Educación Básica “Comunidad
de Aprendizaje”, que llevó y continuó en IIPE-Unesco Buenos Aires
(1998-2000).
Rikke Frank Jørgensen
Es Asesora Principal del Instituto Danés de los Derechos Humanos;
asesora de la Delegación Danesa a la Cumbre Mundial sobre la
Sociedad de la Información y co-coordinadora del Caucus de los
derechos humanos de la sociedad civil. Rikke trabajó anteriormente
como asesora en el Ministerio Danés de Investigación y Tecnologías
de la Información, de 1995 a 2000, donde se ocupó de los impactos
sociales de las tecnologías de la información. En 2000 cofundó la
ONG danesa Digital Rights, de la que fue presidenta de 2000 a 2003.
También participó en la fundación de European Digital Rights (EDRI)
en 2002, y actualmente es miembro de la junta directiva de EDRI.
Rikke posee una Maestría en Ciencias de la Información y una
Maestría Europea en Derechos Humanos y Democratización,
especializada en Internet y la libertad de expresión.
Stephanie Perrin
Stephanie Perrin es consultora especializada en materia de vida
privada y de política de información. Consejera industrial para el
Estado y la sociedad civil sobre la puesta en marcha de
procedimientos y de políticas de protección de datos y sobre el
impacto de las nuevas tecnologías en la vida privada.Es
Coordinadora de la Investigación para el proyecto Anonymity
(Anonimato), radicada en la Universidad de Ottawa. Es miembro
ejecutiva del Centro de Información sobre la Privacidad Electrónica
(EPIC) en Washington y trabaja con otras organizaciones de defensa
en Canadá e internacionalmente.
Es la antigua Jefa de Privacidad de Zero-Knowledge, la primera CPO
de Canadá, y ha participado en varias asociaciones de CPO,
trabajando con los responsables de implementar la privacidad en sus
organizaciones. Stephanie contribuyó positivamente en la elaboración
de las políticas de privacidad y criptografía de Canadá durante quince
años.
Anteriormente, como Directora de la Política de Privacidad del Grupo
de Trabajo sobre Comercio Electrónico de Industry Canada,
encabezó la iniciativa legislativa en Industry Canada que trajo como
resultado la Ley de Protección de la Información Personal y los
Documentos Electrónicos, legislación sobre la privacidad que entró en
vigor en el año 2001 y ha establecido la norma a ser cumplida por el
sector privado. Es la autora principal de un texto sobre la Ley,
publicado por Irwin Law.
Sean O’Siochru
Seán Ó Siochrú posee más de veinte años de experiencia en las
comunicaciones internacionales y las actividades de desarrollo local.
Entre sus recientes funciones podemos citar: evaluación final del
programa InfoTuk (iniciativa del Turcomenistan para el desarrollo
humano durable); responsable del programa, UNDP, 2004;
responsable del programa de Redes de Desarrollo Sosteniblede la
UNDP 2003. En los años noventa desempeñó un papel importante en
la evaluación de los Programas STAR y Telematique de la Union
Europea. Fue Secretario General y Tesorero (anterior Vicepresidente)
de la “Mesa Redonda MacBride sobre Comunicaciones”, para debatir
de las cuestiones relacionadas con las comunicaciones
internacionales. Su título primario es del Trinity College Dublin, y ha
terminado estudios de postgrado en Canadá y Cork.
Marc Raboy
Marc Raboy es profesor y Beaverbrook Chair en Ética, Medios y
Comunicaciones del Departamento de Historia del Arte y Estudios de
Comunicación. Antiguo periodista en numerosos medios, formado en
McGill, Marc Raboy enseñó previamente en la Universidad de
Montreal y la Universidad Laval. Es autor o editor de numerosos libros
y artículos, así como asociado para la investigación en el Programa
de Derecho Comparativo y Política de los Medios en la Universidad
de Oxford, y miembro del consejo internacional de la Asociación
Internacional de Investigación sobre los Medios y la Comunicación
(IAMCR por sus siglas en inglés). De 2001 a 2003, trabajó como
asesor experto del Comité Permanente de la Cámara de los
Comunes sobre la Herencia Canadiense para su estudio de la
radiodifusión canadiense. También es miembro fundador de una
campaña de defensa internacional de los Derechos a la
Comunicación en la Sociedad de la Información (CRIS).
Marcelo Solervincens
Marcelo Solervicens es secretario general de la AMARC, Asociación
Mundial de los radiodifusores comunitarios desde 2003. Titular de un
doctorado en ciencias políticas (UQAM), tiene su base en Montreal
(Canadá) y cuenta con una experiencia polivalente en los campos de
la comunicación y de las nuevas tecnologías. Periodista de Radio
Canadá Internacional y director general de Radio Centre - Ville, la
radio comunitaria y multilingüe de Montreal, ha trabajado también en
organizaciones no gubernamentales de cooperación internacional
(CUSO, Oxfam, CEDAL) y publicado libros y artículos sobre América
Latina.
Christine Schweidler
Christine Schweidler prepara un doctorado en Historia y Sociología de
la Ciencia en la Universidad de Pensilvania. Recientemente también
recibió un título de Licenciada en Epidemiología de la Universidad de
California, Berkeley. Su investigación doctoral se centra en la historia
de la enfermedad, las prácticas curativas y la salud pública en
Vietnam. Otras áreas de investigación incluyen la relación entre
comercio, IP y salud. Actualmente trabaja en Hanoi, Vietnam.
Sasha Costanza-Chock
Sasha Costanza—Chock es activista de los medios e investigador
que trabaja en el tema de la economía política de la comunicación, la
producción táctica de los medios, y el movimiento transnacional para
los derechos a la comunicación. Posee una Maestría en
Comunicación de la Universidad de Pensilvania, y es estudiante
doctoral en la Escuela de Comunicaciones Annenberg de la
Universidad del Sur de California. Actualmente, también trabaja con la
campaña internacional para los Derechos a la Comunicación
(http://www.crisinfo.org), la iniciativa de Acceso al Conocimiento
(http://www.access2knowledge.org), y la red de distribución de videos
Indymedia (http://video.indymedia.org).
Marcelo D’Elia Branco
Profesional en el campo de las Tecnologías de la Información desde
hace veinticinco años, es actualmente consultor en tecnologías para
la sociedad de la información. Acaba de terminar una misión ante la
Presidencia de la República brasilera para favorecer la asociación de
la sociedad civil a las políticas de la sociedad de la información. Es al
mismo tiempo coordinador del “Proyecto Software libre Brasil”
(http://www.softwarelivre.org), profesor honorario del Instituto Superior
Tecnológico CEVATEC de Lima, en el Perú, y miembro del Consejo
Científico del programa internacional de estudios superiores en
Software libre de la Universidad Abierta de Cataluña - UOC - en
España. Ha sido encargado de la implementación de la División de
Telecomunicaciones para la municipalidad de Porto Alegre, y ha
ocupado diversos cargos de dirección para el Estado de Rio Grande
Do Sul, siempre para promover la implantación del software libre.
Mouhamadou Moustapha Lo
Doctor en Derecho Público de las Nuevas Tecnologías de la
Universidad de la Sorbona, sus trabajos se refieren a la
administración electrónica y al derecho público.
Después de haber compartido sus responsabilidades profesionales
entre la enseñanza y el periodismo durante varios años, es
actualmente consejero jurídico de la Agencia de Informática del
Estado (ADIE) ante la Presidencia de la República senegalesa.
Roberto Verzola
Roberto Verzola es en la actualidad un activista de la agricultura
sostenible (anteriormente Secretario General) de Philippine Greens,
una formación política que se basa en los principios de la ecología, la
justicia social, la libre determinación y la no violencia. También es
miembro de la junta directiva de PABINHI, una red de granjeros,
académicos y otros grupos e individuos que practican y defienden la
agricultura sostenible.
Fue miembro (como representante de la comunidad) del Comité
Nacional de Bioseguridad de las Filipinas, organismo gubernamental
que regula los experimentos de la ingeniería genética en el país.
También fue Miembro de la junta directiva y director ejecutivo de
Soljuspax, una fundación que defiende las fuentes de energía
seguras y renovables.
Roberto Verzola participó en las campañas y estudios de política
sobre la energía nuclear, la energía renovable, la eficiencia de la
energía, las tecnologías de la información, la ingeniería genética, los
derechos de la propiedad intelectual, la agricultura orgánica y las
cuestiones medioambientales, con especial atención en los temas de
la tecnología y su impacto social y medioambiental, en cooperación
con varios grupos de defensa y movimientos sociales, desde los años
80. Es autor de “Towards a Political Economy of Information” (FNS,
marzo de 2004).
Adriana Lau
Administradora adjunta Unión Latina
La Unión Latina es una organización internacional fundada en 1954
por el Convenio de Madrid para promover y difundir la herencia
cultural y las identidades del mundo latino.
Presente en cuatro continentes, la Union Latina reúne 36 Estados
miembros y concede el estatuto de observador a otros 4 Estados
Hacia sociedades de saberes compartidos
Alain Ambrosi
Daniel Pimienta
Valérie Peugeot
Nuestra vida es plural: hablamos, intercambiamos, creamos, tejemos lazos en la
diversidad. Sin embargo, desde hace una década, la expresión “sociedad de la
información” ha entrado en nuestras vidas en singular.
El término salió de los círculos de iniciados, y se le dedica una cumbre mundial.
De todas las cumbres de la ONU que se sucedieron desde inicios de los años 90,
es la única que lleva en su título el término de “sociedad”. Las cumbres anteriores
se refirieron a uno u otro de los grandes temas planetarios que atraviesan nuestra
época: el medio ambiente (Cumbre de la tierra en Río), las mujeres (Beijing), la
demografía (El Cairo), lo social (Copenhague)... Que la CMSI no se llame
simplemente CMI - Cumbre Mundial de la Información - no es anecdótico: para los
que la concibieron, se trataba de mostrar que la cuestión de la información no era
solamente un asunto de infraestructuras y de técnicas, sino que planteaba
interrogantes a la sociedad. Un enunciado destinado a encontrar el apoyo de la
mayoría: todos están de acuerdo sobre la amplitud de la mutación ligada a la
llegada masiva de las tecnologías de la información a nuestras sociedades, tanto
del Norte como del Sur.
Sin embargo, el consenso se acaba allí, porque para los iniciadores
gubernamentales de la cumbre, se hace referencia primeramente al impacto de la
información en nuestros sistemas de producción: de la misma manera que el agua
y luego la energía han sido la piedra angular de nuestras sociedades anteriores,
basadas sobre la agricultura y más tarde, la industria, la información les parece la
nueva columna vertebral de nuestras economías.
Elegir el modo de producción como característica fundamental de una sociedad,
no es algo neutro. Esta elección encuentra la adhesión, tanto de algunos
herederos del marxismo, para quienes la infraestructura económica determina las
superestructuras culturales, como la de los ultra liberales, que descifran el mundo
solamente a través de la competencia económica. En el fondo, revela el primado
otorgado a la economía, primado que recibe el apoyo tanto de los grandes media
como de los responsables políticos y, por supuesto, económicos. La información,
en carácter de motor económico, se convirtió para ellos en una nueva narración
planetaria.
Este enfoque del “todo económico” es denunciado desde inicios de los años 90
por numerosos movimientos ciudadanos y sociales a través del mundo,
rebatiendo la supremacía de la lógica mercantil sobre todas las consideraciones
ligadas a la salud, la cultura, el medio ambiente y el desarrollo en general. Esta
resistencia opera actualmente luchando paso a paso para que las reglas del
comercio internacional toleren excepciones, para que el interés común no esté
subordinado al dogma según el cual nada debe trabar el intercambio mercantil
que, siempre que sea “libre”, sería la fuente fundamental de crecimiento y
bienestar. El ejemplo más conocido de derogación obtenido en estos últimos años
es el de los medicamentos genéricos: en la cumbre de Doha, los imperativos de
salud tomaron transitoriamente la delantera, con relación a aquellos de la
propiedad y el comercio.
A primera vista, el mismo movimiento de liberalización/resistencia se manifiesta
cuando se llega a hablar de información: por un lado la doxa internacional
pretende que solamente si los mercados no están reglamentados, se podrá
aportar las estructuras necesarias para un acceso universal a la sociedad de la
información. Por otro lado, algunos movimientos luchan para que la información
siga siendo, ante todo, un bien público y preconizan una regulación y una
gobernabilidad pública a la altura de los grandes desafíos de la era de la
información.
Mirando de cerca, las líneas de fuerza son mucho más complejas. Como si la
información no pudiera dejarse encerrar en las grandes categorías que
estructuran hoy las tensiones del mundo. En primer lugar, la información está
efectivamente en el centro del proceso económico actual, pero lo supera y se
escapa de él en gran medida. Para aquellos que buscan ver en la cultura
solamente “bienes culturales” salidos de “industrias culturales” y fuentes de
nuevos mercado potenciales, las redes de información hicieron explotar los
intercambios de contenidos culturales no mercantiles, dando visibilidad a fuerzas
creadoras, interconectadas de ahora en más, que inventan y experimentan sobre
la marcha nuevos modos de producción en colaboración.
Además, en el seno mismo de los procesos de producción, la información altera
las reglas fundamentales del capitalismo. Permitiendo un crecimiento incesante
de la productividad, ella traslada los costos de producción del centro mismo de la
fabricación hacia campos de lo inmaterial, como el marketing y la publicidad, que
a su vez contribuyen, a su manera, a moldear nuestra visión del mundo.
Siempre en el orden económico, la abundancia intrínseca de la información, que
se volvió reproducible a voluntad y a muy bajo costo gracias a la digitalización,
hace inoperante cualquier tentativa de importar reglas provenientes de la
propiedad de bienes materiales para aplicarlos al campo de la propiedad
intelectual. Aquellos que hablan de fortalecimiento de los derechos de propiedad
intelectual se inscriben en una carrera perdida de antemano, y aparentemente sin
salida, para recrear artificialmente escasez mediante reglas jurídicas o técnicas.
En otro orden de ideas, mientras que la propia economía de la información, hiper
competitiva y poco regulada, es objeto de tentativas de construcción de
posiciones monopolísticas (Microsoft, Google), emergen sin embargo de todas
partes, procesos de producción cooperativos y de autoproducción, de creación
por los mismos utilizadores. Su éxito saca a la luz el hecho de que la creatividad y
la innovación escapan en parte al capitalismo clásico, cuestionando las nociones
de progreso y de desarrollo.
Mucho más allá de la esfera económica, los nuevos artefactos de la información
(CMS, blogs, VoIP, VoD, podcasting) liberan la palabra. La mundialización,
tomada en el sentido de la liberalización de las cuencas culturales, de una
circulación de conocimientos, ya no es el privilegio de una élite mediática o
mediatizada, sino que puede abrirse a aquellos y aquellas cuya expresión estuvo
hasta ahora confiscada de facto. Entre los acaparadores de palabras, se
encuentran aquellos que pretenden tener la exclusividad de la legitimidad del
“decir”, que han tomado el control económico y político del espacio mediático. Los
usos alternativos de las nuevas tecnologías de la información interpelan tanto del
exterior como del interior a ese tradicional “cuarto poder”. Ellos presionan para
redefinir las reglas de funcionamiento de los medios masivos de comunicación,
así como su lugar y su papel, redefiniendo en el camino la noción misma de
“servicio público” de la información, particularmente en el campo de la
radiodifusión.
Finalmente, desde los inicios de Internet, los actores que se encontraban en el
corazón de la innovación tecnológica establecieron formas de autorregulación
(W3C, IETF) que afectan tanto a los defensores de una “real política” de la
superpotencia así como a los paladines del multilateralismo intergubernamental.
En efecto, la emergencia de estas estructuras de normalización por consenso
coincide con el poder creciente del sector privado en detrimento de los actores
públicos (Estado, colectividades territoriales, instituciones supranacionales). Una
erosión de la potencia pública que la ONU pone en escena en el transcurso de
sus cumbres, celebrando cada vez un poco más el rol del sector privado y
apelando a la generosidad de este último para financiar hasta sus mínimas
iniciativas ¡comenzando por las mismas cumbres! En esto nos encontramos frente
a una “doble obligación”: favorecer la participación creativa de sectores enteros de
la sociedad, sin preparar el lugar a una privatización de las grandes funciones del
Estado.
Pero si por un lado no podemos volvernos ciegos a estos cuestionamientos de
nuestras representaciones ligadas a la nueva importancia dada a la información,
por el otro, no podemos pensar en la sociedad de la información fuera del mundo
en el cual ella emerge.
La CMSI se desarrolló en un período de más de tres años (julio de 2002 a
noviembre de 2005). En el curso de estos tres años, la escena internacional ha
sido marcada -entre otras cosas- por dos grandes evoluciones:
La voluntad de la mayor potencia del mundo
de rechazar el multilateralismo y la democratización internacional.
Un aislamiento jalonado por el conflicto en Irak, la negativa reiterada de ese país
de adherir a los acuerdos de Kioto y al Tribunal Penal Internacional, y en el
momento en que escribimos, la obstrucción sistemática al proyecto de reforma de
las Naciones Unidas y de cualquier tentativa de democratización del espacio
político internacional. Bajo esta luz, el debate sobre la gobernabilidad de Internet,
considerado como el más importante de la CMSI y el rechazo de los Estados
Unidos de abandonar su control sobre el ICANN, no son más que la antesala de
algo mucho más vasto. Estas actitudes se encuentran en otros lugares de
negociación: en la UNESCO, los Estados Unidos, seguidos por la mayoría de los
países desarrollados, se oponen a una convención con fuerza operatoria sobre la
diversidad cultural; en la OMPI, donde estas mismas potencias bloquean el
debate sobre una necesaria evolución de los conceptos de la propiedad
intelectual para favorecer el desarrollo y el acceso al conocimiento en la hora
digital.
El aumento de los temores colectivos, nutridos a la vez por un terrorismo
globalizado y por un discurso de “seguridad total”.
La historia nos ha mostrado suficientemente que esos temores son el terreno
privilegiado del conformismo social y de los engranajes de la guerra. Asistimos a
un retroceso generalizado, cuando no se trata de cuestionar directamente, un
cuestionamiento frontal, de los derechos humanos más fundamentales y de todo
el edificio legal y jurídico internacional conquistado en el curso del siglo pasado. Al
respecto, la elección de Túnez para recibir a la CMSI, país que no deja circular
libremente la información, constituye una paradoja que solo este contexto de
seguridad puede explicar. La innovación tecnológica en el corazón del
mejoramiento de las condiciones de vida desde hace un siglo también se ve
afectada por los abordajes de la seguridad, a riesgo de frenar sus capacidades
creativas. Las vallas de protección democráticas, garantes de una utilización de la
tecnología respetuosa de las libertades y de los derechos fundamentales, ceden
el terreno a las justificaciones guerreras.
Ante esta realidad multiforme de la era de la información, actores de todos los
países tratan a su vez de prevenir riesgos, de estudiar y proponer alternativas,
vivir y promover la complejidad rechazando las lógicas de encerramiento en una
concepción monolítica de las sociedades del mañana.
A través de esta obra escrita por alrededor de unas sesenta manos de diferentes
orígenes culturales, hemos querido intentar restituir esta complejidad. No hay
“una” sociedad de la información, sino sociedades, plurales, en movimiento,
emergentes, cambiantes. Estas sociedades, como las palabras que las
sostienen, no nos han sido dadas para digerirlas o asimilarlas, sino para construir
colectivamente y de manera ascendente. La información y sus tecnologías no
pueden hacer las veces de un proyecto común. El proyecto reside en lo que
haremos de la información, los riesgos y las potencialidades que le son
inherentes. Dejar expresarse y aumentar la creatividad, hacer circular los
conocimientos, abrir los patrimonios de saberes a los más pobres, mestizar
las culturas, respetando al mismo tiempo su diversidad, rechazar las
regresiones religiosas nutridas por la ignorancia, proteger y promover las
libertades, no confiscar la palabra. Crear un entorno propicio para que se
desarrolle el deseo de comunicar, de ser y de hacer juntos. Palancas, todas ellas
que están a nuestra disposición para poner la información al servicio de una
dinámica de paz, de respeto y de solidaridad. Al servicio de las sociedades de los
saberes compartidos.
Palabras en juego : historia de un proyecto
Alain Ambrosi
Daniel Pimienta
Valérie Peugeot
En política, como en todas partes, las palabras nunca son neutras: portadoras de
sentido, a veces de contrasentido, las palabras son el vehículo de la historia de la
sociedad que las ha producido y de las representaciones del mundo de aquellos
que las utilizan. Estas representaciones son diversas, contradictorias, hasta se
podría decir conflictivas, según los actores que las formulan, los intereses y las
lógicas sociales que reflejan.
Sin embargo, estas palabras son utilizadas a menudo borrando esas
contradicciones, de manera presuntamente consensuada y apolítica. En realidad,
cada uno tiene su definición, esperando consciente o inconscientemente que al fin
su “representación del mundo” se impondrá cuando las palabras que él utiliza
estén en boca de todos. Al final, el poder de los grupos dominantes resulta
reforzado y el statu quo conservador sobre las cuestiones reales es mantenido.
En un contexto de mundialización acelerada, las palabras son más que nunca
posturas ideológicas, ocasiones de enfrentamiento político, de donde los
ciudadanos son excluidos. Términos como “gobernabilidad”, “desarrollo”
constituyen dos ejemplos entre tantos otros. Incorporados en el vocabulario
corriente de numerosas instituciones nacionales e internacionales, los supuestos
ideológicos de los cuales son portadores son olvidados la mayor parte del tiempo
y en consecuencia viven en nuestro imaginario y nuestro vocabulario colectivo
como si fueran “neutros”. Es lo que denuncian simultáneamente otros numerosos
actores (países del Sur, movimientos sociales y cívicos).
Estos últimos se han propuesto, desde mediados de los años 90, elaborar una
visión alternativa, un contra - dictamen ciudadano, alrededor de los temas más
complejos y/o más opacos de nuestras sociedades, desde las finanzas
internacionales hasta las biotecnologías, pasando por las cuestiones de salud
pública. Las definiciones de las palabras y los conceptos que se encuentran en
los documentos de las negociaciones internacionales o en los planes de acción
nacionales, conllevan una dimensión eminentemente política. Parece entonces
primordial que una reflexión ciudadana intente influir a su nivel elaborando otra
visión. El poder de nombrar es la apertura a una participación ciudadana en el
espacio de acción política.
Las palabras no pueden escapar a los contextos lingüísticos y culturales en los
que se insertan. Si bien es ilusorio confiar en simples traducciones para tratar
textos fundamentales (muy a menudo redactados en inglés en su versión original),
es importante discernir las diferencias sutiles de significado según los idiomas
(hasta la ausencia de equivalente como en el caso de “conocimiento” y “saber”,
que son traducidos por una sola palabra en inglés: knowledge). Para idiomas
como el francés o el español, que son hablados en importantes espacios
geográficos, es útil tomar conciencia de que los sentidos pueden variar en el
interior de esos mismos espacios, por ejemplo, entre el Norte y el Sur (¿acaso
“red ciudadana” tiene el mismo sentido en París que en Tombuctú?).
La nueva era de la información en la cual hemos entrado es confrontada con
estas cuestiones: como se encuentra en plena construcción, los actores que se
involucran en su despliegue están forjando el vocabulario y por ese lado,
delimitando los contornos en el espacio de las representaciones colectivas.
Así pues, la primera fase de la CMSI (Cumbre Mundial de la Sociedad de la
Información) de Ginebra ha mostrado efectivamente hasta qué punto ciertos
términos estaban cargados de controversias, sin que por lo mismo llegáramos a
crear un espacio para descifrar y debatir alrededor de las palabras más
conflictivas, empezando por el mismo término de “sociedad de la información”. En
este contexto particular de las tecnologías de la información y de la comunicación,
donde la mayoría de los conceptos emergieron desde abajo, a través de los usos,
un enfoque puramente académico sería igualmente un riesgo enorme de pasar
por alto la esencia participativa. Esta constituye en sí misma una cultura propia de
un campo que preconiza la emergencia de un nuevo paradigma y que se
reconoce y se caracteriza por la cantidad de neologismos que son utilizados.
A la luz de esta constatación y en previsión de la segunda fase de la CMSI, el
“Carrefour Mondial de l’Internet Citoyen” (Montreal), reunido con otras dos
asociaciones, Vecam (París), y Funredes (Santo Domingo), propuso un trabajo de
análisis contradictorio e intercultural. Este proyecto viene a prolongar varios años
de trabajo en común de estas tres asociaciones, especialmente en el marco de la
GCNP (Global Community Networks Partnership), que permitieron confirmar la
proximidad de sus compromisos.
En esta perspectiva, el proyecto “Desafíos de palabras en la sociedad de la
información” vio la luz: varios autores, preseleccionados por su capacidad para
cruzar la visión universitaria y la visión de la práctica, fueron contactados para
aclarar conceptos clave de la sociedad de la información. El criterio de su
diversidad de origen cultural fue tomado en consideración para establecer la
selección final de 27 autores.
El pedido efectuado a estos autores incluía una guía de redacción para tratar la
historia del concepto, la diversidad de definiciones posibles, así como una visión
crítica sobre la diversidad formal empleada corrientemente en las negociaciones
internacionales.
El objetivo de “desafíos de palabras” es triple. Se trata de:
Llevar a la plaza pública controversias frecuentemente desconocidas o
subestimadas en cuanto a su alcance político.
Ayudar a los movimientos sociales y ciudadanos a apropiarse de los términos de
un debate y a forjar un vocabulario que sea el reflejo de sus prácticas, así como
de su propio imaginario político y no el de las instituciones internacionales.
Al hacer todo esto, contribuir a su fortalecimiento y a su capacidad de
construcción de una alternativa política.
El proceso se desarrolló en 4 fases:
escritura de los textos por los autores,
entrega de los textos traducidos en los tres idiomas complementarios a los otros
autores a través de un sitio web y de una lista de discusiones destinadas al
trabajo de la comunidad de autores,
integración por cada autor de las sugerencias emanadas de los otros miembros
de la comunidad y del comité editorial,
edición de una nueva versión final cuadrilingüe.
El proceso de contribución iterativa en 4 idiomas, se reveló, sin grandes
sorpresas, laborioso pero indispensable.
El resultado de este trabajo es difundido a través de un libro cuadrilingüe que es
presentado públicamente en Túnez en el trascurso de la Cumbre Mundial de la
Sociedad de la Información.
Los promotores del proyecto no quieren detenerse en un “producto”, por más
logrado que sea, sino más bien proseguir un proceso continuo de reflexión y de
debates en el espíritu de una inteligencia cooperativa que aceptaría el desafío del
multilingüismo. Por eso está previsto que los textos de esta obra sean colocados
en portales cooperativos multilingües y animados en diferentes regiones del
mundo. Los sitios son
lecarrefour.org,
vecam.org,
funredes.org
y deseamos que otros sitios puedan retomar y multiplicar esta colaboración.
Este proyecto es una iniciativa del “Carrefour mondial de l’Internet citoyen”, en
partenariado con Vecam y Funredes. La Unión Latina ha coordinado las
traducciones. C&F Éditions se ocupa de la edición del libro y ha aceptado publicar
documentos que están sometidos al régimen jurídico des las licencias Creative
Commons (by, nc). Esto significa que los artículos pueden ser reproducidos por
cualquier persona, a condición de respetar la referencia al autor y a la fuente y de
hacer un uso exclusivamente no comercial.
El proyecto recibió el apoyo financiero de la AIF (Agence Intergouvernementale
de la Francophonie) y del CRDI (Centre de recherche pour le Développement), la
traducción, un apoyo del Ministerio de Cultura francés y el conjunto fue
beneficiado con el trabajo voluntario de varios de sus artesanos.
Carrefour mondial de l’Internet citoyen
El “Carrefour mondial de l’Internet citoyen” (Encrucijada mundial del Internet
ciudadano), con base en Montreal, es un organismo de Québec comprometido en
la promoción y la defensa de los derechos de la comunicación. Agrupa y se dirige
a los miembros de redes ciudadanas, organismos, instituciones e individuos
involucrados en la utilización de las tecnologías de la información y de la
comunicación con fines ciudadanos, privilegiando al mismo tiempo la pluralidad y
la diversidad cultural.
http://lecarrefour.org
Contacto: Alain Ambrosi, ambrosia @web.ca
Vecam
“Vecam” es una asociación francesa con base en París, que trabaja desde 1995
en torno a tres objetivos: contribuir, mediante un trabajo de vigilancia, a la
reflexión sobre los impactos sociales de las tecnologías de la información; alentar
a los organismos sin fines de lucro a movilizar las TIC al servicio de sus
proyectos, particularmente en proyectos de cooperación internacional; movilizar
para la construcción de una visión política de la sociedad de la información.
http://www.vecam.org
Contacto: Frédéric Sultan, fsultan@vecam.org y
Valérie Peugeot, vpeugeot@vecam.org
Funredes
“Funredes” es una Organización No Gubernamental Internacional, con base en
República Dominicana, que se dedica a la difusión de las Nuevas Tecnologías de
la Información y de la Comunicación (NTIC) en los países en vías de desarrollo,
especialmente en América Latina y el Caribe. Su objetivo: contribuir al desarrollo y
a la integración regional en colaboración con las Organizaciones Internacionales,
las ONG, los Estados, las Administraciones y las Instituciones públicas o privadas
interesadas.
http://funredes.org
Contacto: Daniel Pimienta, pimienta@funredes.org
Sociedad de la información / Sociedad del conocimiento
Sally Burch
¿Vivimos en una época de cambios o un cambio de época? ¿Cómo caracterizar a
las profundas transformaciones que vienen con la acelerada introducción en la
sociedad de la inteligencia artificial y de las nuevas tecnologías de la información
y la comunicación (TIC)? ¿Se trata de una nueva etapa de la sociedad industrial o
estamos entrando en una nueva era? “Aldea global”, “era tecnotrónica”, “sociedad
postindustrial”, “era -o sociedad- de la información” y “sociedad del conocimiento”
son algunos de los términos que se han acuñado en el intento por identificar y
entender el alcance de estos cambios. Pero mientras el debate prosigue en el
ámbito teórico, la realidad corre por delante y los medios de comunicación eligen
los nombres que hemos de usar.
Cualquier término que usemos, en el fondo, es un atajo que nos permite hacer
referencia a un fenómeno -actual o futuro-, sin tener que describirlo cada vez;
pero el término escogido no define, de por sí, un contenido. El contenido emerge
de los usos en un contexto social dado, que a su vez influyen en las percepciones
y expectativas ya que cada término lleva consigo un pasado y un sentido (o
sentidos), con su respectivo bagaje ideológico. Era de esperarse, entonces, que
cualquier término que se quiera emplear para designar la sociedad en la que
vivimos, o a la cual aspiramos, sea objeto de una disputa de sentidos, tras la que
se enfrentan diferentes proyectos de sociedad.
En el marco de la Cumbre Mundial de la Sociedad de la Información -CMSI-, hay
dos términos que han ocupado el escenario: sociedad de la información y
sociedad del conocimiento, con sus respectivas variantes. Pero, si bien el marco
impuso el uso del primero, desde un inicio provocó disconformidad y ningún
término ha logrado un consenso.
Historia de los términos
Sociedad de la información
En la última década, la expresión “sociedad de la información” se ha consagrado
sin lugar a dudas como el término hegemónico, no necesariamente porque
exprese una claridad teórica, sino por el bautizo que recibió en las políticas
oficiales de los países más desarrollados, además de la coronación que significó
honrarlo con una Cumbre Mundial.
Los antecedentes del término, sin embargo, datan de décadas anteriores. En
1973, el sociólogo estadounidense Daniel Bell introdujo la noción de la “sociedad
de la información” en su libro El advenimiento de la sociedad post-industrial[1],
donde formula que el eje principal de ésta será el conocimiento teórico y advierte
que los servicios basados en el conocimiento habrán de convertirse en la
estructura central de la nueva economía y de una sociedad apuntalada en la
información, donde las ideologías resultarán sobrando.
Esta expresión reaparece con fuerza en los años 90, en el contexto del desarrollo
de Internet y de las TIC. A partir de 1995, fue incluida en la agenda de las
reuniones del G7 (luego G8, donde se juntan los jefes de Estado o gobierno de
las naciones más poderosas del planeta). Se ha abordado en foros de la
Comunidad Europea y de la OCDE (los treinta países más desarrollados del
mundo) y ha sido adoptada por el gobierno de los Estados Unidos, así como por
varias agencias de las Naciones Unidas y por el Grupo Banco Mundial. Todo ello
con gran eco mediático. A partir de 1998, fue elegida, primero en la Unión
Internacional de Telecomunicaciones y luego en la ONU, como el nombre de la
Cumbre Mundial a realizarse en 2003 y 2005.
En este contexto, el concepto de “sociedad de la información”, como construcción
política e ideológica, se ha desarrollado de la mano de la globalización neoliberal,
cuya principal meta ha sido acelerar la instauración de un mercado mundial
abierto y “autoregulado”. Esta política ha contado con la estrecha colaboración de
organismos multilaterales como la Organización Mundial del Comercio (OMC), el
Fondo Monetario Internacional (FMI) y el Banco Mundial, para que los países
débiles abandonen las regulaciones nacionales o medidas proteccionistas que
“desalentarían” la inversión; todo ello con el conocido resultado de la escandalosa
profundización de las brechas entre ricos y pobres en el mundo.
En efecto, para fines de siglo, cuando la mayoría de los países desarrollados ya
habían adoptado políticas de desarrollo de la infraestructura de las TIC, se
produce el auge espectacular del mercado de acciones de la industria de la
comunicación. Pero los mercados del Norte comienzan a saturarse. Entonces, se
intensifican las presiones hacia los países en desarrollo para que dejen la vía libre
a la inversión de las empresas de telecomunicaciones e informática, en busca de
nuevos mercados para absorber sus excedentes de ganancias. Es en este
contexto que se convoca la CMSI; panorama que se modifica, sin embargo, una
vez que estalla la burbuja bursátil a partir del año 2000. No obstante esta realidad
y el rol clave que las tecnologías de la comunicación han desempeñado en la
aceleración de la globalización económica, su imagen pública está más asociada
a los aspectos más “amigables” de la globalización, como Internet, telefonía
celular e internacional, TV por satélite, etc. Así, la sociedad de la información ha
asumido la función de “embajadora de buena voluntad” de la globalización, cuyos
“beneficios” podrían estar al alcance de todos/as, si solamente se pudiera
estrechar la “brecha digital”[2].
Sociedad del conocimiento
La noción de “sociedad del conocimiento” (knowledge society) surgió hacia finales
de los años 90 y es empleada particularmente en medios académicos, como
alternativa de algunos a “sociedad de la información”.
La UNESCO, en particular, ha adoptado el término “sociedad del conocimiento”, o
su variante “sociedades del saber”, dentro de sus políticas institucionales. Ha
desarrollado una reflexión en torno al tema, que busca incorporar una concepción
más integral, no en relación únicamente con la dimensión económica. Por
ejemplo, Abdul Waheed Khan (subdirector general de la UNESCO para la
Comunicación y la Información), escribe[3]: “La sociedad de la Información es la
piedra angular de las sociedades del conocimiento. El concepto de “sociedad de
la información”, a mi parecer, está relacionado con la idea de la “innovación
tecnológica”, mientras que el concepto de “sociedades del conocimiento” incluye
una dimensión de transformación social, cultural, económica, política e
institucional, así como una perspectiva más pluralista y desarrolladora. El
concepto de “sociedades del conocimiento” es preferible al de la “sociedad de la
información” ya que expresa mejor la complejidad y el dinamismo de los cambios
que se están dando. (...) el conocimiento en cuestión no sólo es importante para
el crecimiento económico sino también para empoderar y desarrollar todos los
sectores de la sociedad”.
Un matiz en este debate, que solo concierne a los idiomas latinos, es la distinción
entre sociedad del “conocimiento” o del “saber” (ambos traducen el término inglés
“knowledge society”). La noción de “saberes” implica certezas más precisas o
prácticas, mientras que conocimiento abarca una comprensión más global o
analítica. André Gorz considera que los conocimientos se refieren a “contenidos
formalizados, objetivados, que no pueden, por definición, pertenecer a las
personas... El saber está hecho de experiencias y de prácticas que se volvieron
evidencias intuitivas y costumbres”[4]. Para Gorz, la “inteligencia” cubre toda la
gama de capacidades que permite combinar saberes con conocimientos. Sugiere,
entonces, que “knowledge society” se traduzca por “sociedad de la inteligencia”.
En todo caso, por lo general, en este contexto se utiliza indistintamente sociedad
del conocimiento o del saber, si bien en español conocimiento parece ser más
usual.
Definiciones actuales: el estado del Arte
Es preciso diferenciar aquí aquellas definiciones que apuntan a caracterizar una
realidad existente o emergente de aquellas que expresan una visión -o anhelo- de
una sociedad potencial. Las dos son relevantes: las primeras por su aporte al
análisis, las segundas porque orientan políticas y acciones.
En la primera categoría nos referiremos a Manuel Castells por ser uno de los
investigadores que más ha desarrollado el tema, además de ser una autoridad
reconocida en la materia. Castells prefiere el término “sociedad informacional”
antes que “sociedad de la información” (haciendo la comparación con la diferencia
entre industria e industrial). Él señala que si bien el conocimiento y la información
son elementos decisivos en todos los modos de desarrollo, “el término
informacional indica el atributo de una forma específica de organización social en
la que la generación, el procesamiento y la transmisión de información se
convierten en las fuentes fundamentales de la productividad y el poder, debido a
las nuevas condiciones tecnológicas que surgen en este período histórico” [5].
Más adelante precisa: “Lo que caracteriza a la revolución tecnológica actual no es
el carácter central del conocimiento y la información, sino la aplicación de ese
conocimiento e información a aparatos de generación de conocimiento y
procesamiento de la información/comunicación, en un círculo de retroalimentación
acumulativo entre la innovación y sus usos”. Y acota: “La difusión de la tecnología
amplifica infinitamente su poder cuando sus usuarios se la apropian y la
redefinen. Las nuevas tecnologías de la información no son sólo herramientas
que aplicar, sino procesos que desarrollar. (...) Por primera vez en la historia, la
mente humana es una fuerza productiva directa, no sólo un elemento decisivo del
sistema de producción” [6].
En cuanto a la sociedad del conocimiento, en una publicación posterior señala:
“se trata de una sociedad en la que las condiciones de generación de
conocimiento y procesamiento de información han sido sustancialmente alteradas
por una revolución tecnológica centrada en el procesamiento de información, en
la generación del conocimiento y en las tecnologías de la información”[7].
Yves Courrier, refiriéndose a Castells, diferencia los dos términos de esta forma:
“sociedad de la información” pone el énfasis en el contenido del trabajo (el
proceso de captar, procesar y comunicar las informaciones necesarias), y
“sociedad del conocimiento” en los agentes económicos, que deben poseer
cualificaciones superiores para el ejercicio de su trabajo [8].
Con respecto a las visiones, se destacan los documentos que resultaron de la
CMSI, por surgir de un proceso mundial. La Declaración de Principios de
Ginebra[9], adoptada por los gobiernos -con significativos aportes de la sociedad
civil-, expresa en su primer artículo:
“Nosotros (...) declaramos nuestro deseo y compromiso comunes de construir una
Sociedad de la Información centrada en la persona, integradora y orientada al
desarrollo, en que todos puedan crear, consultar, utilizar y compartir la
información y el conocimiento, para que las personas, las comunidades y los
pueblos puedan emplear plenamente sus posibilidades en la promoción de su
desarrollo sostenible y en la mejora de su calidad de vida, sobre la base de los
propósitos y principios de la Carta de las Naciones Unidas y respetando
plenamente y defendiendo la Declaración Universal de Derechos Humanos.”
Por su parte, la Declaración de la Sociedad Civil[10] extiende su visión sobre
varios párrafos, pero lo esencial dice:
“Nos comprometemos a constituir sociedades de la información y la comunicación
centradas en la gente, incluyentes y equitativas. Sociedades en las que todas y
todos puedan crear, utilizar, compartir y diseminar libremente la información y el
conocimiento, así como acceder a éstos, con el fin de que particulares,
comunidades y pueblos sean habilitados y habilitadas para mejorar su calidad de
vida y llevar a la práctica su pleno potencial”. A continuación, esta Declaración
añade los principios de justicia social, política y económica, y de la plena
participación y habilitación de los pueblos; destaca los objetivos de desarrollo
sostenible, democracia e igualdad de género; y evoca sociedades en donde el
desarrollo se enmarque en los derechos humanos fundamentales y esté orientado
a lograr una distribución más equitativa de los recursos.
Debates en curso
Una de las metas de la convocatoria de la primera fase de la CMSI era justamente
la de desarrollar una visión común de la sociedad de la información. Aunque
buena parte de las delegaciones gubernamentales y del sector privado le dieron
poca importancia a este aspecto, para muchas organizaciones de la sociedad civil
se trataba de un aspecto clave, pues allí tenía lugar la disputa de sentidos,
poniéndose en evidencia la confrontación de proyectos de sociedad.
De hecho, todo el proceso ha estado cruzado por -al menos- dos enfoques
distintos, que a grandes rasgos se pueden resumir de la siguiente manera :
Para el primer enfoque, hablar de sociedad de la información se refiere a un
nuevo paradigma de desarrollo que asigna a la tecnología un rol causal en el
ordenamiento social, ubicándola como motor del desarrollo económico.
Para los países en desarrollo, este discurso implica que la transición hacia la
sociedad de la información es esencialmente una cuestión de tiempo y de
decisión política para crear las “condiciones habilitadoras” adecuadas [12]. Algo
parecido sucedería con relación a los sectores sociales afectados por la brecha
digital, a los cuales habría que incluir mediante programas de acceso universal.
Al colocar a la tecnología en el centro de este modelo, la industria de
telecomunicaciones aparece como la llamada a liderar su desarrollo; mientras que
la industria productora de servicios y contenidos digitales asume una influencia
inédita[13].
El segundo enfoque, que impugnó a este primero en el proceso de la Cumbre,
sostiene que la nueva etapa del desarrollo humano en la cual estamos entrando
se caracteriza por el predominio que han alcanzado la información, la
comunicación y el conocimiento en la economía y en el conjunto de las
actividades humanas. Según este enfoque, la tecnología es el soporte que ha
desencadenado una aceleración de este proceso; pero no es un factor neutro, ni
su rumbo es inexorable, puesto que el propio desarrollo tecnológico es orientado
por juegos de intereses.
Siguiendo esta perspectiva, las políticas para el desarrollo de la sociedad de la
información deben centrarse en los seres humanos, deben concebirse en función
de sus necesidades y dentro de un marco de derechos humanos y justicia
social[14]. Los países en desarrollo y los actores sociales deberían tener un rol
clave en la orientación de dicho proceso y de las decisiones.
En otras palabras, para este segundo enfoque, lo fundamental no es “información”
sino “sociedad”. Mientras la primera hace referencia a datos, canales de
transmisión y espacios de almacenamiento, la segunda habla de seres humanos,
de culturas, de formas de organización y comunicación. La información se
determina en función de la sociedad y no a la inversa.
Por ello, la Campaña por los Derechos a la Comunicación en la Sociedad de la
Información -CRIS- señala en el documento sobre la CMSI “La Pregunta para la
Sociedad Civil de cara a la CMSI”[15] señala:
“Si la sociedad civil va a adoptar y rescatar la noción de una sociedad de la
información, debe regresar a estas nociones básicas, planteando las preguntas
correctas:
¿Quién genera y posee la información y el conocimiento? ¿De qué manera está
valorizado?
¿De qué manera es difundido y distribuido el conocimiento? ¿Quiénes son los
guardianes?
¿Qué limita y facilita el uso del conocimiento por parte de la gente para lograr
sus metas? ¿Quién está mejor y peor posicionado para aprovechar este
conocimiento?”
Formulaciones alternativas en debate
Dado el predominio adquirido por el término “sociedad de la información”, las
formulaciones alternativas tienden a tomarla como referente para demarcarse.
Una primera objeción tiene que ver con la palabra “sociedad” en singular, como si
se tratara de una sociedad mundial uniforme. Se propone como alternativa hablar
de “sociedades” (en plural) de la información o del conocimiento. Varios
documentos de la UNESCO se refieren a “sociedades del conocimiento” (o del
saber). Esta idea fue recogida por actores de la sociedad civil que participaron en
la Cumbre y que adoptaron el término “sociedades” en sus documentos de
consenso.
En cuanto a “información”, el argumento que aportó Antonio Pasquali (2002)[16]
tuvo bastante eco en la sociedad civil en la Cumbre: “Informar connota por lo
esencial mensajes unidireccionales causativos y ordenadores con tendencia a
modificar el comportamiento de un perceptor pasivo; Comunicar, la interrelación
de mensajes relacionales, dialogales y socializantes entre interlocutores
igualmente habilitados para una libre y simultánea recepción/emisión. Si la
Información tiende a disociar y jerarquizar los polos de la relación, la
Comunicación tiende a asociarlos; sólo la Comunicación puede dar nacimiento a
estructuras sociales” (énfasis del autor).
Y de hecho, los documentos de consenso de la sociedad civil adoptaron la
fórmula “sociedades de la información y la comunicación”, para demarcarse de la
visión tecnocéntrica presente en el discurso oficial, sin perder la referencia al tema
de la Cumbre. Se podría considerar que esta opción fue un gesto importante en el
contexto de la CMSI, pero no deja de ser una formulación pesada para el uso
corriente.
En cuanto al debate en torno a “sociedad del conocimiento”, quienes lo defienden
consideran que evoca justamente una visión más integral y un proceso
esencialmente humano. Otros, sin embargo, la objetan por la asociación con el
concepto dominante, que reduce el conocimiento a su función económica (la
noción, por ejemplo, del “knowledge management” en las empresas, que apunta
esencialmente a cómo recabar y sacar provecho de los conocimientos de sus
empleados); o que valora solamente el tipo de conocimiento supuestamente
objetivo, científico y digitalizable en desmedro de aquellos que no lo son.
Una variante interesante, que surgió en el marco de los debates en torno a la
CMSI, si bien tuvo poco eco en el proceso, es la de “sociedad(es) del saber
compartido” o “de los saberes compartidos”.
Fue propuesta, entre otros, por Adama Samassékou (en ese entonces presidente
del buró de la CMSI), quien dijo de la sociedad de la información: “Es importante
comprender qué cubre este concepto: no se trata de una información que se
difunde y se comparte sino más bien de una sociedad en la que se quiere
comunicar de otra manera y compartir un saber. Se trata, pues, de una sociedad
del saber compartido y del conocimiento”[17].
Definiciones alternas
El concepto de “sociedad de la información”, nacido bajo los preceptos de la
globalización neoliberal, sobrentiende que en adelante serán las “revoluciones
tecnológicas”, las que determinen el rumbo del desarrollo; los conflictos sociales
serían cosa del pasado. Por lo mismo, este concepto no es el más adecuado para
calificar las nuevas tendencias de las sociedades, ni mucho menos para describir
un proyecto contrahegemónico de sociedad.
Nuestro planteamiento es que, más allá de debatir lo apropiado de tal o cual
término, lo fundamental es impugnar y deslegitimar cualquier término o definición
que refuerce esta concepción tecnocéntrica de la sociedad.
No pretendemos aquí proponer una fórmula alternativa, sino, más bien, presentar
algunos criterios para alimentar el debate.
Primero, acogemos la noción de que cualquier referencia a “sociedades” debe
hacerse en plural, reconociendo la heterogeneidad y diversidad de las sociedades
humanas. Ello implica también reafirmar el interés de que cada sociedad se
apropie de las tecnologías para sus prioridades particulares de desarrollo y no
que deba adaptarse a ellas para poder ser parte de una supuesta sociedad de la
información predefinida.
Segundo, afirmamos que cualquier definición que use el término “sociedad” no
puede describir una realidad circunscrita a Internet o a las TIC. Internet puede ser
un nuevo escenario de interacción social, pero esta interacción está
estrechamente integrada al mundo físico y los dos ámbitos se transforman
mutuamente.
Por último, apostamos por un proyecto de sociedad donde la información sea un
bien público, no una mercancía, la comunicación un proceso participativo e
interactivo, el conocimiento una construcción social compartida, no una propiedad
privada, y las tecnologías un soporte para todo ello, sin que se conviertan en un
fin en sí.
Notas y referencias
[1] Bell, Daniel. The coming of post-industrial society; a venture in social
forecasting. - New York, Basic Books [1973]. - xiii, 507 p. illus. 25 cm. [traducción:
Advenimiento de La Sociedad Post-Industrial . - Alianza (January, 1992). - ISBN:
8420621498.] [traducción: Vers la société post industrielle. - Robert Laffont, 1976].
[2] Esta imagen de las TIC como factor desencadenante de democracia y
desarrollo -y la visión tecnocéntrica subyacente- fue popularizada en la primera
mitad de los 90s, entre otros, por el entonces vicepresidente de EE.UU, Al Gore, a
quien se le atribuye haber acuñado los términos “superautopista de la
información” (information superhighway) e “Infraestructura Global de la
Información” (Global Information Infrastructure).
[3] Towards Knowledge Societies. An Interview with Abdul Waheed Khan, World of
Science Vol. 1, No. 4 July-September 2003, UNESCO’s Natural Sciences Sector.
http://portal.unesco.org/ci/en/ev.p...
[4] Gorz André. - L’immatériel. - Galilée, 2004. - citación p. 13.
[5] Castells, Manuel. - La Era de la Información: Economía, Sociedad y Cultura: La
sociedad Red, México, Siglo XXI, 1999. citación: p. 47.
[6] idem citación p. 58.
[7] Castells, Manuel. 2002 “La dimensión cultural de Internet”, Universitat Oberta
de Catalunya, julio. http://www.uoc.edu/culturaxxi/esp/a...
[8] Courrier, Yves, “Société de l’information et technologies”,
http://www.unesco.org/webworld/poin...
[9] CMSI (2003). “Declaración de Principios”, Ginebra, diciembre,
http://www.itu.int/wsis/documents/d...
[10] CMSI (2003). “Construir sociedades de la información que atiendan a las
necesidades humanas”, Declaración de la Sociedad Civil, Ginebra, diciembre.
http://alainet.org/active/show_text...
[11] Bajo este concepto, hubo incluso quienes llegaran a sostener que la
“sociedad de la información”, estaría circunscrita al ámbito digital: lo que no está
digitalizado no sería parte de esta nueva sociedad.
[12] Una mirada hacia la historia desmiente esta teoría del desarrollo. Como lo
argumenta Yves Courrier (s/f), en los países desarrollados “fue la demanda de
fines de los años setenta ocasionada por el desarrollo del sector terciario y el
crecimiento palpable de una población con acceso a la educación superior lo que
permitió el desarrollo de un mercado de TIC (...) No fue el desarrollo de las TIC lo
que permitió pasar de la sociedad industrial a la sociedad de la información. Las
tecnologías vinieron después, para facilitar y multiplicar los efectos del paso a la
sociedad de la información”, basándose en una infraestructura material y humana
sofisticada. “Para muchos países en desarrollo, donde ciertos factores esenciales
de esta infraestructura son inexistentes, las tecnologías no pueden tener efectos
similares”.
[13] Esta visión “centrada en el mercado- es la que predomina en el Plan de
Acción de la Cumbre (CMSI 2003-b), incluso desde el primer párrafo, que expresa
que “la visión común y los principios fundamentales de la Declaración de
Principios se traducen en líneas de acción concretas para alcanzar los objetivos
de desarrollo acordados (...) mediante el fomento del uso de productos, redes,
servicios y aplicaciones basados en las tecnologías de la información y las
comunicaciones (TIC)”. (Las cursivas son nuestras). En: CMSI (2003 b). “Plan de
Acción”, Ginebra, diciembre, http://www.itu.int/wsis/documents/d...
[14] Al respecto, en una ponencia en la Conferencia Regional Américas de la
Cumbre, señalamos: “Considerar a la sociedad de la información como una
dimensión separada de la realidad, que requiere de un marco legal y regulatorio
exclusivo, podría incluso ser peligroso. ¿Vamos a definir otra ciudadanía que
habite ese otro mundo? ¿Cuáles serán los parámetros democráticos que rijan el
debate, la definición, el control y la vigilancia de este marco legal? Si bien puede
ser cierto que las particularidades del ciberespacio hacen necesarios otros
mecanismos de implementación de las leyes y reglamentos, cuestionamos la
conveniencia de dotarle de un marco legal propio”. En: Burch, Sally. “CRIS en la
Conferencia Ministerial Regional preparatoria sobre la Sociedad de la
Información”, Enero 2003. http://alainet.org/docs/3047.html
[15] Campaña CRIS (2003). “La Pregunta para la Sociedad Civil”, Documento
temático No. 1, http://movimientos.org/foro_comunic...
[16] Pasquali, Antonio (2002) “Cumbre Mundial de la Sociedad de la Información:
Dos precauciones a tomar”, junio. http://www.movimientos.org/foro_com... Esta
ponencia fue presentada en el “Encuentro Latinoamericano: ¿Y por qué no una
sociedad de la comunicación”, preparatorio de la Cumbre, Quito, junio 2002.
http://movimientos.org/foro_comunic.... Fue presentada por ALAI en el primer
Comité Preparatorio de la Cumbre de julio 2002.
[17] Citado en el resumen del evento: “Cooperación, diversidad y paz”, II Coloquio
de los Tres Espacios Lingüísticos, México, 2-4 de abril de 2003.
http://www.3el.refer.org/rubriqueES...
Lecturas complementarias
Burch, Sally et al, 2004. “Se cayó el sistema”: Enredos de la Sociedad de la
Información, ALAI, Quito.
Mattelart, Armand (2001) Histoire de la societé de l’information, Editions La
Découverte.
Mattelart, Armand (2002) “La Communication à l’assaut de la culture, L’empire des
médias”, Manière de Voir, No. 63, Paris, Le Monde Diplomatique, mai-juin.
Picardo, Óscar “El escenario actual de las ciencias sociales: la sociedad del
conocimiento”, Universitat Oberta de Catalunya, Biblioteca virtual
http://www.uoc.edu/dt/20318/index.html
Siggaard Jensen, Hans “History of the concept of knowledge”,
http://www.kursus.kvl.dk/shares/soa...
Unesco, “Building knowledge societies: some preliminary points of reflexion”,
http://unesdoc.unesco.org/images/00...
Unesco, L’UNESCO promeut les ‘sociétés du savoir’ pour maximiser l’impact des
technologies de la communication,03-10-2003 http://portal.unesco.org/ci/fr/ev.p...
Valenduc, Gerard (2002) Nouvelles technologies, nouvelle economie et cycles
longs, Mondialisation: Comprendre pour Agir, Bruxelles, Belgique, Coédition
GRIP- Complexe.
Ziegler, Jean (2002) Les Nouveaux Maîtres du Monde et ceux qui leur résistent,
París, Fayard.
Gobernanza en red y gobernanza electrónica
Partha Pratim Sarker
La evolución del término “gobernanza en red” o “gobernanza electrónica” tiene
que verse en la intersección de dos grandes movimientos - gobernanza y
revolución de la información. Hace algún tiempo se viene hablando del tema de la
“gobernanza”. Según el Concise Oxford Dictionary (9na Edición), la palabra
“gobernanza” proviene de la voz griega “kuberna”, que significa “dirigir”. Los
primeros ensayos de las ciencias políticas clásicas sobre el tema hacían
referencia al concepto de “gobernabilidad” que convirtió al estado de derecho en
la piedra angular del desarrollo [1].
La toma de conciencia antecede a la tecnología
Sin embargo, el concepto comenzó a tomar otro significado con la interacción de
tres actores -el Estado, el mercado y la sociedad civil- en el período posterior a la
Segunda Guerra Mundial. Un cuarto de siglo después de la Guerra Fría, era muy
evidente que el mercado, por sí solo, no podría asegurar el crecimiento, y que en
realidad el Estado tenía una función que cumplir. En Occidente, John Maynard
Keynes justificó teóricamente el hecho de que el Estado manipulara los precios y
combatiera el desempleo y las crisis comerciales. Los Estados socialistas
adoptaron y consolidaron sistemas de planificación centralizada. En el Tercer
Mundo, el Estado también asumió la función de proyectista, fomentador, promotor
y director del esfuerzo de desarrollo acelerado. Por consiguiente, los Estados no
solo tenían que asumir un papel central, sino también habían creado sus propias
empresas. Pero el hecho de tratar las entidades comerciales con objetivos
sociales dificultaba la competencia en igualdad de condiciones dentro la
economía. Por consiguiente, se expandieron la corrupción y las pérdidas de las
empresas. En muchos Estados donde el régimen tributario era regresivo, las
pérdidas fueron asumidas principalmente por los pobres. Esto condujo al
descontento y a la desilusión por las políticas intervencionistas y a una demanda
de privatización que alejó al Estado de su papel central. Sin embargo, el sector
privado, por sí solo, no podría tener en cuenta los aspectos de la distribución que
llevaron a replantearse el desarrollo como crecimiento económico en primer lugar.
La imposibilidad de que las ganancias económicas produjeran niveles aceptables
de redistribución, reducción de la pobreza y libertades políticas despertó a la
sociedad civil [2].
El término “gobernanza” se introdujo en el discurso sobre el desarrollo alrededor
del período de finales de los años ochenta. El Informe de Desarrollo Humano de
1991 [3] acepta el hecho de que la libertad y la democracia, aunque no sean una
condición necesaria, son completamente consecuentes con el crecimiento y el
desarrollo. El “desarrollo internacional” cambió su enfoque de los años cincuenta
(décadas de desarrollo de la ONU), de “crecimiento económico” por el de
“desarrollo humano sostenible”, lo que provocó que las preocupaciones por las
personas y la naturaleza sean aceptadas ampliamente por el Estado, el mercado
y la sociedad civil. El movimiento medioambiental ha planteado que la
“gobernanza” es una urgencia para llevar a cabo las agendas de desarrollo de
manera holística: incluye no sólo al sector en cuestión y las partes involucradas
obvias, sino también a los demás afectados en otras áreas. Ha forzado una
redefinición del interés público en la que se reconoce a la propia naturaleza como
participante.
La globalización influye en los argumentos de los sistemas reguladores, en el
sentido de que, teóricamente, los gobiernos tienen que crear condiciones iguales
para los diferentes participantes, de manera tal que exista una situación en la que
todos ganan. La idea es definida por los “participantes” y por las “instituciones”.
Los participantes se esfuerzan por lograr un máximo poder discrecional, mientras
las instituciones regulan la conducta de esos participantes. Cuánto tiempo esos
ejercicios reguladores pudieran continuar manteniendo esa posición o, en su
lugar, convertirse en una “intervención” es un debate diferente, pero la razón
fundamental era esta “interacción” - un concepto que ha sido incorporado en la
definición de gobernanza en red.
La emergencia de las nuevas tecnologías de la información y las comunicaciones
(TIC), también tuvo un impacto profundo en el desarrollo de la gobernanza en red.
Por primera vez en los últimos dos siglos, las TIC reemplazaron dos elementos
básicos de la producción - “obrero” y “capital” - por “información” y “conocimiento”
[4]. Internet significó un avance tan importante como el de la imprenta en el siglo
XV. Ofrece la posibilidad de comunicar, compartir, distribuir, intercambiar,
formalizar, usar y poner en red la información a una velocidad nunca antes
experimentada. La ley de Moore [5] señaló que el poder de procesamiento de los
microchips se duplica cada 18 meses mientras que el precio de las computadoras
decrece en un 20-30%, teniendo en cuenta el ajuste de la calidad.. Esto significa
que las computadoras son cada vez más baratas, potentes y ubicuas, lo que
posibilita gobernar la red y la automatización de servicios. Por otro lado, el
activismo político también está utilizando el espacio con un creciente número de
grupos de interés público, organizaciones comunitarias o voluntarias que están
propagando sus demandas y actividades en la red electrónica.
Los principios weberianos de gobernanza burocrática [6] se están reemplazando
por las tendencias de gobernanza horizontal, lineal, dinámica y en red. La reforma
administrativa y el desarrollo experimentaron la gestión de la calidad total (TQM
por sus siglas en inglés) [7] en los años ochenta, y la “reingeniería y reinvención
del gobierno” en los años noventa. La gobernanza en red refleja este proceso de
reinvención y reingeniería en la gobernanza y “apunta a adaptar la administración
al flujo cada vez más creciente de información: acelerando el proceso de toma de
decisiones con una optimización de los recursos, y haciendo que el mecanismo
de toma de decisiones se autorregule” [8]. Esto ha llevado a que la “gobernanza”
se defina independientemente desde “la acción de gobernar” hasta la práctica de
obtener el consentimiento y la cooperación de los gobernados. El objetivo
concreto de la gobernanza electrónica es apoyar y simplificar la gobernanza para
todas las partes - gobierno, ciudadanos y empresas.
Algunos plantean que este modo de gobernanza en red “utiliza medios
electrónicos para apoyar y estimular la buena gobernanza” [9]. Sin embargo, lo
que significa “buena” es un fenómeno relativo y varía considerablemente en la
práctica y en la realidad. Por ejemplo, el Dr. Thomas F. Gordon, del “eGovernment
Competence Center”, plantea que es la calidad y la eficiencia de todas las fases
del ciclo de vida de la legislación, que se refleja en la corrección, la consistencia,
la transparencia y la eficiencia de las transacciones (del gobierno). Mientras, por
otro lado, el “Informe de la ONU de la Reunión del Grupo Ad Hoc de Expertos
sobre la gobernanza electrónica y los cambios en las estructuras administrativas”
sugiere que la gobernanza en red se aleja del gobierno burocrático tradicional,
pero puede o no promover la buena gobernanza. “Pueden servir para reforzar, de
forma maligna o benigna, las ineficientes e inefectivas prácticas gubernamentales
existentes o introducir nuevas “formas de hacer negocios” que incluyan a los
participantes del sector privado, a quienes poco preocupa el interés público” [10].
El surgimiento de guías y de principios de acción para la gobernanza
electrónica
Tanto la gobernanza en red como la gobernanza electrónica son una idea
emergente y se basan en el rechazo a la gobernanza burocrática, que no
responde a los imperativos de la sociedad del conocimiento, a las realidades de
un mundo más interconectado y complejo, a la naturaleza interdisciplinaria de la
política actual y a las herramientas de las TIC.
Pero la red no es solo un sitio Web o una digitalización del mecanismo de
prestación de servicios. En realidad, consiste en una definición más amplia del
compromiso y la profundidad de las relaciones entre los ciudadanos y el gobierno
[11]. En este sentido también es importante establecer una diferencia de
significado entre gobernanza y gobierno. La gobernanza es la manera o el
proceso de guiar a una sociedad a lograr mejor sus metas e intereses, mientras el
gobierno es la institución o el instrumento para realizar ese trabajo. Esto significa
que el gobierno es uno (de los muchos) ejemplos de la gobernanza.
Resulta interesante que los diferentes organismos internacionales destaquen el
tema de la gobernanza según sus intereses y objetivos inminentes. El término
más empleado por ellos es “gobernanza electrónica”.
Por ejemplo, la preocupación del Banco Mundial con respecto a la gobernanza se
relaciona exclusivamente con la contribución que hace al desarrollo social y
económico mediante la liberalización económica y estructural. Por consiguiente,
para ellos, la gobernanza electrónica implica el uso de los canales de TIC para
cambiar la forma en que los ciudadanos y las empresas interactúan con el
gobierno para posibilitar la participación de los ciudadanos en la toma de
decisiones, un mayor acceso a la información, más transparencia y el
fortalecimiento de la sociedad civil [12].
El PNUD (Programa de las Naciones Unidas para el Desarrollo) relaciona el
concepto de gobernanza con el de desarrollo humano sostenible. Considera que
la gobernanza electrónica es un proceso de “creación de valor público con el
empleo de las modernas TIC”. El valor público está definido como una noción
“arraigada en las preferencias de las personas”. La gobernanza electrónica se
justifica si amplía la capacidad de la administración pública de aumentar la
entrega de valor público - el resultado de una alta calidad de vida. Más enfocado
en las posibilidades de la “gobernanza”, considera que la gobernanza electrónica
puede “equipar a las personas para una participación genuina en un proceso
político inclusivo que puede producir un consentimiento público bien informado, la
base cada vez más prevaleciente para la legitimidad de los gobiernos”. [13]
Los Cinco Principios Rectores de la ONU con respecto a los objetivos de la
gobernanza electrónica son: [14]
1. Crear servicios relacionados con las decisiones de los ciudadanos.
2. Hacer que el gobierno y sus servicios sean más accesibles.
3. Promover la inclusión social.
4. Proporcionar información de manera responsable.
5. Emplear las TI y los recursos humanos de manera efectiva y eficiente.
El Grupo de Administración Pública (PUMA por sus siglas en inglés) de la
Organización para la Cooperación y el Desarrollo Económico (OCDE) se centra
en tres elementos principales de la gobernanza electrónica en línea y
participativa: “la información, la participación activa y la consulta” [15].
El gobierno de la India se basó en SMART para plantear su punto de vista sobre
la gobernanza electrónica. Este se refiere a “la aplicación de las TI al proceso de
funcionamiento del gobierno para lograr una gobernanza simple, moral,
responsable, sensata y transparente (SMART por sus siglas en inglés)” [16]. Esta
visión ayudó a la India a trazar otros objetivos e iniciativas estratégicas sobre la
gobernanza electrónica.
Rogers W’O Okot-Uma, de la Secretaría de la Mancomunidad Británica de
Naciones en Londres, considera que la gobernanza electrónica tiene el objetivo
de materializar procesos y estructuras para aprovechar las potencialidades de las
tecnologías de la información y las comunicaciones (TIC) en varios niveles de
gobierno y del sector público y mucho más [17].
De cualquier manera, la gobernanza en red funciona a través de un instrumento
en red en que la política se implementa mediante consulta, las organizaciones
trabajan como coproductores en el proceso de toma de decisiones y de
implementación. Pero, ¿cuál es esa red que es esencial para esta gobernanza?
El informe de las Naciones Unidas de 1994 ofrece una respuesta interesante que
confronta, posteriormente a Jones, Hesterly y Borgatti [18], las diversas
definiciones de la noción de red en el ámbito de la gobernanza.
Jones, Hesterly y Borgatti (1997) definen las redes como interacciones
sistemáticas “entre unidades autónomas involucradas en la creación de productos
y servicios sobre la base de contratos implícitos o indefinidos” para adaptarse a
las contingencias ambientales y para coordinar y salvaguardar los intercambios.
Dubini y Aldrich (1993) y Kreiner y Schultz (1993) describen las redes como
“modelos de colaboración entre individuos y organizaciones”.
Larson (1992) y Liebeskind, Oliver, Zucker y Brewer (1996) enfatizan los
intercambios a largo plazo basados en la confianza y los intereses mutuos.
Powell (1990) agrega que las redes se basan en “intercambios horizontales”.
Grandori y Soda (1995) hacen énfasis en las “redes que proporcionan conexiones
entre las partes correspondientes que participan en intercambios mutuos”.
Gobernanza en red y administración electrónica
La gobernanza en red se asemeja y se diferencia desde el punto de vista
conceptual de la gobernanza electrónica - algo que parece confundir a muchos
analistas. La gobernanza en red enfatiza en la soberanía de las unidades (en el
Estado) cuyas interacciones facilitan o inhiben el funcionamiento de todo el
sistema. La “gobernanza electrónica” que se practica en la actualidad puede
enfatizar o no en esa soberanía y no puede centrarse principalmente en la
interacción. Por ejemplo, la iniciativa de gobernanza electrónica puede dar la
oportunidad de descargar el contenido elaborado por agencias gubernamentales,
mientras la gobernanza en red pone a los ciudadanos en contacto para permitirles
aprender, debatir y participar en los temas de elaboración de políticas.
Prácticamente, todo el valor de una red es trabajar en gobernanza.
La gobernanza en red puede representar una forma de gobernanza electrónica y
no abarcar todas las formas avanzadas de tecnología que utiliza la gobernanza
electrónica. Incluso, algunos plantean que el concepto de gobernanza en red es
independiente de las tecnologías de la información y la comunicación (TIC). Para
ellos, más bien representa una reforma de la administración pública, sea apoyada
por la tecnología o no.
La gobernanza electrónica no se ocupa del acuerdo o del consenso mutuamente
acordado, o al menos deja que ese asunto sea gestionado por las instituciones.
Entretanto, en el caso de la gobernanza en red, el objetivo es encontrar un
consenso en la diversidad. El intento de desarrollar el “conocimiento
consensuado” puede favorecer al mínimo denominador común como resultado
eventual de la política. Además, las redes no solo adicionan recursos, sino
también están estructuradas para beneficiarse del hecho de que cada sector
participante aporte diferentes recursos al debate. Sin embargo, también es cierto
que lograr el consenso puede ser un proceso lento y costoso, particularmente en
un entorno conflictivo.
Muchos plantean que la misión de la gobernanza electrónica es acercar las
administraciones nacional, regional y local a las personas comunes para ofrecer
servicios eficaces y eficientes. Esto significa que el gobierno brinda servicios a los
ciudadanos, pero se pone menos énfasis en cómo los ciudadanos participan y
toman decisiones en el proceso democrático. El concepto de gobernanza
electrónica hace pensar en una interacción en ambos sentidos y promete una
interacción más amplia con los ciudadanos. Pero en la literatura sobre la
gobernanza electrónica sigue siendo incierto el cuándo y cómo se haría. En
realidad, los gobiernos se centran principalmente en la prestación electrónica de
servicios y pueden evitar los aspectos polémicos de la buena gobernanza (tales
como democracia, participación, igualdad, etcétera). Algunos también piensan que
el desarrollo de la gobernanza electrónica conducirá inevitablemente a la
democracia electrónica. Clift considera que a medida que los gobiernos presten
más servicios en línea se producirá un cambio extraordinario en la voluntad de los
ciudadanos de usar las diferentes herramientas de la democracia electrónica.
Pero el simple hecho de que el gobierno participe en actividades en línea con los
ciudadanos no significa necesariamente que se producirá un mecanismo de
democracia electrónica [18].
La gobernanza electrónica, en los casos en que se refiere a una “ciudadanía más
comprometida e interactiva”, se aproxima prácticamente a la gobernanza en red.
Pero puede ser que a los gobiernos u órganos legislativos, que por lo general se
resisten al “cambio”, les resulte difícil la transición. El compromiso, el cambio de
actitud o el liderazgo que requiere estimulan el debate acerca de cómo el
gobierno puede manejar esta situación. El mayor obstáculo que tendrán que
resolver los gobiernos para enfrentar este nuevo desafío será desarrollar medios
administrativos y un servicio de gestión consistente en recursos, fondos y
personal suficientes para lograrlo [19]. La falta de compromiso político puede
aumentar, particularmente en los casos en que la gobernanza electrónica no está
al servicio de los intereses políticos propios de los principales participantes, aun
cuando estén presentes otros factores. Por otra parte, en un modo de gobernanza
en red, el Estado es una de las muchas organizaciones (entre las que se incluyen
el sector público y el privado, las sociedades civiles, etcétera) y todas esas
organizaciones actúan con considerable independencia. El papel tradicional del
Estado se ve limitado solo a una posición de seguimiento o a un papel de
facilitador.
Si la gobernanza electrónica o la gobernanza en red se implican a una mayor
participación de los ciudadanos a través de los medios digitales, habría entonces
que inquietarse de la brecha digital. Las causas de la “brecha digital” no son
técnicas, sino socioeconómicas. Por consiguiente, existen aspectos relacionados
con el acceso, la conectividad, la educación, la habilidad, la capacidad de
financiamiento, etc., que continúan siendo los elementos esenciales subyacentes
de la gobernanza electrónica. El Informe Mundial del Sector Público 2003 de la
ONU, (E-Government at the Crossroads) sugiere tres requisitos previos para la
gobernanza electrónica: un mínimo de infraestructura tecnológica, capital humano
y conectividad - para todos. Por tanto, “el desafío primario del gobierno
electrónico para el desarrollo es cómo lograrlo” - plantea el informe.
La gobernanza en red y la gobernanza electrónica son un proceso, no un fin
decisivo de la evolución de su significado. Tampoco implica una trayectoria
estándar de progresión. Por consiguiente, los países necesitan encontrar la
manera que mejor se ajuste a ellos y deben participar en un proceso de “diálogo,
aprendizaje, creación de capacidades y facilitación” [20] - que es un enfoque de
“aprender haciéndolo”. El concepto de la gobernanza en red es relativamente
nuevo, y es necesaria una idea más estructurada para evaluar sus dinámicas.
“Algunos críticos malinterpretan las redes como simples productos de la
tecnocracia, mientras otros pueden referirse ingenuamente a las redes
multisectoriales como la solución a todos los problemas” [21].
La gobernanza electrónica, cuya base radica fundamentalmente en las TIC, a
menudo se aleja de la gobernanza real. Como planteara Richard Heeks, “la
gobernanza electrónica puede ser poco útil si sugiere, erróneamente, que la
aplicación de las TIC es un fin en sí misma. Puede ser que resulte más apropiado
hablar de gobernanza integrada o, quizás, de gobernanza inteligente que prioriza
los objetivos de la gobernanza y considera las TIC como una parte de los medios
para lograr esos objetivos conjuntamente con las personas, los procesos y la
información.
La dimensión de “mercado” de la gobernanza electrónica se distingue claramente
de su dimensión “económico-política”. Por ejemplo, el Banco Mundial hace un
llamado a los gobiernos a “crear un marco legal e institucional para la
transparencia, previsibilidad y la competencia, así como la gestión del desarrollo
económico”. El argumento es que, teniendo en cuenta que el mercado es el
equilibrio fundamental, este rectificará con el tiempo las preocupaciones de la
distribución desigual, mientras que el gobierno es quien debe proporcionar
condiciones iguales para todos en el mercado, liberalizando el marco económico e
institucional. Los ejemplos apuntan a medios electrónicos anteriores (tales como
la radio, la televisión, etcétera) y otras formas de infraestructura, tales como la
distribución de electricidad, el tratamiento de aguas residuales, la educación
pública, el servicio telefónico, etc., que benefician a toda la sociedad.
Por otro lado, la dimensión “económico-política” de la gobernanza electrónica se
refiere al desarrollo humano sostenible que no puede ser solo un subproducto o
una decantación de los logros económicos. Como plantea el PNUD, la
gobernanza legítima constituye “un marco de la administración pública basado en
el estado de derecho, un sistema de justicia imparcial y eficiente, y una amplia
participación popular en el proceso de gobernar y ser gobernado [22]. Por
consiguiente, este es un punto de vista totalitario y busca integrar las estructuras y
actividades organizativas de los gobiernos central, regional y local, el parlamento,
la magistratura y las instituciones, organizaciones e individuos que constituyen la
sociedad civil, el sector privado y, por último, las formas en que todas sus
acciones influyen en la política pública para el bienestar público.
De la gobernanza a la cooperación multi-actores
Definitivamente, “multi-participacionismo”, o “red multisectorial”, es, en este
sentido, un término relacionado. El multi-participacionismo surge del hecho de que
el Estado no puede por sí solo abordar aspectos de interés público. Por
consiguiente, un proceso poco regulado, que es flexible y de abajo arriba y tiene
un mínimo de control gubernamental, puede involucrar a otros grupos (tales como
el sector privado, la sociedad privada, las ONG, los académicos, etcétera) con
una preocupación legítima por el bienestar común y el interés público. En la
actualidad, diferentes organismos internacionales han comenzado a integrar el
“multi-participacionismo” en sus procesos negociadores y diplomáticos. Por
ejemplo, la Declaración de Ginebra (en la CMSI) ha introducido el “multiparticipacionismo” como un principio guía del proceso de la CMSI, y esta forma de
interacción entre los diferentes participantes conducirá a una mayor eficiencia y a
fomentar las innovaciones en la incipiente nueva diplomacia mundial del siglo XXI.
La red multisectorial se utiliza más comúnmente para la gobernanza en red. Las
redes multisectoriales tienden puentes a escala transnacional entre el sector
público (gobiernos nacionales, regionales o estatales y locales, así como grupos
intergubernamentales), el sector privado y la sociedad civil. Estas redes (a)
reflejan los papeles cambiantes y la relativa importancia entre ellos; (b) reúnen
diversos grupos y recursos, y (c) abordan temas que ningún grupo puede resolver
por sí solo [23].
La democracia en red también es un término relevante. Douglas Rushkoff, en su
artículo “Democracia de código abierto: cómo la comunicación en línea está
cambiando las políticas fuera de línea”, [24] dio una interesante explicación sobre
la democracia en red. Planteó: “El orden que subyace en los sistemas
aparentemente caóticos sugiere que los sistemas pueden comportarse de forma
mutuamente beneficiosa para todos los miembros, incluso sin una jerarquía de
mando. El término que emplean los científicos para describir la auto-organización
natural de una comunidad es “emergencia”. La asombrosa organización de un
hormiguero “emerge” de abajo hacia arriba, en una demostración colectiva de los
instintos de cada una de las hormigas. En cierto sentido, realmente no está
organizado porque no hay una burocracia central. La conducta colectiva de la
colonia es un fenómeno emergente”. Él considera que la emergencia de una
cultura en red, acompañada por el conocimiento de los medios y el debate
abierto, puede ser un primer paso para un sistema político más sensible. El
corazón de ese sistema político sería la participación en red de los ciudadanos en
los asuntos públicos. El autor también considera que el movimiento del software
de “código abierto” puede ser un modelo para el proceso participativo a través del
cual tendría lugar la legislación en una democracia en red.
Por otro lado, la democracia electrónica se centra más en el aspecto tecnológico
de la interacción. Steve Clift, estratega de la democracia en línea, describe la
democracia electrónica como la “forma en que se puede utilizar Internet para
mejorar nuestros procesos democráticos y proporcionar mejores oportunidades a
los individuos y comunidades para interactuar con el gobierno y al gobierno para
buscar la participación de la comunidad” [25]. El Centro Internacional de
Teledemocracia de Escocia se centra en el uso de las nuevas TIC para llevar a
cabo procesos mejorados de toma de decisiones democráticas, lo que aumenta la
participación ciudadana específicamente a través de la consulta electrónica y las
peticiones electrónicas. Ake Gronlund, de la Universidad de Umea, en Suecia,
está preocupado porque las definiciones de democracia electrónica se centran a
menudo en el uso y los proyectos de las TIC, y no en los procesos democráticos y
la innovación institucional. Plantea que la democracia electrónica debe evaluarse
en términos de sus procesos definitorios, no por la medida en que se emplean las
TIC.
“Gobernanza” es un término que rebasa el significado colectivo de algunos
conceptos relacionados, como Estado, sociedad, gobierno, mercado, burocracia,
etc. Incluye al Estado, pero también tiene en cuenta el papel de otros
participantes de la sociedad. Si la “gobernanza electrónica” es el iniciador de este
proceso, entonces, la “gobernanza en red” probablemente lo toma a un nivel en el
que las organizaciones no solo están conectadas, sino que también son
interdependientes al formar un grupo del proceso de elaboración de políticas.
La gobernanza de Internet
Carlos Afonso
La primera fase de la Cumbre Mundial de la Sociedad de la Información (CMSI),
que culminó en la reunión de Ginebra de diciembre de 2003, dejó dos temas
cruciales pendientes. El primero de ellos apunta a cómo financiar la
implementación adecuada de las tecnologías de información y comunicación para
el desarrollo (TICD, o por sus siglas en inglés, ICT4D). Esto implica, sobre todo en
los países menos desarrollados, la elevación de la tasa de rentabilidad en las
áreas de infraestructura, capacitación y sustentabilidad, además de la inclusión
digital. El informe final elaborado por un grupo de trabajo creado especialmente
por la ONU (la Fuerza de Tarea en Mecanismos de Financiamiento, FTMF, o
TFFM por sus siglas en inglés) se divulgó oficialmente en enero de 2005.
El segundo tema se refiere a la gobernanza global de Internet - cómo crear,
mejorar o adaptar mecanismos globales que permitan discutir los temas centrales
derivados de la presencia cada vez más extensa de Internet en la economía,
política, sociedad y cultura de todas las naciones. Temas como la definición y
distribución de nombres de dominio y números IP, costos de conexión entre los
países, derecho de acceso a la infraestructura y a la información, libertad de
expresión, seguridad y uso adecuado, entre otros. A este respecto la ONU
también creó, de acuerdo al Plan de Acción aprobado en la CMSI de Ginebra, un
grupo internacional para abordar el tema - el Grupo de Trabajo sobre Gobernanza
de Internet (GTGI, o WGIG por sus siglas en inglés), conformado por 40
miembros provenientes de varios países y de varios grupos de interés (gobiernos,
sector privado, sector académico, organizaciones de la sociedad civil). El informe
final del GTGI se presentó en sesión pública el 18 de julio en Ginebra. Ambos
informes servirán de base para el proceso preparatorio de la segunda fase de la
CMSI/WSIS, a ser realizada en Túnez en noviembre de 2005.
La gobernanza global de Internet es un tema complejo, que involucra poderosos
intereses. Después de todo, se trata de definir o perfeccionar la coordinación
global de los diferentes componentes de la red, desde la infraestructura hasta los
métodos adecuados de la eventual supervisión de contenido (que abarca temas
que van desde la pornografía infantil hasta el uso indebido del e-mail para
fraudes). Un consenso existe ya: de la manera en que está no puede continuar.
No existe un foro mundial para establecer acuerdos efectivos en relación a
Internet para compartir de una forma justa los costos de conexión entre países,
para definir políticas eficaces contra el “spam” y el “phishing”, para garantizar la
libertad de expresión, el derecho a la información y muchos otros derechos (y
deberes) que, con la presencia inevitable de Internet en nuestras vidas - así como
en la vida de las personas que no tienen acceso a la misma - pasan a ser
cruciales.
Un componente fundamental de la gobernanza es ejercido por una organización
civil sin fines de lucro creada por el gobierno del presidente Clinton en California
en 1998 (la Corporación de Internet para la Asignación de Nombres y Números,
conocida por la sigla en inglés ICANN - Internet Corporation for Assigned Names
and Numbers). Esta organización coordina la distribución mundial de nombres de
dominio de primer nivel (tanto los globales, conocidos como gTLDs o sTLDs, tales
como “.com”, “.net”, “.org”, “.aero”, entre otros; como los nacionales, o ccTLDs,
tales como “.br”, “.iq”, “.fr”, entre otros), a través de la gestión de los servidores
raíz que permiten asociar tales dominios a direcciones IP (números que identifican
de forma inequívoca cualquier computador conectado a Internet) y, de esta
manera, localizar los computadores respectivos en cualquier parte de Internet. La
organización coordina al mismo tiempo, la distribución mundial de las direcciones
IP y la adopción de los protocolos de comunicación utilizados por la red. Este
conjunto de atribuciones de la ICANN es lo que se puede llamar como
“gobernanza de la infraestructura lógica” de Internet.
En realidad, esta gobernanza es llevada a cabo por lo que denomino el “sistema
ICANN”. Una serie de mecanismos internos para consulta y orientación que se
crearon en el interior de la organización, que contemplan la administración de los
nombres de dominio globales (GNSO y una asamblea de usuarios no
comerciales, la NCUC), la distribución de números IP (ASO/NRO), el espacio de
los usuarios (ALAC), el espacio de los gobiernos (GAC), la organización de los
administradores de dominios de país (ccNSO), entre otros. La ICANN y este
conjunto de mecanismos orgánicos internos, además de algunos externos como
la IETF, organismos afines como la ISOC, y por lo menos una empresa grande
que ejerce el casi monopolio del comercio mundial de nombres de dominio
globales (la Verisign), constituyen el “sistema ICANN” de gobernanza de la
infraestructura lógica de la red - el único sistema global de gobernanza creado
específicamente para Internet hasta el momento.
El control sobre la ICANN es ejercido por el gobierno de EEUU a través de
contratos que involucran a la propia organización, al gobierno federal y a la
empresa Verisign. Uno de estos contratos, un memorándum de acuerdo
(Memorandum of Understanding) entre la ICANN y el Departamento de Comercio,
expirará a finales de septiembre de 2006 - significando esto que la ICANN
empezaría a operar de manera más autónoma (aunque aún dependiente, como
organización no gubernamental nacional, de las leyes federales de EEUU y del
estado de California). Sin embargo, el gobierno de EEUU en declaración reciente
acaba de dejar claro que aún con la expiración del memorándum, no permitirá que
el control real sobre la infraestructura lógica deje de pertenecer a los Estados
Unidos, alegando razones de “seguridad y estabilidad” de la red.
El hecho es que el conjunto de los contratos mencionados permite que EEUU
tenga base legal suficiente para tomar esta posición. Dicho de otro modo, la
relación formal entre la ICANN y el Departamento de Comercio es de tal manera
que la ICANN funciona como una concesionaria de servicios (“incumbent”) que
depende de la regulación del gobierno federal de EEUU - igual que la relación
entre una empresa de telecomunicaciones y la FCC (Comision federal de
comunicaciones).
En la práctica, es un hecho que el proceso de toma de decisiones sobre la
creación, delegación y redelegación de nombres de dominio globales (gTLDs o
sTLDs) es un proceso de negocios, con la ICANN actuando como una bolsa de
valores (“bourse”) o como agente (“broker”), que aprueba o no una nueva
combinación de letras como un “commodity”. Hoy, esta actividad consume
prácticamente todo el tiempo y los recursos de la organización, que a su vez tiene
su presupuesto financiado básicamente por el propio negocio de g/sTLDs haciendo a la ICANN intrínsecamente dependiente y parte interesada del negocio.
Concluir que el proceso decisivo de cualquier nuevo gTLD o sTLD, o de
redelegación de cualquiera de los ya existentes es influenciado por esta relación
comercial, es trivial.
No es otra la explicación del hecho que la ICANN haya arriesgado su pellejo en la
aprobación de gTLD “.xxx”, inclusive con la oposición explícita o implícita de
varios miembros del Consejo, e inclusive conociendo que habría resistencia de
gobiernos y comunidades - en esa necesidad de recaudar más recursos para un
presupuesto cada vez mayor, a través de los “registries” de g/sTLDs, la ICANN
ignora que un dominio global involucra mucho más que el retorno de una
inversión, requiriendo consideraciones de tipo extra-económica y tomando en
cuenta que el GAC (gobiernos) es muy frágil para expresar estas visiones a
tiempo o de manera efectivamente representativa.
Por otro lado, una de las demandas mundiales es que la gobernanza de la red
como un todo (y no sólo de su infraestructura lógica) pase a ser efectivamente
global, democrática, transparente y pluralista - es decir, con representación de
todos los grupos de interés en el proceso decisivo. Algunos países llegan a
defender que la gobernanza de la infraestructura lógica se le entregue a la
UIT/ITU (Unión Internacional de Telecomunicación), un organismo de la ONU en
el que más de 180 gobiernos y cerca de 650 empresas de telecomunicaciones
están representados, pero que no se caracteriza (como de otro modo cualquier
otra agencia de la ONU) por la democracia, transparencia y pluralismo.
A pesar de los esfuerzos de la ICANN para mostrar que es transparente y
democrática, algunos resultados de su trabajo apuntan en otra dirección, como en
el reciente caso de la “redelegación” del gTLD “.net”, y en el proceso de indicación
de dirigentes, que es manipulado por miembros del propio comité de
nombramiento de la organización - a pesar del hecho ya mencionado de que la
organización es financieramente dependiente de las empresas que comercializan
los nombres de dominio globales. La declaración reciente del gobierno de EEUU
sólo contribuyó a profundizar la percepción mundial de esta dependencia de la
organización al gobierno de los Estados Unidos.
Es fundamental buscar organismos globales de gobernanza de un nuevo tipo, que
puedan funcionar como foros de resolución de disputas y también como
mecanismos de coordinación, recomendaciones y normatización sobre los
diversos temas relacionados a la red (que van desde la administración de
nombres y números hasta la libertad del conocimiento). Si esto significa una única
organización o un conjunto de organizaciones globales, con estructuras
diferenciadas para las diferentes funciones, está en discusión.
El GTGI trató de analizar los diferentes escenarios de esta estructura y proponer
algunas alternativas para el debate que tendrá lugar desde ahora hasta Túnez.
Desafortunadamente las “propuestas” presentadas en el informe del GTGI no se
abordaron con la suficiente profundidad y, ayudan poco en la precisión de todos
los complejos detalles de un nuevo sistema de gobernanza y de la
correspondiente convención internacional que lo legitime ante todos los gobiernos
nacionales.
Si existen dos consensos claros en el informe final del GTGI, son, en primer lugar,
que la gobernanza mundial de cualquier componente de Internet no puede estar
bajo la hegemonía de un único gobierno; en segundo lugar, que es necesario y
urgente un fórum global, incluso si al principio tan sólo tenga funciones de
consulta y resolución de disputas. Los miembros de organizaciones de la
sociedad civil en el GTGI fueron decisivos en el proceso que coincidió para esta
visión. En las propuestas presentadas por el GTGI, se espera que de algún modo
la actual ICANN pueda convertirse en un organismo global efectivo, independiente
y autónomo (posiblemente a través de un Acuerdo de Sede con el gobierno de
EEUU) para incluirse en la nueva estructura de la gobernanza.
Sin embargo, falta mucho más que la simple real internacionalización de la
ICANN. Dos ejemplos entre los considerados por el GTGI como los componentes
más importantes (entre más de 40 temas) de un futuro sistema global de
gobernanza de Internet son ilustrativos: la interconexión internacional y la
seguridad en el intercambio de mensajes.
Si Internet es muchas veces considerada un espacio global horizontal de
intercambio de información, la dura realidad muestra lo contrario en los aspectos
claves de la red. La interconexión revela en la práctica una “cadena alimentaria”
en cuyo tope están las grandes operadoras de las espinas dorsales de la red
(“backbones”), de las cuales las multinacionales norteamericanas son las
principales. Si la conexión física se rige por acuerdos internacionales de
telecomunicaciones negociados en el ámbito de la UIT, lo mismo no sucede con la
capa de transporte de datos.
En realidad, lo que está en juego es quién paga por el ancho de banda de Internet
entre países, en vista de que por lo general el costo involucra una conexión
bidireccional (es decir, usuarios en cualesquiera de los países pueden tener
acceso en principio a todos los servicios de Internet ofrecidos en los dos países).
Si estamos hablando de una conexión entre dos países de niveles de desarrollo
similares (Australia y EEUU, por ejemplo), actualmente casi siempre existe una
negociación bilateral que establece un arreglo de pago mutuo aceptable para las
dos partes. Adicionalmente, si los países son de culturas e idiomas similares, esta
negociación se facilita todavía más, y normalmente no involucra la intervención de
gobiernos. Como resultado, el costo de acceso a Internet para el usuario final es
de magnitud similar para todos los países desarrollados, variando apenas el costo
de telecomunicaciones local implicado. En los países en que se cobra una
suscripción de valor fijo mensual sin cargo por pulsos adicionales, como en EEUU
y el Canadá, el costo total de conexión vía línea telefónica (sumando la cuenta
telefónica con la cuenta del proveedor de Internet) es generalmente menor que en
los países europeos, en los cuales se cobran pulsos por tiempo de conexión limitante eliminada en las conexiones por línea telefónica vía sistemas xDSL
(conocidas como “conexiones de banda ancha”).
La situación es extremamente desfavorable en los países menos desarrollados,
que tienen poco o ningún contenido de interés internacional para ofrecer. En estos
casos, el poder de intercambio bilateral es nulo, y sin ningún tipo de intervención
internacional, estos países tendrán siempre la conexión más costosa para los
usuarios finales (el extremo inferior de la “cadena alimentaria” de la conexión), lo
que es agravado por el bajo poder de compra de estos usuarios y por una
infraestructura local ineficaz y/o mal distribuida de conectividad. En general, en
estos casos el país sólo estará conectado a Internet si paga la totalidad de los
costos de ancho de banda disponible (medida usualmente, para la mayoría de los
países, en megabites o gigabites por segundo), inclusive si los usuarios del país
más rico usan servicios ubicados en servidores de un país más pobre. No existe
ningún acuerdo o convención internacional tan siquiera en discusión para hacer
esta relación menos desigual. La gobernanza global de Internet tendrá que
resolver este problema para no perpetuar la brecha cada vez mayor de
conectividad entre naciones desarrolladas y naciones empobrecidas.
En relación a la seguridad, no hay un organismo, mecanismo o fórum global de
gobernanza establecido por convención internacional. Existen iniciativas privadas,
como la red mundial de CERTs y organizaciones similares, así como redes que
buscan combatir el llamado “spam” (envío de correo electrónico no solicitado y
con identificación de origen falso), pero es necesario crear mecanismos mucho
más efectivos, que se ocupen de las medidas preventivas y del desarrollo de
sistemas seguros de intercambio de mensajes que puedan ser mundialmente
uniformados.
El intercambio de mensajes sin mecanismos consensuados y efectivos de
autenticación de origen es el problema más grave de seguridad de Internet para el
usuario final. A través de las vulnerabilidades de los sistemas de intercambio de
mensajes, millares de usuarios son victimas de robo de contraseñas y de códigos
de identificación a través de métodos de ingeniería social a través del “spam”
(como el llamado “phishing”, que es la “pesca” de contraseñas y números de
identificación a través de “spams” con contenido engañoso, asociado a un sitio
Web temporal del cual el usuario baja involuntariamente un programa nocivo).
Estos son ejemplos graves de temas de gobernanza que están fuera del objetivo
de la ICANN y de cualquier otra organización existente. Inclusive los temas para
los cuales existen organizaciones internacionales o agencias de la ONU (como la
OMPI/WIPO para el caso de las patentes, copyrights y marcas, o los llamados
“derechos de propiedad intelectual”, o aún las organizaciones vinculadas al
comercio internacional), estas organizaciones no cubren adecuadamente las
demandas y resultados de los eventos, transacciones y procesos en el ámbito de
Internet.
Lo que ocurrirá en el debate de los subcomités temáticos preparatorios de la
CMSI que tendrán lugar desde ahora hasta Túnez, sólo el tiempo lo dirá, pero es
crucial que las organizaciones civiles estén participando intensamente en el
proceso para insistir en la pluralidad, transparencia y democracia como bases
centrales de cualquier mecanismo global de gobernanza futuro, y que temas
como los ejemplificados y decenas de otros señalados por el GTGI se tomen en
cuenta.
Glosario de siglas
ALAC
ASO
At-Large Advisory Committee
Address Supporting Organization
ccNSO
ccTLD
CERT
FCC
GAC
GNSO
gTLD
ICANN
IETF
ISOC
ITU
NRO
sTLD
xDSL
WIPO
WGIG
WSIS
Country-code [Domain] Names Supporting Organization
Country-code top-level domain
Computer Emergency Response Team
Federal Communications Commission
Government Advisory Committee
Generic [Domain] Names Supporting Organization
Generic top-level domain
Internet Corporation for Assigned Names and Numbers
Internet Engineering Task Force
Internet Society
International Telecommunication Union
Number Resource Organization
Sponsored top-level domain
Digital subscriber line (ex.: ADSL)
World Intellectual Property Organization
Working Group on Internet Governance
World Summit on the Information Society
Diversidad cultural
Alain Kiyindou
¿Cuál será el impacto de una red informática mundial que permita la expresión
abierta y la circulación de todos los tipos de documentos sobre los foros
culturales? La construcción de las sociedades de la información inclusivas vuelve
a lanzar el debate sobre la diversidad cultural, renovando la percepción común y
la evolución de este término de contornos mal definidos. Detengámonos en el
sentido de los dos términos diversidad y cultura.
La diversidad es a menudo percibida como una disparidad, una variación, una
pluralidad, es decir, lo contrario de la uniformidad y de la homogeneidad. En su
sentido original y literal, la diversidad cultural se referiría entonces simplemente a
la multiplicidad de las culturas o de las identidades culturales. Pero hoy en día
esta visión está superada, ya que para numerosos expertos, la “diversidad” se
define no tanto por oposición a “homogeneidad” sino por oposición a “disparidad”.
Es sinónimo de diálogo y de valores compartidos. En efecto, el concepto de
diversidad cultural, así como el de biodiversidad, va más lejos en el sentido de
que considera la multiplicidad de las culturas en una perspectiva sistémica donde
cada cultura se desarrolla y evoluciona en contacto con las otras culturas.
En lo que se refiere a la cultura, ella tiene sus orígenes en la palabra latina cultura
que designaba el cuidado de los campos y del ganado. A partir del siglo XVI,
significará la acción de cultivar, es decir formar, acepción de la que se desprende
el sentido que se le da hoy en día, a saber lo que forma y moldea el espíritu. La
cultura se torna entonces ese conjunto de significaciones, de valores y de
creencias que determina nuestra manera de hacer y estructura nuestros modos
de pensar [1].
Un desafó económico y cultural
El término “diversidad cultural” ha sido utilizado en primer lugar con referencia a la
diversidad en el seno de un sistema cultural dado, para designar la multiplicidad
de sub - culturas y de sub - poblaciones de dimensiones variables que comparten
un conjunto de valores y de ideas fundamentales. Seguidamente, ha sido utilizado
en un contexto de mestizaje social, para describir la cohabitación de diferentes
sistemas culturales, o por lo menos la existencia de otros grupos sociales
importantes en el seno de las mismas fronteras geopolíticas. En los países del
Tercer Mundo, la diversidad de las identidades culturales se convertirá
rápidamente, en la época de la descolonización, en un argumento político a favor
de la liberación y de la independencia de los países colonizados. Posteriormente,
a partir de los años 60, impulsará una nueva visión del desarrollo, el desarrollo
endógeno. Será seguido, por otra parte, por la puesta en relieve de un nuevo
vínculo, el de la cultura y la democracia, que conducirá a dar prioridad “a la
promoción de las expresiones culturales de las minorías en el marco del
pluralismo cultural”.
Hoy en día, el término “diversidad cultural” tiende a reemplazar la noción de
“excepción cultural” utilizada en las negociaciones comerciales a partir del ciclo
Uruguay en el GATT, luego de la OMC. En este enfoque, la diversidad cultural
apunta a garantizar el tratamiento particular de los bienes y de los servicios
culturales con medidas nacionales o internacionales. La UNESCO redacta
actualmente (firma prevista en noviembre de 2005) un “Convenio sobre la
protección y la promoción de la diversidad de los contenidos culturales” [2].
El proyecto reconoce la especificidad de los bienes y servicios culturales y la
legitimidad de las políticas culturales. Sin embargo, su artículo 20, que trata de las
relaciones entre este convenio y los otros instrumentos internacionales,
especialmente la OMC, ha sido objeto de fuertes debates con los Estados Unidos.
En el estado actual, el convenio obliga a las partes signatarias a tomar en
consideración las exigencias de la diversidad cultural cuando ellas interpreten y
apliquen sus obligaciones internacionales o cuando suscriban nuevos
compromisos, aun cuando el convenio no pueda ser opuesto a los otros tratados.
Una fórmula diplomática obtenida después de largas negociaciones.
La protección de la diversidad cultural desde un punto de vista político y
económico se vuelve en efecto urgente con la mundialización, que se caracteriza
por la liberalización en gran escala de los intercambios económicos y comerciales,
y en consecuencia, lo que se ha llamado la mercantilización de la cultura. Se
puede notar por ejemplo que en el curso de las dos últimas décadas, el comercio
de los bienes culturales se ha cuadriplicado y las nuevas reglas internacionales
(OMC, OCDE) en materia de comercio suprimen cada vez más, en nombre de la
libertad del mercado y del libre comercio, las intervenciones de apoyo o de
protección de los Estados a favor de los bienes y servicios nacionales. La
declaración independiente de la sociedad civil SMSI señala la urgencia de la
situación en estos términos “La información y el saber son transformados cada
vez más en recursos privados susceptibles de ser controlados, vendidos o
comprados, como si fueran simples mercaderías y no componentes
indispensables para la organización y el desarrollo social. Así, reconocemos que
es urgente encontrar soluciones a estos problemas, a los cuales las sociedades
de la información y de la comunicación se confrontan en primer lugar”.
Con el advenimiento de las Tecnologías de la Información y de la Comunicación,
las grandes firmas comerciales han aprovechado estos cambios inducidos para
hacer adoptar peligrosas revisiones de textos legislativos en el sentido de una
propiedad comercial de la cultura. Esta ofensiva de una cultura “mercantilizada”
tiende a desplazar los lugares de debate y de decisión de los organismos
multilaterales de la ONU hacia entidades como la OMC y los acuerdos y tratados
de libre intercambio regionales o bilaterales. El tema de los debates
internacionales sobre la cultura consiste pues en garantizar la supervivencia de la
diversidad cultural, a pesar de los peligros de la sociedad de la información. En
todo caso, para los representantes de los pueblos autóctonos, la evolución de las
sociedades de la información y de la comunicación debe reposar sobre el respeto
y la promoción de los derechos de las poblaciones indígenas y de su carácter
distintivo, aun cuando la idea de la promoción siga siendo difícilmente aceptable
para los partidarios del libre comercio.
Para los que sostienen la promoción cultural, entre cuyas filas se encuentran
Canadá, Francia, el Grupo de los 77 (agrupamiento de los países en desarrollo),
se trata sobre todo de obtener de los Estados Unidos la garantía, sancionada por
ley, de que el Convenio no esté subordinado a los instrumentos comerciales
internacionales. En efecto, para los Estados Unidos y otros partidarios del libre
comercio, este convenio es una mala idea [3], y las medidas mencionadas
anteriormente demuestran pura y simplemente una visión intervencionista del
Estado, cuya naturaleza no es la de favorecer al mercado. Las subvenciones a las
empresas culturales, la imposición de cuotas de difusión, las restricciones a la
propiedad extranjera de los medios de comunicación, serían, según ellos, frenos
al desarrollo natural del mercado. Además, aunque esto no tiene nada de oficial,
el convenio sobre la diversidad cultural aparece para muchos norteamericanos
como una tentativa de debilitar la supremacía de sus industrias audiovisuales a
través del mundo.
Visión ética de la diversidad cultural
Situándose en un plano ético, la Declaración Universal de la Unesco sobre la
diversidad cultural, adoptada el 2 de noviembre de 2001 [4], reconoce la
diversidad cultural como “patrimonio común de la humanidad”. De este modo, la
lucha por la salvaguarda de las culturas amenazadas se convierte en un deber
ciudadano. Esta posición se explica por el hecho de que la comunidad científica
ha tomado conciencia del riesgo de uniformidad de la cultura en una sociedad
globalizada, aún si ésta permite en teóriá la manifestación de la diversidad
cultural. En efecto, las tecnologías de la información y de la comunicación, lejos
de ser únicamente herramientas, modelan nuestras maneras de pensar y de
crear. La cultura, por ese hecho, se ve habitada por la tecnología, dialogando con
ella, conteniéndola a veces y dejándose elaborar por ella. Esta situación crea una
desigualdad y una dependencia de la cultura hacia la tecnología, e impide la
manifestación de la diversidad cultural, tan necesaria para la sociedad de los
saberes [5]. Por otra parte, numerosos observadores afirman que la tecnología ha
dejado en la sombra a toda una parte de la población, la que sigue viviendo según
los principios de la naturaleza, la que no cree en el Estado, sino en el poder de los
ancestros, la que no cree en la ciencia, sino en el saber tradicional. La diversidad
cultural se inscribe entonces en la lógica que considera que existen otras maneras
de pensar, de existir, de trabajar fuera de la manera antropo - centrada y racio centrada moderna. En efecto, si bien la ciencia y la tecnología son fácilmente
comunicables ¿ están,sin embargo, todas las culturas listas para aceptar el
formalismo matemático que se encuentra en la base de la construcción de las
tecnologíasy de sus usos ?
En el contexto del debate sobre la edificación de la “sociedad de la información”,
esta adaptación pasa, por supuesto, por la diversificación de los contenidos, es
decir la cohabitación de los contenidos llamados clásicos y aquellos provenientes
de culturas minoritarias, de saberes locales y autóctonos [6]. Pero ¿cómo integrar
las culturas y saberes autóctonos sin generalizarlos, ni particularizarlos [7]?
¿Cómo convalidarlos con la ayuda de criterios exógenos? La declaración de
principio de la CMSI, adoptada en Ginebra en diciembre de 2003, insiste sobre el
hecho de que “las aplicaciones deberían ser amigables, accesibles a todos,
abordables, adaptables a las necesidades locales en términos de culturas y de
idiomas, y facilitar el desarrollo sostenible”. Es por esa razón que conviene pensar
el ciberespacio de otra manera, permitiendo a todos y a cada uno acceder a
Internet en su propio idioma, pensar en usos diferentes adaptados a todas las
poblaciones, especialmente aquellas que funcionan sobre el modelo comunitario.
Tomar en cuenta esto daría nacimiento a la producción de aparatos y estructuras
adaptadas, un despliegue que no puede hacerse sin el desarrollo de las industrias
culturales locales y la implementación de modelos especificos a diferentes
contextos socioeconómicos. Pero esta expresión de las culturas se inscribe en
una relación de fuerza que conviene matizar. Para la Red Internacional por la
Diversidad Cultural [8], se trata antes que nada de introducir en el Convenio,
“medidas eficaces que permitirían a los países en desarrollo dotarse de
herramientas eficaces de producción y de difusión”.
Hacia un nuevo enfoque de la diversidad cultural
Si bien la diversidad cultural es comprendida en general tomando esencialmente
como fundamento distinciones binarias: cultura moderna/cultura local, la realidad
de la diversidad cultural no es binaria, sino que se des proviene del respeto y de
la aceptación de las diferencias, del diálogo y de la búsqueda de valores comunes
para salir del monologismo que caracteriza a la sociedad de la información. La
Declaración independiente de la sociedad civil en la SMSI de Ginebra en 2003
menciona por otra parte que cada cultura posee una dignidad y un valor que
deben ser respetados y preservados [9].
En este nuevo contexto, la diversidad se convierte en una manera de abordar el
mejoramiento de nuestra vida en común, cuyo fundamento es la aceptación de
una visión plural del mundo [10]. Se ve entonces que la diversidad cultural es
percibida aquí como integración y no como superposición o yuxtaposición de
culturas, y que la sociedad de la información en la cual ella se expresa es ante
todo una sociedad de saberes compartidos.
En efecto, la noción de diversidad cultural nos remite a dos realidades bastantes
distintas. Existe para empezar una primera concepción centrada en las artes y en
las letras, que remite a su vez a la expresión cultural de una comunidad o de un
grupo y que engloba la creación cultural bajo todas sus formas. Seguidamente
están los modos de vida, los derechos fundamentales del ser humano, los
sistemas de valores, las tradiciones y las creencias que remiten a una perspectiva
más sociológica o antropológica de la cultura. Pero adhiriendo a una u otra
concepción, se puede convenir en que el contexto social dominado por las
tecnologías de la información y de la comunicación, necesita la implementación
de medidas que sean a la vez incitativas y limitativas, que prevaleciendo sobre los
acuerdos de la Organización Mundial del Comercio. De esta manera los debates
actuales llegan hasta pedir, por ejemplo, que los países desarrollados se
comprometan a aumentar la parte de mercado que destinan a los profesionales,
artistas y otros creadores de los países en desarrollo. Pero esta propuesta, que
recuerda fuertemente los debates sobre el Nuevo Orden Mundial de la
Información y de la Comunicación a propósito del reequilibrio de los flujos, suscita
por supuesto la oposición de los Estados que poseen las industrias culturales más
grandes. Sin embargo, la pregunta que planteamos aquí se encuentra en la base
misma de la edificación de una sociedad de la información accesible para todos.
Infraestructura y acceso universal
Raphaël Ntambue
Las nociones de infraestructura y de acceso universal se aplican a realidades
diversas. Se habla así de infraestructura vial, de infraestructura de
telecomunicaciones, de acceso universal al conocimiento, a los medicamentos, a
la información, a las tecnologías de la comunicación, etc. Lo que muestra la
importancia de estos términos, pero también favorece su ambigüedad.
De igual manera, estos términos transportan ideologías diferentes, entre otras, la
imposibilidad de desarrollar una sociedad sin infraestructuras ni acceso universal,
el proyecto de servicio universal y el ideal de una sociedad que distribuye a todos
los esfuerzos de todos. La literatura actual sobre la “sociedad de la información”
deja aparecer así la infraestructura de comunicación como la base o la condición
sine qua non del acceso universal al saber. Este último, a su vez, se presenta
como la motivación principal, o mejor, el término en el cual debería desembocar el
proceso de despliegue de las infraestructuras. Y aunque esconde los intereses
económicos de aquellos que implementan su contenido, el concepto de acceso
universal parece cristalizar por el momento la esperanza social y la ética de la
distribución de las consecuencias de la revolución digital.
Se llega entonces a una expresión que traduce las relaciones entre estos dos
conceptos, a saber, “infraestructura de acceso universal”. Lo esencial de ésta se
encuentra en su despliegue y su repartición sobre el conjunto de un territorio, que
puede ser mundial, en condiciones accesibles para todos. Ello implica el concepto
de interoperabilidad, que remite a la intercomunicabilidad de los sistemas
idénticos o diferentes.
Los términos “infraestructura” y “acceso universal”, así como sus relaciones,
siguen siendo, en consecuencia, polisémicos e ideológicos. Para hacer
comprender sus implicancias y su significación actual, recordaremos, según un
abordaje histórico, los contextos que le confieren tal o cual sentido, tal o cual
importancia, limitándonos al campo de las tecnologías de la información y de la
comunicación (TIC).
El largo camino del concepto de infraestructura
Este concepto adquiere una importancia preponderante en el momento de la
ruptura epistemológica de las ciencias de la naturaleza en el siglo XVII occidental,
a partir del cual se pone énfasis sobre la experiencia en laboratorio, sobre los
métodos inductivos esencialmente experimentales, y sobre las condiciones
materiales del conocimiento.[1] Slogans de la época, como “conocer es fabricar”,
“el mundo es desconocido, y por conocer”, etc., refuerzan en consecuencia las
ideas de logística, utilería, visibilidad y de algo palpable sobre las que se apoya
por definición la noción de infraestructura.
El momento de apoteosis ideológica del término “infraestructura” coincide con el
advenimiento del pensamiento marxista en los siglos XIX y XX. La infraestructura
comprende y significa el conjunto de las fuerzas de producción (medios de
producción, fuerza de trabajo o capacidad físico - intelectual de los trabajadores) y
de las relaciones de producción (formas de propiedad, organización de las clases
sociales, sistemas de repartición de los ingresos). Se opone a la superestructura
fundada por ella y que remite a las diferentes formas de conciencia social
(ideología, religión, filosofía) y al aparato político - jurídico (administración,
estructura política). La infraestructura ya está limitada a la logística, lo político la
convierte en una prioridad, aquellos que se ocupan de ella gozan de un buen
estatus social, en suma, ella refleja la vivacidad y el grado de organización de la
sociedad.
El auge de las telecomunicaciones a principios del siglo XX permite aplicar el
concepto de infraestructura al conjunto de las redes, datos y equipamientos de las
telecomunicaciones.
La expresión “infraestructura de las telecomunicaciones” remite entonces a todo lo
que permite físicamente la transmisión analógica de las informaciones. Esta
acepción perdurará hasta el advenimiento de la telemática, hacia fines de los
años 60. Ella conlleva la distinción entre infraestructura pesada y liviana de la
comunicación.
La revolución digital, marcada por el sello de un alfabeto de dos letras (0 y 1) al
que se atribuye poder expresar todo por medio de una máquina que “hace hacer”
en lugar del hombre, irrumpe desde fines de la primera mitad del siglo XX. Ella
abre un nuevo campo de aplicación del concepto de infraestructura. Este último,
convertido en “infraestructura informática” disminuye en primer lugar su campo
semántico para evocar solamente la arquitectura informática. Más adelante,
aumenta en densidad para expresar el conjunto de los materiales informáticos, de
softwares, de normas de interface. La novedad de la expresión, es que asocia a la
idea de lo “concreto” que explota lo material, a la idea de lo “abstracto” que
expresan el software y su proceso de modelización. Bienes materiales y bienes
inmateriales forman, de ahora en más, parte de la infraestructura.
El advenimiento de Internet amplió aún más la semántica de la infraestructura,
extendiéndola a la estructura de malla, acoplada a la vez con la comunicación por
paquete, los protocolos de intercambio, la interface Web (instalada a partir de
1992) y los estándares de comunicación (http, htlm, XML). El equipamiento de la
red informática se volvió pesado con la arquitectura clásica de las
telecomunicaciones. Nuevos conceptos aparecen: “infraestructura de telemática”,
“infraestructura del sistema de información”, etc. Esta significación de
infraestructura es la que ha sostenido las relaciones internacionales sobre los
accesos Internet mundiales, donde se trató de tasas de crecimiento de las redes,
así como del número de servidores, de POP locales, de puntos de acceso, de
conexión física, de cibercafés, de ordenadores por habitante, de mercado del
software, etc. Pero la importancia atribuida tanto al contenido de la red o a la
información así como a los modos de producción o de funcionamiento de las
infraestructuras, justificó un nuevo concepto, el de la “infoestructura” que se sitúa
entre las nociones marxistas de infraestructura y de superestructura y que remite
a los dispositivos no físicos de la infraestructura (lo inmaterial, las normas, la
reglamentación, etc.).
El contexto de la globalización de los intercambios económicos, o mejor, de la
extensión de los mercados de productos de información, permitió consolidar la
ideología de despliegue de la infraestructura de telemática a todos los rincones
del mundo. Los discursos políticos internacionales de fines del siglo XX referentes
a las TIC, probablemente influenciados por el norteamericano pronunciado en
1992 por Al Gore, entonces vicepresidente de los Estados Unidos, recurrieron al
concepto de “infraestructura global de comunicación” (IGC). En un contexto de
voluntad política americana de promover una sociedad fundada sobre las
“autopistas de la información” cuya tecnología y cuyo comercio eran manejados
entonces por los Estados Unidos, este concepto remite a todo material y software
capaz de democratizar tanto el contenido circulante sobre la red informática
mundial como los servicios universales de telecomunicación. Se trata de toda
infraestructura que se base sobre las técnicas de digitalización y sobre la
convergencia, es decir sobre la integración continua de las telecomunicaciones, la
informática y los multimedia. Ella se aplica, entre otros, a la educación, la salud, la
economía, la investigación, en suma, a todos los sectores de la vida de los
Estados.
Acceso, contenido y servicios, forman actualmente un cuerpo con el nuevo
concepto de infraestructura. Alrededor de este último, grupos de intereses se
constituyen, a veces por una estrategia de hegemonía económica, otras veces
para drenar la ayuda internacional hacia zonas de solidaridad prioritaria. En ese
contexto nace la Comisión de Infraestructura Mundial de la Información (GIIC),
que instala, sin resultado notable, la Comisión de la Infraestructura Mundial de la
Información para el Africa, con miras a apoyar al sector privado africano que
trabaja en el campo de las industrias del conocimiento y de la información. El
NEPAD sigue este movimiento previendo una parte prioritaria de financiamiento
de las infraestructuras de la información y de la comunicación. Las instituciones
de Breton Wood (Grupo del Banco Mundial y Fondo Monetario Internacional)
encuentran igualmente aquí la ocasión de anunciar inversiones a favor de las
empresas privadas, en vastos programas de despliegue de infraestructuras de
comunicación cuya realización se encuentra actualmente mitigada.
En este contexto de IGC y de GIIC aparece otra noción para poder ser aplicada a
los Estados. Se trata de “infraestructura nacional de información y de la
comunicación” (NICI), que evoca aquí el conjunto de equipamientos que se
inscriben en políticas públicas de los Estados en materia de las TIC. En la
práctica, según esta acepción, el Estado africano no ha jugado un rol específico
en el despliegue de las infraestructuras “pre Internet” antes de 1990. Y cuando se
inició en la conectividad Internet, usando su monopolio en el sector de las
telecomunicaciones, se encontró muy pronto superado, por una parte, por las
iniciativas de liberalización de los organismos internacionales (Banco Mundial,
FMI, empresas del Norte), y por otra, por la “proliferación de actividades no
controladas y transnacionales” [2].
La Comisión económica de la ONU para el Africa (CEA) ha ampliado esta noción
de NICI a “la reglamentación, el entorno favorable, (...) de los procedimientos que
pueden llevar a las actividades ligadas a las NICI, (así como al) desarrollo de los
recursos humanos” [3]. Lo que se aproxima a la concepción marxista de
infraestructura y a la noción de infoestructura.
Necesidades y problemas actuales, preguntas y desafíos que vendrán
Podemos sacar de estas acepciones de infraestructura cinco consecuencias
mayores:
1. La infraestructura es el conjunto de respuestas materiales, de software y
reglamentarias a los desafíos de comunicar de una sociedad determinada. Ella es
sentida como “necesidad” y expresada como “problema” en función, no solamente
de los objetivos y de las metas a alcanzar en un momento dado, sino también del
modo de comprensión o de los hábitos variables de comunicar de una persona o
de una colectividad. Estos factores (metas, objetivos, hábitos, etc.) explican en
gran parte los conflictos de interpretación de las necesidades de infraestructura
que surgen a menudo en ocasión de la elección de los equipamientos a desplegar
en los países en desarrollo. ¿Acaso estos últimos tuvieron alguna vez la opción
de tecnología y de normas de interoperabilidad en el contexto de la cooperación
para el desarrollo? Y aunque hubieran tenido esa opción ¿acaso tienen las
competencias necesarias y los medios suficientes para desarrollar la lógica
interna de las infraestructuras?
2. La infraestructura es también un problema a resolver. Se trata de ponerla al día
y de desplegarla en todos los lugares donde debe jugar su rol. Este doble desafío
es el que los Estados y las empresas expresan generalmente en sus políticas
prioritarias en materia de infraestructura. Por ejemplo, en 2003, las prioridades de
los países de la OCDE se referían a los despliegues nacionales de alta velocidad,
la instalación de estructuras que garantizan el pago electrónico y la
“normalización” de los equipos digitales [4]. En Africa, son más bien el aumento
del ancho de banda, la conexión de las ciudades secundarias, la interconexión de
las diferentes redes de telefonía móvil y los equipamientos WIFI para un Internet
sin cable. Estas soluciones son sostenidas desde arriba por los proyectos
mediáticos de constelación satelital iniciados bajo el concepto de RASCOM y el
proyecto de conectividad por cable submarino que Africa One trató penosamente
de realizar. La pregunta que se plantea a menudo es la de saber si la
infraestructura propuesta o difundida en el Sur debe ser adaptada o debe hacer
estallar el contexto de pobreza o de escasez de competencia.
3. La relatividad de la necesidad y de la importancia atribuida a la infraestructura,
a causa del costo elevado o del descenso de rentabilidad de aquella. Varias
empresas prefieren así desarrollarse y especializarse en los servicios que se cree
darán un trabajo permanente, antes que proseguir la actividad de producción de
los equipamientos considerada comercialmente muy restrictiva. Se puede
comprender entonces por qué se aconseja a los países del Sur que se orienten
hacia el desarrollo de los servicios. Semejante opción es, por cierto, estratégica,
pero ¿garantiza un mínimo de independencia tecnológica y comercial de los
países en desarrollo?
4. La diversidad tecnológica (panoplia de técnicas) y su diversificación (acceso
por cable y por satélite) concurren a la complejidad y al progreso constante de la
infraestructura. Lo que plantea el problema de disponer permanentemente de las
competencias nacionales que necesitan igualmente los promotores exteriores de
equipamientos. El despliegue óptimo de las infraestructuras se vuelve de este
modo tributario del desarrollo de las competencias y necesita la formación de
recursos humanos.
5. Grandes inversiones son esperadas para la investigación y la instalación de las
infraestructuras pesadas. Lo que precipita a los países en desarrollo “sin dinero”
no solamente a alianzas complicadas con diferentes donantes y diversas
empresas del Norte, sino también a negociaciones regionales generalmente muy
largas en torno a estatutos o formas jurídicas de las sociedades llamadas a
administrar proyectos de infraestructuras regionales. Estas han permitido la
ocasión, para los Estados del Sur, de volver a endeudarse y de depender
sistemáticamente de los detentadores americanos, europeos y asiáticos (Japón,
China) de soluciones tecnológicas y capitales. ¿Hay alternativas a estas
dependencias a menudo no rentables?¿Cuáles son los márgenes de maniobra de
los Estados en la definición de los roles de estos detentadores de soluciones en el
desarrollo nacional? ¿Cómo proteger las inversiones anteriores y futuras ante el
progreso rápido de las infraestructuras? ¿Hay que adoptar la estrategia de la
“revolución”, que obliga a cambiar todo el equipo antiguo, o la de la “evolución”
que adapta las soluciones tecnológicas del pasado a las innovaciones recientes?
El grupo de trabajo sobre el financiamiento de las infraestructuras del CMSI trató
de atender a estos desafíos y su informe parece provocar más preguntas que
resolver problemas [5].
Acceso universal: la nueva frontera
El acceso universal es comprendido como la posibilidad, para todo ciudadano de
este mundo, cualquiera sea su grado de competencia digital y su situación
geográfica y socioeconómica, de crear y/o utilizar por sí mismo o por mediación
las redes telemáticas previamente instaladas en su medio, así como de encontrar
y de poner en la Net las informaciones útiles para su proyecto de vida.
El concepto de acceso universal supone en consecuencia la proximidad y la
disponibilidad de las redes digitales y su interoperabilidad, el servicio universal (a
alta velocidad, por ejemplo), el uso y la accesibilidad para todos a la tecnología y
a la información, la capacidad de interpretar los datos, así como la participación
en la renovación del sistema y del contenido de la Web. Lo que obliga a los
Estados a tomar diversas iniciativas que van en el sentido de la formación de los
ciudadanos, del equipamiento adaptado, de la accesibilidad económica, etc.
En la medida en que se trata de implicar y de hacer beneficiar a todos de las
oportunidades de las TIC, el acceso universal requiere tomar en cuenta las
particularidades regionales, físicas y sociales (diversidad lingüística, cultural y
social) en el proceso de la producción industrial de la infraestructura. Es el sentido
del discurso que había desarrollado la Comisión Europea en los años 1990,
principalmente el Libro blanco sobre el crecimiento, la competitividad y el empleo
presentado en 1993 por Jacques Delors, el entonces Presidente [6]. La Agence
internationale de la Francophonie se manifestó también en el mismo sentido
insistiendo sobre la producción y la promoción de software en idioma francés [7].
La noción de acceso universal se presenta así como una respuesta a un modo
desigual de acceso, de uso y de participación en la elaboración de los productos
de la información. Esa es toda la implicancia sociopolítica del concepto en el
contexto de las TIC. Se sabe, por ejemplo, que en los años 1990, los proyectos de
difusión de las nuevas tecnologías en los países del Sur se adecuaban y
reflejaban las metas particulares de los donantes de fondos. Los accesos eran
restrictivos y reservados a usuarios privilegiados, los precios excesivos, los
puntos de acceso escasos, los monopolios de algunas lenguas, el inglés a la
cabeza, las interfaces exclusivas para categorías sociales (ciegos), el carácter
obsoleto de los sistemas informáticos, etc.
Fue entonces necesario debatir a nivel internacional [8] las implicancias sociales
de las TIC en el mundo para ver emerger sinergias alrededor del concepto de
acceso universal. Pensemos en el encuentro de los G8 de Okinawa, las
conferencias regionales sobre el tema de inserción digital, y el establecimiento de
las instituciones globales (difunto GEANT del G8, UN - ICT TASK FORCE, GKN,
etc), encargadas de orientar a la comunidad internacional y de proponer
respuestas a escala mundial a lo que se llama la “fractura digital”. De las
diferentes fases de la Cumbre Mundial sobre la Sociedad de la Información
(CMSI), precedida por conferencias regionales preparatorias, se desprende
entonces un consenso de acceso universal. La idea de una infraestructura global
de comunicación para democratizar el acceso a las TIC se precisa y se reafirma.
La UIT puede así definir, en 1998, su acepción de acceso universal que incluye,
no solamente la noción de una infraestructura flexible capaz de responder a las
necesidades de todos los utilizadores, sino también el potencial de las
modalidades de acceso colectivo (telecentros) o de centros de acceso comunitario
[9]. Al mismo tiempo, las instrucciones de construcción de sitios Web integran de
ahora en más la necesidad de legibilidad universal de los mismos. Es la
significación que adopta el World Wide Web Consortium (W3C) que propone en
1999 la idea de accesibilidad unilateral a todos los recursos de la Web [10]. El
movimiento de los software libres puede a su vez exigir la apertura de los códigos
fuente para hacer participar a todos en la innovación de los software suprimiendo
las limitaciones legales, económicas y tecnológicas.
Sin embargo, el acceso universal no es una panacea. Queda por saber si aquello
a lo que se tiene acceso participa en el mejoramiento tanto de la vida como de las
relaciones entre humanos. Lo que no siempre es evidente. Porque, la tela mundial
es también el escenario de los contrarios y de las relaciones de fuerza, y las
infraestructuras de acceso, como la alta velocidad, deben pasar por ásperas
negociaciones de intereses para poder ser puestas en práctica.
Infraestructura de acceso
Este concepto expresa las relaciones inextricables entre infraestructuras y acceso
universal. Traduce ciertamente su carácter complementario. Pero, de hecho, los
proyectos de despliegue de las infraestructuras acarrean, ante todo, intereses
económicos que van a veces en contra del acceso universal en un régimen de
competencia entre proveedores. De todos modos el proyecto de mejoramiento
técnico - científico y de difusión social de las infraestructuras se refiere a la
necesidad absoluta de acceso universal. Lo que, por otra parte, garantiza la
extensión del mercado de los productos de comunicación.
Los desafíos siguen siendo numerosos: desarrollar las capacidades ciudadanas
de selección ante el volumen de información de la red telemática y a la panoplia
de tecnologías de acceso, la adaptabilidad a la evolución rápida de las
infraestructuras, la accesibilidad para las personas discapacitadas, la vigilancia de
la competencia digital o de los conocimientos indispensables a la participación en
la sociedad de la información en curso, la elaboración de presupuestos de los
gastos de infraestructuras, etc.
Resulta de este análisis que el concepto de acceso universal remite simplemente
a la democratización de los accesos y usos de las TIC. La noción de
infraestructura evoca la matriz tecnológica, reglamentaria y organizacional de esta
democratización. La relación entre estos dos conceptos expresa las relaciones de
reciclaje mutuo y de causalidad recíproca entre ellos, a condición de colocarse en
el contexto donde el acceso del mayor número sirve de leitmotiv a las empresas
que crean productos de información, y donde las infraestructuras obedecen a los
principios de interoperabilidad, normalización internacional y contabilidad entre
ellas.
Finalmente, el desafío de palabras reside en la formulación de las políticas
sociales que garanticen el despliegue de las infraestructuras de comunicación y el
acceso universal a la red digital, a su contenido, a su gestión y a su producción.
La Brecha digital
Kemly Camacho
La brecha digital es probablemente uno de los primeros conceptos con que se
inicia la reflexión alrededor del tema del impacto social de las tecnologías de
información y comunicación (TIC). Desde entonces se percibe que estas
tecnologías van a producir diferencias en las oportunidades de desarrollo de las
poblaciones y que se establecerá una distancia entre aquellas que tienen o no
tienen acceso a las mismas.
Desarrollo y solidaridad digital
Para hacer una revisión histórica del concepto hay que recordar que, en general,
la relación entre tecnología y desarrollo ha sido muy frecuentemente percibida
como una relación lineal. Inclusive, en los años 60-70, se propiciaron - al menos
en Latinoamérica - una gran cantidad de programas nacionales con el apoyo de
los organismos internacionales y bilaterales orientados a la “transferencia
tecnológica” de los países desarrollados hacia los países pobres. Aunque en esta
ocasión se referían principalmente a la transferencia tecnológica orientada a la
producción industrial ya se suponía que la disponibilidad de tecnología produciría
desarrollo.
Cuando, alrededor del año 1978, en los países ricos se dio el auge del desarrollo
informático se discutía sobre el impacto de esta tecnología en el desarrollo. Con
este propósito la UNESCO crea un organismo intergubernamental de informática
(IBI) cuyo propósito es crear las condiciones para que los países pobres lograran
su crecimiento informático y con eso se redujera la brecha con los países ricos.
Es entonces desde la informática y no necesariamente desde la expansión de la
Internet que se comienza a construir el discurso sobre la brecha digital.
“La adopción de la informática por los países del Tercer mundo y la aplicación de
una política en este ámbito les permitirá acceder al mismo nivel de desarrollo que
los países industrializados.
La experiencia de los países industrializados prueba que la informática, nacida
del progreso, puede, a cambio, acelerar el desarrollo. Si los países en desarrollo
logran dominarla, puede incluso, gracias a una mejor administración de los
recursos, contribuir a atenuar la brecha que los separa de los países
poderosos”[1]
Este discurso se generaliza posteriormente con la expansión de la Internet. En el
año 2000 en Okinawa, el G7 [2] define como uno de sus principales nortes el
desarrollo de la sociedad de la información (global information society) y crea la
Dot Force con el propósito de integrar esfuerzos internacionales y encontrar
maneras efectivas de reducir la brecha digital. Aunque ese documento no da una
definición precisa de la brecha digital, se puede deducir que se entiende como la
inclusión o exclusión de los beneficios de la sociedad de la información.
“Renovamos nuestro compromiso con el principio de inclusión: todo el mundo,
donde sea que se encuentre, debe tener la posibilidad de participar; nadie debe
quedar excluido de los beneficios de la sociedad de la información.” [3]
Otro hito en la construcción del concepto se da en la Cumbre de la Sociedad de la
Información en Ginebra, 2003 [4] cuyo tema de convocatoria es precisamente la
reducción de la brecha digital. Se comprende que la misma se reducirá con el
acceso a las TIC y con la creación de oportunidades digitales. En esta Cumbre se
propone como estrategia la solidaridad digital de los países ricos con los países
en desarrollo.
“Reconocemos que la construcción de una Sociedad de la Información
integradora requiere nuevas modalidades de solidaridad, asociación y
cooperación entre los gobiernos y demás partes interesadas, es decir, el sector
privado, la sociedad civil y las organizaciones internacionales. Reconociendo que
el ambicioso objetivo de la presente Declaración -colmar la brecha digital y
garantizar un desarrollo armonioso, justo y equitativo para todos- exigirá un
compromiso sólido de todas las partes interesadas, hacemos un llamamiento a la
solidaridad digital, en los planos nacional e internacional.” [5]
Posterior a la Cumbre del 2003, se crea la UN ICT Task Force (Fuerza de Tarea
de TIC de la ONU) que sustituye en cierta medida la Dot Force y cuyo objetivo
principal es relacionar el uso de las TIC con la consecución de los objetivos del
milenio también definidos por las Naciones Unidas. Con este acercamiento se
pretende explicitar cómo las tecnologías de información y comunicación pueden
ser utilizadas como instrumento de desarrollo. Otro aspecto importante de
rescatar de esta propuesta es que ya no se habla solamente de la Internet sino de
otras tecnologías de información y comunicación como la telefonía móvil.
La UN ICT Task Force define la brecha digital de la siguiente manera:
“En los últimos años, como consecuencia de que las tecnologías de la
información y de la comunicación se han convertido en la columna vertebral de la
economía de la información mundial y de que han dado lugar a la sociedad de la
información, se ha puesto mayor atención a la diferencia de acceso a las TIC
entre los países desarrollados y los países en desarrollo. Esta diferencia se
conoce como la “brecha digital”. Pero ¿qué tan grande es? ¿Está creciendo o se
está reduciendo?
Una manera significativa de medir esta diferencia de acceso a las TIC es estudiar
las divergencias entre los países desarrollados y los países en desarrollo en lo
concerniente a la introducción de diversos servicios de TIC (teléfono, teléfono
celular, internet) y de computadoras portátiles, en la última década. [...] La
diferencia se ha reducido visiblemente, con un progreso particularmente rápido en
el sector de los teléfonos celulares y en el uso de internet.”
La UIT convoca, en el 2004, al evento “Building digital bridges” [6] en el cual se
retoma el concepto de brecha digital a partir de las diferencias de conectividad,
ahora incluyendo además la diferencia en las velocidades de conexión, entre el
dial up y el wireless por ejemplo.
Los tres aspectos de la brecha digital
También se posiciona en este evento de UIT que la brecha digital está basada en
aspectos de acceso pero también en los relacionados con el uso de las TIC. Se
proponen tres tipos de brecha digital: la de acceso, basada en la diferencia entre
las personas que pueden acceder y las que no a las TIC ; la de uso, basada en
las personas que saben utilizarlas y las que no ; y las de la calidad del uso,
basada en las diferencias entre los mismos usuarios [7].
Como puede deducirse, el concepto de brecha digital se ha modificado a través
del tiempo. En un principio se refería básicamente a los problemas de
conectividad. Posteriormente, se empieza a introducir la preocupación por el
desarrollo de las capacidades y habilidades requeridas para utilizar las TIC
(capacitación y educación) y últimamente también se hace referencia al uso de los
recursos integrados en la tecnología. Así, el concepto de brecha digital incorpora
los siguientes enfoques básicamente:
a) El enfoque hacia la infraestructura: o sea, la posibilidad/dificultad de
disponer de computadoras conectadas a la red mundial. Esto incluye también el
problema de servidores y de backbones. De hecho, los países del sur siguen
dependientes de los equipamientos del norte.
b) El enfoque hacia la capacitación: es decir, la capacidad/dificultad de usar
estas tecnologías. Se empezó a contemplar que también existe una diferencia
relacionada con las habilidades y capacidades para utilizar adecuadamente la
tecnología y no solamente con la posibilidad de disponer de computadoras. En
este sentido, se comienza a desarrollar el concepto de alfabetización digital
relacionado con el de brecha digital.
c) El enfoque hacia el uso de los recursos: se refiere a la limitación/posibilidad
que tienen las personas para utilizar los recursos disponibles en la red. En los
últimos tiempos, se ha integrado en el concepto de brecha digital las posibilidades
de utilizar la tecnología no solamente para acceder a la información, el
conocimiento sino también a un nuevo modo de educación y para aprovechar de
las “nuevas oportunidades” como el desarrollo de los negocios, la atención
médica en línea, el teletrabajo, el disfrute de nuevas formas de entretenimiento y
ocio.
Basados en estos elementos, muchos de los organismos internacionales han
definido una política de desarrollo orientada a la reducción de la brecha digital. Sin
embargo, a pesar de la evolución en el concepto, se enfatiza principalmente en el
desarrollo de la infraestructura tecnológica. Las inversiones y las políticas
nacionales para la reducción de la brecha digital siguen orientadas principalmente
hacia el desarrollo de la conectividad.
Una de las mejores maneras de concretar la comprensión de un concepto es la
forma en que este se le valora. En este sentido, las más importantes mediciones
de la brecha digital (e-readiness, UIT) están relacionadas con el grado de
masificación del uso de las TIC entre países, regiones, grupos o personas y se
mide por variables como la disponibilidad de computadoras, la densidad telefónica
y la velocidad de acceso por persona[8].
Los imaginarios políticos de la brecha digital
Es importante visitar estas definiciones porque son referentes para la
conformación de las políticas nacionales de tecnología. Primero tenemos que
tomar en cuenta el hecho de que, vinculados a la brecha digital, se mueven varios
imaginarios sobre los cuales proponemos reflexionar. La diferencia en el acceso a
las tecnologías incrementará las diferencias sociales ya existentes.
a) La ilusión de la relación causa-efecto
Uno de los aspectos más delicados en la comprensión de la brecha digital es la
relación de causalidad que subyace en propuestas como la del sitio de CMSI. “Se
ha hecho cada vez más grande la brecha que separa el conocimiento de la
ignorancia y los ricos de los pobres, tanto dentro de cada país como entre países”
[9]
En las definiciones se establece una relación directa entre el acceso a la
tecnología y las oportunidades de desarrollo (determinismo tecnológico),
expresadas en mejores condiciones de bienestar, reducción de la pobreza y
mejoramiento de la calidad de vida. De la misma manera se establece lo
contrario, es decir que un menor acceso a las TIC implicará mayores dificultades
para mejorar las condiciones de vida. Sin embargo, esta relación causa-efecto no
se explica y las consecuencias positivas y negativas que se producen
directamente del acceso a la tecnología aparecen como una solución mágica.
Esta explicación causal implícita en el concepto oculta la complejidad de la brecha
digital y la posible relación entre la incorporación de las tecnologías en las
dinámicas sociales y la transformación social que implica.
Para los grupos sociales que posicionan un nuevo entendimiento de este
concepto, los factores que pueden potenciar el uso de la tecnología como
instrumento de desarrollo son diversos, complejos y tienen interrelaciones entre sí
que dependen del contexto, la cultura y la historia del grupo en el que estas se
incorporan.
Entonces, se puede decir que las tecnologías de información y comunicación
pueden ser un elemento que potencia del desarrollo, pero hacer efectivo este
potencial depende de aspectos organizativos, de desarrollo de habilidades y
capacidades, de acciones de integración dentro de la identidad cultural y social
del grupo, de modificación de procesos sociales, entre otros.
Cuando un grupo social se apropia de la tecnología, es capaz no solamente de
usarla para transformar sus propias condiciones de vida, sino que la transforma a
ella misma por medio de procesos de innovación tecnológica con identidad social.
b) Los “incluidos” de la sociedad de la información podrán participar en la
construcción de una “nueva sociedad”
Las TIC serán un elemento dinamizador fundamental en la sociedad. Por
consiguiente quienes, individual y colectivamente, logren desarrollar la
infraestructura y las capacidades para utilizarlas serán privilegiados, tendrán
mayor capacidad de decisión e influirán la construcción de esta “nueva sociedad”
[10].
c) La brecha digital resulta de las brechas sociales
Esta percepción basada en la relación causa-efecto oculta la relación dinámica y
dialéctica entre la brecha digital y las otras brechas sociales. Se suele considerar
que la diferencia en el acceso a las tecnologías incrementará las diferencias
sociales ya existentes. Es decir, que la brecha digital implicará más desarrollo en
los países, regiones y personas con mejores oportunidades de acceso en
detrimento de quienes tienen menos. Esta diferencia se hará evidente no solo
entre países, sino también dentro de cada país privilegiando a las poblaciones
con mejores condiciones económicas, políticas, sociales y culturales.
Por cierto, la brecha digital es producto de las brechas sociales producidas por las
desigualdades económicas, políticas, sociales, culturales, de género,
generacionales, geográficas, etc.
d) Una sola brecha digital - una sola solución
Uno de los aspectos más relevantes del concepto que se analiza es que expresa
unicidad. Se habla de la brecha digital en el mundo entero, como si existiera solo
una y como si tuviera las mismas características en cualquier tiempo o espacio
social. Este es uno de los aspectos más fuertes del imaginario que está detrás de
la definición.
El problema de hablar de la brecha como una sola es que, entonces, se buscan
soluciones únicas y generalizables.
En realidad se debería de hablar de las brechas digitales, dadas por la condición
de género, edad, cultural, localización geográfica o socioeconómica y por las
combinaciones entre estos factores. De esta manera, el abordaje conceptual,
metodológico y los recursos y acciones para enfrentarlas estarían relacionados
con las condiciones específicas de las mismas.
e) La brecha digital no aparece por sí misma
Otro de los aspectos que se destacan es el carácter ahistórico del concepto. En
general, si se estudian los discursos tradicionales relacionados con el tema de la
sociedad de la información llama la atención que la mayoría de ellos no relatan la
historia que da surgimiento a la misma. En general, da la sensación de que la
sociedad de la información aparece sin que sea producto de una dinámica social y
un proceso histórico.
Parece como si la sociedad de la información se construye a partir de la
incorporación de las tecnologías y no a partir de las realidades estructurales y las
contradicciones existentes. En este sentido, se entiende como una brecha
producida por los aspectos tecnológicos, y estos aparecen en el discurso como
neutrales.
f) La individualización
Otro de los imaginarios que rodean este concepto es la individualidad. Al realizar
las mediciones de la brecha digital basándose en la relación entre población
conectada y población desconectada se estimula un uso individual de la
tecnología.
Ya de por sí, se ha estimulado el uso individualizado de la computadora en la
escuela, la empresa, el Estado y otros espacios donde esta se ha integrado como
parte de los recursos cotidianos. Son poco generalizadas las acciones que tratan
de establecer usos colectivos de las TIC. Pero adicionalmente a esto, el concepto
de brecha digital analiza la disponibilidad individualizada partiendo del supuesto
de que el beneficio de una computadora es para una persona.
Desde algunos esfuerzos de la sociedad civil, como los telecentros o los puntos
de acceso comunitario, la reducción de las brechas digitales y la medición de las
mismas se basan en los usos colectivos de los equipos de cómputo y estimulan y
comprenden los beneficios grupales de los mismos. La brecha digital debería
referir a las capacidades/dificultades que tiene un grupo social de utilizar las TIC
como recurso común para el desarrollo de la colectividad y la transformación de
las condiciones de vida de sus integrantes.
g) Las nuevas brechas digitales
Hasta este momento se habla de la brecha digital como la diferencia que produce
en el desarrollo el tener acceso o no a las tecnologías.
Sin embargo, nuevas brechas digitales van apareciendo a medida que las TIC se
incorporan en la vida social. Ya no se trata únicamente de un problema de tener
acceso o no, sino de las diferencias que aparecen entre quienes ya tienen
conexión.
No todos los que disponen de conexión tienen posibilidades de desarrollar sus
capacidades y habilidades para el teletrabajo, por ejemplo. Y nuevamente, no por
la tecnología misma, sino porque las condiciones que se requieren para integrarse
en esta nueva fuerza laboral como una educación bilingüe, un alto manejo
tecnológico, capacidades de interacción multicultural, condiciones de
inestabilidad, aptitud para trabajar de manera aislada y tomar mayores
responsabilidades vinculadas al teletrabajo, entre otras, son costosas y difíciles de
adquirir y por consiguiente no pueden ser asumidas por la mayoría de la
“población conectada”.
O tampoco por ejemplo, todas las empresas locales a pesar de tener conexión,
podrán aprovechar las ventajas de la comercialización en línea o podrán
incorporarse en las redes productivas multinacionales. Nuevamente no es el
aspecto tecnológico el que las limita sino las condiciones económicas, sociales y
culturales en las cuales se desenvuelven y las posibilidades de desarrollar
capacidades y transformar sus procesos productivos.
Agregando a esta reflexión se deja mencionada la gran discusión sobre propiedad
intelectual donde se juega el futuro del conocimiento como derecho privado o
colectivo y que tiene la potencialidad de abrir nuevas brechas relacionadas con el
acceso, uso y producción del conocimiento y la información que viaja por la red.
Con la inserción de las tecnologías en la vida cotidiana aparecerán nuevas
brechas digitales que se refieren a las posibilidades reales de aprovechamiento
de las mismas, principalmente entre la clase media que aunque tiene mejores
condiciones de acceso que las clases más populares, no siempre tiene todos los
recursos para desarrollar las capacidades y habilidades que les permitan
aprovecharlos para transformar las condiciones actuales.
h) Inversión focalizada en infraestructura
Si se aborda la brecha digital bajo el supuesto de causalidad es posible que los
Estados, los organismos internacionales y algunas instancias de la sociedad civil
orienten los esfuerzos y recursos directamente al desarrollo de la infraestructura y
en algunos pocos casos a procesos de capacitación técnica básica. Invertir en
estos aspectos tiene además la ventaja, para quienes lo hacen, de que es fácil
hacer evidente el destino de los recursos (en computadoras, laboratorios,
conexiones, líneas, etc). Se supone que una vez que se ha desarrollado la
infraestructura el resto de los beneficios vendrán luego; se desatarán
mágicamente.
i) La brecha digital como negocio
La brecha digital entendida como brecha tecnológica únicamente y basar su
solución principal en el desarrollo de la infraestructura es sumamente conveniente
para las grandes empresas de telecomunicaciones y las productoras y
comercializadoras de equipo de cómputo.
La inversión social que implica abordar integralmente las brechas digitales, por
medio de procesos de fortalecimiento organizativo y de desarrollo de
capacidades, no representan un negocio tan importante como si es la venta
masiva de conectividad y computadoras.
j) La brecha digital - un espejismo
La discusión sobre la sociedad de la información y el conocimiento ha estado
bastante concentrada en el tema de la brecha digital y cómo reducirla. Esto
provoca un espejismo ya que disimula o minimiza la discusión sobre los otros
aspectos que implica la sociedad de la información y el conocimiento como
creación de empleo y cambios de condiciones de trabajo en relación con las TICs,
transformación de los modelos económicos y de creación de valor, los aspectos
legales, la nueva educación, la propiedad intelectual, el conocimiento abierto etc.
Participar en los procesos de apropiación social de la tecnología
La sociedad civil organizada, así como diferentes investigadores y académicos,
han propuesto nuevas comprensiones de este concepto, haciéndolo más
complejo y poniéndolo en contextos.
Una de las manifestaciones más claras de estas propuestas se da dentro del
marco de la Cumbre Mundial de la Sociedad de la Información en Ginebra, 2003
donde la sociedad civil tuvo un papel fundamental posicionando nuevas
comprensiones y conceptos que fueron desarrollados a través de procesos
participativos durante los meses anteriores a este evento. El tema de la brecha
digital también fue redefinido por la sociedad civil como puede deducirse de la
declaración final de la sociedad civil.
“Consideramos que las tecnologías pueden utilizarse como medios
fundamentales, y no así como fines en sí mismas, por lo cual reconocemos que
reducir la brecha digital es un paso más, entre otros, en el camino para conseguir
el desarrollo en favor de todos y todas.
La desigual distribución de las TIC y la falta de acceso a la información que tiene
una gran parte de la población mundial, fenómenos que suelen denominarse
brecha digital, son de hecho una expresión de nuevas asimetrías en el conjunto
de brechas sociales existentes. Éstas incluyen las brechas entre el Norte y el Sur,
los ricos y los pobres, los hombres y las mujeres, las poblaciones urbanas y
rurales, aquellos que tienen acceso a la información y aquellos que carecen del
mismo. Dichas disparidades pueden verse no sólo entre las diferentes culturas,
sino también dentro de las fronteras nacionales. La comunidad internacional debe
ejercer su poder colectivo para garantizar que los Estados adopten medidas con
el fin de reducir las brechas digitales nacionales.” [11]
Desde estos grupos se comprende la brecha digital a partir de las condiciones
que tienen que desarrollarse para la apropiación de las tecnologías y para la
incorporación de las mismas como una herramienta que debe ser integrada en la
vida cotidiana para transformar las realidades en un proceso continuo. Un reflejo
de esto es lo expresado por Jean-François Soupizet [12]
“La mínima capacidad de apropiarse de las tecnologías de la información y de la
comunicación en un contexto estructural de innovaciones sucesivas es lo que
hace la diferencia. En efecto, en un mundo en plena globalización, este retraso
amenaza con agudizar el resto de disparidades, razón por la cual se presta
especial atención a la brecha digital.”
Otra referencia a esta comprensión del concepto se puede encontrar en la
comunidad virtual Mística que tiene la virtud de unir las experiencias y los
pensamientos de investigadores y actores de la sociedad civil latinoamericana.
[13]
“La brecha digital es una expresión de las brechas sociales. Para comprenderla
es necesario analizar las condiciones de acceso, uso y apropiación social de las
mismas y no solamente reducir su comprensión a la infraestructura y
conectividad.”
Cambiar de perspectiva para que las tecnologías estén al servicio de las
sociedades
Partiendo del análisis del concepto y de las opciones presentadas desde la
sociedad civil, se propone una nueva acepción al concepto que vaya en el
siguiente sentido:
Las brechas digitales están dadas por las posibilidades o dificultades que tienen
los grupos sociales de aprovechar colectivamente las tecnologías de información
y comunicación para transformar la realidad en la que se desenvuelven y mejorar
las condiciones de vida de sus integrantes.
Se propone que para hablar de brecha digital y de las estrategias para enfrentarla
se parta de la sociedad que soñamos y no de la tecnología. Y que una vez
definida la utopía se reflexione de cómo las tecnologías pueden contribuir para
alcanzarla. Por ejemplo, se habla de la solidaridad digital como estrategia de
reducción, sin embargo, la reflexión debería estar centrada en cómo las
tecnologías pueden apoyar la construcción de sociedades solidarias y qué
condiciones requieren los grupos sociales para utilizar las TIC para llegar a esta
aspiración. Definitivamente este cambio de enfoque transforma a su vez la
comprensión de lo que es la brecha digital.
Notas y referencias
[1] Unesco-IBI. Rapport général de la conférence Stratégies et politiques
informatiques nationales, Torremolinos, 1978, p. 17.
[2] Grupo de los 7, luego de los 8, G8.
[3] G7, Okinawa Charter on Global Information Society, Okinawa, July 22, 2000.
http://www.g7.utoronto.ca/summit/20...
[4] Declaración de principios CMSI, Ginebra, 2003
http://www.itu.int/wsis/docs/geneva...
[5] http://www.unicttaskforce.org/perl/...
[6] http://www.itu.int/digitalbridges/d...
[7] http://www.itu.int/digitalbridges/d...
[8] ITU Digital Access Index: World’s First Global ICT Ranking Education and
Affordability Key to Boosting New Technology Adoption
http://www.itu.int/newsarchive/pres...
[9] ¿Por qué una Cumbre sobre la Sociedad de la Información?
http://www.itu.int/wsis/basic/why-e...
[10] “El poder acceder a las tecnologías de información y comunicación es un
requisito importante para participar de una sociedad cada vez más dependiente
de la tecnología” (CristiAn Fuenzalida) http://www.dcc.uchile.cl/ cfuenzal/...
[11] Construir sociedades de la información que atiendan a las necesidades
humanas : Declaración de la sociedad civil en la Cumbre Mundial sobre la
Sociedad de la Información, Adoptada por unanimidad en Plenaria por la sociedad
civil de la CMSI el 8 de diciembre de 2003. http://alainet.org/active/show_news...
[12] Soupizet, Jean-François. La fracture Numérique Nord Sud, Édition
Economica, Paris.
[13] [http://www.funredes.org/mistica
Lecturas complementarias
http://www.funredes.org/mistica
http://www.barcelona2004.org/esp/ba...
http://www.monografias.com/trabajos...
http://www.labrechadigital.org
http://www.cibersociedad.net/archiv...
http://www.revistainterforum.com/es...
http://www.fundacionctic.org/prensa...
http://www.geocities.com/brecha_digital/
http://www.el4ei.net/first/charter%...
http://www.ssb.no/ikt/ict_nord/kap2.pdf
http://www.n-economia.com/informes_...
http://www.bvs.sld.cu/revistas/aci/...
http://wwww.catunescomujer.org/glor... ww.isis.cl/temas/cominf/quehay8.htm
http://www.nordinfo.helsink.fi/publ...
Acceso público a Internet
Subbiah Arunachalam
El advenimiento de Internet trajo consigo posibilidades hasta ahora desconocidas
para la creatividad humana, el acceso a la información y la comunicación
internacional. ¿Cuándo estas posibilidades se convirtieron realmente en un amplio
acceso público a Internet? Es difícil especificar una fecha, pero se pueden
identificar algunos hechos fundamentales y los principales participantes en esos
hechos.
Mucho antes del advenimiento de Internet, el movimiento contracultural - guerra
de Vietnam, tecnologías alternativas, etcétera - dio a luz a la primera red
comunitaria, cuando un grupo de piratas informáticos desarrolló en San Francisco,
a inicios de los años sesenta, el sistema Community Memory. Luego, en 1986 la
Free-Net de Cleveland, Ohio, dio inicio a una nueva generación de redes
comunitarias. Las Free-Net pronto atrajeron a miles de nuevos usuarios, y los
nuevos sistemas se establecieron en docenas de ciudades, sobre todo en la
región central de los EE.UU. Estas redes de computadoras de acceso público
gratuito permitieron a las personas no solo intercambiar y acceder a la
información, sino que también les concedieron poderes.
En el año 1971 tuvieron lugar dos hechos importantes: La invención por parte de
Raymond Tomlinson de un programa de correo electrónico [1] para ARPANET, la
red de los científicos que trabajaban en la investigación relacionada con la
defensa, cambió la forma en que las personas veían a las computadoras y la
comunicación humana [2]; y el proyecto Gutenberg de Michael Hart, que puso a
disposición por vía electrónica libros sin derechos de autor [3], permitió a la
creación de enormes volúmenes de contenidos electrónicos que pueden ser
compartidos por todo el mundo. En 1973 ocurrieron dos hechos: Vinton Cerf y
Robert Kahn presentaron las nociones básicas de Internet basadas en las ideas
para el Protocolo de Control de Transmisión (TCP, llamado posteriormente
TCP/IP) en una reunión en la Universidad de Sussex [4]; y ARPANET tuvo su
primera conexión intercontinental - con el Colegio Universitario de Londres,
Inglaterra. A principios de los años ochenta, muchas instituciones que no
realizaban investigaciones para la defensa se unieron a la red, con lo que el
número de usuarios creció de lo cual aumentó el número de usuarios a varios
centenares de miles..
En 1985, Internet ya se había establecido como tecnología que servía de apoyo a
una amplia comunidad de investigadores y creadores, y comenzaba a atraer a
otras comunidades. El correo electrónico era utilizado ampliamente por varias
comunidades, que a menudo empleaban sistemas diferentes.
Los primeros servicios comerciales de Internet fueron ofrecidos por PSI y AlterNet
a principios de 1990. En agosto de 1991, el Consejo Europeo para la
Investigación Nuclear (CERN por sus siglas en francés) lanzó la World Wide Web,
marcando un hito en la historia del acceso público a Internet. El 15 de septiembre
de 1993, la administración Clinton lanzó formalmente la iniciativa de
Infraestructura Nacional de Información en los EE.UU., gracias a las iniciativas
tomadas por el vicepresidente Al Gore. La versión 1.0 del navegador Web Mosaic
también fue presentada en 1993, y ya en 1996 el término “Internet” era utilizado
de manera común, pero hacía referencia casi completamente a la World Wide
Web.
Aunque el nuevo desarrollo fue comparado con las autopistas que en una
generación anterior transformaron el transporte, pronto quedó claro que Internet
era mucho más que la ‘autopista de la información’ y que era capaz de
proporcionar acceso a niveles más elevados de información solicitada de manera
inteligente y distribuida de forma funcionalmente enriquecida. Es aquí donde
radica lo que diferencia a Internet de la biblioteca tradicional, el lugar donde la
gente iba a buscar información.
La creciente popularidad de la comunicación computarizada incitó el debate con
respecto a muchos aspectos fundamentales de la interacción social, incluyendo
las cuestiones relacionadas con la privacidad, la comunidad, el intercambio
cultural, la propiedad del conocimiento y el control gubernamental de la
información, vinculados al acceso público.
¿Qué es el acceso público?
El «acceso público» incluye el acceso a la tecnología (computadora, conectividad,
ancho de banda, etcétera) y el acceso a todo el contenido almacenado en la red
artificial más grande del mundo, como ha definido la revista Newsweek al Internet.
De estos dos aspectos, el segundo está jerárquicamente por encima del primero,
pues la tecnología está subordinada al contenido (conocimiento) que puede
transmitir. Esto es similar a suministrar agua a un pueblo a través de una tubería,
donde naturalmente el agua es más importante que las tuberías. El acceso a la
tecnología y el acceso al contenido pueden ser gratuitos o basados en una tarifa.
El contenido podría ser de texto, audio, video o multimedia. La conectividad puede
ser a través de una variedad de tecnologías que van desde el marcado manual
usando un teléfono y un módem hasta redes inalámbricas y dispositivos portátiles
(teléfonos inteligentes, consolas de juego...).
El público puede utilizar el acceso a Internet para enviar y recibir correos
electrónicos, participar en servicios de listas y grupos de discusión, y buscar
información. Los científicos también la utilizan para la investigación colaborativa, y
las personas comunes la utilizan para hablar con otros, sea a través de charlas,
sea a través de voz por IP. Aplicaciones más recientes del acceso a Internet
incluyen el intercambio de datos a través de las tecnologías punto a punto, la
distribución de música, los boletines electrónicos, el vlogging, el periodismo
ciudadano, la obtención de RSS de noticias de diversas fuentes, y el podcasting.
El público puede tener acceso a Internet desde sus propios hogares y oficinas,
pero también desde bibliotecas públicas y cibercafés, y en cierto grado desde
instituciones educativas y los siempre crecientes telecentros, así como desde los
vestíbulos de los hoteles y los salones de aeropuertos equipados para el acceso a
redes inalámbricas.
Las enormes cantidades de información a las que cualquier persona puede tener
acceso, dondequiera, en cualquier momento y sin costo alguno pueden ser
llamadas áreas públicas de la información. El acceso público a Internet se basa
en la idea de que incluso en economías de mercado dominadas por la obtención
de ganancias, la propiedad y el control comunitarios de los recursos de
información pueden ser eficientes y eficaces [5].
Hacia el acceso universal a escala mundial
El debate más importante de la actualidad gira en torno a la ‘universalización’ del
acceso. ¿Por qué es tan importante la universalización? Investigadores como
Ernest Wilson se preocupan por el hecho de que, en ausencia del acceso
universal, la difusión rápida de Internet en las organizaciones, las culturas, y las
sociedades de naciones industrializadas pueda ensanchar el espacio
multidimensional que las separa de los países en desarrollo, exacerbando un
problema moral y práctico ya significativo [6]. Larry Press considera que la
comunicación barata y flexible por Internet puede conducir a mejorar la
productividad económica, la educación, la atención médica, el entretenimiento, el
conocimiento del mundo, así como la calidad de vida en países en desarrollo y los
los focos de pobreza en el interior de los países, reduciendo así la disparidad [7].
Sin embargo, existen numerosos obstáculos para lograr el acceso universal.
Mientras en gran parte de Norteamérica y de Europa Occidental la penetración del
Internet es muy elevada y prácticamente cada ciudadano que desee tener acceso
a la red puede hacerlo, en muchas partes del mundo en vías de desarrollo, y en
particular en África Subsaharial, solo un pequeño porcentaje de la población
puede tener acceso, con un acceso en banda ancha extremadamente lento y por
un costo que representa una parte sustancial de sus ingresos. Los números de
computadoras, teléfonos, etc., por cada mil habitantes y el ancho de banda en la
mayoría de estos países son muy bajos comparados con los países avanzados y
están distribuidos de manera desigual [8]. Precisamente para erradicar esta
‘división digital’ los países en vías de desarrollo están abogando por la creación
de un Fondo de Solidaridad Digital [9].
En muchos países en vías de desarrollo se están realizando esfuerzos para
erradicar la división digital o la carencia de tecnología mediante la creación de
telecentros comunitarios y la puesta a disposición de la información que la gente
local necesita.
Desarrollo de los telecentros
Los telecentros, también conocidos como puntos de acceso público (Francia),
centros comunitarios digitales (México), etcétera, difieren de los cibercafés en su
forma de trabajo. Los cibercafés han sido concebidos, ante todo, para
proporcionar a las personas que los utilizan una conexión a Internet, y, cuando
sea necesario, una introducción muy básica al empleo del equipamiento.
Funcionan de manera similar a un establecimiento de autoservicio. Los
telecentros han sido concebidos para acompañar la utilización comunitaria de
Internet (educación, salud, microcomercios, etcétera). Generalmente se abren en
vecindades en las que no hay cibercafés y están destinados a las comunidades
excluidas a priori de la sociedad de la información. Además de poner a disposición
equipos y conexiones, los telecentros proporcionan adiestramiento y ayuda a los
usuarios (por ejemplo, ayudan a los vecinos a desarrollar aplicaciones
comunitarias).
En la práctica, la diferencia entre los telecentros y los cibercafés no siempre
queda clara, y ambos pueden solaparse según los objetivos de la gente que los
opera y el modelo de desarrollo seleccionado.
De hecho, existen tres modelos principales para el establecimiento de los
telecentros:
Telecentros apoyados por las autoridades públicas locales o nacionales.
Por ejemplo, una ciudad como Brest [10], en Francia, se ha equipado
sistemáticamente de modo que cada habitante tenga un punto de acceso
público a menos de 300 metros de su casa. Entre 1999 y 2001, Argentina puso
en práctica un vasto programa de infraestructura que implicó la creación de 1
350 centros tecnológicos de la comunidad (CTC) [11]. El gobierno de la India
aplicó el mismo enfoque en los estados del norte [12] y ahora la mayoría de los
planes nacionales para la sociedad de la información incluyen proyectos de
telecentros bajo el título “inclusión social”.
Telecentros como iniciativa de un grupo local de personas, un grupo voluntario
local o una escuela.
A menudo, en su fase inicial reciben financiamiento de una ONG [13] o de una
agencia de ayuda internacional. Por ejemplo, el IDRC, una agencia canadiense
para el desarrollo, y el IICD, una agencia de los Países Bajos, desarrollaron
grandes planes de ayuda a los telecentros a principios de los dos mil. La
UNESCO también ha apoyado muchos centros multimedia de la comunidad
(CMC) para promover la participación de la comunidad y enfrentar la división
digital mediante la combinación de la difusión comunitaria con Internet y las
tecnologías relacionadas [14].
Telecentros diseñados como empresas privadas con verdaderos planes de
negocio que pueden existir solo en áreas donde pueden resolverse las
necesidades básicas. Aunque su actividad lucrativa los asemeja más a los
cibercafés, se dedican a satisfacer las necesidades de la comunidad.
A menudo, estos modelos se mezclan en la práctica. Los primeros experimentos
datan de finales de los años noventa, y como muchos telecentros han sido
cerrados desde entonces, es posible identificar ciertas condiciones que son
esenciales (aunque en realidad, por sí mismas no lo son lo suficiente) para el
éxito de los telecentros:
Creación de un telecentro que responda en verdad a las necesidades de los
habitantes locales; estas necesidades varían considerablemente no solo de un
país a otro, sino de un pueblo o una vecindad a otra;
El financiamiento debe contemplar el adiestramiento del personal y no
solamente los equipos;
La puesta a disposición de software gratuitos que permitan la autonomía
tecnológica y eviten la reinversión constante en aplicaciones y actualizaciones;
La existencia de la infraestructura mínima que permita el funcionamiento técnico
(energía, viabilidad de las instalaciones, etcétera);
Los espacios de implantación deben responder a otras necesidades de la
población aparte de la simple conectividad (centros de salud, centros sociales,
bibliotecas, escuelas, ...);
La elaboración de un modelo de desarrollo que permita gradualmente la
autonomía financiera con respecto a los patrocinadores iniciales. Muchos
fracasos ocurridos son debido a la suspensión de los subsidios externos.
Los puntos de acceso público, o telecentros, se han desarrollado
considerablemente en América Latina y el Caribe y muchos de ellos han unido sus
fuerzas en la red de intercambio [15].
Por supuesto, África es el continente donde esos centros han tenido más
problemas para mantenerse funcionando. La baja densidad demográfica, los
bajos niveles de instrucción, la cultura oral y la mala calidad de lo que suministran
los operadores significan que de manera general el desarrollo de Internet es
difícil. Además de estas dificultades genéricas, los telecentros también han tenido
que enfrentar la imposibilidad estructural de encontrar ingresos independientes:
en las áreas solventes, los cibercafés han surgido a gran velocidad, impidiendo el
establecimiento de telecentros con ingresos mixtos; en las áreas insolventes, a
menudo los donantes internacionales se han cansado de los proyectos de
financiamiento que en ocasiones eran demasiado ambiciosos desde el principio
(África es el continente donde se han transpuesto las visiones de la sociedad de
la información centradas en el Norte sin tener en cuenta realmente las
necesidades locales, lo que ha condenado a los proyectos al desuso) [16].
Por otra parte, la India multiplicó los experimentos de los telecentros adoptando
diversos modelos, entre los que se incluyen el modelo de ingresos propiedad de
la comunidad y los centros apoyados por el gobierno.
Un buen ejemplo del modelo propiedad de la comunidad son los centros de
conocimiento del pueblo creados por la Fundación para la Investigación M S
Swaminathan (MSSRF por sus siglas en inglés) en varios pueblos del sur de la
India [17] [18]. El uso más conocido de Internet en estos centros es la difusión, a
través de un sistema de megafonía, de información preliminar sobre la altura de
las olas en la costa de Pondicherry, descargada de un sitio Web de la marina de
los EE.UU. de modo que los pescadores de los pueblos costeros puedan decidir
si es seguro o no aventurarse al mar en un día determinado. Desde que se inició
este servicio en 1999, no ha habido ni una sola muerte en el mar en estos
pueblos. En colaboración con OneWorld International, MSSRF creó Open
Knowledge Network (OKN), que conecta a comunidades rurales de Asia y África
para intercambiar el contenido local, el conocimiento indígena y las prácticas
tradicionales [19]. Además de Internet, la OKN utiliza teléfonos celulares y la radio
para comunicarse.
Los eChoupals de ITC son un buen ejemplo del modelo de ingresos [20]. El
Centro Nacional de Informática del gobierno de la India ha creado muchos centros
en los estados nororientales [21]. Gracias a la iniciativa emprendida por la
MSSRF, se ha creado una alianza nacional, quizás la mayor sociedad con
participación múltiple en el desarrollo, para llevar la revolución del conocimiento a
cada uno de los 638 000 pueblos de la India antes del LX Aniversario de la
Independencia de la India [22]. El gobierno de la India ha asumido gran parte de
los costos, por una suma de $1 500 millones de dólares.
Aunque en general las tecnologías tienden a exacerbar las desigualdades y a
favorecer a los primeros que las adoptan a costa de los que llegan después,
gracias al libre e ilimitado flujo de información que facilita, Internet es
intrínsecamente una tecnología democratizadora y puede hacer que el acceso a
la información se produzca en igualdad de condiciones. ¿Cómo podemos traducir
este potencial inherente en realidad? Es aquí donde reconocemos el gran valor
del enfoque del ‘patrimonio común’ para el uso compartido de la información.
Patrimonio común y uso compartido de la información
Veamos cómo el enfoque de patrimonio común para la diseminación del
conocimiento científico afecta la manera en que se realiza la investigación
científica en el mundo. Este ejemplo, que ha alcanzado la madurez, muestra el
impacto del concepto de patrimonio común en la difusión del acceso público
internacional al contenido de la información
Hace aproximadamente 15 años, Paul Ginsparg, quien entonces laboraba en el
Laboratorio Nacional de Los Álamos, pensó en un archivo central para los
artículos de investigación sobre física. Ahora el “arXiv” florece con sede en Cornell
y tiene más de 15 sitios espejo (algunos de ellos en los países en vías de
desarrollo) [23]. Steve Lawrence, quien en ese entonces trabajaba en NEC
Research, Princeton, inició CiteSeer que no espera a que los autores
envíen/depositen sus artículos, sino que busca en la red y recoge todos los
artículos sobre informática y los campos afines [24]. Stevan Harnad creó, en
Southampton, Cogprint, un archivo para las ciencias cognoscitivas [25]. También
escribió algunos artículos provocativos sobre lo que él llama una “propuesta
subersiva” para ampliar “scholarly skywriting” (la escritura científica en el cielo), la
manera en que los científicos pueden escribir en el cielo de Internet, para que
todos lo lean [26]. Después de este impulso, en los últimos años, los científicos
han comenzado a depositar sus artículos de investigación, además de publicarlos
en revistas arbitradas que escogen, en archivos institucionales interoperables de
libre acceso. Los softwares para crear estos archivos de texto son absolutamente
gratuito. El protocolo de interoperabilidad (OAI-PMH [27]) y el software asociado
permite a un usuario rastrear todos los artículos sobre un tema dado o de un autor
determinado desde cualquiera de los archivos (situados en cualquier parte del
mundo) como si todos se encontraran en un solo archivo (universal)- todo esto es
absolutamente gratuito.
En la actualidad, existen más de 400 de esos archivos institucionales
interoperables que proporcionan acceso a textos de muchos miles de artículos de
investigación. Esto es especialmente provechoso para los científicos de los países
en vías de desarrollo. Peter Suber mantiene un boletín electrónico [Open Access
News] e informa exhaustivamente sobre los progresos del movimiento de libre
acceso alrededor del mundo [28].
Además de los archivos de libre acceso, también hay revistas de libre acceso
donde los lectores y sus bibliotecas no tienen que pagar una suscripción. Varios
cientos de revistas - incluyendo una parte proveniente de los de países en vías de
desarrollo - son ahora revistas de libre acceso. [29]
Acceso al conocimiento en todo el mundo
Se puede apreciar un paralelo entre los telecentros y los archivos de libre acceso.
Ambos están utilizando los avances tecnológicos para incluir a los excluidos y
poniendo a disposición una información muy necesaria a bajo costo con el
enfoque de ‘patrimonio común’. Ambos están superando un serio problema al
vincular de manera inteligente la tecnología y el enfoque de patrimonio común.
Ambos tratan de compartir y cuidar. Ambos están eminentemente equipados para
aumentar la productividad general del mundo como un todo y conducir a una
mayor felicidad colectiva. Parecen casi utópicos.
Pero muchos editores, incluyendo algunas sociedades científicas, están tratando
de detener el progreso del movimiento de libre acceso, pues lo consideran una
amenaza potencial para sus intereses comerciales. Por otra parte, muchas
agencias donantes, tales como Wellcome Trust, que financian a los científicos
para que realicen la investigación son ávidas partidarias del movimiento.
En el área de datos científicos, a diferencia de los textos completos de los
artículos de investigación, organizaciones tales como ICSU (y CODATA) están
promoviendo la cultura del libre acceso. Incluso Celera Genomics Corp., la
compañía con fines de lucro que obtuvo la secuencia del genoma humano
simultáneamente con Human Genome Project, que lo hizo con fondos públicos,
ha dejado de vender suscripciones para el acceso a su secuencia/a sus datos y
donará los datos al Centro Nacional de Información Biotecnológica, EE.UU. Como
planteara Francis Collins, del Instituto Nacional de Investigación del Genoma
Humano, “los datos solo desean ser públicos.”
Los científicos de los países en vías de desarrollo necesitan una atención
particular, plantea Bruce Alberts, antiguo presidente de la Academia Nacional de
Ciencias de los Estados Unidos. En su discurso presidencial de 1999 [30] ante la
Academia Nacional de Ciencias de los Estados Unidos, sugirió “conectar a todos
los científicos a la World Wide Web, cuando sea necesario, proporcionando un
acceso subvencionado a Internet a través de las redes de satélite comerciales,” y
“asumir la responsabilidad de generar un rico arsenal de recursos de
conocimiento validado científicamente, puesto a disposición de manera gratuita
en la Web, a modo de preparación para una época en la que el acceso universal
a Internet para los científicos se logre tanto en las naciones en vías de desarrollo
como en las industrializadas.”
Del ciberespacio al mundo real
En los primeros días de la red, se tenía la sensación de que la red nos había dado
la libertad de hacer cosas independientes de los gobiernos y de la legislación
nacional. De hecho, en febrero de 1996, John Perry Barlow, un activista de
Internet, publicó una “Declaración de Independencia del Ciberespacio” [31].
“Gobiernos del mundo industrializado”, declaró el Sr. Barlow, “a nombre del futuro,
les pido desde el pasado que nos dejen en paz. No son bienvenidos entre
nosotros. No tienen ninguna soberanía donde nos reunimos. No tienen ningún
derecho moral a gobernarnos ni poseen ningún método de aplicación de la ley
que nos haga temer. El ciberespacio no está dentro de sus fronteras”. E Internet
se convirtió en una de las herramientas más importantes de defensa ciudadana
utilizada para la investigación, la educación pública, la organización, la discusión
política, la coordinación y mucho más todavía.
Desafortunadamente la tecnología digital también ha traído consigo nuevas
formas de confinamiento de la información que minan el derecho público de
utilizar, compartir y reproducir la información. Esos confinamientos amenazan con
minar el discurso político, el discurso libre y la creatividad necesaria para una
democracia sana. En realidad, los gobiernos pueden y tienen un considerable
control sobre lo que se realiza en Internet. Como señaló The Economist, “Internet
es parte del mundo real. Como todos «los Dorados», sus inicios fueron un poco
salvajes, pero finalmente la policía siempre llega”. [32]
El carácter democrático de Internet y su capacidad de alcanzar una base de
conocimiento “casi infinita” han sido cuestionados. Si bien el alto costo, la baja
calidad y la falta de acceso a Internet constituyen la primera barrera para el
acceso público a Internet en los países pobres, las políticas y las actitudes
institucionales y gubernamentales conducen a un segundo tipo de barrera. Como
concluyera Carnegie Endowment for International Peace (CEIP), los gobiernos
pueden impedir que sus ciudadanos visiten ciertos sitios que consideran dañinos
para el interés nacional, controlar el acceso a los sitios extranjeros, monitorear lo
que publican sus ciudadanos y aislar literalmente a su gente del resto de la red
[33]. Las escuelas y los padres pueden utilizar un filtro para proteger a sus niños
de la presencia cada vez mayor de sitios obscenos en la red. ¿De qué otra forma
podemos protegernos a nosotros mismos y a nuestros niños de la amenaza que
constituye la presencia en la red de la desnudez, de los actos sexuales, de las
drogas, del alcohol, del tabaco, de la violencia y la profanidad, de los cultos, de
los grupos racistas, extremistas e intolerantes, del juego ilegal y de las empresas
de negocios fraudulentos? El desafío consiste en encontrar un equilibrio entre
nuestra búsqueda de libertad y aperturta, y la necesidad de frenar la pornografía,
la obscenidad y la intolerancia.
Ese es el gran dilema que enfrentan las bibliotecas que ofrecen acceso público a
Internet. Mientras casi todas las bibliotecas públicas de los EE.UU. proporcionan a
sus clientes acceso gratuito a Internet, la situación es desastrosa en casi todos los
países en vías de desarrollo.
Como planteara Nancy Kranich, el acceso público a Internet es esencial para
revitalizar la participación cívica, así como para reclamar el espacio público y
promover el interés público en la era digital.
Existen dos formas de considerar el acceso público a Internet:
Permitir a los ciudadanos de todo el mundo utilizar las herramientas de la red de
información para acceder a la información disponible, así como crear su propia
información y difundir sus habilidades.
Asegurar el acceso libre a la información esencial, de modo que las
oportunidades proporcionadas por Internet sean utilizadas realmente para que
todo el mundo pueda acceder al conocimiento.
Mujeres
Mavic Cabrera-Balleza
El tema de la información y la comunicación es clave en el discurso feminista y en
la práctica política cotidiana de las militantes del movimiento feminista.
Es clave porque aborda aspectos como el lenguaje y las formas de expresión que
no solo reflejan las realidades sociales y las relaciones de género y poder, sino
también conforman, definen y dictan cómo deben ser esas relaciones de género y
poder. Las herramientas y metodologías de la información y la comunicación
reproducen las desigualdades, las contradicciones y los prejuicios de la sociedad.
Por otro lado, también pueden ser cruciales en la educación y movilización de las
personas para enfrentar las desigualdades y prejuicios sociales que afectan a las
mujeres. A la vez, pueden servir de instrumentos para subvertir las instituciones
sociales patriarcales, así como para promover la igualdad de sexos y el
otorgamiento de responsabilidades a las mujeres.
Desarrollo y evolución de una agenda feminista
en la sociedad de la información
Las tecnologías de la información y las comunicaciones (TIC) han cambiado
considerablemente las maneras en que las mujeres se informan y se comunican
entre sí y con sus respectivas comunidades geopolíticas locales, nacionales,
regionales e internacionales. También han contribuido positivamente al
desmantelamiento de las barreras para el acceso a los medios de comunicación,
de modo que permiten que más mujeres realicen y distribuyan producciones en
los medios de comunicación que expresen correcta y adecuadamente sus
problemas, sus preocupaciones y sus aspiraciones. Las TIC han ampliado el
alcance de medios de comunicación establecidos, como la radio comunitaria.
Además, los nuevos métodos de redes electrónicas han hecho posible que las
mujeres adquieran nuevas habilidades, identifiquen nuevos contactos y
consoliden sus redes. Evidentemente, las TIC han sido y continúan siendo
importantes herramientas para fomentar la solidaridad y facilitar la creación de
estructuras que apoyen las luchas populares por alcanzar una paz verdadera y un
tratamiento equitativo de los géneros.
Sin embargo, aunque las TIC ofrecen una amplia gama de oportunidades,
también contribuyen a ampliar la diferencia entre los que tienen acceso a los
recursos y los que no lo tienen. Existe una gran división de géneros dentro de la
división digital. En todo el mundo, las mujeres enfrentan barreras económicas,
sociales, culturales y políticas que las limitan o les impiden acceder a las
tecnologías de la información y las comunicaciones y beneficiarse de ellas. Por
consiguiente, resulta imperativo que las activistas feministas entiendan el discurso
tecnológico, socioeconómico y político presente en las TIC. Es esencial que
examinen constantemente las potencialidades y los impactos de las TIC, con el
objetivo de emplearlas como herramientas eficaces en la organización feminista y
en un activismo social más amplio.
Los inicios
El impacto de las tecnologías de la información y las comunicaciones en las
mujeres se evidenció por primera vez durante el proceso preparatorio de la Cuarta
Conferencia Mundial de Mujeres, que tuvo lugar en Beijing, China, en 1995. El
trabajo de información y diseminación para estimular a las mujeres del mundo a
participar fue realizado por organizaciones femeninas a través del correo
electrónico, una herramienta que muchas de ellas estaban aprendiendo a utilizar
precisamente en ese momento. Cuando el Comité Organizador Chino anunció de
repente, en marzo de 1995, que el Foro de las ONG de Mujeres cambiaba su
sede del centro de Beijing a un sitio ubicado a 64 kilómetros, en Huairou, el
Centro Internacional de la Tribuna de la Mujer envió un alerta urgente a
WOMENET, una red por fax compuesta por 28 redes de medios de comunicación
de mujeres de todo mundo surgida después de un taller de medios de
comunicación de mujeres realizado en Barbados, en 1991. Cada red de medios
de comunicación de mujeres envió el mensaje por fax a su propia red en cada
región del mundo y, rápidamente, decenas de miles de firmas fueron enviadas en
señal de protesta a las Naciones Unidas y al Comité Organizador Chino en
Beijing. Desgraciadamente, esto no hizo que los anfitriones chinos cambiaran de
parecer, aunque sirvió para que redoblaran sus esfuerzos con vistas a
proporcionar mejores alojamientos e instalaciones en Huairou. Sin embargo,
mostró cuán rápida y eficazmente las mujeres podrían contactarse y apoyarse
entre sí en tiempos de crisis, lo que constituyó un momento de fortalecimiento
para las mujeres a escala internacional [1].
En América Latina (que estaba más avanzada en ese momento en cuanto a la
conectividad por correo electrónico que Asia-Pacífico asiático o África), una gran
cantidad de mujeres se beneficiaron con las facilidades de comunicación en línea
disponibles durante la preparación de la Conferencia de Beijing. En otras
regiones, las mujeres empleaban una combinación de nuevas TIC con otros
medios y facilidades de comunicación entre las que se incluían teléfono, fax, y
reuniones personales.
Durante la conferencia en Beijing, la Asociación para el Progreso de las
Comunicaciones organizó un equipo de 40 miembros, todas mujeres, que brindó
servicios plenos de Internet a todos los participantes del Foro de ONG de Beijing y
a la conferencia intergubernamental. Mujeres y hombres de todo el mundo
pudieron acceder a la información procedente directamente del Foro de ONG y de
la conferencia a través del correo electrónico, de conferencias electrónicas y
páginas Web [2].
La participación femenina en los preparativos regionales y mundiales del
encuentro de Beijing contribuyó evidentemente a crear una red de mujeres
preocupadas por los temas y las políticas de género y las TIC. No obstante, a
pesar del empleo relativamente popular de las tecnologías en la fase preparatoria
y durante el Foro de ONG y la Conferencia de Beijing, la Plataforma de Acción de
Beijing, principal documento emanado de la conferencia, no abordó
adecuadamente los temas de género y las TIC. Al reflexionar sobre lo ocurrido,
solo puede decirse que ni la sociedad civil ni los gobiernos previeron en ese
momento el impacto que tendrían las nuevas TIC en las mujeres. Lo estipulado en
la sección Mujeres y Medios de Comunicación (sección J) de la Plataforma de
Beijing con respecto a las TIC se limitó a mejorar las habilidades, los
conocimientos y el acceso de las mujeres a las tecnologías de la información. No
obstante, la Conferencia de Beijing marcó un giro decisivo en la defensa de la
mujer en los aspectos relacionados con la comunicación y las TIC. Amplió y
profundizó el discurso sobre la mujer y la comunicación, que hasta ese momento
se había centrado casi exclusivamente en las imágenes negativas y
estereotipadas de las mujeres en los medios de comunicación. La Conferencia de
Beijing permitió la introducción del concepto de las mujeres como participantes
claves en el campo de los medios de comunicación y las TIC, tanto a escala
tecnológica como en la elaboración de políticas. También subrayó la necesidad de
subvencionar los requerimientos de la infraestructura y los esfuerzos
experimentales [sobre] el empleo de las TIC. Además, fomentó el empleo de las
tecnologías como un medio para fortalecer la participación de la mujer en los
procesos democráticos. Algunas de las organizaciones que han influido en los
debates sobre los medios y las TIC en la Conferencia de Beijing fueron la Agencia
Latinoamericana de Información, la Asociación para el Progreso de las
Comunicaciones, el Programa de Apoyo a la Red de Mujeres, Isis International, el
Centro Internacional de Tribuna de la Mujer, y la Asociación Mundial para la
Comunicación Cristiana. Estos grupos, junto a otros participantes de la sociedad
civil continuaron participando activamente en los espacios de debate sobre el
género, los medios y TIC, y durante el proceso han sentado precedentes en
términos de propuestas de la política sobre las TIC.
Entretanto, como una contribución a la conferencia de Beijing, la Comisión de las
Naciones Unidas sobre Ciencia y Tecnología para el Desarrollo (UNCSTD, por sus
siglas en inglés) llevó a cabo un abarcador conjunto de estudios sobre las
relaciones entre género, ciencia y tecnología, y desarrollo. Los informes sobre
este estudio revelaron que existían importantes diferencias de género en los
niveles de acceso, control y beneficios obtenidos de una amplia gama de
desarrollos tecnológicos. Específicamente con respecto a las TIC, el estudio
realizado por la UNCSTD concluyó que la revolución de la información al parecer
no tenía en cuenta a las mujeres, que la literatura sobre la sociedad de la
información no se refería a los temas de género, y que ni las investigaciones ni los
proyectos prácticos en el campo de la tecnología de la información habían
abordado las circunstancias particulares de las mujeres [3].
Inclusión en la agenda internacional
Cinco años después cambiaron considerablemente los puntos de vista sobre las
TIC, tanto desde las perspectivas de las instituciones de mujeres y de género,
como desde las del propio movimiento feminista. En el análisis de la Plataforma
de Beijing, realizado en el año 2000, se prestó gran atención a las TIC y su
impacto en las mujeres. El análisis de la puesta en práctica de la Plataforma de
Acción de Beijing, realizado en el año 2000, reconoció las crecientes
oportunidades puestas a disposición de las mujeres mediante el empleo de las
TIC -compartir conocimientos, trabajar en red y comercio electrónico. Sin
embargo, también mostró que la pobreza, la falta de acceso a la infraestructura de
las telecomunicaciones, las barreras lingüísticas, el desconocimiento de la
computación y el analfabetismo impiden a las mujeres utilizar las tic, incluyendo
Internet.
En los años posteriores a la Conferencia de Beijing ha aumentado
considerablemente el reconocimiento internacional de los temas de género y las
TIC. Las mujeres han aprovechado los espacios nacionales, regionales e
internacionales de discusión sobre las TIC. Ellas han ejercido presiones sobre los
gobiernos nacionales, los organismos intergubernamentales que dictan la política
de género, así como sobre las instituciones de telecomunicaciones. Documentos
recientes de política internacional han reconocido las implicaciones de género de
las nuevas TIC y han identificado el perfeccionamiento y desarrollo de las
habilidades de las mujeres, su conocimiento, empleo y acceso a las tecnologías
de la información como grandes retos para la Sociedad de la Información.
Global Knowledge 97 (GK 97) fue la primera gran conferencia internacional en
explorar el potencial de las tecnologías de la información y su posible impacto en
los países en desarrollo. Una intensa campaña de correo electrónico y cabildeo
institucional, iniciada por el Comité ad hoc de Mujeres en GK97, trajo como
resultado una considerable participación femenina y constituyó un paso
importante en la inclusión de las mujeres en la agenda del “conocimiento para el
desarrollo”. El Precepto sobre Género, Asociaciones y Desarrollo de las TIC
emanado de esta reunión reconoció “la importancia de las nuevas TIC como un
medio para reunir y distribuir nuestros conocimientos y herencia compartidos.”
Plantea que todas las facetas de ingeniería, diseño, desarrollo y entrega de las
TIC deben incluir la igualdad de géneros o de lo contrario correrán el riesgo de no
ser eficaces.
Entre las acciones prioritarias que considera necesarias se encuentran [4]:
incorporar el análisis de género a toda la investigación de política científica y
tecnológica;
desarrollar y subvencionar evaluaciones del impacto de las nuevas TIC en las
necesidades de comunicación de las mujeres;
y proporcionar adiestramientos, sistemas de acceso y entrega, incluyendo
versiones desarrolladas para mujeres.
Por su parte, la Unión Internacional de Telecomunicaciones (UIT), actuando según
una resolución adoptada en 1998 en la Conferencia Mundial para el Desarrollo de
las Telecomunicaciones, en Valetta, Malta, creó el Grupo de Expertos sobre los
temas de género (TFGI) dentro de su Sector de Desarrollo de las
Telecomunicaciones. Su misión era trabajar con vistas a asegurar que los
beneficios de las telecomunicaciones y de la emergente sociedad de la
información estuvieran a disposición de todas las mujeres y hombres en los
países en desarrollo sobre una base justa y equitativa. También tenía como
objetivo estimular la contratación, el empleo, el adiestramiento y la promoción de
las mujeres en el campo de las telecomunicaciones [5]. En 2002, después de la
Conferencia Mundial de Desarrollo de las Telecomunicaciones (CMDT) en
Estambul, Turquía, se adoptó una nueva resolución que convirtió al TFGI en un
Grupo de Trabajo sobre los temas de género al que se asignaron recursos
provenientes del gobierno de Noruega. La CMDT también instó a incluir una
perspectiva de género en los temas y en el trabajo de la Cumbre Mundial sobre la
Sociedad de la Información (CMSI).
Antes de la creación del Grupo de Trabajo sobre los temas de género, la UIT, el
Programa de las Naciones Unidas para el Desarrollo (PNUD) y el Fondo de
Desarrollo de las Naciones Unidas para la Mujer (UNIFEM) firmaron un
memorando de entendimiento para colaborar en el desarrollo de estrategias
sensibles al género para el desarrollo de las telecomunicaciones y de la política
de las TIC, en julio del año 2000.
En noviembre de 2002, la División de las Naciones Unidas para el Progreso de la
Mujer efectuó en Seúl, Corea, una Reunión del Grupo de Expertos sobre
“tecnologías de la información y las comunicaciones y su impacto y empleo como
instrumento para el desarrollo y la habilitación de las mujeres”. Los participantes
en la reunión presentaron varios ejemplos de cómo las mujeres marginadas
utilizaban las TIC para capacitarse. Sin embargo, también subrayaron que estos
ejemplos no eran suficientes. Una de las conclusiones a que llegaron es que aún
existe una falta general de análisis de género en la formulación de la política de
las TIC y en la presentación del programa. Los resultados de la reunión sirvieron
como puntos de partida para la sesión de la Comisión de la Condición de la Mujer
de 2003, así como para la primera fase de la CMSI celebrada en Ginebra en
diciembre de 2003.
Los géneros y la Cumbre Mundial sobre la Sociedad de la Información
(CMSI)
La CMSI es uno de los grandes eventos internacionales en que menos
participación tienen las militantes feministas. Una de las razones para ello podría
ser la escasez de fondos para asistir a las reuniones preparatorias. Sin embargo,
la razón más convincente es la falta de comprensión del proceso y la apreciación
de la relación entre los problemas y la lucha de las mujeres por alcanzar la
igualdad de géneros. No obstante, se han logrado éxitos considerables en lo
referente a la incorporación de los temas de género en los documentos oficiales
emanados de la fase de la Cumbre de Ginebra.
Dos grupos contribuyeron activamente a asegurar las perspectivas de género en
todas las discusiones en la primera fase de la CMSI. Estos fueron la ONG Grupo
de Trabajo de Estrategias de Género (GSWG) y el Comité de Género (GC) de la
CMSI. El GSWG se formó en la primera Reunión del Comité Preparatorio de la
CMSI en Ginebra, en julio de 2002, como uno de los subcomités del Grupo de
Coordinación de la Sociedad Civil (CSCG). Los grupos involucrados en este
esfuerzo fueron: la Red de Mujeres Africanas para el Desarrollo y las
Comunicaciones (FEMNET), la Agencia Latinoamericana de Información,
Asociación para el Progreso de las Comunicaciones - Programa de Apoyo a la
Red de la Mujer, Centro Internacional de Tribuna de las Mujeres, e Isis
International-Manila. La ONG Grupo de Trabajo de Estrategias de Género moderó
la discusión NGOwomen@genderit.org, una lista de correo electrónico dirigida a
trazar estrategias y organizar la participación de las mujeres en el proceso de la
CMSI. NGOwomen@genderit.org tenía como objetivo crear iniciativas sobre la
igualdad de sexos y las TIC y fomentar el enriquecimiento de las discusiones en
beneficio de todas las mujeres.
Por otro lado, el CG es un grupo multi-participativo de mujeres y hombres de
gobiernos nacionales, de la sociedad civil y las organizaciones no
gubernamentales, del sector privado y del sistema de las Naciones Unidas. El
objetivo estratégico del Comité de Género de la CMSI es asegurar que la igualdad
de géneros y los derechos de las mujeres se integren a la CMSI y a sus procesos
resultantes. El Comité de Género de la CMSI fue creado durante la conferencia
regional preparatoria africana que tuvo lugar en Bamako, Mali, entre el 25 y el 30
de mayo de 2002 [6].
Estos grupos contribuyeron positivamente a la inclusión de un texto en la
Declaración de Principios y Plan de Acción de la CMSI que refleja los análisis y
las perspectivas de género. A continuación aparecen algunas de las
recomendaciones adoptadas en los documentos oficiales de la CMS [7]:
Habilitación para una participación plena. La alfabetización y la educación
primaria universal son factores esenciales para crear una Sociedad de la
Información plenamente integradora, teniendo en cuenta en particular las
necesidades especiales de las niñas y las mujeres (Declaración de principios,
Creación de Capacidades, párrafo 4).
Procurar eliminar los obstáculos de género que dificultan la educación y la
formación en materia de TIC, y promover la igualdad de oportunidades de
capacitación para las mujeres y niñas en los ámbitos relacionados con las TIC.
Se debe incluir a las niñas entre los programas de iniciación temprana en las
ciencias y la tecnología, para aumentar el número de mujeres en las carreras
relacionadas con las TIC. Promover el intercambio de prácticas óptimas en la
integración de los temas de género en la enseñanza de las TIC (Plan de Acción,
Desarrollo de Capacidades, párrafo 11g).
Se alienta a los gobiernos a que, en colaboración con las partes interesadas,
definan políticas de las TIC que propicien la actividad empresarial, la innovación
y la inversión, haciendo especial hincapié en la promoción de la participación de
la mujer (Plan de Acción, Ambiente propicio, párrafo 13l).
Alentar la definición de prácticas óptimas para los cibertrabajadores y los
ciberempleadores basadas, a escala nacional, en los principios de justicia e
igualdad de género y en el respeto de todas las normas internacionales
pertinentes (Plan de Acción, Ciberempleo, párrafo 19a).
Promover programas de iniciación temprana de las niñas jóvenes en la esfera
de la ciencia y la tecnología, para acrecentar el número de mujeres en carreras
relacionadas con las TIC. (Plan de Acción, Ciberempleo, párrafo 19d).
En la segunda fase de la CMSI, que tendrá lugar en Túnez en noviembre de 2005,
los grupos de mujeres esperan poder fortalecer los principios de igualdad de
sexos formulados en la Declaración de Principios de la Cumbre. Las militantes
femeninas consideran que los principios de género incluidos en el documento final
(a saber, “Afirmamos que el desarrollo de las TIC brinda ingentes oportunidades a
las mujeres, las cuales deben ser parte integrante y participantes clave de la
Sociedad de la Información. Nos comprometemos a garantizar que la Sociedad
de la Información fomente la potenciación de las mujeres y su plena participación,
en pie de igualdad, en todas las esferas de la sociedad y en todos los procesos
de adopción de decisiones. A dicho efecto, debemos integrar una perspectiva de
igualdad de género y utilizar las TIC como un instrumento para conseguir este
objetivo.”) son más débiles que los del texto contenido en los anteproyectos de la
declaración [8]. Además, desean asegurar que los problemas e inquietudes de las
mujeres se integren a las discusiones sobre la gobernanza y los mecanismos de
financiamiento de Internet, los dos temas principales que serán abordados en la
segunda fase de la Cumbre en Túnez.
Existen varios problemas a los que se enfrentan las militantes feministas en la
elaboración de políticas de género y las TIC y en la implementación del programa.
A continuación presentamos algunos de esos problemas.
Acceso
El tema del acceso es fundamental en el discurso de género y las TIC. El acceso
está indisolublemente relacionado con la disponibilidad de la infraestructura
necesaria, y en casi todos los países en desarrollo las infraestructuras de
comunicación son menos estables y están menos disponibles en las áreas rurales
y urbanas pobres, donde vive la mayoría de las mujeres. Como señalaron la
UNIFEM y la UNU/TECH: “A las mujeres, que tienen responsabilidades
especiales con los niños y los ancianos, les resulta más difícil que a los hombres
migrar a los pueblos y ciudades. Por consiguiente, el carácter urbano de la
posibilidad de conexión priva a las mujeres, más que a los hombres, del derecho
universal a la comunicación” [9].
El tema del acceso es considerado también como la manifestación más concreta
de la división de género dentro de la división digital. Esto se aprecia en el hecho
de que son menos las mujeres que utilizan las TIC en comparación con los
hombres. Por ejemplo, la mayoría de las mujeres del mundo no emplea Internet y,
por consiguiente, está excluida de la World Wide Web. La división digital dentro de
los países refleja ampliamente la división de género. La tendencia a la
diferenciación en el uso comenzó antes, como se aprecia en los Estados Unidos,
donde los chicos tienen cinco veces más probabilidades que las chicas de usar
las computadoras en casa y los padres gastan dos veces más en productos de las
TIC para sus hijos que para sus hijas [10].
También hay que vencer barreras socioculturales con respecto al acceso de las
mujeres a las TIC. Esto incluye el analfabetismo, el desconocimiento del inglés y
de otros idiomas dominantes en Internet, la ausencia o falta de adiestramiento en
computación, las responsabilidades domésticas y el hecho de que la información
ofrecida por las TIC no es tan valiosa para ellas. Además, las mujeres ganan
menos y tienen menos recursos disponibles que los hombres para gastar en las
comunicaciones. Adicionalmente, los cafés de Internet están situados en lugares
de difícil acceso para las mujeres o que culturalmente están considerados
inapropiados para ellas. Con frecuencia, los servicios de comunicación en los
países en desarrollo se encuentran en las oficinas o en espacios públicos que
operan en horario de oficina. Teniendo en cuenta las múltiples tareas basadas en
el género y las responsabilidades reproductivas asignadas a ellas, las mujeres
tienen poco tiempo extra y puede suceder que esos centros de acceso público no
estén abiertos en el momento en que las mujeres pueden visitarlos. Algunos
centros de comunicación están abiertos durante la noche, pero debido a las
limitaciones culturales o a la falta de seguridad general para salir de noche, las
mujeres optan por no visitarlos. Obviamente, es necesario crear algunos
establecimientos y otras condiciones que aseguren a las mujeres la igualdad de
género en el acceso y uso de las TIC.
Formación, adiestramiento, y desarrollo de capacidades
En todo el mundo, las mujeres están condicionadas culturalmente de forma tal
que son desalentadas a seguir la ciencia y las matemáticas. Históricamente, la
ciencia y la tecnología han sido consideradas campos masculinos, y si existía
algún papel para las mujeres, sería aquel en el que se convertían en mano de
obra gratis en experimentos aburridos que requerían gran paciencia, confiabilidad
y capacidad para emprender tareas tediosas durante largos períodos, en las que
ponían en práctica las cualidades “femeninas” de perseverancia y paciencia.
El hecho de que las mujeres y las jóvenes tengan menos acceso a la educación
es un factor principal que contribuye a que no se beneficien igual de las
oportunidades que ofrecen las nuevas TIC. Por ejemplo, de los 300 millones de
niños sin acceso a la educación, dos tercios son niñas. De manera similar, las
mujeres constituyen dos tercios de los 880 millones de adultos analfabetos que
existen en el mundo [11]. Sophia Huyer, Directora ejecutiva del Comité Asesor de
Género de la Comisión de las Naciones Unidas sobre Ciencia y Tecnología para
el Desarrollo (UNCSTD), describe el desgaste sostenido de las jóvenes y mujeres
a lo largo del sistema formal de ciencia y tecnología (CyT), desde la educación
primaria hasta la toma de decisiones de CyT como un “conducto agujereado”
[12]). Nancy Hafkin, Directora de la Knowledge Working Consulting Firm y ex-jefa
de la Sección de Información para el Desarrollo, UNECA, plantea que los agujeros
se encuentran en todas las fases del proceso como resultado de un conjunto de
barreras para las jóvenes y mujeres, y pueden dividirse en cuatro categorías:
Barreras culturales y actitudinales, como las percepciones sobre el papel y el
estatus de las mujeres.
Barreras contextuales, que incluyen la falta de compromiso familiar, la falta de
apoyo de la pareja y el hecho de vivir en áreas rurales o aisladas.
Barreras de calificación; a menudo la falta de formación formal en matemática y
ciencias o la falta de experiencia en las técnicas de programación de
computadoras se perciben como una barrera, tanto por los departamentos de
admisiones como por los estudiantes y maestros.
Barreras institucionales que bloquean el acceso de las mujeres al estudio de la
ciencia y la tecnología. Entre esas barreras se encuentran la carencia de
maestras y las presunciones de los maestros sobre las capacidades de las
estudiantes; la falta de flexibilidad en las admisiones; los requisitos de selección
y entrada, que no tienen en cuenta las diferencias en cuanto a los antecedentes
educacionales, los enfoques y las habilidades de las mujeres; y los rígidos
requisitos de asistencia a las prácticas y al trabajo de laboratorio, cuyo
cumplimiento resulta más difícil para las mujeres debido a sus responsabilidades
familiares y domésticas [13].
Willie Pearson Jr., Director de la Escuela de Historia, Tecnología y Sociedad en el
Georgia Institute of Technology’s Ivan Allen College, valida las observaciones de
Huyer y Hafkin: “Es obvio por qué las mujeres no pueden asistir a nuestras
facultades. Esperamos que ellas trabajen el doble que los hombres, que formen
parte de los comités y se ocupen de la crianza y otros cientos de cosas mientras
realizan su investigación, tutoran a los estudiantes graduados y tienen su vida
personal,” señaló Pearson durante la reunión nacional de la Sociedad
Norteamericana de Química, celebrada en Chicago, en agosto de 2001.
Empleo
El panorama de empleo en la industria de las TIC está dominado por el sexo
masculino. Por lo general, las mujeres trabajan en niveles más bajos y están
relegadas a la introducción de datos, al procesamiento de textos y al trabajo de
transcripción. Ello refleja patrones de formación y adiestramiento en las TIC, en
los que las mujeres jóvenes tienden a ser la gran mayoría de la matrícula en
cursos de computación para trabajar en una oficina, pero solo un pequeño grupo
de ellas estudia programación o ingeniería en computación.
Business Process Outsourcing (BPO), el segmento de servicios de trabajo en las
TIC, es actualmente el único gran empleador de mujeres en el área de la
tecnología. Se refiere a la subcontratación de procesos y funciones comerciales
en las áreas de administración, finanzas, recursos humanos, logísticas de
distribución, servicios industriales, ventas, marketing y protección al cliente en
lugares que pueden ofrecer estos servicios a un costo más bajo a través de
enlaces de transmisión de datos a alta velocidad que garantizan la entrega
oportuna de los datos y servicios [14]. Existen diferentes tipos de trabajo en las
BPO que incluyen los centros de llamada de asistencia al cliente, los proveedores
de ayuda por correo electrónico, los transcriptores médicos y los procesadores de
las demandas de seguros. Cada vez son mayores los debates sobre las
implicaciones del empleo en las empresas de BPO - en particular sus
implicaciones en las vidas y trabajos de las mujeres. La principal pregunta que ha
surgido es: ¿Constituye el empleo en las BPO una participación sensible al
género de las mujeres en la sociedad de la información? Por una parte, los
críticos plantean que el trabajo en las BPO, particularmente en los centros de
llamadas, está centrado en aspectos culturales de autolimitación, donde la
prioridad número uno es adquirir un acento americano o británico, un lenguaje y
una cultura populares, así como adoptar nombres americanos o británicos (no se
puede ser Lakhsmi o Deepa y, por consiguiente, hay que adoptar nombres como
Anne o Debbie).
Kalyani Menon-Sen, de Jagori, un centro de recursos, comunicación y
documentación de mujeres feministas, en la India se refiere a esta tendencia de
empleo como una “simplificación de una generación” porque es “abrumadora y
una pérdida de habilidades - aquí no se aplican el conocimiento y las habilidades
adquiridas en la escuela y en la universidad. El propio trabajo es aburrido y
estresante, y se pretende que las jóvenes mantengan la compostura y la
paciencia incluso ante los insultos verbales de clientes encolerizados [15].” La
razón principal para establecer las empresas de BPO en la India, Filipinas y Brasil
es disminuir el costo de las operaciones multinacionales. Existen informes que
indican que los salarios que reciben las mujeres en las empresas de BPO en los
países en desarrollo son hasta un 80% más bajos que los que reciben en los
países desarrollados [16]. De hecho, un buen incentivo para que las compañías
multinacionales mantengan, e incluso aumenten sus márgenes de ganancia.
Otra forma de BPO es la que se conoce generalmente como trabajo tecnológico
desde la casa. Las mujeres que trabajan en esas áreas están en peor situación
que las que trabajan en los centros de llamada, porque reciben salarios más bajos
en relación con las que trabajan en el sector organizado y están sujetas a
contratos de trabajo inseguros - si es que existe algún contrato. Estas mujeres,
llamadas asistentes virtuales, son un número considerable - de nuevo en la India
y Filipinas, debido a su conocimiento del idioma inglés y a que poseen habilidades
de computación relativamente más avanzadas. Realizan transcripciones médicas
y legales y llevan la contabilidad diaria de pequeñas empresas ubicadas en los
países del Norte. Aunque aparentemente se benefician de la flexibilidad de poder
trabajar en casa en un horario menos limitado, las múltiples cargas sobre las
mujeres se hacen más definidas debido a que realizan su trabajo además de
todos los quehaceres domésticos normales que se espera de ellas. Las mujeres
que trabajan en esta industria basada en la tecnología también tienen que hacer
grandes inversiones para obtener el empleo. Compran sus propias computadoras,
pagan la electricidad y la conexión a Internet.
Por lo general, las mujeres todavía no figuran en los puestos de gerente y de
toma de decisiones en la industria de las TI. La mayoría de ellas tampoco es
considerada como profesionales de las TI debido a que el empleo en la BPO no
es un empleo profesional en las tecnologías de la información. El desarrollo de
hardware y el de software son los únicos considerados como trabajos
profesionales, aunque, sin dudas, son áreas dominadas por hombres.
Indiscutiblemente, el trabajo en las empresas de BPO perpetúa la desvalorización
de la mano de obra femenina. Además, se están reproduciendo patrones de
segregación de la mujer en los que los hombres ocupan la mayoría de los
empleos de mayor calificación, y de alto valor añadido, mientras las mujeres se
concentran en empleos de menor calificación y menor valor añadido.
Por otro lado, algunos estudiosos de los temas de género y las TIC, como Swasti
Mitter, consideran que la subcontratación en el extranjero de trabajos de
procesamiento de la información ofrece mayor oportunidad para la habilitación
económica de las mujeres, que indica un “beneficio sin precedentes” que se
ofrece a las mujeres que trabajan en estas áreas en la India, Malasia y las
Filipinas, con salarios que generalmente oscilan en alrededor de los $5000
anuales - casi una fortuna para las mujeres de los países pobres donde el ingreso
per cápita está por debajo de los $500 anuales. Según Mitter, “este es uno de los
casos donde es posible afirmar sin temor a equivocarnos que la globalización ha
traído ganancias para algunos países en desarrollo y para las mujeres que viven
en ellos” [17]. Consciente del síndrome de la apatía, con el que las mujeres salen
del estrés, la ansiedad y la fatiga mental del trabajo de BPO, Mitter sostiene que
en dichos empleos los beneficios para las mujeres son superiores a los costos.
Ella cita a la BPO como una dimensión positiva de la globalización para la que...
los gobiernos nacionales deben crear un ambiente político para captar una parte
mayor del mercado global en el procesamiento de la información y asegurar su
sostenimiento y reproducción.
Es importante ser consciente de la desventaja de este tipo de empleo y educar al
sector laboral y al público para poder exigir mejores condiciones de trabajo para
las mujeres en la industria de las TI.
Contenido
El campo del diseño y el desarrollo del contenido en línea y de los nuevos medios
de comunicación está dominado principalmente por los hombres y por el Norte.
Esto define la calidad de la información disponible en Internet y en otros medios
basados en la tecnología, como los juegos de video. Por tanto, no resulta
sorprendente que las imágenes de mujeres predominantes en Internet y en las
producciones de los nuevos medios de comunicación sean estereotipadas,
altamente sexualizadas y a menudo sexistas, y reflejen la cultura popular y los
estilos de vida de los creadores del contenido. Las voces femeninas, portadoras
de las experiencias, conocimientos, inquietudes y preocupaciones de las mujeres
no están reflejadas suficientemente. Además, la mayoría de las mujeres del
mundo no hablan los idiomas dominantes de Internet - es decir, inglés, francés,
alemán, japonés, y chino. Hay que señalar también que no solo el contenido en
línea se produce en estos idiomas - incluso el lenguaje de programación se basa
fundamentalmente en el inglés. La falta de conocimiento es un factor importante
que limita los beneficios que las mujeres pueden obtener de las TIC - si no es que
las excluye totalmente.
Las productoras individuales femeninas y las organizaciones de mujeres en el
mundo han enfrentado este desafío con mucha creatividad e iniciativa. La radio
Feminist International Radio Endeavor’s Internet salva el vacío existente entre la
comunicación para las personas sin instrucción y las nuevas TIC. La transmisión
en español, inglés, y en ocasiones en otros idiomas, como portugués y francés,
llega a una amplia audiencia sin necesidad de disponer de un estudio totalmente
equipado o incluso de una licencia para utilizar las ondas sonoras. La estación de
Internet fire’s combina la Internet con otros medios para crear un espacio
interactivo dirigido a aumentar al máximo la participación de las oyentes
femeninas a través de cartas, listas de correo electrónico, acuerdos de
retransmisión con las estaciones de radio comunitarias, y los sitios Web
conectados [18]. El Centro Internacional de Tribuna de las Mujeres produjo un
disco compacto o “libro de computadora” innovador e interactivo para mujeres
empresarias rurales africanas que tienen acceso a una computadora a través de
un telecentro, pero no poseen experiencia de cómo usarlas. El disco ofrece
consejos de cómo mejorar los rendimientos de las cosechas y el ganado, cómo
comercializar lo que se produce y cómo ayudar a las mujeres a pensar en los
nuevos productos que ellas pueden hacer y vender. Doblado en inglés y ugandés,
el contenido del disco compacto también está disponible en línea para uso directo,
gratis, para quienes tienen acceso a una conexión de Internet. Durante los
eventos internacionales, tales como la revisión de 10 años de la Plataforma de
Acción de Beijing, en Nueva York, en marzo de 2005, miembros de Asia-Pacific
Women’s Watch traducen sus informes in situ al ruso y al kirguiz y los distribuyen
a sus redes. A pesar de los limitados recursos, las militantes femeninas producen
continuamente contenidos diversos y relevantes y encuentran las vías para hacer
uso de las TIC de manera eficaz y significativa en las vidas de las mujeres.
Explotación y acoso sexual
No se puede hablar sobre las mujeres e Internet y el contenido de los nuevos
medios de comunicación sin hacer referencia a asuntos tales como la pornografía,
el acoso por correo electrónico, el “flaming” (abuso verbal en línea), y el ciberacecho. Se han informado numerosos casos de hombres que utilizan los sitios
Web para acosar a las mujeres y violar su privacidad.
Se estima que 10% de las ventas por Internet son de naturaleza sexual, en forma
de libros, video clips, fotografías, entrevistas en línea u otros artículos. Las
innovaciones técnicas facilitan la explotación sexual de mujeres y niños, porque
permiten a las personas comprar, vender e intercambiar fácilmente millones de
imágenes y videos de explotación sexual de mujeres y niños. Estas tecnologías
permiten a los depredadores sexuales ofender o explotar a mujeres y niños de
manera eficaz y anónima. Como resultado del enorme mercado de pornografía
existente en la Web y la competencia entre los sitios, las imágenes pornográficas
son cada vez más crudas, más violentas y más degradantes [19]. El barato
acceso a las tecnologías de comunicación internacional permite a los usuarios
llevar a cabo estas actividades desde la privacidad de sus casas [20]. La Internet
también se ha convertido en un instrumento para la prostitución y el tráfico de
mujeres. En 1995, aproximadamente 1.8 millones de mujeres y jóvenes fueron
víctimas del tráfico ilegal, y las cifras van en ascenso. La red es utilizada para
anunciar viajes de prostitución para hombres de los países industrializados. Luego
los hombres viajan a los países más pobres para conocer y comprar a jóvenes y
mujeres prostitutas [21]. Los comerciantes y traficantes sexuales utilizan anuncios
de trabajo en línea y sitios de servicio de contactos para anunciar y buscar
información sobre las jóvenes y mujeres que ejercen la prostitución en el mundo.
Los grupos de mujeres han planteado su demanda de seguridad y garantía en
línea en muchas instancias. Han pedido a los gobiernos que emprendan acciones,
pero a la vez son cuidadosas con la aplicación de medidas legislativas, porque
esto podría usarse como argumento para que el Estado intervenga y censure las
TIC.
El género en la política de las TIC
El cabildeo y la defensa alrededor de la elaboración de la política de las TIC es un
área en que los grupos femeninos de información y comunicación están
desempeñando un activo papel. Las mujeres lo consideran como algo imperativo,
porque si el análisis y las perspectivas de género no se reflejan en la política,
tampoco aparecerán en la implementación del programa.
Actualmente, las mujeres tienen muy poca participación e influencia en los
procesos de elaboración de políticas y de toma de decisiones sobre las TIC,
debido a que no están representadas en el sector privado y en los organismos
gubernamentales e intergubernamentales que controlan este campo. Una
investigación realizada en seis países (Australia, Japón, India, Malasia, Filipinas y
la República de Corea), encargada por la Comisión Económica y Social de la onu
para Asia y Pacífico en 2001, con el objetivo de analizar el marco político y el
ambiente legislativo regional de las TIC, demostró la falta de atención a los
objetivos de igualdad de sexos y al avance de las mujeres en las estructuras y
estrategias nacionales de desarrollo de las TIC. Las principales áreas de
resultado, comunes en las estructuras políticas de los países cubiertos en el
estudio, fueron: la existencia de una infraestructura de redes y
telecomunicaciones, la facilitación del comercio electrónico y de oportunidades de
trabajo, el desarrollo de los recursos humanos, así como la promoción de la
buena gobernanza y la participación de los ciudadanos. La mayoría de los marcos
políticos nacionales y los planes estratégicos de TI existentes, por lo general, no
abordan los temas de género o centrados en la mujer. La igualdad de sexos no es
un tema explícito en los planes nacionales de las TIC [22]. Sin embargo, deben
señalarse algunos hechos positivos. La República de Corea ha comenzado a dar
los primeros pasos para integrar la agenda de igualdad de sexos al marco de la
política nacional de TI. En el área de planificación y gestión de la política, el
gobierno australiano implementa métodos estadísticos y de recogida de datos que
tienen en cuenta los géneros con respecto a su política de las TIC y de comercio
electrónico.
Esencialmente, tanto los elaboradores de políticas de las TIC, como los
defensores de la igualdad de sexos, deben ser conscientes de la importancia del
género en la política de las TIC. Los que elaboran la política deben comprender
que las políticas serán más eficaces y sensibles a las necesidades de sus
electores si el tema del género se integra totalmente. Por otro lado, los defensores
del género deben aprender a no desatender las TIC, particularmente la política de
las TIC, como un área técnica que no concierne a las mujeres, sobre todo a las
mujeres comunes. Deben trabajar continuamente para incluir en la agenda de la
política y las estrategias de las TIC los asuntos que les interesan.
Es necesario continuar desarrollando y evolucionando un programa feminista en
términos de comunicación, del mismo modo en que hablamos de un programa
social de comunicación basada en el derecho a comunicar de mujeres y hombres.
Esta programa debe estar arraigado en la continua lucha del movimiento feminista
y los movimientos sociales más amplios de forma tal que refleje de manera exacta
las diversas realidades de las mujeres.
Accesibilidad
Catherine Roy
“La accesibilidad es... una noción escurridiza... Uno de esos términos que todo el
mundo utiliza hasta el momento en que uno se encuentra frente al problema de
definirlo y evaluarlo” [1]
Esta frase de Gould ha sido citada muchas veces porque resume muy bien la
complejidad de este concepto. La accesibilidad es una noción relativa y contextual
y la definición apropiada depende mucho del alcance y del contexto del
cuestionamiento. Según Scott, este concepto, hasta se diría esta percepción, es
algo que cada uno de nosotros vive, evalúa y juzga de manera diferente. [2]
Del acceso universal a la accesibilidad
de las personas discapacitadas:
una problemática continua
El término de accesibilidad, así como el de “acceso”, con el que se confunde a
menudo, sea hoy una de esas palabras - valija que son utilizadas
indiferentemente en diversos contextos y que sirven a menudo para disfrazar
ciertas realidades, en lugar de aclararlas. Así pues, hablar de acceso o
accesibilidad a la educación, la salud o la información como tienden a hacerlo
cada vez más las formulaciones “políticamente correctas” de los convenios
internacionales, es un modo de relegar los derechos fundamentales (a la
educación, salud, información, etc.) a un lugar secundario y de poner énfasis
solamente sobre su distribución y su práctica. Para las personas discapacitadas,
sin embargo, la accesibilidad siempre ha representado una cuestión importante.
Son testimonio de ello las luchas emprendidas por los representantes de ese
ámbito desde hace más de medio siglo. La era digital y el ritmo de los desarrollos
tecnológicos han aportado también su parte de desafíos en tanto que han abierto
nuevas oportunidades para esta población. Es importante reconocer la gran
contribución de esta comunidad al desarrollo de la noción de accesibilidad. Esa
perspectiva y la problemática de la inclusión plena e integral de las personas
discapacitadas en la sociedad de los saberes compartidos constituyen el hilo
conductor de este artículo.
La accesibilidad, una condición de acceso universal para todos
De entrada, para comprender bien lo que está en juego en la accesibilidad,
conviene definir lo que se entiende por “acceso universal”. En el campo de las
tecnologías de la información, el acceso universal se refiere a nociones de
interoperabilidad, de compatibilidad, de equipamiento, de infraestructuras...y de
accesibilidad. El acceso universal descansa pues sobre la posibilidad de alcanzar
ciertas condiciones. El World Wide Web Consortium (W3C) define la noción de
acceso universal como la posibilidad para todos los individuos de acceder a los
recursos en la Web, cualquiera sea su material o software, su infraestructura de
red, su lengua materna, su cultura, su localización geográfica, o sus aptitudes
físicas o mentales. [3]
Entre las diversas condiciones de acceso universal, la accesibilidad es
probablemente la que más se presta a confusión, ya que cada uno hace la
promoción según los intereses y las necesidades de su comunidad. Así, para
algunos ámbitos, la accesibilidad se refiere a la conectividad, para otros a los
medios económicos, a la infraestructura, a los medios cognitivos y a la educación,
a la disponibilidad de las informaciones o hasta al grado “de posibilidad de
utilización” de los recursos para una persona que tiene una deficiencia.
Si bien en el origen la accesibilidad se refería tradicionalmente a la facilidad con la
cual se accede o se interactúa con el entorno físico, el advenimiento de la
sociedad de la información vio evolucionar el concepto de accesibilidad a fin de
tener en cuenta las nuevas realidades. Según Kwan, la naturaleza del acceso a
las oportunidades es radicalmente diferente del mundo físico, porque en el
ciberespacio la interacción entre los individuos depende más bien de la
disponibilidad de los recursos de comunicación que del tiempo y de los costos
necesarios para superar la separación física. [4] En el centro de los numerosos
cambios en curso, se encuentra la disociación creciente entre el lugar y la función.
Las actividades están basadas más bien sobre la persona que sobre la
localización: la accesibilidad en el ciberespacio es una cuestión no territorializada.
Además, la noción “de accesibilidad a la información” propuesta por Dodge
descansa sobre el acceso a los recursos pertinentes y esto, en el momento
oportuno. Esta preocupación viene de la idea de que Internet puede dar acceso a
una vasta colección de recursos de información pero, en razón justamente de este
exceso de información, no da necesariamente acceso a informaciones útiles,
corrientes, confiables y abordables en el momento oportuno. [5]
Algunos llevan el debate más lejos, afirmando que hay que agregar a la definición
de este concepto las dimensiones de información, sociales y culturales. En efecto,
el abordaje tradicional de la accesibilidad no reconoce que los individuos forman
parte de redes sociales a través de las cuales la información es intercambiada y
que estas redes dan forma a normas y valores que, en sí mismos, condicionan en
gran medida, la accesibilidad. [6]
Recientemente ha sido posible observar el impacto de ciertas tecnologías
emergentes sobre la accesibilidad, tales como la Wi-Fi o la Web semántica. En
efecto, la Wi-Fi da actualmente la posibilidad de conectarse en esta vasta red que
es la Web gracias a la tecnología sin hilos y es considerada como una importante
solución para responder a las necesidades de conectividad de algunos medios
que no tienen las infraestructuras necesarias (tales como las zonas rurales o los
países en desarrollo o en transición). En lo que respecta a la Web semántica,
aunque esta tecnología aún no se encuentre suficientemente desarrollada y
extendida como para medir todas sus consecuencias, ella apunta a mejorar la
accesibilidad a la información, permitiendo responder, entre otras cosas, a las
preocupaciones en materia de acceso a informaciones pertinentes y confiables.
La accesibilidad, una condición de acceso esencial para personas
discapacitadas
Las transformaciones provocadas por el desarrollo de las tecnologías de la
información y las comunicaciones (TIC) también han tenido repercusiones en la
comunidad de las personas discapacitadas.
Tradicionalmente, para una persona discapacitada, la accesibilidad significa que
un lugar está acondicionado a fin de que ella pueda penetrar y circular en él sin
obstáculos, que las instalaciones, los equipos y los medios de comunicación están
concebidos para permitir su uso, con o sin adaptación, por una persona que tiene
limitaciones motrices, sensoriales o cognitivas [7]. Esta accesibilidad esta basada
sobre el desarrollo y la adopción de normas y su eficacia depende igualmente del
momento de implementación (i.e. cuanto mas previamente la accesibilidad sea
tomada en consideración en la planificación - de la construcción de un edificio, de
un sitio web - mejor será).
Esta necesidad de adaptación se transpone igualmente a un contexto tecnológico.
Varias definiciones han sido propuestas en lo que concierne a la accesibilidad a
las tecnologías para las personas discapacitadas. Para la ONU, se trata de las
aplicaciones flexibles capaces de adaptarse a cada preferencia y necesidad del
utilizador [8]. Para el programa Web Accessibility Initiative (WAI) del W3C, se trata
de contenido accesible cuando puede ser utilizado por una persona que tiene una
discapacidad [9]. Según Thatcher et al., cuando se habla de la accesibilidad de
sitios Web, se habla de tener acceso y de poder utilizar el contenido Web
independientemente de la interface o el modo de conexión utilizado [10].
Esencialmente, en el campo de la deficiencia, la accesibilidad a las TIC significa
que esas tecnologías (sitios web, software, equipamientos informáticos, telefonía,
quioscos de información y ventanillas de servicios automatizados, etc.) son
utilizables por las personas discapacitadas, sin importar sus incapacidades o sus
medios para paliarlas [11].
Las tecnologías siempre han jugado un papel importante para favorecer el
desarrollo de la autonomía de las personas discapacitadas: ayuda a la
comunicación o a la movilidad, ayuda informática, domótica o, más recientemente,
innovaciones que permiten orientar sus desplazamientos con la tecnología GPS...
Un vasto campo de pericia a favor del acceso de las personas discapacitadas a
estas tecnologías se ha desplegado progresivamente alrededor de dos ejes: el
desarrollo de soluciones tecnológicas, por una parte, la información, la
sensibilización y el lobying político, por la otra. Las cuestiones que rodean la
accesibilidad de las tecnologías y de los contenidos para las personas
discapacitadas o de movilidad reducida son cada vez más tomadas en cuenta en
ciertas sociedades, habiendo varios países adoptado en los últimos quince años
leyes y adherido a normas a fin de que las personas discapacitadas puedan jugar
en plenitud su rol de ciberciudadanos. Después de que los Estados Unidos,
Australia y el Reino Unido adoptaran legislaciones, hace ya algunos años, Francia
acaba de adoptar una ley que contiene obligaciones en materia de accesibilidad a
los sitios web públicos. Otros países como el Japón, Canadá, Nueva Zelanda e
Italia también han hecho esfuerzos en ese sentido. Una lista de las leyes y
políticas vigentes en el mundo puede ser consultada en el sitio del W3C. [12]
No obstante, aun en los países más sensibles a estas cuestiones, quedan todavía
algunas barreras que pasar y, en materia de la sociedad de la información,
algunos aspectos esenciales no son generalmente tomados en cuenta de modo
suficiente. En efecto, el alcance de la accesibilidad está limitado, en la mayoría de
los casos, a la infraestructura tecnológica, mientras que otras condiciones son
esenciales para garantizar el acceso a esta sociedad emergente.
Así, las personas discapacitadas se encuentran entre las más pobres, las menos
instruidas y las más marginalizadas de todas las sociedades. Ellas constituyen
más de 600 millones de personas a escala planetaria, entre las cuales el 80% vive
en países en vías de desarrollo o en transición. Tienen pocas oportunidades de
participar en el desarrollo de sus comunidades y de ejercer una influencia sobre
su suerte. Mientras que su efectiva integración en la sociedad actual tarda en
concretarse, las discusiones sobre su integración en la sociedad en construcción
son de gran magnitud y no pueden limitarse solamente a consideraciones
tecnológicas.
Las tres condiciones del desarrollo de la accesibilidad
Como lo hemos visto anteriormente, la demanda de tomar en cuenta las
dimensiones sociales y culturales en el desarrollo del acceso universal no es
nueva. En este espíritu, los trabajos alrededor de la Cumbre Mundial de la
Sociedad de la Información (SMSI) trataron de considerar necesidades
particulares, tales como la educación (en una óptica de refuerzo de las
capacidades) y el acceso a recursos comunitarios [13]. La ONU ha hecho trabajos
interesantes en ese sentido por vía de su programa de acción mundial. Plantea la
noción “de accesibilidad al entorno”, que incluye la planificación y la introducción
de medidas con el fin de promover la integración así como la plena y efectiva
participación de todos sobre una base igualitaria. [14]
En el contexto que nos preocupa, debemos ver en consecuencia la accesibilidad
para las a la sociedad de la información. Esta accesibilidad debe concretarse por
medio de una acción inclusiva, participativa y normalizada:
Inclusiva en una óptica de tomar en cuenta necesidades de todos en la
concepción, implantación y evaluación de estrategias, políticas, programas y
proyectos;
Participativa en una óptica de participación de todos en la toma de decisiones
que tienen un impacto sobre la vida de los individuos y de las comunidades;
Normalizada en una óptica de desarrollo y de adopción de conceptos,
procedimientos y estándares que tomen en cuenta las diferencias sociales,
económicas, culturales, lingüísticas, físicas y geográficas de todos.
Inteligencia cooperativa
Felix Stalder
El término “inteligencia de código abierto” tiene dos significados. En el contexto de
las operaciones tradicionales de inteligencia (servicios secretos gubernamentales
y privados) se refiere a la información que puede extraerse de fuentes públicas,
incluyendo los periódicos, los sitios Web y los libros. Esto contrasta con la
información recogida a través del espionaje, la vigilancia o los informantes, que no
está disponible fuera de la organización de inteligencia. Un código abierto, en este
contexto, es cualquier recurso de información al que puede acceder el público.
Recientemente, el término también se ha empleado para hacer referencia a una
práctica de creación colaborativa del conocimiento inspirada en el movimiento
Free and Open Source Software (software libre y de código abierto, FOSS). El
término fue utilizado por primera vez con este sentido en un artículo publicado en
el diario en línea First Monday, en el año 2002 [1]. Es esta segunda acepción que
utilizaremos en este artículo.
Definición y contexto
Durante las dos últimas décadas, el movimiento de software libre y de código
abierto ha establecido un proceso colaborativo de creación capaz de producir
información de alta calidad (por ejemplo, el sistema operativo Linux). No obstante,
este proceso está más vinculado a la creación del conocimiento científico que a la
producción de bienes comerciales. Descansa en algunos principios generales:
acceso sin restricción a la información creada por la comunidad; evaluación por
pares de las contribuciones realizadas por los miembros de la comunidad;
dirección basada en la autoridad y no en la sanción, y niveles flexibles de
participación y responsabilidad.
En la práctica, esto significa lo siguiente: todos tienen acceso a toda la
información creada como parte del proyecto colaborativo. Nadie puede eliminar
información del fondo común. Las licencias Copyleft, como la Licencia Pública
General GNU, proporcionan protecciones legales [2]. Los miembros de la
comunidad deciden, de manera colaborativa, cuáles contribuciones son lo
suficientemente válidas como para ser introducidas en el fondo común de
conocimientos y cuáles no serán aceptadas. Este proceso de evaluación por
pares es importante para asegurar un elevado nivel de calidad del recurso común.
Los proyectos de código abierto no son caóticos. La mayoría de ellos son dirigidos
por una o más personas que se han ganado la confianza de la comunidad durante
el ciclo de vida del proyecto. Por lo general, estas personas son los árbitros
supremos en caso de conflicto. Su dirección se basa en la autoridad que les ha
atribuido la comunidad y no en su habilidad de aplicar sanciones contra
cualquiera. Todo el proceso se basa en contribuciones voluntarias; por
consiguiente, la tarea más importante del líder del proyecto es mantener a la
comunidad feliz y motivada. Por último, los niveles flexibles de participación
permiten que prácticamente cualquiera pueda participar en un proyecto, ya sea
con pequeñas contribuciones, de una sola vez, o con una participación más
grande, a largo plazo, en dependencia del interés, las calificaciones y los
recursos.
Estos principios, aun cuando se emplearon por primera vez en el desarrollo de
software a través de Internet, en estos momentos se están aplicando en la
creación de otras formas de conocimiento, una práctica llamada “inteligencia de
código abierto” o “inteligencia cooperativa”.
Historia y práctica
La creación colaborativa del conocimiento en Internet es tan vieja como la propia
Internet. Durante mucho tiempo, la distribución libre de información ha sido un
aspecto central de la cultura de Internet (“la información quiere ser libre” era un
eslogan popular). Los ambientes colaborativos simples, como las listas de correo
electrónico, existen desde principios de los años 70, y los sistemas ligeramente
más avanzados tales como Usenet y los tableros electrónicos de anuncios (BBS),
desde principios de los 80. Sin embargo, con la comercialización de Internet en
los años noventa y el éxito del software libre y de código abierto, se reconoce que
la creación colaborativa del conocimiento es una práctica particular e innovadora
cuyo éxito exige un marco social, técnico y legal diferente. Desde el punto de vista
social, requiere que los participantes reconozcan los méritos de la colaboración y
tengan la voluntad no solo de compartir sus propios conocimientos, sino también
de aceptar que esas otras personas puedan transformar ese conocimiento de
maneras inesperadas. En lugar de una separación clara entre el autor y el público,
entre el experto y el novato, tenemos una situación en la cual todos tienen
derecho a leer y escribir. Desde el punto de vista técnico, las plataformas
especializadas apoyan este proceso para facilitar que las personas desarrollen las
contribuciones de otras personas y asegurar la transparencia de la forma en que
un recurso ha sido transformado. Desde el punto de vista legal, la concepción
tradicional de copyright, que concede al autor un control casi ilimitado sobre el uso
de sus obras, está siendo reemplazada por copyleft, que se basa en los derechos
casi ilimitados de distribuir y adaptar las obras.
Quizás, el ejemplo más prominente de proyecto de inteligencia cooperativa es la
enciclopedia libre en línea Wikipedia [3]. Técnicamente, se basa en una
plataforma Wiki, que permite que todo el que posea un navegador normal de
Internet pueda editar la página. El software conserva una historia de las
modificaciones de una página, lo que facilita ver cómo ha evolucionado el
contenido con el tiempo y, si fuera necesario, eliminar las modificaciones no
calificadas o el vandalismo. Fundada a principios del año 2001, ha aumentado a
más de 450 000 artículos para finales del año 2004; todos ellos escritos por
voluntarios, sin una edición o coordinación centralizada. Se publica con una
licencia de documentación libre GNU. Muchos de estos artículos pueden alcanzar
el nivel de calidad encontrado en las enciclopedias comerciales, aunque otros aún
están por debajo de la norma. Como demostrara un reciente estudio realizado por
la IBM [4], el proyecto - a pesar de su apertura - es sorprendentemente estable y
resistente al uso indebido. Hasta el momento, su historia justifica el optimismo de
que los artículos mejorarán con el tiempo, a medida que personas conocedoras
rellenen las lagunas que todavía existen y la edición colaborativa elimine los
errores aún presentes. En una ocasión, Eric S. Raymond, destacado analista del
movimiento de software libre y de código abierto, expresó la asunción subyacente
de la siguiente manera: “Con suficientes ojos, todos los errores saldrán a la
superficie.” [5] Con esto quiso decir que personas con diferentes habilidades y
dominios del conocimiento encontrarán diferentes errores, que les resulten fáciles
de señalar y corregir. Lo que para una persona resulta un problema difícil, podría
ser sencillo para otra. Si hay suficientes personas que examinen la página, todos
los errores serán encontrados y eliminados. Como ocurre con todos los proyectos
colaborativos, Wikipedia es un proyecto vivo, en constante cambio, y no un
producto fijo cuyas actualizaciones son puestas a disposición del público cada
cierto tiempo.
Otro ejemplo prominente incluye la red Indymedia de noticias alternativas dirigidas
a la comunidad [5], el sitio de edición colaborativa kuro5hin [6], y, en menor grado,
las bases de datos creadas por los usuarios, como la CDDB, que contiene
información sobre archivos de sonido [7].
Potencial
Parece que la inteligencia cooperativa funciona mejor para dominios en los que el
conocimiento es distribuido de manera amplia pero irregular. Existen decenas de
miles de personas que poseen algún conocimiento especializado para mejorar
Wikipedia, pero todas reconocen que dependen fundamentalmente de las demás
si desean que el recurso sea exhaustivo. Nadie podría escribirlo solo.
En las áreas en que no existe una autoridad establecida, sea porque el área es
demasiado dinámica, sea porque el conocimiento es demasiado específico de una
comunidad o un proyecto, a menudo no existe otra vía que la creación del
conocimiento de forma colaborativa. Los ejemplos de inteligencia cooperativa
pueden ayudar a organizar este proceso de manera eficiente.
Aspectos fundamentales
El problema central de la inteligencia cooperativa es cómo validar el conocimiento
producido. En el caso del software libre y de código abierto, esto es relativamente
simple, porque siempre se puede ejecutar el código y observar qué sucede. Si la
nueva versión es más rápida que la antigua o puede hacer cosas nuevas,
entonces ha sido mejorada. Si falla, entonces es necesario mejorarla. En el caso
de una enciclopedia (o un periódico) tradicional, cada artículo es revisado antes
de su publicación por un equipo de editores especializados, apoyado por un grupo
de verificadores de datos, archiveros, etcétera. Sabemos (o al menos suponemos)
que toda la información que vemos ha pasado por este proceso. Por tanto, los
especialistas validan por nosotros la información y confiamos en que el editor ha
empleado a las personas correctas.
Por otro lado, la mayoría de los proyectos de inteligencia cooperativa permite que
todos contribuyan y la información esté accesible de inmediato. En otros términos,
por lo general no sabemos si algo no es más que un primer borrador o la
sabiduría colectiva de una comunidad. Además, un proceso editorial abierto
puede orientar el contenido hacia una sabiduría convencional, o sea la opinión
aceptada por la mayoría que, en cualquier comunidad, puede estar equivocada en
ciertos aspectos [8]. Por consiguiente, un gran número de “ojos” podría aumentar,
en lugar de eliminar, un error. No existe un método sencillo, como ejecutar el
código, mediante el cual se pueda evaluar la calidad del trabajo colaborativo.
En la actualidad, existe un gran debate sobre cómo tratar estos proyectos.
Algunos proponen reintroducir una distinción entre los expertos y los novatos [9],
mientras otros, como la plataforma de discusión Slashdot [10], han desarrollado
un esquema moderador que clasifica las contribuciones y luego permite filtrarlas
sobre la base de esa clasificación. El problema no es sencillo, y no existe una
solución aplicable a todos los casos. Más bien, es probable que diferentes
contextos desarrollen soluciones diferentes, en dependencia de sus necesidades
y capacidades particulares.
Con el surgimiento de los blogs (weblogs, software que permite hacer
publicaciones personales en forma de diario) se han acuñado términos como
“periodismo de código abierto”, “periodismo ciudadano” o “periodismo punto a
punto” para describir procesos colaborativos similares en el área de la creación y
discusión de informes noticiosos. Su abogado más prominente es el periodista de
blogs Dan Gillmor, quien recientemente ha publicado un libro sobre este
fenómeno, llamado We the Media [11].
Expresión ciudadana
Michel Briand
La “expresión ciudadana” es, en primer lugar, una forma de tomar la palabra, una
expresión de carácter público relativa a la vida en sociedad. Se diferencia en esto
de la expresión personal, y en carácter de tal exige una mayor atención en la
organización de la libertad, en la extensión de los “derechos de la comunicación”.
Diarios, boletines, afiches, radios, discursos, teatro, poemas, música, televisión,
cine, videos: las formas de expresión y los medios son tan variados como los
medios de comunicación. Lo mismo es válido para los tipos de expresiones:
individual, asociativa, artística, partidaria, foro, petición, voto...que reflejan la
diversidad de las intervenciones en el seno de la sociedad.
La palabra “ciudadano” está formada a partir de civitas, que designa la ciudad,
formada a su vez sobre “civis” que significa ciudadano, que habita en la ciudad. El
término “ciudadano” integrado en la Marsellesa, himno nacional francés, y
empleado durante la Revolución de 1789, es probablemente más fuerte y está
más cargado de historia en Francia que en otros países donde es utilizado en un
contexto únicamente descriptivo y funcional.
La ciudadanía se expresa históricamente sobre un territorio, geográfico o
simbólico (“ciudadano del mundo”). Se desarrolla en sociedades abiertas donde
puede constituirse un espacio público. Herramienta esencial de la extensión de la
democracia, la expresión ciudadana es la expresión individual o colectiva que
habla de las relaciones con los demás, de la vida en la ciudad y en sociedad.
Expresión ciudadana y gobernabilidad
Para tener sentido en la sociedad, la expresión libre, no censurada, creadora de
mundos nuevos debe poder actuar sobre lo real. Así pues, la expresión se
confronta con un límite: el de la decisión y la acción.
Los pueblos que han aprendido a leer y escribir y obtenido poco a poco la
extensión de los derechos democráticos, reivindican hoy en día un derecho de
control sobre la manera en que son gobernados y una justificación de las
decisiones tomadas. En esta interacción con la decisión es donde la expresión
ciudadana se confronta con la “gobernabilidad”.
¿Cómo asegurar la continuidad entre “expresión ciudadana” y “decisión
ciudadana”?
Las fuentes de información necesarias a la formación de una opinión, condición
previa a la expresión ¿son accesibles?
¿Cómo asegurar a la expresión una calidad argumentativa que le dé fuerza y
libertad?
¿Cómo integra el político tomador de decisiones lo que entiende incorporar de la
expresión ciudadana? ¿La decisión elegida tomará en cuenta lo que ha sido
expresado?
Los usos de Internet para la expresión ciudadana ya tienen cierto éxito,
especialmente al ser capaces de relacionar las cuestiones locales con las
cuestiones globales: ordenamiento de la ciudad, presupuesto participativo,
exclusiones sociales, desigualdades Norte - Sur, posibilidad de patentar lo
viviente, Organismos Genéticamente Modificados, derechos y lugar de las
mujeres... tantas temáticas que han tomado su lugar en el seno de las sociedades
abiertas únicamente a través del debate y de la expresión ciudadana.
Una expresión que crea identidad
Al lado de una función democrática, por la confrontación de los argumentos, la
expresión pública, la expresión de un público, llena también una función
identitaria: la de afirmarse ante los demás. Para la expresión de públicos alejados,
la identidad es a menudo un resorte de esta expresión pública. Ella es el resultado
de una brecha entre la imagen proyectada por el grupo y la imagen que el grupo
tiene de sí mismo. Estigmatizado, un grupo busca apropiarse de este estigma e
invertirlo, o por lo menos hacer de él un recurso identitario que pueda ser
movilizado.
La expresión ciudadana nos remite aquí a un reconocimiento de las personas
(individual y colectivo). Las capacidades de Internet para proyectar esta
reivindicación de identidad también la convierten en una tecnología que construye
un vínculo social.
Jalón de una democracia participativa
Desde el punto de vista de los habitantes, este pedido de debate público
argumentado, de reconocimiento de las personas, pone los jalones de una
democracia participativa que prolonga la democracia representativa.
Prestar atención a la expresión es también reconocer la importancia de los puntos
de vista de los ciudadanos.
Según los modos de participación elegidos, las formas de expresión varían:
La información es una expresión descendente que no espera retorno.
La consulta solicita una opinión que será contabilizada (voto) o sintetizada
(encuesta de utilidad pública).
La concertación implica un diálogo que pueda influir sobre la decisión.
La co-construcción apela a la inteligencia colectiva, a la pericia de uso de los
ciudadanos para coproducir al lado de los expertos y de los electos depositarios
del poder.
Esta última forma, bastante rara actualmente, es ciertamente la más completa,
pero también la más exigente y compleja de la democracia participativa.
La expresión ciudadana contestataria también juega un rol de preservación del
conjunto del sistema democrático, osando plantear problemas a menudo
ignorados o descuidados por los dirigentes.
Acerca de la expresión ciudadana
La expresión ciudadana es sinónima de cierta libertad, adquirida o reivindicada.
Las sanciones y amenazas provocadas por palabras y escritos públicos
atestiguan el carácter no democrático de una sociedad, como aún se constata
comúnmente en numerosos países.
Las tribunas de personalidades, de responsables asociativos, de opositores
políticos a la mayoría o la expresión de organizaciones no gubernamentales, de
redes militantes, de movimientos sociales, forman parte de una expresión
ciudadana en la medida en que son expresiones de personas, actores
ciudadanos. Pero ellas solo constituyen una pequeña parte.
Tenemos que interrogarnos sobre la función simbólica de la expresión: ¿quién se
siente legitimado para hablar? ¿Sobre qué base se construye esta legitimidad?
Numerosas expresiones utilizan un “nosotros” indeterminado que se presta a
confusión.
No es suficiente que algunos “ciudadanos” que tienen acceso a los medios de
comunicación, a los lugares de debate, se autoproclamen expresión ciudadana
para que las condiciones de una expresión ciudadana de calidad estén reunidas.
Si bien la libertad de expresión es una condición de base de la expresión
ciudadana, está lejos de ser suficiente.
Raras son las personas que toman la palabra o la pluma. Al mirar alrededor, cada
uno y cada una constatará que la expresión pública no es fácil para la mayoría de
las personas. Colocar escritos en la plaza pública no es un acto anodino.
Presentar para ver y debatir ya es un acto político, constitutivo de un proyecto (de
vida o de sociedad) y constitutivo de trayectorias sociales.
De la palabra pública a la expresión ciudadana
Así pues, la expresión ciudadana no cae de su peso, ella implica también un
recorrido, un acompañamiento, una mirada crítica, un reconocimiento individual y
colectivo de las personas.
El camino es largo para que la expresión ciudadana sea un derecho efectivo
como el voto. Un camino que pasa primero por el aprendizaje, la formación de la
expresión y por una mutación cultural: la interiorización por la mayor cantidad de
personas de que esta expresión es, no solamente un derecho, sino también un
resorte de transformación social.
Raras son actualmente las políticas públicas que favorecen y acompañan esta
toma de la palabra.
Es por eso que la expresión ciudadana no es solamente tomar la palabra, una
expresión de carácter público relativa a la vida en sociedad, sino también el
producto de un acompañamiento, de un aprendizaje. Es el conjunto de un proceso
que permite el acceso a la toma de la palabra de los habitantes de un territorio en
lo que se refiere a la vida en sociedad, en una acción participativa.
Esta idea de proceso evoca una dinámica en construcción, una organización
colectiva, un reconocimiento de las identidades colectivas e individuales que
deben plasmarse por medio de la observación, la comprensión, el análisis y la
aproximación de situaciones. ¿En qué condiciones sociales, qué contexto político
se desarrolla la expresión ciudadana?¿Cuáles son sus relaciones con las
acciones participativas realizadas?
En el seno de sociedades de la información
Hoy en día la expresión ciudadana nos interpela como habitante de la ciudad y
ciudadano del mundo, explorando nuevas modalidades para el vivir en común.
Mientras las fronteras de lo local y de lo global se mezclan cada vez más
estrechamente, las mutaciones ligadas a la era de la información repercuten
sobre la expresión y la participación ciudadana.
Lo digital introduce varias rupturas:
La codificación de la información hace la información reproducible: lo que recibo
también está disponible para los demás, lo que escribo puede circular;
La convergencia digital agrega a la corriente de los progresos tecnológicos la
posibilidad de intercambios digitales de datos, textos, fotos, sonidos e imágenes
animadas;
Las formas de la expresión ciudadana se multiplican, permitiendo a cada uno
tomar la “palabra” en función de sus mejores aptitudes.
Las redes electrónicas conectan a las personas más allá de las fronteras por
múltiples objetos comunicantes ligados en red por las ondas, las redes por cable o
telefónicas. La censura local se torna imposible, la información toca a las
diásporas, la ciudadanía local se vive bajo la mirada del mundo.
Las turbulencias de lo digital
Hasta hace poco, la expresión de un individuo estaba limitada por el alcance de lo
oral o de lo escrito. El advenimiento de los medios masivos de comunicación ha
multiplicado las capacidades para recibir la información. Estamos lejos de
encontrar tal extensión para que un ciudadano ordinario pueda acceder a los
diarios, las radios o la televisión a fin de hacerse escuchar.
Las redes electrónicas y las nuevas culturas digitales abren a contrario
posibilidades inéditas para el habitante “conectado” de la ciudad de expresarse y
de interactuar con la esfera social, pública y política.
Si bien los laboratorios de informática o de telecomunicaciones están en el
corazón de la expansión incesante de las innovaciones tecnológicas, los
intercambios entre personas son un elemento esencial del desarrollo de los usos.
Las aplicaciones mayores de la era digital, tales como el correo electrónico, la
web, el chat, los foros, los blogs fueron inventados y plebiscitados en el seno de
las comunidades de usuarios.
La difusión de las herramientas digitales en la sociedad está acompañada por la
emergencia de nuevas prácticas de comunicación. Los millones de sitios de la
web se vuelven una fuente de información concurrente de los medios masivos de
comunicación. En un momento de debate político, un blog, obra de una sola
persona, puede erigirse al mismo nivel de lectura que un diario o una radio, con el
agregado de la interactividad. Sobre un territorio local, un webzine se afirma en
contrapunto a la expresión municipal [1]. Sitios colectivos similares a Indymedia,
la red de información contestataria más conocida, se sitúan como alternativa de
testimonio a los informes de manifestaciones o de eventos.
Esta emergencia, al lado de los medios difundidos “uno hacia todos” (diarios,
radios, televisión), de los medios distribuidos donde es la expresión de personas o
de colectivos la que predomina, interpela hoy en día a las formas de
gobernabilidad. La difusión rápida de las informaciones a través del mundo
permite la organización de movimientos de opinión en forma de redes inéditas. El
acceso a la información contradictoria abre el debate e impone argumentar a los
tomadores de decisión. La confrontación de las ideas acelera la elaboración
colectiva de propuestas que se plantean como alternativas.
Cuando el éxito de un medio distribuido viene de la calidad de sus contenidos y
de su animación, eso no puede más que interpelar a los tomadores de decisión
habituados a una difusión jerárquica en nombre de su función, hacia aquellas y
aquellos que les han dado un mandato directa o indirectamente. La participación
es una cultura emergente que tiene todavía poco lugar en sociedades
organizadas mayoritariamente alrededor de la representación y de los mandatos
acordados u otorgados.
Es también necesario interrogarse sobre los valores de uso de las mediaciones
por ordenadores. Las articulaciones entre “actuar localmente y pensar
globalmente”, pertinentes en el marco de los Nuevos Movimientos Sociales,
solamente funcionan para una franja limitada de la población.
En efecto, las expresiones orales, por escrito, por gestos no requieren las mismas
habilidades ni los mismos códigos. Conversar en un chat, enviar un correo
electrónico a una lista de difusión, participar en un foro, abrir un blog, escribir en
un sitio asociativo, tomar la palabra en un sitio público, fabricar una radio o un
video: no todo el mundo dispone de las mismas herramientas culturales,
intelectuales, cognitivas (sin hablar de las herramientas técnicas) para apropiarse
de las nuevas formas de expresión. Extender estas prácticas hacia todos los
ciudadanos y todas las ciudadanas se vuelve una tarea que debe concernir a
todos los actores de la expresión ciudadana.
La expresión ciudadana plantea interrogantes a los medios masivos de
comunicación tradicionales
El éxito de los medios distribuidos demuestra también una desconfianza con
respecto a los tomadores públicos de decisiones y a los medios masivos. La
difusión de las mismas imágenes en todos los canales de televisión, los textos
intercambiables de la prensa cotidiana alertan a los ciudadanos activos sobre la
concentración de los medios masivos. ¡Sin embargo, se constata que los más
grandes éxitos del P2P son los mismos que los del Top 50!
Los medios distribuidos, reflejo de nuestras prácticas sociales emergentes,
pueden también favorecer la repetición de un modelo “que funciona” en lugar de
inventar otra manera de decir.
A este movimiento emergente nos proponemos interrogar.
El aporte de las redes digitales: nuevos posibles y sus límites
Para que la expresión exista, le es necesario disponer de medios para difundirla.
Aquí es donde el aporte de las herramientas digitales elimina ciertas barreras de
acceso a los medios masivos de comunicación casi infranqueables en otras
épocas para un ciudadano o una ciudadana ordinarios.
Se vuelve posible, a partir de un ordenador conectado, publicar una revista de
información comunal, realizar un sitio especializado sobre un tema de sociedad en
debate, juntar rápidamente informaciones de los cuatro rincones de un país o del
planeta. El testimonio que proviene directamente de los actores se transforma en
un medio esencial de promover una relación de los acontecimientos que toma en
cuenta todos los puntos de vista y todas las situaciones. Esto se ha podido ver en
ocasión de las últimas catástrofes naturales que sacudieron al globo.
Pero entre los millones de blogs, muy pocos se refieren a la expresión ciudadana,
la inmensa mayoría apunta en primer lugar a la expresión personal o en el seno
de pequeños grupos. Y como en el caso de los diarios de barrio, las publicaciones
asociativas, las radios libres, debemos constatar que la escritura colectiva que
hace al debate, que reúne a la gente sobre un territorio o aporta sentido,
concierne actualmente a muy poca gente. Los sitios de publicación sobrepasan
muy raramente el centenar de redactores, la inmensa mayoría de los lectores no
franquea espontáneamente el umbral hacia la redacción o la escritura de
comentarios.
Conservar una perspectiva abierta
La expresión ciudadana es una actividad en devenir, un proyecto. Lo que hoy
importa, es a la vez apoyarse sobre las experiencias que van hacia delante y
también permitir una transferencia del know - how que allí se desarrolla hacia las
poblaciones que se expresan menos. Porque las herramientas de escritura en
colaboración o los software libres nos muestran que las ganas de participar en el
bien común puede reunir a millares de personas alrededor de un proyecto
cooperativo.
Los medios distribuidos hacen posible la puesta en movimiento de vastas
comunidades que se implican para coproducir contenidos habitualmente
difundidos por las estructuras públicas. Ya se trate de herramientas de oficina
para comunicar (Open Office, Firefox), enciclopedias (Wikipedia), mapas, atlas
(Open Geodata), revistas científicas (Llamado de Budapest), conocimientos
accesibles (los sitios de formación y de autoformación en Internet), contenidos
pedagógicos (Open Courseware), las iniciativas que provienen directamente de
los individuos y de los grupos se multiplican fuera de las instituciones que tienen,
sin embargo, esa misión. Todas estas acciones que nutren un patrimonio común
del saber, no se viven forzosamente como políticas (entre los contribuidores de
wikipedia, son numerosos los que lo hacen como juego, por pasión), constituyen
igualmente una forma de expresión ciudadana.
Del mismo modo, los artistas que utilizan los multimedia participan en ese
movimiento. La representación digital por el texto, la imagen o el sonido, el
recurso a la simulación, a la 3D, al sampling, a la mezcla, la multiplicación de las
obras colectivas, abiertas a las interacciones, multiplican los campos de
investigación de los artistas. También ciertos colectivos artísticos ocupan ese
campo de expresión dándole una dimensión política.
Ante esta profusión de experiencias, de voluntades, ante las dificultades
encontradas para ampliar el número de participantes, queda por hacer todo un
trabajo para interrogar a las múltiples formas de la expresión ciudadana y las
condiciones de su expansión.
Preguntas abiertas
Las tecnologías de la información y de la comunicación multiplican las tomas de
palabra posibles para aquellas y aquellos que poseen sus claves de acceso y de
uso. Para calificar la expresión ciudadana, es necesario preguntar:
¿Quién toma la palabra? (cantidad, lugar en la sociedad) ¿En nombre de quién?
¿Por qué? (¿en qué se sienten legitimados para hacerlo?)
¿Cómo? (¿por qué medios de comunicación, palabra individual o colectiva?)
¿Cuál es el dispositivo que permite esta toma de palabra? (técnico, cognitivo)
¿Qué acompañamiento lo hace posible? (iniciación, mediación, formación)
¿Se toma en cuenta esta expresión en la gobernabilidad? (qué enlaces, qué
incorporación a los procesos democráticos clásicos)
¿Se toma en cuenta a las personas naturalmente alejadas de la toma de la
palabra en consideración a la equidad?
¿Qué diferencia entre “expresión ciudadana” y “opinión pública”? ¿Es una de
ellas fruto de la otra?
Mientras que los debates tradicionales sobre la “libertad de expresión” y el
“derecho a la información” se refieren a la organización social de herramientas de
difusión de la información (libertad de la prensa), sobre su pluralismo (control
económico o político de los medios) y sobre la información independiente, la
irrupción de Internet viene a alterar este paisaje.
Gracias los medios distribuidos de Internet, la expresión ciudadana cuestiona las
formas de organización de la democracia, extendiéndola hacia una mayor
participación.
¿Cómo puede cada habitante utilizar esta red para comunicar públicamente?
No solamente intercambiar entre pares, entre amigos o en el seno de redes
asociativas, sino ¿cómo la escritura multimedia sobre la escena pública de
Internet viene a alterar las relaciones que los ciudadanos mantienen con la
información y con aquellos que los gobiernan?
¿Cómo hacer entender las necesidades de las poblaciones y hacer emerger las
soluciones que reposan en la inteligencia colectiva? Las herramientas están
disponibles (e-mail, sitios web, blogs, enciclopedias cooperativas, ficheros
compartidos) pero un nuevo saber hacer, un “saber decir” debe ser inventado y
transmitido a todos, especialmente a los sectores marginales.
La innovación por el uso
Dominique Cardon
El usuario de las nuevas tecnologías de información y de comunicación (TIC)
presenta características que lo diferencian de las figuras del lector, del oyente o
del telespectador, asociadas a los diferentes medios masivos de comunicación.
La posibilidad de comunicar, de producir y de intercambiar con las TIC invita a
definir a aquellos que las utilizan subrayando la dimensión activa, simétrica y
participativa de su implicación con las tecnologías. Así pues, la figura de usuario
pareció particularmente bien adaptada al universo de las nuevas tecnologías en el
sentido de que permite disociarse de la caracterización mercantil del consumidor
o de la representación pasiva del receptor de los medios masivos. Al hablar de
usuario antes que de utilizador, es también posible insistir sobre el hecho de que
la relación de las personas con las herramientas técnicas no puede ser reducida a
la aplicación de las funciones previstas por los que las concibieron, sino que la
apropiación de las tecnologías es una actividad social, cultural, económica y
política de pleno derecho. El uso de las tecnologías, en efecto, se inscribe
profundamente en la vida social de las personas y es reductor considerar el
impacto de las TIC como un simple asunto de costo, de funcionalidad o de
simplicidad de las interfaces. Es la razón por la cual la cuestión de la apropiación
por el uso juega un papel importante en el análisis de las transformaciones que
las nuevas herramientas de comunicación aportan a nuestras sociedades.
En este artículo, proponemos volver sobre la génesis de la noción de usuario e
insistir sobre una característica esencial del uso de las nuevas tecnologías: la
innovación nace tanto en las prácticas de los usuarios como en los laboratorios de
los centros de investigación pública o industrial. En efecto, ciertas rupturas más
significativas en los comportamientos de comunicación (el software libre, las
herramientas cooperativas de publicación, el wifi, el P2P, los blogs, etc.) no fueron
iniciadas “desde arriba”, por un plan de desarrollo industrial que acompañara la
puesta a disposición de una nueva tecnología salida de los laboratorios de
investigación, sino que han tomado forma “desde abajo”, en términos de un
proceso cooperativo que reúne de manera voluntaria a redes de usuarios. Se
definirá a las innovaciones por el uso (también llamadas “innovaciones
ascendentes” [bottom-up innovations] o “innovaciones horizontales”) como
innovaciones tecnológicas o de servicios que nacen de las prácticas de los
usuarios y se difunden a través de las redes de intercambios entre usuarios. Estas
innovaciones por el uso, que se desarrollan independientemente de los ciclos
“verticales” de la innovación, se volvieron una característica esencial, aunque no
exclusiva, del desarrollo de la sociedad de la información.
Usos y usuarios de los medios y de las TIC
La noción de “uso” apareció en la sociología de los medios con la corriente
funcionalista de los “Uses and gratifications” en los trabajos americanos de los
años 60 y 70 [1]. Los promotores de este abordaje buscaban tomar distancia con
el paradigma entonces predominante que analizaba exclusivamente la acción de
los medios masivos de comunicación en términos de efecto. Que la conclusión
sea la existencia de “efectos fuertes” como la escuela de Frankfurt (Adorno,
Horkheimer) o de “efectos limitados” (Lazarsfeld), las primeras tradiciones de
estudios de las herramientas de la comunicación planteaban la misma pregunta:
¿Qué hacen los medios a la gente que está expuesta a ellos? La corriente de los
“Uses and gratifications” buscó apartarse de este mediacentrismo transformando
el sentido de la pregunta planteada por los fundadores de los estudios de
comunicación. Ya no preguntan cómo los medios influyen sobre las personas, sino
¿qué hace la gente con los medios? Este cambio de paradigma va a abrir el
espacio de investigación a otra concepción de la relación de los usuarios con las
herramientas de comunicación. En una perspectiva funcionalista, los
investigadores de la corriente de los “Uses and gratifications” consideran en
consecuencia que los utilizadores no reciben mensajes pasivamente, sino que
utilizan activamente los medios para retirar de ellos satisfacciones específicas que
responden a necesidades sicológicas. Aunque esta escuela ha sido criticada
porque reducía a menudo la atracción por las tecnologías a mecanismos de
compensación sicológica, estos primeros trabajos abrieron el camino para un
análisis del uso que se emancipa de un determinismo unilateral de la técnica
sobre la sociedad.
En Francia, la obra colectiva de Michel de Certeau, L’invention du quotidien (1980)
[2], jugó un papel fundador en materia de estudio de los usos. Historiador y
sicoanalista, Michel de Certeau reconoce de buenas a primeras la capacidad de
los individuos para la autonomía y la libertad. Su abordaje consiste en detectar los
mecanismos por los cuales los individuos se vuelven sujetos que manifiestan
formas de autonomía en un conjunto muy amplio de prácticas de la vida cotidiana,
el consumo, la lectura o la vivienda. Con sus descripciones finas de las “artes de
usar” y de las “maneras de hacer” de los usuarios, Michel de Certeau muestra
cómo las prácticas de los usuarios marcan una separación, una diferencia con el
programa que la tecnocracia y las industrias culturales buscan imponerles. Las
personas ordinarias, afirma, muestran capacidades creativas que los industriales
no sospechan: mediante astucias, bricolaje o rodeos - que Michel de Certeau
reunirá bajo el término de “caza furtiva” - pueden inventar una manera propia de
caminar en los universos construidos por las industrias de la cultura o las
tecnologías de comunicación. Accionando un juego sutil de tácticas (que les
aseguran el control por el tiempo) que se oponen a las estrategias de las grandes
tecnocracias (que tienen el control sobre el espacio), los usuarios manifiestan una
forma de resistencia moral y política.
Los trabajos de Michel de Certeau han influenciado fuertemente los estudios de
usos en Francia o en la corriente británica de los cultural studies. Ellos permitieron
ampliar la visión más allá de la relación individual de las personas con las
interfaces tecnológicas. Introdujeron el tiempo y las dinámicas de aprendizaje
como un factor clave de la apropiación y de la estabilización de los usos en
hábitos o rutinas. Permitieron finalmente insistir sobre el carácter
fundamentalmente imprevisible de los usuarios que no cesan de transformar y de
desviar los servicios y las tecnologías que les son ofrecidos, como lo atestigua el
éxito de los SMS que los industriales no habían previsto.
En cuanto a la noción de apropiación, se remonta a las preocupaciones de los
investigadores que formaron el núcleo constitutivo de los primeros estudios de
uso de las TIC. Próximos a la corriente de inspiración marxista de la autonomía
social, los promotores francocanadienses y franceses de la noción de apropiación
en los años 70 y 80, deseaban desarrollar una sociopolítica de los usos que
llamara la atención sobre la dimensión conflictiva de la apropiación de las
tecnologías en el seno de las relaciones de producción y de reproducción de la
economía capitalista. La noción de apropiación permite describir el proceso de
interiorización progresiva de competencias técnicas y cognitivas obrantes entre
los individuos y los grupos que manejan cotidianamente estas tecnologías. Serge
Proulx considera que se requieren cuatro condiciones para la apropiación social
de una tecnología:
“a) El dominio técnico y cognitivo del artefacto;
“b) la integración significativa del objeto técnico en la práctica cotidiana del
usuario;
“c) el uso repetido de esta tecnología que abre hacia posibilidades de creación
(acciones que generan novedad en la práctica social);
“d) finalmente, a un nivel propiamente más colectivo, la apropiación social supone
que los usuarios estén adecuadamente representados en el establecimiento de
políticas públicas y al mismo tiempo sean tenidos en cuenta en los procesos de
innovación (producción industrial y distribución comercial”) [3].
Como lo atestigua esta reconstitución sucinta de la historia de la noción de uso en
el campo de las TIC, lo que está en juego es un vuelco de la perspectiva que
apunta a devolver a las personas un poder de actuar, adaptar y crear, frente a las
tecnologías que pretenden prescribirles maneras de hacer y de actuar.
El uso creador
La historia de las recientes tecnologías exitosas muestra que los usuarios son
también frecuentemente actores esenciales de la innovación. Es, en efecto, cada
vez más difícil aislar un proceso de innovación que solo tendría lugar en los
centros de investigación, de las dinámicas sociales que asocian muy
estrechamente a usuarios, tecnologías, innovadores y militantes que forman un
ambiente propicio para la innovación en el campo de las TIC. De hecho,
estudiantes ingeniosos y apasionados de la música dieron origen a la concepción
de los sistemas P2P que permitieron el uso masivo y popular de Internet de alta
velocidad. Militantes asociativos americanos fueron a buscar una frecuencia no
utilizada de la banda de radio, la 802.11, o “wifi”, para hacer despegar la alta
velocidad de radio que los industriales tardaban en iniciar. Informáticos
interesados en cultura general iniciaron la concepción cooperativa de una
enciclopedia universal y múltiple, Wikipedia, que rivaliza actualmente con los
productos editoriales del sector. Militantes de la sociedad civil internacional
desarrollaron las herramientas más originales de comunicación y de coordinación
multilingüe para intercambiar alrededor de todo el planeta. Aunque muy
diferentes, estas múltiples innovaciones presentan características que provienen
de la lógica de innovaciones por el uso: ellas parten de los usuarios y se difunden
en la red organizando la cooperación entre los usuarios.
Aun si este proceso de innovación por los usuarios no se limita al universo de las
tecnologías informáticas y de telecomunicación, el desarrollo del modelo de
producción cooperativa y abierta del software libre constituye la forma más
emblemática y de más alto rendimiento de las innovaciones ascendentes. La
generalización de la disponibilidad de las herramientas de comunicación y la
digitalización de la información constituyen, en efecto, un contexto particularmente
propicio para la difusión de estas innovaciones que se sustraen, al menos
parcialmente, del mercado, cuando los innovadores juzgan necesario mantener
abierta la innovación y asegurar el acceso gratuito. Ahora bien, se constata
actualmente que el modo de organización y el espíritu del software libre se
extienden y se generalizan a otros sectores. A la producción y a la distribución de
contenidos, en primer lugar: medios de comunicación alternativos en modo open
publishing (Indymedia, OurMedia), enciclopedias abiertas (Wikipedia), puesta a
disposición de conocimiento científico (como los proyectos Telabotanica,
Gutemberg o el sistema de publicaciones científicas de la Public Library of
Science). Al hacer de las infraestructuras de comunicación un bien común, como
en el caso de ciertos defensores del wifi, el ingenio de los utilizadores se dirige
actualmente hacia las maneras de desarrollar servicios para compartir la
conectividad. Esta proliferación produce una tendencia a la fragmentación del
conjunto del sector de las TIC, que tendrá consecuencias importantes sobre los
modelos industriales de los grandes operadores.
La noción de innovación por el uso se inspira en una intuición desarrollada en los
trabajos de Eric Von Hippel [4], profesor de la Sloan School of Management del
MIT, sobre las “innovaciones horizontales” en las cuales el usuario no es
simplemente “astuto” o “furtivo”, como en la figura del desvío inesperado de las
herramientas técnicas que la sociología del uso ha popularizado, sino que se
compromete un poco más lejos, participando directamente en la confección de
innovaciones a partir de las tecnologías y de los servicios que se hallan a su
disposición. Eric Von Hippel aísla de este modo a un grupo de actores, los
user/self-manufacturers, del conjunto de los usuarios, y señala, a partir de
encuestas sobre segmentos industriales muy diferentes que, según los mercados,
10 a 40% de los utilizadores remodelan o arreglan con sus propias manos los
productos que compran [5]. Los actores de la innovación horizontal no son pues
necesariamente usuarios “avanzados”, “intensivos” o “high-tech” que sirven como
“grupos de referencia” en los estudios de mercado para identificar las dinámicas
de difusión de los nuevos productos y servicios. En efecto, ni el nivel económico,
ni la tecnofilia, el nomadismo o el estatus profesional conducen, más
específicamente que otras variables, a estos lead users a convertirse ellos
mismos en productores de innovaciones o de nuevos servicios. Lo que constituye
a un grupo de usuarios en la vanguardia de una “innovación horizontal”, es antes
que nada la inquietud práctica y concreta de encontrar por sí mismos y con sus
propios medios soluciones adaptadas a sus necesidades - estrategia que los
actores económicamente favorecidos adoptan pocas veces, a menudo porque el
tiempo, a diferencia del dinero, les falta. La innovación ascendente procede del
uso y ella toma impulso en las múltiples exploraciones que ciertos usuarios
emprenden procediendo a adaptaciones, astucias ingeniosas, bricolages low-tech
y ensamblado de productos existentes.
Adaptar los productos y servicios a sus propias necesidades transformándolos no
es exclusivo del mundo del software libre y de las nuevas tecnologías. Esta
manera de hacer nacer la innovación de las prácticas inventivas de los
utilizadores es hasta muy frecuente en los mercados “gran público” donde ella ha
sido adoptada por los dispositivos avanzados del marketing. El mundo del surf,
explica por ejemplo Eric Von Hippel, ha sido revolucionado por una innovación
producida en 1978 en Hawai por un grupo de jóvenes surfistas que improvisaron
un soporte de pies para sostener la tabla cuando saltaban sobre las olas. Esta
pequeña adaptación técnica, que requería algunas cintas y un pote de cola,
permitió hacer más accesibles las figuras acrobáticas complejas reservadas a una
élite de surfistas súper entrenados. La práctica elitista y restringida del surf se vio
revolucionada y la sucesión de innovaciones aportadas por sus practicantes a la
tabla para mantener el contacto con el surfista favoreció la ampliación de esta
actividad a nuevos públicos. Si bien los industriales adoptaron rápidamente las
micro-innovaciones aportadas a la tabla de surf, solo pudieron acceder a ellas
observando, en las playas y en los pequeños talleres de los alrededores, los
múltiples bricolajes que los surfistas intercambiaban con entusiasmo.
Confiar en la sagacidad de los utilizadores permite hacer emerger funcionalidades
que responden directamente a sus necesidades. Los usuarios avanzados son
siempre los mejores intérpretes de sus necesidades y la expresión de éstas está a
menudo tan fuertemente incorporada en contextos de utilización específicos que
es difícil y costoso para los industriales comprenderlas y extraerlas de su entorno.
Es la razón por la cual cuando la necesidad “adhiere” fuertemente al contexto del
uso, puede ser más fácil para los usuarios desarrollar por sí mismos la solución a
sus problemas. La innovación por los usuarios despeja más fácilmente el camino
a nuevas funciones que vienen a satisfacer necesidades, hasta entonces mal o
poco identificadas. En efecto, las incitaciones a innovar de los usuarios y de los
industriales son diferentes; mientras que los usuarios buscan encontrar la mejor
funcionalidad para su necesidad, los industriales se ven incitados a desarrollar
una solución a partir de su dominio de los procedimientos genéricos con el fin de
reducir los costos de transferencias de la necesidad específica de los clientes. De
suerte que usuarios e industriales tienen tendencia a desarrollar dos tipos
diferentes de innovación porque disponen de informaciones asimétricas. Un
estudio sobre el desarrollo por los usuarios o por los industriales de las
innovaciones en las funcionalidades de los instrumentos científicos ha
demostrado así que los utilizadores tenían más bien tendencia a desarrollar
instrumentos que les permitieran hacer cosas nuevas, mientras que los
industriales tenían tendencia a desarrollar nuevos instrumentos que hicieran la
misma cosa, pero de manera más simple o más segura [6]. Cuando la necesidad
y la solución pertenecen a la experiencia del utilizador, éste puede crear un nicho
de innovación de bajo costo (user’s low-cost innovation), un verdadero pequeño
laboratorio personal, que se refiere generalmente al desarrollo de funcionalidades
inéditas.
Abrir y compartir
Mientras que en el modelo de la innovación centrado sobre la firma, las
innovaciones son protegidas por cláusulas de propiedad intelectual y destinadas a
un mercado de clientes individuales y atomizados, en el modelo de innovación por
el uso, las innovaciones están abiertas y circulan, de manera reticular, entre los
usuarios. Existe una relación estrecha entre el hecho de revelar su innovación y el
hecho de compartir su desarrollo con los otros usuarios. Cuando la innovación es
conducida por los usuarios, explica Von Hippel, éstos están interesados en revelar
a los demás su innovación antes que en conservarla secreta o tratar de protegerla
por cláusulas de propiedad intelectual. Numerosos argumentos vienen a sostener
esta hipótesis. Los primeros son contingentes. Es, en efecto, muy difícil para las
personas privadas disponer de recursos suficientes para mantener una patente y
licenciar una innovación. Y estas protecciones jurídicas son a menudo fáciles de
obviar, tanto más teniendo en cuenta que las innovaciones de usuarios emergen
frecuentemente en el mismo momento y en diferentes lugares. La segunda
categoría de argumentos es más fundamental. Numerosos antecedentes, a los
cuales la aventura del software libre ha dado una nueva escala, muestran que la
innovación mejora su calidad gracias al apoyo colectivo que recibe y a su
capacidad de integrar por ajustes sucesivos las mejoras aportadas por otros. La
innovación es un proceso de aprendizaje por el uso, tanto que buscar protegerla y
controlar sus utilizaciones debilita su calidad y sus oportunidades de atraer la
atención de los industriales. Esta ley de eficiencia de la cooperación abierta ha
sido resaltada por los promotores del software libre, detrás de la célebre fórmula
de Eric Raymond “given enough eyeballs, all bugs are shallow” : “More users find
more bugs because adding more users adds more ways of stressing the
program... Each [user] approaches the task of bug characterization with a slightly
different perceptual set and analytical toolkit, a different angle on the problem. So
adding more beta-testers... increases the probability that someone’s toolkit will be
matched to the problem in such a way that the bug is shallow to that person” [7].
Es también en razón del carácter heterogéneo de las capacidades y de las
necesidades de los usuarios intensivos que la innovación puede beneficiarse de la
diversidad de sus puntos de vista y de sus soluciones para encontrar una forma
estable y generalizable. Mientras que la innovación industrial trata de producir una
solución genérica a partir de las competencias específicas y de los
procedimientos de fabricación que ella domina apuntando a una figura promedio y
estándar de la necesidad, las innovaciones por el uso producen por su parte
innovaciones que hacen converger las especificidades de las soluciones de los
utilizadores. A lo genérico producido “desde arriba” en dirección de una necesidad
promedio, la innovación por el uso opone otra forma de lo genérico, construida por
ajuste progresivo de la multiplicidad de las soluciones aportadas por los
utilizadores. Ella privilegia la integración de las diferencias a la reducción hacia el
promedio. “When users’ needs are heterogeneous and when information drawn on
by innovators is sticky, it is likely that product-development activities will be widely
distributed among users, rather than produced by just a few prolific userinnovators” [8] Se comprende entonces que este proceso parezca más “creativo”,
en tanto que permite más fácilmente la integración de puntos de vista heterodoxos
en la concepción.
Los tres círculos de la innovación por el uso
En los procesos de innovación por el uso, se puede distinguir tres círculos de
actores diferentes: el núcleo de los innovadores, la nebulosa de los contribuidores
y el círculo de los reformadores. La mayoría de los procesos observados
funcionan según este modelo por círculos concéntricos (cf. fig. 1)
Fig. 1. Los tres círculos de la innovación por el uso
1. Un núcleo restringido de innovadores
La iniciativa de las innovaciones por el uso es conducida por un grupo muy
pequeño de personas, como el colectivo Minirézo en el origen de SPIP, o a
menudo hasta por un solo individuo que ejerce luego un control vigilante sobre el
destino de su iniciativa, como es el caso del fundador de Wikipedia, Jimmy Wales.
Contrariamente a la idea frecuentemente difundida por los defensores de
innovaciones con base cooperativa, el desarrollo “técnico” de estas innovaciones
es raramente una producción colectiva ampliada, sino que a menudo esconde a
un grupo restringido de fundadores y una verdadera jerarquía en las formas de
participación en la innovación, aun cuando esta jerarquía esté a veces disimulada,
a fin de no entrar en contradicción con el discurso igualitario de los promotores de
dichas innovaciones.
Esta primera iniciativa está asociada a menudo muy estrechamente con la
resolución de un problema práctico que encuentra el iniciador en su vida personal.
En 1989, Col Needham se cansó de no poder recordar los títulos de las películas
que le gustaban. Así pues creó una base de datos personal para registrar títulos
de películas, sus directores y actores, en un newsgroup de Usenet. Diez años
más tarde, el Internet Movie Database, más conocido bajo el acrónimo IMDb, se
convirtió en uno de los “10 sitios esenciales” según Time Magazine. 25 millones
de personas se conectan a él cada mes para consultar una base de 6,3 millones
de películas, construida de manera cooperativa por sus utilizadores. Los
innovadores mezclan a menudo sus actividades personales o de distracción a las
competencias técnicas que han adquirido y desarrollado en un marco universitario
o profesional. Este efecto de “aprendizaje por el uso” adquiere una importancia
muy grande en el caso de las innovaciones con base cooperativa, lo que les
confiere como propiedad esencial una “adherencia” (stickiness) al contexto de uso
colectivo que les ha dado origen y hace muy difícil su desplazamiento en el marco
cerrado de la investigación en laboratorio.
2. La fuerza de la nebulosa de los contribuidores
Un segundo rasgo común a estas innovaciones es el al hecho de que estos
proyectos personales adquieren fuerza y consistencia en la movilización de redes
sociales de allegados, que vienen no solamente a alentar a los iniciadores, sino
también a aportar su contribución al proyecto. Los amigos de Col Needham
inscriben sus películas favoritas en la base que él acaba de crear, los de Jimmy
Wales le proponen rápidamente los primeros artículos de la Wikipedia, la
notoriedad de SPIP y de sus primeras utilizaciones siguieron, en su primera fase,
a una difusión a través de la red de amigos y militantes de sus promotores, etc.
Los innovadores se hallan de este modo reforzados en su proyecto por la fuerza
de los compromisos que suscitan. La intervención de los contribuidores procede
de la reputación en la red de la notoriedad de la innovación. Ella es raramente
sostenida por técnicas de difusión comercial o estrategias promocionales de gran
envergadura. Por otra parte, esta nebulosa de contribuidores que rodea al núcleo
de los innovadores interviene más bien para animar intercambiando contenidos,
que sobre el dispositivo técnico en sí mismo. Una división de roles aparece
entonces entre participación en la innovación técnica y contribución a los
contenidos. Esta diferencia de naturaleza en las formas de compromiso constituye
un resorte esencial en el modo de difusión de las innovaciones con base
cooperativa y determinan a menudo su destino.
3. El ecosistema de los reformadores
En la articulación entre el núcleo de los innovadores y la nebulosa de los
contribuidores se forma progresivamente un segundo círculo de reformadores
más involucrados que intervienen en el proyecto técnico para reforzarlo y
mejorarlo. Este segundo círculo aparece principalmente cuando efectos de escala
obligan a modificar y a intervenir sobre el dispositivo técnico inicial para garantizar
su perennidad, produciendo un conjunto de variantes, agregados, funcionalidades
especializadas que van a reforzar progresivamente los dispositivos instalados.
Los hilos RSS refuerzan a los blogs, la Fundación Wikimedia capitaliza los
proyectos con base cooperativa para Wikipedia, etc. Las innovaciones
ascendentes forman así ecosistemas, que funcionan a veces según las lógicas de
competencia de un mercado, sancionando los proyectos por el uso, pero que
también permiten a cada innovación beneficiarse con los efectos externos que
juegan unas con respecto a otras. Las consultas sobre IMDb, por ejemplo,
tomaron una nueva dimensión con el desarrollo de “softwares P2P”, a los cuales
ofrecen un sistema de búsqueda de buen rendimiento y universal. La intervención
de los “reformadores” contribuye de este modo a convertir en genérica a la
innovación, sacándola de su contexto local, haciendo que se vuelva banal y
estándar.
Tensiones y debates en torno a las innovaciones por el uso
Cuando son confrontadas con el cambio de escala que suscita la multiplicación de
los contribuidores, las innovaciones ascendentes deben aceptar cierto número de
desafíos.
1. La dialéctica continente/contenido
La extensión de las dinámicas gratuitas en el mundo de las TIC depende
estrechamente de la manera en que se articulan las inversiones orientadas hacia
el continente (la innovación técnica) y aquellos que se refieren a los contenidos
(las producciones intercambiadas por la nebulosa de contribuidores). Aun cuando
ellas sean a menudo paralelas, estas dos dinámicas constituyen dos
componentes diferentes de los proyectos con base cooperativa. Ahora bien, el
éxito de las innovaciones ascendentes depende a menudo de la tolerancia que
sepan mostrar sus iniciadores ante la diversidad de formas de compromiso en su
proyecto. No sin dificultad, los promotores del software libre, verdadera
aristocracia de técnicos, han debido aceptar abrir su software a utilizadores
profanos simplificando las interfaces de sus herramientas como, por ejemplo, con
Open Office o Firefox. Los sitios contributivos deben tolerar una misma diversidad
de participaciones que va desde el desarrollo informático hasta la corrección de
faltas de ortografía. Los animadores de Wikipedia se esfuerzan, por ejemplo, por
ampliar los medios sociales de sus contribuidores, con el fin de que los artículos
sobre la Edad Media no sean exclusivamente redactados por informáticos
aficionados de la cultura gótica, sino también por profesores de historia,
apasionados por las catedrales y lectores de Chrétien de Troyes. El desarrollo de
las innovaciones con base cooperativa se juega pues en la manera en que ellas
llegan a extraerse de la cultura técnica en la cual nacieron, sin renegar por ello de
los principios de comportamiento abierto y colaborador que importaron del mundo
de la informática.
2. Politización/despolitización
En el curso de su desarrollo, las innovaciones por el uso deben, a menudo, hacer
frente a un momento de redefinición de su proyecto inicial. En efecto, las
inversiones iniciales de las cuales eran el soporte presentan frecuentemente
objetivos militantes afirmados, sobre todo cuando sus impulsores hacen de la
apropiación de tecnologías un medio de resistir y de concebir alternativas al
mundo mercantil. Sin embargo, al dar cabida a nuevas formas de contribución y
tolerar una amplia diversidad de compromisos, los proyectos con base
cooperativa son a veces colonizados por usos más cercanos al consumo de
servicios gratuitos que al compromiso en una informática “ciudadana”. Es el caso,
por ejemplo de las telecargas que usan herramientas libres P2P o accesos
“oportunistas” a la red wifi. El cambio de escala parece diluir la vocación inicial de
las innovaciones y genera toda una serie de dilemas para los conductores de
proyectos, como fue el caso en las primeras comunidades wifi. Estas tensiones
normativas están inscriptas en el corazón de la mayoría de las innovaciones por el
uso. A menudo, por otra parte, juegan un efecto positivo sobre las capacidades de
innovación, favoreciendo la multiplicación de las contra-iniciativas y de los efectos
de corrección. Pero esta oposición entre “puro” e “impuro” puede también
constituir un peligro mortífero para los proyectos con base cooperativa. Así pues
la instauración de una gobernabilidad pluralista de las innovaciones con base
cooperativa, tolerante con la diversidad de las razones que tienen los actores para
comprometerse, parece a menudo indispensable para su éxito.
3. Los riesgos de desintegración
Las innovaciones por el uso viven siempre bajo la amenaza de la desintegración
del colectivo inicial. Esta se perfila primeramente en el momento de la ampliación
del núcleo de los fundadores a nuevos integrantes, momento crucial del desarrollo
de las innovaciones con base cooperativa donde se juega la distribución de tareas
entre antiguos y nuevos y el mantenimiento de la autoridad simbólica de los
fundadores en la conducción colectiva del proceso. Pero el riesgo de
desintegración aparece sobre todo con la proliferación de las innovaciones
complementarias aportadas por el segundo círculo de los reformadores. Estos
aportan especificaciones nuevas al proyecto fundador, pero sucede también que
“bifurcan” para crear un proyecto paralelo. Esta tendencia a la desintegración
aparece hasta como una constante en el universo de las innovaciones
ascendentes: multiplicación de las licencias libres, distribuciones de Linux,
herramientas de CMS, desarrollo de la “bifurcación” AGORA a partir de SPIP, etc.
Estas lógicas centrífugas son las consecuencias de la necesaria diversificación de
los servicios que conducen a las innovaciones por el uso a buscar el mejor ajuste
a una multiplicidad de contextos. Pero ellas obligan también a los portadores de
innovaciones a mantener estándares de interoperabilidad entre los servicios que
generan.
4. La articulación con el mundo mercantil
El desarrollo de la infraestructura técnica de los proyectos gratuitos se vuelve
rápidamente crítico cuando se amplía la nebulosa de los contribuidores. Así pues
es necesario encontrar financiamientos que cubran la gestión técnica de los
proyectos (albergue, banda, etc.), pero también a veces atribuir salarios a los
animadores de sitios, con el fin de liberarlos de un voluntariado que se vuelve
extenuante con el crecimiento de las contribuciones, como en el caso de IMDb.
Las innovaciones por el uso se vuelven entonces hacia patrocinantes
institucionales (universidades, programas de apoyo gubernamental) o privados
(fundaciones, mecenas, donaciones privadas). Pero ellas se prestan también a
articulaciones más complejas con el universo mercantil, manteniéndolo al mismo
tiempo al margen de sus proyectos con servicios de adaptación y de
personalización de la innovación, como es el caso de las sociedades de servicios
desarrolladas en torno al software libre (RedHat) o del sistema de retribución por
los servicios mercantiles ante los cuales ellas producen efectos externos
positivos, como lo atestigua el reciente partenariado de Google con Wikipedia.
5. El reconocimiento de la creatividad de los usuarios
Como lo señala Eric Von Hippel, las innovaciones de los usuarios constituyen un
hecho externo positivo para el mundo mercantil y un factor de crecimiento del
bienestar social para la sociedad en su conjunto. Al permitir identificar
necesidades y conocer usos de bajo costo, ellas constituyen un espacio de
exploración de nuevas necesidades sociales sin duda más eficaces que los
grupos de creatividad que el marketing trata de desarrollar pidiendo a cobayos
improbables imaginar sus usos de las tecnologías futuras. Las innovaciones por el
uso alientan la creatividad y ofrecen servicios de utilidad social que responden a
necesidades específicas que el mercado no sabe o no quiere satisfacer. Por eso
es útil aportar un mejor reconocimiento a la creatividad y a la inventiva de los
usuarios en el campo de las TIC y reforzar las condiciones que la hacen posible,
preservando el carácter flexible, abierto y no apropiable de las tecnologías de
Internet. Las innovaciones por el uso que mucho han aportado al dinamismo de
Internet son actualmente amenazadas por el refuerzo de las lógicas propietarias,
atestiguado por el endurecimiento de las reglas de propiedad intelectual o el cierre
de ciertos dispositivos técnicos (DRM). Aun cuando los usuarios tengan que
encontrar todavía su propio camino a través de las limitaciones tecnológicas y las
prescripciones comerciales, sería sin embargo lamentable que se cierre el
espacio de innovación y de creatividad de Internet.
Comunidades virtuales
Luis Ángel Fernández Hermana
Como testimonia el ya clásico libro de Howard Rheingold “The Virtual Community:
Homesteading in the Electronic Frontier” (La Comunidad Virtual, Editorial Gedisa,
Barcelona), los años 80 registraron la discreta efervescencia de las comunidades
virtuales en EEUU de la mano de la difusión de Internet en centros académicos y
de investigación y la incipiente popularización de las BBS. Por primera vez, se
experimentaba la bidireccionalidad en espacios virtuales lo que significó, al mismo
tiempo, la diseminación de una forma peculiar de autoorganizarse, de
autogestionar el acopio, producción y gestión de información y conocimiento.
Aquellas formas de organización no tenían parangón en el mundo real: la relación
asíncrona, el estar siempre conectado sin estarlo (una especie de contestador
automático multitudinario), el ser protagonista de estos procesos y no mera
audiencia pasiva, invitaban lógicamente a mirar la realidad de otra manera.
Una evolución global de la relación con la información
Pero ¿qué pasaba en la realidad en aquellos años? ¿Hasta qué punto la
evolución social era indiferente o marcaba las pautas de lo que ocurría en ese
nuevo territorio, más allá de la “frontera electrónica”? El concepto de que
“Información es poder”, el pilar del modelo político sustentado por los dos
imperios, se volvió de golpe insostenible, entró en crisis justamente en la era de
Ronald Reagan. Todo el poder basado en el uso estratégico de la información
sobre la fuerza militar, el PIB, la actividad industrial de la población, el control de
los recursos energéticos y naturales, no permitieron anticipar ni en un segundo el
colapso de la URSS (ni siquiera el surgimiento de una potencia como Japón). Por
entre los resquicios de esta crisis que puso al mundo patas arriba, se filtraban
hacia la superficie nuevos elementos que pujaban por un protagonismo
definitivamente destinado a tumbar el rígido marco de relaciones impuesto por la
guerra fría. Las tecnologías de la información, en general, e Internet, en particular,
las tensiones del sistema educativo, la flexibilidad organizativa de las empresas al
amparo de nuevos modelos de gestión del conocimiento (frecuentemente más
exitosos en el papel que en la realidad), el manejo de información que excedía el
habitual marco en el que se desenvolvían individuos y colectivos, todo ello cosido
por el sutil hilo de la interacción, conformaba lo que podríamos denominar la
“factoría” de un nuevo poder.
En ese nuevo escenario se produjeron dos cambios significativos con
respecto a la fase anterior.
Por una parte, la información cambió de naturaleza. Ahora no dependía tanto de
la capacidad de acopiar y procesar información por agentes especializados para
hacer un uso estratégico de ella a partir de un proyecto jerarquizado (y bipolar), se
tratara de agencias públicas o privadas o de medios de comunicación. La relación
entre el poseedor de la información y el resto de la sociedad que cuajó tras la
segunda guerra mundial, entre el emisor y el receptor, el primero jugando un
papel activo y determinante en el proceso de selección y distribución y el segundo
uno pasivo, de consumidor sin capacidad de respuesta significativa, comenzó a
volar por los aires cuando las tecnologías de la información inyectaron dos rasgos
nuevos y subversivos: cualquiera podía publicar en la Red y lo que se publicaba
estaba sometido de inmediato al juego dinámico de la interacción.
Hasta entonces, el conocimiento estaba fundamentalmente confinado entre los
muros de las organizaciones que lo protegían como un “bien estratégico”.
Hablamos de ciertos individuos (científicos, expertos, etc.), empresas,
corporaciones, agencias públicas, agencias policiales o militares, centros de
investigación, universidades, partidos políticos, sistema educativo formal, etc.
Ahora, sin embargo, desde la irrupción pública de la Red, sobre todo desde lo que
podríamos llamar el proceso de resocialización de la “world wide web”, una parte
sustancial de ese conocimiento reside en individuos, colectivos, empresas,
organizaciones, administraciones e instituciones que se expresan en redes
abiertas, turbulentas y expansivas.
Estos tres últimos términos no son metáforas literarias, sino que son categorías
que nos permiten comprender la estructura de la Red que recibimos en cuanto
nuevos usuarios:
Una red abierta: nadie controla al que entra, no hay cancerbero, ni gerente, ni
“espigador digital” que se encargue de aplicar criterios selectivos de acceso;
Una red turbulenta: nadie controla la actividad de los demás (los gobiernos cada
vez lo intentan más, pero, en principio, tratan de luchar contra este principio sin
mucho éxito);
Una red expansiva: si no hay forma de controlar a quien entra y lo que hace, el
contenido de la red crece constantemente de manera caótica, redundante y
exponencial.
La frontera entre los detentadores del poder informativo y lo que podríamos llamar
en sentido amplio como la “audiencia” se volvió de repente difusa, ambigua,
compleja. El medio virtual, poblado por ordenadores en red, teléfonos, televisión,
los multimedia y sistemas de satélites, comenzó a solaparse con poderes
tradicionales corporativos, militares, sociales, económicos y políticos. En unos
casos, recortando sensiblemente su fuerza y la lógica de su preeminencia, en
otros potenciándolos y multiplicándolos.
En segundo lugar, el poder de la información estaba basado anteriormente en el
criterio de la exclusión (contra menos la poseyeran, más valiosa, más “puro” el
poder que emanaba de ella). Sin embargo, en un mundo integrado por las
comunidades virtuales aposentadas en las tecnologías de la información, el valor
se desplazaba hacia la capacidad cooperativa de los agentes sociales. El ámbito
digital convirtió a la información y el conocimiento en mercancías cruciales en las
nuevas relaciones internacionales en un mundo rápidamente cambiante donde lo
global y local adquirieron un significado nuevo, específico. Poseer información en
exclusiva se volvió una tarea cada vez más espinosa, costosa, insostenible y, a la
postre, estéril. La sociedad de la información reclamaba una participación que
dinamitaba tales intentos exclusivistas, por más que durante bastante tiempo
estos perdurarán con éxito pues todavía subsisten poderosas estructuras
heredadas de la guerra fría.
De esta manera, frente al “poder duro” de la guerra fría, blindado por la fuerza
nuclear con su capacidad de destrucción y el valor de la información con el fin de
mantener la vigencia de la política de bloques, surgió el “poder blando” sustentado
en las tecnologías de la información. De la transferencia de información en una
relación unilineal entre el procesador activo de información (Estado, empresa,
medio de comunicación, etc.) y el receptor pasivo, hemos pasado al diálogo
multilateral, transversal, interactivo, hasta alcanzar lo que podríamos denominar la
unidad básica de producción de información y conocimiento socialmente útil: la
comunidad virtual (CV). En otras palabras, estamos construyendo un mundo
mucho más complejo, más ambiguo y menos esquemático, donde interactuar es
poder. Un nuevo estado de las cosas caracterizado por multitud de archipiélagos
de comunidades virtuales cuyas leyes de funcionamiento contravienen las rígidas
reglas del poder duro que hemos conocido hasta ahora.
Características de las comunidades virtuales
Ahora se trata de saber cuál ha sido la progresión de la actividad que se
desenvuelve más allá de la frontera electrónica y qué podemos hacer al respecto.
Y la respuesta ya no nos viene de los poderes establecidos, no sólo, sino
fundamentalmente de la creciente capacidad para promover y actuar en CV que
colocan a los individuos frente a la eventualidad de organizar sus deseos, sus
aspiraciones o incluso su propia cotidianeidad en contextos virtuales en principio
vacíos, que aguardan la acción de los conectados para adquirir la forma que estos
les otorguen.
Este cambio se ha convertido en una fuerza pluralizadora que construye
mercados no represivos y que, además, no refuerza necesariamente - como
antaño - un poder centralizado, aunque lógicamente no lo excluye, porque son los
individuos y las organizaciones quienes deciden la fisonomía y funciones de las
CV que crean y en las que actúan.
Las CV, sólo existen y funcionan en la medida en que sean fruto de la actividad de
los ciudadanos, entendidos estos como individuos, colectivos formales o
informales, empresas, organizaciones, etc. Asi se han creado espacios artificiales
(virtuales) nuevos, dotados de una serie de características no siempre
comprensibles desde los parámetros del “mundo real”.
1.- La información es de los usuarios. Es decir, la Red, en principio, está
“vacía” y son los usuarios quienes deciden qué información van a almacenar,
mostrar e intercambiar. Por tanto, cada usuario decide por dónde empieza a ver la
Red, para qué y con quiénes.
2.- El acceso a la red es
universal: basta acceder a un ordenador de la red, para acceder a toda la red o
“ver” toda la Red (otra cosa es que, una vez dentro de la Red, haya lugares donde
se pida el registro para acceder a la información que contienen);
simultáneo: todos estamos en la Red al mismo tiempo, pues existimos en
cuanto información (ceros y unos). En realidad, la red es desde sus orígenes el
primer contestador automático que se puso en funcionamiento. Nadie sabe si
estamos conectados o no, pero nos relacionamos entre todos como si lo
estuviéramos a través de nuestra presencia numérica, de la información que
“movemos” y de las interacciones que promovemos;
independiente del tiempo (24h./365d.) y de la distancia. Es el primer espacio
abierto constantemente a la actividad del ser humano independientemente de
donde se encuentre. Sólo necesita acceder a un ordenador de la Red para que
todo lo expuesto anteriormente funcione.
3.- Finalmente, los otros dos rasgos que cierran este comprimido código genético
es que la red crece de manera descentralizada y desjerarquizada. Basta seguir
añadiendo ordenadores (servidores) para que se esparza física y virtualmente y
no hay ordenadores que desempeñen tareas de “comando y control” sobre los
otros ordenadores de la Red.
Si la información de la red es la que colocan o publican sus usuarios, estamos en
un entorno eminentemente PARTICIPATIVO. De hecho, la red se retroalimenta
constantemente de las señales que emiten sus usuarios. Esta participación
conduce inexorablemente a la INTERACCIÓN, es decir, a la relación con lo que
hacen los demás (no hablamos de intensidad o grados de dicha relación, sino que
participar significa “mover” información propia en relación con los otros y mover
información de los otros en relación con la propia).
El resultado inescapable de ambos puntos es un CRECIMIENTO constante de la
información y el conocimiento que circula por el sistema. La evolución, por tanto,
es un factor incorporado a la propia estructura de Internet. Crecimiento no
significa sólo añadir más información, sino también todo lo que esto conlleva:
sistemas de búsqueda, de clasificación, de síntesis, de participación e interacción,
de reagrupamientos sistémicos o efímeros, de transacción e intercambio, de
organización de la información y de su visibilidad, etc.
La emergencia rápida y multiforme de las CV
Los cambios desde este punto de vista han sido fenomenales y muy rápidos. Las
primeras CV tuvieron como protagonistas a ingenieros, programadores y hackers,
tras lo que vino Usenet y los espacios de colaboración en el sector de la I+D.
Estas actividades en los nuevos espacios virtuales rápidamente abarcaron un
índice temático amplísimo. Poco después eclosionaron las CV desprendidas de
las BBS, así como las que se organizaron dentro de Compuserve y AOL, entre
otras, así como la aparición de organizaciones sociales de amplio espectro, entre
las que podríamos citar por su representatividad a APC, paraguas de decenas de
redes en los cinco continentes pobladas por comunidades virtuales agrupadas por
áreas de intereses claramente definidos. La actividad desarrollada bajo este
paraguas ya apuntaba a un cambio paradigmático de la complejidad del mundo
de las comunidades virtuales y de una incipiente forma de intervención política
con características muy diferentes a lo que hemos conocido hasta ahora.
La APC jugó un papel importantísimo en la Conferencia Mundial del Medio
Ambiente y el Desarrollo, más conocida como Cumbre para la Tierra, que se
celebró en Río de Janeiro en 1992. En el campus del Global Forum (conferencia
alternativa a la oficial) instalaron salas repletas de ordenadores donde instruyeron
a cientos de ONG de todo el planeta a utilizar Internet. Durante los años
siguientes, miles de personas de los cinco continentes, constituidas en CV más o
menos formalizadas, se autoorganizaron para el intercambio de información,
pusieron en marcha proyectos, canalizaron fondos y organizaron protestas desde
la Red. Mientras los medios de comunicación guardaban un vergonzoso silencio
sobre las políticas de ajuste estructural del Banco Mundial, estas CV estaban
perfectamente versadas en su significado y consecuencias, en el papel
complementario del FMI y en el impacto que ambas entidades causaban en India
o América Latina. Esta caldera explotó siete anos mas tarde en Seattle ante la
presentación de una organización nueva y desconocida como la Organización
Mundial del Comercio (OMC) que procedía de los no menos misteriosos aledaños
del GATT y la Ronda de Uruguay. Pocos de los que vivían en la superficie de la
sociedad “real” pudieron comprender de dónde venía y qué significaba aquel
movimiento que se enfrentaba con conocimiento de causa al BM, al FMI y a la
OMC y que comenzó -erróneamente- a autodenominarse antiglobalizador.
Una nueva forma de entender la política
¿Estábamos ante una nueva forma de hacer política? Posiblemente. Pero
claramente no se trataba de la política como la habíamos entendido hasta
entonces con las características de continuidad en la actividad, crecimiento sobre
lo hecho (tradición), propósito explícito de conquista de espacios sociales o
administrativos y elaboración de agendas de actividad a partir de lo actuado. Lo
que no se entendía -y creo que todavía no se entiende claramente- es que
algunos de los rasgos definitorios de las CV planteaban un escenario político
diferente:
la multiplicidad posible de CV -como la multiplicidad posible de ecosistemas, por
eso muchos hablan de nichos en los ecosistemas ante la dificultad de “renombrar”
dichos nichos al interior de una concepción sistémica de los hábitat-, lo cual no
permitía catalogar claramente dónde residía el poder ni en qué consistía éste
cuando se reclamaba prohijado por comunidades autoorganizadas.
El proceso constante, sostenido, incontrolado, de crecimiento de la población
conectada, lo cual desplaza sin cesar la frontera entre el sector “maduro” de las
CV, con amplia experiencia, consciente o no, de lo que significa trabajar con los
otros, interactuar con los otros, en contextos más o menos organizados, y el
sector de los “recién llegados”. Esto lleva a una reinvención permanente de la
actividad en la Red lo cual conspira contra el asentamiento de las formas menos
organizadas (más efímeras) de relación en la red, por importante que ellas sean.
El respeto compartido a los fines y las metodologías acordadas por los
miembros. Esta es la nueva ética, o la ética de la Red. Prácticamente no existe un
espacio equiparable en el mundo físico donde sus ocupantes tengan la
oportunidad de verificar lo que sucede, examinar la naturaleza de los intercambios
registrados y analizar si cumplen con las normas colectivamente aprobadas. Este
proceso de retroalimentación de la propia actividad conlleva una fuerte carga
ética, porque el respeto no es compartido tan sólo a partir de una mera
declaración de intenciones, sino de la forma como éstas se plasman en los
archivos comunes de la CV, para sus miembros y para quienes no lo son.
Los rasgos de los archivos donde se registra la actividad de las CV. Este es un
factor crucial al que no siempre se le presta la debida atención. Cuando se habla
de formas de relación política, o expresión de una nueva ética de las relaciones,
etc., esto no sucede sólo para la foto fija de una CV que ha tenido la oportunidad
de compartir una parte de su trayecto, sino que, a través de sus archivos,
representa un factor pedagógico de primer orden para los que se van uniendo
progresivamente a la CV, algo que no existe comparativamente en el mundo real.
Por tanto, ese factor está determinado por los rasgos de la organización de su
histórico, su transparencia, grado de comprensión y de la capacidad de
diseminación de su contenido a otras CV o áreas de población conectada (o no).
Por consiguiente, el elemento tecnológico, desde este punto de vista, es tan
importante como, por poner un ejemplo, lo es organizar nuestra biblioteca
particular para que la comprenda un vecino, no sólo en cuanto organización
formal de los libros, sino como expresión también del trayecto recorrido por uno
mismo.
La creación de un espacio virtual para el aprendizaje no formal, un entorno que
no podemos encontrar en el mundo real. No se trata de procesos de aprendizaje
especulativo o intelectual. Lo determinante es la acción colectiva, a través de la
cual se comparte información, conocimientos y experiencias de una manera más
o menos formalizada, más o menos consensuada.
Los interrogantes compartidos y la metodología de trabajo en un espacio virtual
común consiguen que elementos dispersos de conocimiento se manifiesten, se
socialicen, se intercambien, se combinen para generar un conocimiento operativo.
Las CV maduras o complejas las llamamos también redes inteligentes por las
siguiente razones:
Su contenido está relacionado con la consecución de objetivos concretos
(inteligencia del proyecto);
Su contenido no reside sólo en lo que saben algunos de sus miembros, sino en
la generación y gestión colectiva del conocimiento que interesa a la CV
(inteligencia del trabajo en colaboración);
Su contenido depende de la orientación de la red hacia otras redes para
intercambiar información y conocimiento, estén o no en la misma organización
(inteligencia de las interacciones en red).
La dificultad objetiva para construir una religión de la CV en el sentido estricto
del término, es decir de “religar” la actividad que ocurre en el espacio virtual
(tomando en cuenta la amplia diversidad de actuaciones, organizaciones,
metodologías, objetivos, organización de trayectorias, relaciones entre CV, etc.)
con lo que ocurre en el mundo real, incluso en aquellos casos en que en éste
último se manifieste la emergencia de movimientos sociales organizados en red.
Esta dificultad atenta contra la construcción de un concepto como el del valor,
visto ya sea desde el prisma político, económico o cultural, pues en realidad tiene
más valor el “vapor” que el valor en cuanto seña de identidad de esta época. Y,
desde mi punto de vista, la CV expresa claramente este rasgo difuso e, incluso,
es su portadora y promotora.
Este punto anterior es crucial porque está relacionado con el trasvase que se
pueda hacer desde las actividades que los individuos desarrollan en CV de
diferentes características y con diferentes propósitos, a una actividad fuera de la
red que plantee un modelo de organización social basado en principios de
autogestión y autoorganización. A veces, al querer aplicar la misma escala de
valores (o semejante) entre una y otra, entre lo virtual y lo real, nos hace perder
de vista hasta qué punto lo que podríamos denominar “filosofía de la CV” desde el
punto de vista organizativo (autoorganización, autogestión, transparencia de las
actuaciones, registro histórico abierto a la consulta y a la diseminación de sus
contenidos, etc.), permea actualmente un sinfín de relaciones a todas las escalas
en el mundo real: individual, profesional, empresarial, gubernamental y no
gubernamental (ONG), institucional, ciudadana, etc. Esto no significa, por
supuesto, que se produzca necesariamente un trasvase automático de formas
organizativas típicas de la CV al mundo real, de la misma manera que las formas
organizativas del mundo real entran inmediatamente en tensión y conflicto cuando
se las pretende imponer en el mundo virtual como forma de alcanzar metas a
través de la interacción y el trabajo colectivo.
La tipología de las CV es ilimitada, es casi una función de la sencillez para
constituirlas y desarrollarlas: un objetivo explícito, un grupo de gente que coincide
en desarrollar ese objetivo mediante intercambios, una metodología de trabajo
(que incluye la posibilidad de la moderación), un espacio virtual organizado (que
abarca desde la lista de distribución hasta entornos virtuales altamente
organizados con servicios de asistencia a la comunidad virtual -consultores,
materiales adicionales obtenidos en la web, referencias bibliográficas, conexiones
a otras redes o CV, buscadores de los materiales generados por la CV, etc.-) y
archivos transparentes y con diferentes grados de organización. Además, el
territorio susceptible de ser colonizado por las CV tampoco reconoce límites: dede
las agrupaciones espontáneas o más o menos dirigidas en ámbitos abiertos,
hasta las que se organizan en empresas e instituciones, en las relaciones entre
ciudadanos y entre estos y las administraciones públicas, en entornos
profesionales o de ocio, o las que persiguen objetivos sociales, económicos,
culturales o científicos que mantienen una diversidad enorme de criterios respecto
a la procedencia o características de sus integrantes. En realidad, como dijimos
más arriba, estamos hablando de la célula básica de producción de información y
conocimiento en la Sociedad del Conocimiento, por tanto estamos apuntando a
los rasgos políticos de dicha producción cuando la enmarcamos en las CV.
A lo ilimitado de la tipología de las CV posibles, se une otro factor: su gobierno.
Desde las reglas difusas de las primeras BBS que contenían CV dedicadas a
abordar determinadas temáticas -al principio, fundamentalmente, las relativas a la
propia tecnología y los programas informáticos que permitían conformar el
espacio virtual en red para el funcionamiento de la propia CV, por elemental que
esta fuera- hasta las CV de una mayor complejidad en su normativa interna que
prefigura elementos avanzados de autogobierno, de consenso democrático y de
una nueva forma de entender la política a través de un contexto deliberativo
implícito que emerge con toda su fuerza en los momentos críticos del
funcionamiento de la CV.
En este gobierno de la CV ha desempeñado históricamente un papel esencial el
moderador, que progresivamente va emergiendo como una figura nueva en los
modelos de cooperación asíncrona y de autoorganización de lo que, de otra
manera, tendería a un caos por acumulación. El moderador, si está armado de
una clara metodología de trabajo, es una de las pocas personas de la CV que
puede modular su calidad, ritmo de funcionamiento y la calidad y el tono de los
intercambios.
En definitiva, la Sociedad del Conocimiento se construye sobre la capacidad de
crear, tratar y transmitir información y conocimiento. Y esta capacidad implica una
nueva percepción -o conjugación- de términos como productividad, eficiencia y
rentabilidad de los saberes. La CV tiende a optimizar la creación, gestión y
difusión del conocimiento que resulta de las prácticas de sus miembros, lo cual
supone un aumento de la libertad de acción de cada uno de ellos.
Le texte transformé a été copié dans le presse-papier : il ne vous reste plus qu’à le
coller (Ctrl-V) dans SPIP. Bonne chance !
Bibliografía
Lave, J. y Wenger, E. (1991). Situated Learning : Legitimate Peripheral
Participation (Learning in Doing : Social, Cognitive and Computational
Perspectives). Cambridge Univ Press.
H. Rheingold, (1993). The Virtual Community: Homesteading on the Electronic
Frontier. Addison-Wesley, New York Rheingold, Howard. (1996) La comunidad
virtual. Barcelona.: Gedisa.
Barry Welman et al. (1996) Computer networks as social networks: Collaborative
work, telework and virtual communities. Annual Review of Sociology 22; 213-38.
P. Kollock, M. Smith. (1996) Managing the virtual commons: cooperation and
conflict in computer communities. En Computer Mediated Communication:
Linguistic, Social and Cross-Cultural Perspectives. Amsterdam, John Benjamin.
Armstrong, A y Hagel, J. (1996). The real value of on-line communities. Harvard
Business Review, May-June, 1996.
Resnick, P. y Varian, H. (1997). Recommender Systems. Communications of the
ACM, 40:1
Wenger, E. (1998). Communities of Practice: Learning, Meaning and Identity.
Cambridge University Press
Kollock, P. (1998) The Economies of Online Cooperation: Gift Exchange and
Public Goods in Cyberspace. En Communities in Cyberspace editado por Marc A.
Smith, Peter Kollock y Ian Heywood. Routledge.
Mynatt, E.; O Day, V.; Adler, A. e Ito, M.(1998). Network communities: Something
old, something new, something borrowed. Computer Supported Cooperative Work:
The Journal of Collaborative Computing 7: 123-156.
Wellman, B y Gulia, M. (1998). Net surfers don’t ride alone: Virtual communities as
communities. In Communities in Cyberspace edited by P.Kollock y M. Smith.
Berkeley: University of California Press.
Cashel, Jim. (1999). The emergence of collaborative communities. Online
Community Report.
Kollock, Peter. (1999) Communities in Cyberspace. Routledge, USA.
Gilly Salmon. (2000) E-Moderating: The Key to Teaching and Learning Online, by
Editorial: Kogan Page, ISBN: 0749431105 M. Dodge, R. Kitchin. (2001) Mapping
Cyberspace. Routledge, Londres.
AÑAS Alberto. (2001) Construcción de comunidades Virtuales: Terra-formar el
ciberespacio o ciber-formar la escuela. Global Thinkers, Montreal.
M. Surman, D. Wershler-Henry. (2002) Commonspace: Beyond Virtual
Community. Prentice Hall PTR.
S. Dasgupta. (2005) Encyclopedia Of Virtual Communities And Technologies. Idea
Group Publishing.
Pimienta, D. (2005) At the Boundaries of Ethics and Cultures: Virtual Communities
as an Open Ended Process Carrying the Will for Social Change (the “MISTICA”
experience) In Capurro, R. & al. (Eds.) Localizing the Internet. Ethical Issues in
Intercultural Perspective. Schriftenreihe des ICIE Bd. 4, München: Fink Verlag
Webografía
Cisler, Steve. (1993) Community computer network: Building Electronic
greenbelts.
http://www.cpsr.org/program/communi... Wooley, D. R. (1998). The future of Web
conferencing. Think of it. http://thinkofit.com/webconf/wcfutu...
Erickson, T. (1999 a) Designing Systems that Mesh with Social Processes. Chi 99.
the Computer Human Interaction Conference, Pittsburgh, PA May 18-20, 1999
Online Communities workshop. http://www.cc.gatech.edu/ asb/works...
erickson.html
Jones, M. (1999). Research Issues in the design of on-line communities. Chi 99.
the Computer Human Interaction Conference, Pittsburgh, PA May 18-20, 1999
Online Communities workshop. http://www.cc.gatech.edu/ asb/works...
Wikipedia. http://es.wikipedia.org/wiki/Portada
L.A. Fernández Hermana. (2002) La flecha del tiempo virtual. Editorial
en.red.ando 304. http://lafh.info/articleViewPage.ph... L.A. Fernández Hermana.
(2002) La fiesta de los autistas. Editorial en.red.ando 306.
http://lafh.info/articleViewPage.ph... L.A. Fernández Hermana. (2003) Los
cimientos del espacio virtual. Editorial en.red.ando 356.
http://lafh.info/articleViewPage.ph...
Ciberoteca del proyecto MISTICA: http://funredes.org/mistica/castell...
Bibliotecas digitales
Hervé Le Crosnier
Ante la explosión documental provocada por la red informática, el papel de las
bibliotecas en la organización, conservación y puesta a disposición de los
documentos sigue ocupando un lugar fundamental. Contra la ilusión técnica de un
universo documental “auto - organizado”, abierto a todos, en el cual la información
circula libremente, abordar la cuestión a partir de la experiencia de las bibliotecas
nos permite concebir, por el contrario, un equilibrio entre innovaciones técnicas y
condiciones sociales de creación y difusión de los documentos. El acceso al saber
para todos necesita “bibliotecas” en el universo digital, y las bibliotecas cambian
de naturaleza y de función confrontándose a la necesidad de llenar sus misiones
sociales y culturales en el ciberespacio.
Una definición socio - técnica
En el sentido tradicional, una “biblioteca” es un lugar en el cual los libros son:
conservados para las generaciones futuras, con el fin de ofrecer una continuidad
a la producción cultural y constituir la memoria colectiva;
organizados: la “clasificación” forma parte de la emergencia de nuevos saberes
y facilita la ubicación de documentos;
y abiertos a la lectura por todos y en todo lugar. El usuario de una biblioteca
puede consultar los libros “in situ” o utilizar la “red de bibliotecas” con el fin de
obtener en su propia ciudad documentos que no están presentes en la colección
local.
Las bibliotecas funcionan desde hace tiempo “en red”, para compartir el trabajo
creando los “catálogos colectivos”, y para garantizar el Acceso Universal a las
Publicaciones. Desde la invención de los ordenadores, los centros documentales
han aprovechado para crear “bancos de datos”, verdaderos puntos de acceso a
las referencias, especialmente en el campo científico.
De este modo las bibliotecas se vuelven responsables ante los lectores
(permitirles acceder a toda la información del mundo) y ante los documentos
(garantizar que serán legibles mañana, y que serán descritos en un banco de
datos clasificado). Su experiencia puede servirnos de marco de trabajo para
pensar en “documentos digitales” en la duración y en la organización del libre
acceso al saber.
En los años 90, el mundo de las bibliotecas da nacimiento al concepto de
“bibliotecas digitales” y decide conferirle tanto preocupaciones técnicas como
misiones sociales y culturales. Christine Borgman [1] menciona en 1999 dos
enfoques distintos que son utilizados entre los profesionales de las bibliotecas.
Ella describe “un conjunto de recursos y de capacidades técnicas para crear,
buscar y utilizar la información”, pero subraya también que “las bibliotecas
digitales están concebidas y organizadas para (y por) una comunidad de
usuarios, y sus medios son utilizados para responder a las necesidades de
información y a los usos de esta comunidad”. Un enfoque que también fue
propuesto por el Virginia Tech Institute en 1998: “una biblioteca digital no se
resume en una colección digitalizada y en herramientas de gestión de la
información. Es también un conjunto de actividades que ponen en relación las
colecciones, los servicios y los usuarios a todo lo largo del ciclo de creación,
difusión, uso y conservación de datos, información y conocimientos” [2].
El uso de la informática en las bibliotecas digitales ya no se limita a la creación de
catálogos o de portales de acceso, sino que cubre el almacenamiento, la
búsqueda y la provisión en un formato siempre legible, de los documentos en sí
mismos, en su diversidad. Para la Association of Research Libraries, “las
colecciones de las bibliotecas digitales no se limitan a un cúmulo de referencias,
sino que se refieren a todos los artefactos digitales que no pueden ser
presentados o representados en forma impresa”[3]. La biblioteca digital es
también una biblioteca “multimedia”.
Digitalizar y archivar
Con el desarrollo de las redes, la lectura de los documentos se hace cada vez
más a través de lo digital. Las bibliotecas se plantearon entonces muy rápido la
pregunta acerca de la “digitalización” de los documentos impresos, pero también
de la transformación de las películas o de las grabaciones sonoras, con el fin de
facilitar su difusión. Rápidamente, también se dieron cuenta de que existía, en un
crecimiento acelerado, un conjunto de documentos que originalmente eran
digitales, especialmente en los sitios web. Otro aspecto de su trabajo se destinó a
organizar estos documentos y a asegurarles su duplicado.
La digitalización de las obras impresas ha sido lanzada a principios de los años
noventa en numerosas bibliotecas y centros de archivos en el mundo. Así, el
programa Gallica de la Biblioteca Nacional de Francia propone más de 7000
obras del siglo XIX, 80.000 imágenes y decenas de horas de grabaciones sonoras
[5]. El programa “Google Print” [6], anunciado con grandes refuerzos mediáticos
en diciembre de 2004, se propone digitalizar centenares de miles de obras de
cinco bibliotecas de los Estados Unidos. Este anuncio hizo correr ríos de tinta,
especialmente en Francia, donde el presidente de la Biblioteca Nacional de
Francia aprovechó la ocasión para ampliar Gallica hacia un programa europeo
multilingüe de digitalización [7]. El acceso a la cultura del pasado se vuelve, a
través de la digitalización, no solamente una cuestión económica, sino también
“geopolítica” [8]: hay varias visiones del mundo, y ellas están inscritas en los
libros. Para construir la Paz, hay que hacer cohabitar en el universo digital todas
las formas lingüísticas, pero también las diversas trayectorias históricas. La China
y la India, al lanzar un partenariado en Internet Archive y la Universidad de
Michigan [9]; el mundo árabe, a pesar del pillaje y la destrucción de la Biblioteca
de Bagdad, lugar de invención de la escritura; y el Africa para los manuscritos del
siglo XIII hallados en Tombuctú [10], tienen proyectos de digitalización que
pueden reequilibrar una visión demasiado “occidental” de la cultura y del
conocimiento.
Sin embargo, es grande el peligro de que el financiamiento por los países
desarrollados o las organizaciones internacionales se traduzca en un flujo en
sentido único de cultura y de conocimiento. Especialmente porque el estatuto
jurídico de las obras digitales no está claramente establecido. La digitalización
daría nuevos derechos a la empresa que la ha realizado, lo que se traduciría en
una nueva apropiación del patrimonio. El ejemplo del Código Leicester de
Leonardo da Vinci es significativo: comprado por Bill Gates se encuentra en un
cofre de banco, la única versión es digital, y el copyright ha sido atribuido a
Corbis. Si no tomamos precauciones, la digitalización puede traducirse en una
nueva privatización del dominio público.
La otra parte de la constitución de bibliotecas digitales consiste en “archivar la
web”. Así como Internet Archive [4], numerosos programas públicos y privados
tienen como objetivo constituir “colecciones” de imágenes digitales del pasado sin
embargo, cercanas a Internet. Estamos pues confrontados a varios problemas:
¿cómo seleccionar la parte de la web que será archivada (muestreo)?
¿tal archivo debe ser hecho en conexión con los editores de los sitios web, o
bien una biblioteca puede considerar que esos documentos disponibles pueden
ser archivados por ellas en nombre del uso legítimo (fair use)?
¿cómo colectar documentos dispersos en millones de máquinas?
¿cómo transformar esos documentos (páginas web) con el fin de permitir al
lector del mañana abordar la experiencia que pudo ser la de un lector en el
momento de la aparición (reproducir lo más fielmente posible no solamente el
contenido de los sitios, sino también su apariencia)?
¿cómo permitir a un lector leer documentos que ya no existen en Internet, en
razón de la desaparición de los sitios, pero que todavía no son del dominio
público? Se puede pensar que numerosos autores desean que las obras que
dejan libremente en Internet en el momento de su creación pueden quedar en
los archivos de las bibliotecas.
Esta cuestión de archivo de la web plantea también un problema más
fundamental de definición del documento en su paso a formato digital. [11]. Uno
de los mitos de Internet consiste en reemplazar el “documento”, que se puede leer
y releer, por el “flujo de información”, siempre renovado, más próximo a la
“comunicación audiovisual”. Este mito se apoya sobre una evolución muy real de
las prácticas sociales en torno a la escritura/lectura: blogs, mail, secuencias video,
podcasts, sitios evolutivos, wiki, etc. El estatuto de los autores cambia. ¿Cómo
guardar el rastro de este cambio?¿Cómo hacer disponibles las ideas y las
acciones de los años anteriores? En suma, cómo transformar el flujo de Internet
de hoy en documentos que seguirán siendo legibles mañana?
Dos estrategias para encontrar documentos digitales
Porque el ordenador se vuelve la herramienta privilegiada de la creación de
nuevos documentos, tanto en la mesa del escritor como para el investigador
universitario, tanto para el montaje de video como para la creación musical, el
número de documentos editados (en este caso, colocados en la web) se multiplica
sin medida común con los problemas anteriores. Como la cuestión de la
identificación de los documentos responde a la necesidad de un lector, el hecho
de que esta necesidad sea científica, política o cultural adquiere entonces un
lugar preponderante.¿Cómo encontrar una aguja en esta proliferación de
información?
Dos estrategias han sido establecidas:
los “motores de búsqueda” (Google, Yahoo, MSN) utilizan el contenido de los
documentos para efectuar la búsqueda. Esto favorece las búsquedas precisas
cuando la pregunta conlleva varias palabras (por ejemplo, la búsqueda de una
cita). Pero hace más difícil la búsqueda de conceptos.
Las clasificaciones de las bibliotecas digitales, y cada vez más de las
herramientas propuestas en el marco de la “web semántica” [12], apuntan a
elaborar “lenguajes documentales” en los cuales se puede “navegar” a fin de
encontrar en ellos los documentos que se hallan agrupados por proximidad de
sentido.
Estas dos estrategias son complementarias [13]. Si la primera se apoya sobre el
cálculo y en consecuencia, sobre la potencia informática, la segunda demanda
una intervención humana. La primera está sometida a las imprecisiones del
lenguaje, a las manipulaciones por los servicios de “referenciación” y a las
opciones escondidas de los algoritmos; la segunda sufre de visiones a menudo
demasiado específicas y parciales de la clasificación de conocimientos.
Cada clasificación (desde la Dewey de las bibliotecas hasta el anuario de Yahoo!)
es el reflejo de visiones acerca del mundo, de las preocupaciones “actuales” del
grupo que la crea, la desarrolla y la utiliza. Las clasificaciones utilizadas en
Internet están principalmente ligadas, hoy, a las necesidades de los países
desarrollados. Disponer de un sistema de clasificación evolutivo, completo, de
facetas múltiples y realmente mundial exige mucha inversión humana. Ahora bien,
disponemos con Internet de la capacidad de hacer cooperar a muchas personas
para esas tareas. Los proyectos cooperativos como el Open Directory Project. [14]
o la folksonomía [15] permiten a los mismos lectores participar en la clasificación
de los documentos digitales. Se constituye un nuevo rol de las bibliotecas digitales
encontrar los medios técnicos y humanos para animar esta dinámica, para
garantizar que los puntos de vista del mundo entero sean bien respetados, y para
facilitar las traducciones de los conceptos.
El modelo calculatorio de los motores de búsqueda está, por su parte, sesgado
por las limitaciones económicas que pesan sobre esas empresas. Asociar las
búsquedas documentales y las ganancias publicitarias se vuelve entonces une
necesidad que pesa a su vez sobre el equilibrio de notoriedad de los documentos
encontrados. Los documentos que aparecen en primer lugar en una lista de
respuestas son a la vez citados, lo que les hace aun más conocidos. Es un efecto
“mediático” que tiende a dividir los documentos entre un pequeño número leído y
citado muy a menudo y los otros que seguirán siendo casi desconocidos. La
cuestión de la diversidad cultural y lingüística y la de la calificación de la ciencia
(el control por los pares - peer review) no pueden ser tomadas en cuenta por el
modelo algorítmico de los motores de búsqueda. Y esto más aun cuando se trata
de documentos largos, como los libros [16].
Con los grandes motores de búsqueda, vemos emerger un real “nuevo media” en
Internet. Ahora bien, este media, herramienta de promoción, de venta de espacio
publicitario y amplificador del “éxito” de audiencia, se presenta únicamente bajo el
ángulo de una herramienta “técnica” destinada a explotar mejor los recursos de la
web. Bajo esta aparente banalidad, podemos sin embargo desde ya notar los
deslices que van a favorecer a los documentos producidos en inglés, en los
países desarrollados. Los documentos “gran público” van a ser privilegiados por el
sistema de descuento de los vínculos (la page rank de Google) en detrimento de
la búsqueda y de las obras críticas. En suma, lejos de constituir un medio de
acceder a toda la información, es grande el riesgo de favorecer solo a una parte
de la información, la que tiene los medios de constituir audiencia gracias a las
diversas técnicas de marketing que apuntan a hacer aparecer a los sitios al
comienzo de la lista. Esta nueva dominación mediática emergente es motivo de
preocupación para los países en desarrollo. Más aún teniendo en cuenta que
ninguna regla de limitación de la concentración, ninguna ley antimonopolio ha sido
establecida para ese sector.
El libre acceso al conocimiento
Las bibliotecas, porque permiten leer documentos hallados y clasificados fuera de
las reglas del mercado y de las presiones religiosas o ideológicas, son
herramientas esenciales para ampliar al mundo entero, y sobre todo en dirección
de las mujeres, el libre acceso al conocimiento. Es porque son servicios abiertos a
todos (y a todas) que las bibliotecas han buscado siempre promover la lectura, la
reflexión, el pensamiento, para todas las categorías de la población. Para
asegurar esas misiones, y finalmente mejorar el nivel de vida y de conciencia de
los individuos y de los países, las bibliotecas se apoyan en “limitaciones y
excepciones” en el marco de las leyes sobre los Derechos de Propiedad
Intelectual. La lectura pública, el uso de obras bajo copyright en las escuelas y
universidades, la difusión de la ciencia se han hecho posibles por medio de
numerosas reglas de uso presentes en las leyes y la jurisprudencia sobre el
derecho de autor o sobre el copyright. Así, es posible la noción de “fair use” (uso
legítimo) que permite a las bibliotecas hacer leer a su público, en su local o a
domicilio, las obras, las músicas o las películas y reportajes que ellas han
adquirido regularmente. Las compras de las bibliotecas constituyen un motor
económico esencial para un gran número de obras, especialmente los
documentos críticos, especializados, de alto nivel, o en lenguas minoritarias en el
seno de un país determinado.
Ahora bien, esas excepciones y limitaciones son profundamente alteradas por el
pasaje a formato digital y aún más por la difusión de los documentos por vía
electrónica en red.
En tal sentido, la IFLA (International Federation of Library Associations) recoge:
la instauración de nuevas capas legales sobre las leyes de copyright, como el
“derecho de las bases de datos” (la organización de las informaciones en base
de datos confiere una propiedad, aun si las informaciones no están sometidas a
copyright);
las Medidas Técnicas de Protección (DRM), que impiden a los lectores utilizar
las excepciones legales (por ejemplo, la copia privada);
las licencias no negociables que van más allá de las reglas sobre los usos
legítimos (cada documento digital propone une “licencia”, contrato privado cuyos
términos, redactados únicamente por el editor, se vuelven superiores a la Ley).
Agreguemos que las reglas de conservación de los documentos electrónicos no
siempre son observadas por las prácticas de los editores. Ahora bien, solo los
organismos independientes, que hayan recibido una misión, pueden garantizar la
imparcialidad y la completitud del archivo y de la preservación de los documentos.
Los ejemplos sobre la historia de documentos que desaparecieron una vez que su
uso salió de la esfera económica, son abundantes.
Agreguemos también que las bibliotecas participan en la extensión de los usos
colectivos de Internet. Ellas albergan telecentros o lugares de creación
multimedia. Herramientas de educación popular, las bibliotecas permiten a
muchas personas el aprendizaje colectivo de la lectura de documentos
electrónicos. Ahora bien, las reglas de derecho, así como las prácticas del
comercio, solamente tienen en cuenta los usos “individuales de los documentos.
Un concepto tan restringido afecta en particular a las mujeres, en los países
donde ellas están sometidas a una presión que limita su acceso a la escuela y al
conocimiento, y para quienes las bibliotecas son refugios culturales.
Entonces ¿cómo mantener y ampliar en los países en desarrollo y a las capas de
población que tienen poco acceso a la lectura, el servicio que prestan las
bibliotecas en el universo digital? Esta pregunta constituye un desafío
fundamental para un desarrollo mundial sostenible. Es también una cuestión de
salud pública (acceso a los conocimientos que permiten hacer frente a las
pandemias), de construcción de la Paz (por la inter - comprensión de los pueblos
y de las culturas), y de extensión de la democracia y de los Derechos Humanos.
Es una de las razones que conducen a los bibliotecarios, en particular los de la
IFLA, a participar en la acción de la sociedad civil para escribir un “Tratado para el
libre acceso al conocimiento” [18].
Los tres desafíos de las bibliotecas digitales
Hemos hallado tres ejes alrededor de los cuales parece necesario concebir la
construcción de bibliotecas digitales. Estos tres ejes cubren las actividades
tradicionales de las bibliotecas y al hacerlo muestran que la experiencia adquirida
con los libros y revistas en las últimas décadas puede servir también en una
situación en evolución muy rápida, más marcada por la comunicación que por la
gestión de la información documental, como la de Internet actualmente.
la conservación y la digitalización: ¿cómo elegir los documentos a digitalizar,
cómo garantizar la cobertura de todas las ideas y todos los idiomas? ¿Cómo
archiva los flujos de informaciones que circulan en Internet en provecho de
generaciones futuras? ¿Cómo conservar en el seno de los bienes comunes los
documentos del dominio público que son digitalizados?
la búsqueda documental: ¿cómo articular los modelos de motores de búsqueda
y los de clasificación, a fin de evitar que el conocimiento se convierta
únicamente en un registro de la “popularidad” de tal o cual idea o concepción?
¿Cómo desarrollar el multilingüismo y la navegación por conceptos prometidos
por la “web semántica” asociando a todos los internautas del mundo entero?
el acceso a los documentos: ¿cómo mantener las limitaciones y excepciones a
la propiedad intelectual que permiten a los bibliotecarios participar en la libre
circulación de los conocimientos en el universo digital? ¿Cómo evitar que
nuevos derechos y técnicas de propiedad asociados a los documentos
numéricos vengan a reducir la capacidad de todos y de todas, de acceder al
conocimiento?
Al mirar Internet con ojos de bibliotecario, podemos percibir mejor la necesidad de
guardar los rastros de su intensa actividad. Podemos situar mejor la reflexión en
la duración y encontrarnos menos sometidos a los entusiasmos mediáticos.
Podemos, en fin, medir en el campo de las ideas, la importancia de la
implementación de normas de descripción (los metadatos) y la interoperabilidad
(la traducción, la cooperación en la descripción documental y la necesidad de
reformatear permanentemente los documentos para que sigan siendo legibles,
siguiendo la evolución técnica) que están en el fundamento de las técnicas de
Internet.
Haciendo esto, volvemos a encontrar una concepción social de la información y
del conocimiento, que construye a la vez patrimonio (las obras del pasado) y
acceso a las informaciones más actuales (las publicaciones científicas).
Relativizamos las visiones estrictamente comerciales de la producción de cultura
y de conocimiento situándonos desde el punto de vista de los bienes comunes de
la información y de sus efectos sobre el desarrollo de las personas y de los
países.
Gestión de saberes
Pascal Renaud
En buena Filosofía, toda deducción que tiene como base hechos o
verdades reconocidas, es preferible a lo que no se apoya más que
en hipótesis, por ingeniosas que sean.
Diderot & D’Alembert - Discurso preliminar
Conservar, transmitir, difundir las ideas, los saberes. La cuestión no es nueva. Ha
sido abordada con talento por los enciclopedistas, así como ha alimentado
numerosos debates entre bibliotecarios...
Pero con la llegada de la informática, esta cuestión de gestión de conocimientos
se presentará de una manera nueva. Cierto número de “visionarios”, tales como
Alvin Toffler con el “choque del futuro” luego los “nuevos poderes”, Jean Jacques
Servan Schreiber con “el Desafío Mundial” ponen en evidencia el lugar creciente
ocupado por los saberes en los procesos de producción y el papel determinante
que la informática deberá jugar en la conservación y difusión de los
conocimientos. Estamos a finales de los años 70, los ordenadores se multiplican
en las universidades y en los laboratorios de investigación. Poco a poco, ellos irán
revolucionando el tratamiento de los conocimientos.
Su utilización para describir las obras hace nacer una nueva tecnología: la
informática documental. Ella permite efectuar operaciones de indexación y de
investigación sobre la creciente cantidad de obras. Se proyecta el desarrollo de
grandes bancos de datos documentales capaces de indexar aspectos enteros del
conocimiento humano. Se inician inmensas obras con el objeto de construir bases
de datos multidisciplinarios.
Al mismo tiempo, los que investigan la inteligencia artificial, exploran una vía aún
más ambiciosa. Se trata de hacer interactuar los conocimientos entre ellos. Por
medio de softwares que aplican los principios de la lógica matemática, logran
simular razonamientos humanos sobre fracciones de texto. Estos dispositivos,
bautizados “sistemas expertos” formulan conclusiones explorando una “base de
conocimientos”. Parecen capaces incluso de establecer diagnósticos (Mycin) o
evaluar situaciones...
Con la llegada de Internet en los años 90, las grandes bases documentales
pierden su lugar de punto de acceso central a las novedades científicas ante el
desarrollo del intercambio directo entre investigadores. Las listas de correo
electrónico, las noticias o “news”, luego la Web, favorecen nuevas practicas de
intercambio de saber. Los “newsgroups” y otros foros electrónicos se multiplican
mucho más allá de los medios científicos y técnicos. Algunos son cerrados,
reservados al uso exclusivo de sus miembros, y muchos son abiertos con un
objetivo altruista o militante.
Son estas experiencias de mutualidad de conocimientos y de libre publicación las
que finalmente van a inspirar a los teóricos de la gestión de empresa. La gestión
de conocimientos, nueva disciplina de las ciencias del management, agrupa un
conjunto de recetas destinado a obtener el mejor partido del know how y de la
experiencia de los asalariados de la empresa.
Utilizaremos en este texto el término inglés reconocido internacionalmente de
“Knowledge Management” o KM. Pero volvamos un poco sobre estos diferentes
conceptos y su evolución.
Las bases de datos documentales
A fines de los años 70, parecía entonces posible agrupar en una inmensa base de
datos la documentación de numerosas bibliotecas, aun de todas la bibliotecas, y
hacerla accesible a distancia gracias a la “telemática [1]”. El principio es indexar
cada documento (obra, mapa, artículo...), es decir describirlo con palabras clave
en un resumen. Estas descripciones son llamadas actualmente metadatos [2].
Se piensa poder ofrecer al utilizador la información exhaustiva sobre un tema,
siempre que las obras del campo correspondiente hayan sido indexadas y que
sea posible formular la pregunta en el lenguaje de la base de datos. En Francia se
crea un instituto especializado para tratar la información científica y técnica [3] y
se inicia el desarrollo de dos inmensas bases de datos para cubrir el conjunto de
las ciencias y técnicas: Pascal [4] para las ciencias exactas y experimentales y
Francis [5] para las ciencias humanas.
Los proyectos de bases de datos documentales se revelarán muy onerosos.
Tropiezan con el crecimiento vertiginoso del número de publicaciones científicas
en una situación de estancamiento relativo de sus recursos presupuestarios [6]. A
esto se agregará la dificultad de encontrar descriptores comunes a varias
disciplinas, sabiendo que cada escuela de pensamiento adopta un vocabulario
específico, generalmente muy rico y muy preciso. Ante el crecimiento de las
dificultades, numerosos proyectos serán abandonados, otros reformulados con
costos más bajos. Y finalmente solamente las bases de datos más especializadas
destinadas a comunidades científicas determinadas lograrán imponerse en la
comunidad científica internacional. Una de las más célebres es “Medline” que
posee un repertorio de más de 80 millones de artículos en ciencias médicas.
En los años 90, con la multiplicación de los sitios Web, un número creciente de
documentos fue puesto en línea. Los primeros motores de búsqueda aparecen,
de los cuales el más célebre es “AltaVista”. Pero es con Google en los años 2000
que los motores de búsqueda en Internet van a comenzar a destronar a las bases
de datos documentales.
El aumento de potencia de los ordenadores, la estandarización de los formatos de
documentos, la eficacia de las técnicas de digitalización y de reconocimiento
automático de caracteres, permiten conservar íntegramente obras en forma
digital. La indexación manual, muy costosa y muy dependiente de un contexto,
puede ser reemplazada por una indexación automática de todas las palabras.
Esos inmensos índices son explotados por motores de búsqueda cada vez más
sofisticados que son capaces de tomar en cuenta el perfil del utilizador, evaluar y
resumir el contenido de cada documento y clasificar los resultados por orden de
pertinencia.
Como la búsqueda de algunos documentos en la montaña de información
presente en la Web se parece un poco a la de un mineral en un subsuelo
desconocido, se habla de “data mining”.
Los sistemas expertos o sistemas de bases de conocimientos
Se trata de otra rama del tratamiento informático de los saberes. El objeto de los
sistemas expertos (SE) no es solamente encontrar información sino razonar sobre
ella. Un SE se compone de un “motor de inferencia” y de un conjunto de
informaciones muy estructuradas, llamado “base de conocimientos”. El motor
aplica la lógica matemática a la base de conocimientos con el fin de llegar a
conclusiones. Los principios lógicos son generalmente un poco improvisados para
simular el carácter incierto del razonamiento humano. Mientras que la base de
conocimientos está formada por reglas que constituyen la pericia en un campo.
Una regla indica por ejemplo que “si el paciente tiene fiebre y la garganta
enrojecida, entonces tiene muy probablemente (0,8) una angina”. El SE entabla
un diálogo con el utilizador en función del contexto “¿El paciente tiene fiebre?”,
“¿Es alérgico a tal medicamento? Con el fin de proporcionar un diagnóstico y
proponer un tratamiento.
Los SE obtuvieron los resultados más impresionantes en el campo médico. Las
primeras experiencias (sistema Mycin, DENDRAL) se revelan muy prometedores
[7]. Pero finalmente los investigadores trabajan intensamente para poner a punto
sistemas capaces de tratar una gran cantidad de conocimientos. El SE es tanto
más eficaz en la medida en que su campo de aplicación es restringido. Los SE de
hoy son muy especializados, están integrados a softwares de diagnóstico y de
ayuda a la decisión.
EL SE es un dispositivo inquietante, porque presenta en forma de modelo la toma
de decisión. Plantea el problema de la responsabilidad de esta decisión.
El “Knowledge Management”
El término suena bien. Responde a la lógica de marketing enseñada en las
escuelas de comercio. Considera el saber como un bien de la empresa, un capital
de conocimiento que conviene, en consecuencia, explotar lo mejor posible.
En el plano técnico, el KM asocia los métodos documentales: digitalización,
indexación, eventualmente sistemas expertos y sobre todo listas de difusión por
comunidad que comparte la misma práctica o el mismo centro de interés. Se
puede considerar que el KM recicla en provecho de la empresa capitalista,
tecnologías y usos de Internet nacidos en las comunidades científicas o militantes
y que las hicieron eficaces.
Pero el KM no se reduce a la utilización de un conjunto de tecnologías. El objetivo
es antes que nada obtener el mejor partido de los saberes de los asalariados,
explicitándolos y valorizándolos. El KM es a las competencias inmovilizadas, lo
que la gestión financiera es a los activos monetarios de la empresa. Se trata de
obtener de ellas el mayor provecho. El KM permite de este modo administrar
mejor el conjunto de las competencias de los asalariados y especialmente sacar
partido de todos los talentos y saberes extra profesionales. Los conocimientos
lingüísticos, técnicos, culturales que los empleados han heredado de su historia
personal o han adquirido en el marco de su tiempo libre podrán ser listados.
Luego los interesados son inscriptos en la «comunidad de práctica»
correspondiente. Estos saberes constituyen lo que André Gorz denomina el
capital humano [8]. “Las firmas deben apropiarse de la creatividad del personal,
canalizarla hacia acciones y metas predeterminadas y obtener su sumisión”.
El KM es el instrumento de esta canalización. Impone a los cuadros que tienen la
misión de alimentar las bases de datos el respeto de normas estrictas que
permitirá comparar las experiencias. Ellos deben poner en evidencia las lecciones
aprendidas, las dificultades encontradas y deducir las buenas prácticas. El
conjunto de notas y de informes es registrado, indexado, archivado. La base de
datos será consultada sistemáticamente para preparar cada misión. El registro de
la experiencia de la empresa forma una suerte de molde intelectual al cual cada
uno deberá conformarse. El KM refuerza de este modo la cultura de la empresa
en el sentido de que ésta es el resultado de prácticas y de una historia colectiva.
Si bien puede evitar reeditar los mismos errores, el KM estimula de esta manera
el conformismo y perjudica las iniciativas originales. Los responsables deberán
desarrollar una argumentación muy sólida para justificar un cambio de actitud.
Señalemos que British Petroleum (BP) estuvo entre las primeras empresas
comprometidas en un vasto proyecto de KM. Mientras que el Banco Mundial se
dotó de un importante servicio “para mejorar la velocidad y la calidad de los
servicios, reducir los costos evitando repetir el mismo trabajo, acelerar las
innovaciones y extender el partenariado en la lucha contra la pobreza.” [9]
¿El KM para el desarrollo?
Luego del Banco Mundial, varias agencias de cooperación se interesaron en el
KM. Es el caso, principalmente, de Bellanet [10] con su proyecto de compartir
conocimientos [11] y de OxFam que acaba de repetir una guía completa sobre el
tema. [12]
Debemos interrogarnos sobre la pertinencia de conceptos salidos de las escuelas
de comercio para la gestión de un servicio público o de una ONG. Hemos
mostrado hasta qué punto el KM forma parte de la paleta del “management” de la
empresa capitalista, apuntando a optimizar el rendimiento de su capital humano.
¿Acaso los métodos de gestión de la empresa privada cuyo objetivo es el lucro,
pueden ser transpuestos en un establecimiento encargado de una misión de
interés general y financiado por fondos públicos, ya sean nacionales o
internacionales?
Examinemos más de cerca la introducción del KM en el Banco Mundial. En junio
de 1995, James D. Wolfenson, nuevo Presidente del grupo, debe acallar las
críticas de inmovilismo y de burocracia de ciertos miembros de su Consejo de
Administración. Wolfenson quiere acelerar la adaptación del Banco a la
“extraordinaria mutación de la economía mundial (...) que se caracteriza por el
auge prodigioso del comercio mundial y de la inversión privada.” [13] Desea
generalizar los métodos de gestión de las empresas privadas y hacer de la
institución un organismo reactivo y competitivo, capaz de arrebatar mercados a
otras instituciones de cooperación internacional.
Introduce el KM y lanza una vasta reorganización de las estructuras jerárquicas
[14] y de las modalidades de evaluación del personal. Para conciliar el principio
del KM, orientado hacia la valorización egoísta del capital humano de la empresa
y la misión altruista de la institución, introduce la noción de Knowledge Sharing y
lanza el “concepto” de “Knowledge Bank” encargado de valorizar los saberes en el
Sur para luchar contra la pobreza.
En un documento de 20 páginas, traducido en varios idiomas, “saber al servicio
del desarrollo” [15], el Banco nos explica muy claramente cómo se supone que el
KM favorece el desarrollo. “Los países en desarrollo no tienen que volver a
inventar la rueda (...) en lugar de rehacer el camino ya recorrido, pueden adquirir
y adaptar una buena parte de los conocimientos disponibles en los países ricos.
Como el costo de las comunicaciones no cesa de disminuir, nunca la
transferencia de conocimientos ha sido tan barata” y un poco más lejos en las
estrategias nacionales para reducir las desigualdades, el BM nos explica que “tres
factores facilitan esta adquisición: el libre intercambio, la inversión extranjera y la
explotación bajo licencia de tecnologías importadas”. Haciendo notar sin embargo
que “los países en desarrollo sólo podrán sacar partido de la masa de
conocimientos disponibles en el mundo si adquieren la competencia técnica
requerida para investigar y seleccionar las tecnologías... asimilarlas y adaptarlas”,
propone “transformar los institutos públicos de investigación en sociedades por
acciones”. A la lectura de este documento escrito en el momento cumbre de la
implantación del KM en el Banco, es forzoso constatar que el saber propuesto
está altamente impregnado de ideología.
¿Es esa la razón por la cual los gabinetes de expertos consideran la introducción
del KM en el Banco Mundial como un éxito total? En 2004 y por cincuenta años
consecutivos, el Banco Mundial es clasificado por Teleos entre las 20 “empresas
de saber más admiradas” [16], codeándose con BP, Shell, Ernst & Young, HP,
IBM y Microsoft. Evidentemente, es más difícil saber si los mejores clientes del
Banco Mundial, es decir los países menos avanzados, están satisfechos con el
Banco del saber.
Estos mismos expertos hacen notar que el Banco Mundial es a la vez una
empresa con una cultura dirigida hacia los saberes, y una empresa abierta a
compartir el saber en colaboración. Se trata aquí de una característica específica
que se encontrará en términos parecidos en OxFam [17]. La particularidad del KM
para el desarrollo es que, a la vez, es un dispositivo de valorización de los
saberes internos y un programa de transferencia de competencias destinado a
clientes y socios.
¿Qué puede ser más generoso para el Banco que compartir su capital de saber,
su cultura interna? Este procedimiento, que se inscribe en la tradición de las
relaciones Norte - Sur, no es nuevo ni sorprendente. Los países donadores son
llevados generalmente a imponer su cultura a los países beneficiarios de la
ayuda. El KM es solo un nuevo embalaje destinado a disfrazar la relación de
dominación. Esta expresión viene a renovar oportunamente nociones demasiado
gastadas o consideradas paternalistas, tales como “asistencia técnica”,
“fortalecimiento de las capacidades” o “desarrollo de las capacidades” [18].
¿Qué hacer con el KM?
¿Es el KM una noción esencialmente neoliberal? ¿Se puede practicar un KM
alternativo cuyo objetivo no sería ni la explotación del capital humano del que nos
habla André Gorz, ni la forma contemporánea de la relación de tipo neocolonial
que analiza Kenneth King?
Señalemos en primer lugar que el término saberes crea una ambigüedad. “El
conocimiento se adquiere por la experiencia, todo el resto no es más que
información” decía Albert Einstein. El saber no se extrae, como el agua, del fondo
de un pozo. No está compuesto por elementos independientes que se eligen en
un almacén de repuestos. Se adquiere por la experiencia y el aprendizaje en un
proceso complejo que incluye una relación de confianza entre el maestro y el
alumno. Va acompañado necesariamente de la aceptación de valores comunes
que legitiman ese saber.
Pero dejemos de lado el empleo impropio de la palabra “saber” con fines de
marketing y veamos cuáles son las ideas fuerza del KM:
Administrar la información relativa a la experiencia y al know how: registrar esta
información en bases de datos documentales; asegurar su disponibilidad a
través de dispositivos sofisticados de búsqueda de información (Data Mining);
alimentar eventualmente otras herramientas de conservación de la expertise,
tales como sistemas expertos;
Favorecer la emergencia de redes de colaboradores que compartan saberes y
motivaciones (comunidad de práctica); utilizar dispositivos informáticos basados
sobre listas de e-mail, foros en línea, o software de trabajo en grupo [19] para
animar esas redes;
Para los KS (knowledge sharing), agreguemos el hecho de compartir
informaciones (de conocimientos) entre varios donadores y el compartir
informaciones (¿las mismas?) entre los donadores y sus clientes o socios.
Resulta forzoso constatar que estas prácticas de expertise colectiva, hasta se
diría de inteligencia colectiva [20] han sido inventadas por comunidades que se
dedican a compartir el saber. Se trata principalmente de comunidades científicas,
donde la investigación fundamental no puede desarrollarse sin la libre circulación
de los conocimientos. Se trata también de comunidades de desarrolladores de
software libres. Una de las características esenciales de esas comunidades es la
de funcionar sobre una modalidad de intercambio no mercantil que les sitúa en
constante oposición con los excesos de la economía liberal [21]. Mientras que el
concepto de KM está construido sobre una lógica exactamente opuesta, que
consiste en recuperar los saberes no contractuales de los empleados de una
empresa, canalizarlos e insertarlos en la cultura oficial de la empresa. El objetivo
no es compartir, sino la ventaja comparativa en la competencia comercial.
En consecuencia, dejemos el KM a las escuelas de comercio y elijamos un
vocabulario menos ambiguo y cargado de más sentido: experimentación,
aprendizaje, concertación, colaboración, publicación, gestión y repartición de
contenidos libres, inteligencia cooperativa.
Educacion en la sociedad de la información
Rosa-María Torres
¿Estamos realmente en presencia de un concepto al hablar de Educación en la
sociedad de la información?. El término no emerge con impulso y sentido propios,
sino adosado a la retórica de la “sociedad de la información” (SI), anunciada como
la sociedad del futuro, del siglo XXI. No tiene un significado único, convive con
muchos términos afines sin bordes claros, y tiene escaso desarrollo conceptual,
teórico y pedagógico. Igual que en la propia SI, en la Educación en la SI la idea de
información, de conocimiento y, crecientemente, incluso de aprendizaje, ha ido
quedando reducida fundamentalmente a las llamadas Modernas Tecnologías de la
Información y la Comunicación (TIC), que a su vez tienden a centrarse en la
computadora y la Internet, creando así nuevas identidades y formas de
inclusión/exclusión: los conectados y los desconectados.
Las tecnologias, ¿al servicio de que proyecto educativo-cultural?
Aproximarse a las comprensiones y usos que viene adoptando la Educación en la
SI implica aproximarse a cada uno de los términos que la conforman: “educación”
y “sociedad de la información”.
Tradicionalmente, el término educación evoca sistema escolar, educación formal e
infancia. El énfasis se ha puesto sobre la enseñanza antes que sobre el
aprendizaje. Se ha dado escasa importancia a este último, prevaleciendo los
indicadores cuantitativos de acceso y terminación de grados y ciclos. Aprender se
confunde con asimilar y repetir información. Suele darse más importancia a la
infraestrucura y al equipamiento que a las condiciones de enseñanza y
aprendizaje, al punto de vista de la oferta más que al de la demanda, a los
resultados por sobre los procesos. La mentalidad escolar ha contribuido a
restringir la visión y el campo de lo educativo, separándolo de lo económico, lo
social y lo cultural en sentido amplio.
Vistas desde la historia de la educación, las “modernas” TIC constituyen en
verdad la última oleada de un continuo. La tecnología educativa o instruccional
viene adquiriendo un alto perfil en el campo educativo desde hace varias
décadas: en los años 60 y 70 fueron la radio y la televisión; en los años 80 y 90
los textos escolares, el video y la computadora como auxiliar en la instrucción;
desde mediados de 1990 domina el escenario la computadora y el cederrón y, en
años más recientes, la Internet, desplazando a las “tecnologías convencionales”.
A fines de 1980 la UNICEF adoptó el término “Tercer Canal” para referirse a
“todos los instrumentos disponibles y canales de información, comunicación y
acción social (que) pueden ser usados para ayudar a transmitir los conocimientos
esenciales e informar y educar a la población en asuntos sociales”, asumiendo la
educación formal y no-formal como los otros dos canales educativos (UNICEF,
1990). La Conferencia Mundial sobre Educación para Todos (Jomtien, Tailandia,
1990), organizada por a UNESCO, la UNICEF, el PNUD y el Banco Mundial, cifró
grandes esperanzas en este “tercer canal” para alcanzar las seis metas de
educación básica para todos a cumplirse para el año 2000. Llegado el 2000, no
obstante, e incumplidas las metas, éstas se redujeron y los plazos se aplazaron
hasta el 2015. Hoy la meta para los países del Sur ya no es la “educación básica”
(satisfacción de las necesidades básicas de aprendizaje de las personas, a lo
largo de la vida, según ésta fue definida en Jomtien) sino apenas “educación
primaria” (4, 5, 6 años de escolaridad). El “tercer canal”, antes pensado como un
canal amplio compartido por tecnologías tradicionales y modernas, desapareció
de las metas educativas y se redujo a las TIC. El discurso de la Educación en la
SI en los últimos años se metió de lleno en el mundo virtual, dejando atrás la
discusión acerca de las necesidades básicas de aprendizaje de la gente y
adoptando como temas centrales la competitividad y las nuevas habilidades
requeridas por el mercado, para “adecuarse al cambio” antes que para incidir
sobre él.
Es preciso ubicar espacial y temporalmente la “revolución tecnológica” y el
anuncio de la SI y de la “era de la información”. Todas ellas parten de los países
desarrollados, especialmente de Estados Unidos, para ser luego trasladados o
bien apropiados por los “países en desarrollo” (el Sur). Emergen en la década de
1990, década que marca un giro en la historia de la humanidad, en la que se
instala el modelo neoliberal en el mundo, con sus grandes paradojas: revolución
tecnológica con creciente exclusión social, globalización con mayor localización,
concentración del poder político y económico en pocas manos junto con
expansión y articulación también global de la protesta social y los movimientos
sociales. En buena medida inspirada por el alargamiento de la vida y por la
expansión de las TIC, en la década de 1990 resurge la vieja utopía del
“aprendizaje a lo largo de toda la vida”, planteada como el paradigma que deberá
orientar los sistemas de educación, capacitación e investigación y permitirá
avizorar la “escuela del futuro” (Delors et.al. 1996; Comisión de las Comunidades
Europeas, 2000). De este contexto y momento, cruzados por poderosos intereses
y conflictos, surgen visiones muy distintas de la SI en ciernes: una SI entendida
como acceso a las TIC, que aspira a reducir la “brecha digital” y lograr un mundo
de “conectados” a la red, y una SI “con rostro humano” que trasciende a las TIC,
comprometida con el aprendizaje a lo largo de toda la vida y con la construcción
de un nuevo paradigma societal con justicia económica, equidad y bienestar para
todos. Ambas visiones están en pugna y estuvieron presentes en la Cumbre
Mundial sobre la Sociedad de la Información (CMSI, Ginebra 2003; Túnez 2005).
A menudo, los términos sociedad y era, así como información, comunicación,
conocimiento, saber, aprendizaje se utilizan de manera indistinta, sin las debidas
diferenciaciones. Un caso claro es la Encuesta Internacional de Alfabetización de
Adultos (International Adult Literacy Survey-IALS), que en 1997 hablaba de
competencias para la “sociedad del conocimiento” y en el 2000 de competencias
para la “era de la información” (OECD/Statistics Canada 1997, 2000). La CMSI
oficializó el término SI, optando por hablar de sociedad y de información. No
obstante, el término SI se presta a múltiples interpretaciones, es controversial e
incluso abiertamente cuestionado.
Una “sociedad de la informacion” que amenaza con acentuar las
desigualdades
El término “educación para la sociedad de la información” no tiene una definición
clara o única. De hecho, no ha sido incorporado a los Glosarios de los informes
mundiales sobre la educación o sobre temas vinculados a ésta. No se han
establecido parámetros o indicadores para dar cuenta de su viabilidad, pertinencia
y calidad. El Indice de Educación, componente del Indice de Desarrollo Humano
(IDH) calculado por el PNUD, se sigue construyendo a partir de dos datos
elementales - matrícula agregada de los diversos niveles educativos y tasa de
alfabetización - claramente insuficientes en la actualidad para captar el perfil y los
requerimientos educativos de cualquier sociedad.
En el marco de la fuerte tendencia a reducir la SI a las TIC, la Educación en la SI
tiende a entenderse simplemente como aprovechamiento de las TIC para fines
educativo-escolares (fuente de contenidos, reforzador didáctico, individualizador
de la enseñanza y el aprendizaje, ayuda para la capacitación y la labor docente,
facilitador en la enseñanza a personas con necesidades educativas especiales,
etc.), para usar en la escuela o para ampliar el campo de los aprendizajes fuera
de ésta, para ayudar al docente o bien para sustituirlo. “Educación y TIC” o “Uso
de las TIC en educación”, o “alfabetización digital”, son hoy modos concretos de
referirse a esta visión de la Educación en la SI. Muchos incluso la confunden con
educación virtual o electrónica (e-learning), privilegiando así el medio y los
entornos, desplazando al sistema escolar como eje de la educación y los
aprendizajes sistemáticos, y a menudo reforzando por esta vía la fuerte tendencia
actual a la privatización de la educación.
Como rasgos constitutivos de la Educación en la SI suelen mencionarse: oferta
educativa flexible, diversificada, individualizada, adecuada a las necesidades de
grupos y objetivos específicos. Las preocupaciones continúan centradas en torno
a la oferta, las oportunidades y el acceso (a la computadora, a Internet), más que
en torno a la pertinencia y calidad de contenidos y métodos, las condiciones de
producción y difusión de dichos contenidos, y, en general, a la pregunta de qué
información/educación y para qué (impacto social). El hardware domina sobre el
software de las tecnologías y de la propia educación, la información sobre la
comunicación, el conocimiento y el aprendizaje. Asimismo, prima un enfoque
pasivo y reactivo frente a las TIC - vistas como herramientas capaces de difundir
información- antes que un enfoque activo y proactivo que ve a los sujetos no
únicamente como consumidores sino también y fundamentalmente como
creadores de información y conocimiento.
De las primeras redes telemáticas (años 80), empeñadas en conectar escuelas
entre sí a nivel nacional e internacional, hemos pasado a macropolíticas y
proyectos que se proponen instalar computadoras en cada escuela y, más
ambiciosos aún, a hacer realidad el aprendizaje personalizado y a lo largo de toda
la vida, entre otros con ayuda de artefactos manuales que caben en la palma de
la mano y que cada persona puede llevar consigo. Nunca estuvo tan cerca y a la
vez tan lejos, en efecto, la posibilidad del aprendizaje permanente: cerca para la
minoría que puede hoy acceder a estas y otras vías de aprendizaje; muy lejos
para la inmensa mayoría de la humanidad, para los pobres, para las personas
analfabetas (más de 900 millones en el mundo) y para los que viven con menos
de 1 dólar por día (1.200 millones de indigentes), para quienes se prescribe hoy
cuatro años de escuela primaria, a cursarse dentro de la llamada “edad escolar”.
Concretamente, esto es lo que proponen hoy para la educación los Objetivos de
Desarrollo del Milenio (2000-2015) - adoptados acríticamente por la CMSI - junto
con la igualdad de sexo en términos de acceso a la educación primaria y
secundaria, sin ninguna meta específica referida al analfabetismo adulto. Estamos
pues participando de una curiosa era de la información, en la que el derecho a la
educación se achica, mientras se agranda la brecha económica y social entre el
Norte y el Sur, y entre pobres y ricos.
Algunos nudos criticos para la reflexion y el debate
Enunciamos aquí algunos problemas y dilemas (de orden conceptual, político,
social, ético y pedagógico) vinculados a la SI y a la Educación en la SI en ese
marco.
La educación en la sociedad de la información es un enunciado problemático,
difícil de resignificar, atrapado en dos términos: educación (cuando lo que se
busca el aprendizaje, el aprender a aprender) e información (cuando el objetivo
es trascender el dato, conocer, comprender, aprender, crear).
Indiferenciación entre información y conocimiento, entre SI y SC, y uso de
ambos como si fuesen intercambiables, con acento sobre la información más
que sobre la comunicación.
Indiferenciación entre información y educación, capacitación y formación,
educación y aprendizaje. De estas indiferenciaciones y simplificaciones surgen
atribuciones a las TIC que no corresponden y aún pocas exploraciones
sistemáticas acerca del potencial informativo, comunicacional y propiamente
educativo/formativo de las TIC y sus variados usos.
Las modernas TIC colocadas en el centro de la información y la comunicación,
desplazando a las TIC tradicionales y a instituciones claves como la familia, la
comunidad, el sistema escolar, los medios masivos de comunicación, la
biblioteca, el lugar de trabajo, etc.
Las TIC (y las propias nociones de información y comunicación) reducidas a
computadora e Internet. Además, el apelativo de “modernas” para calificar a las
TIC es relativo; hay otras tecnologías modernas, otras lo fueron antes y éstas
dejarán de serlo pronto.
Las TIC entre la resistencia y la fascinación, con la fascinación ganando la
batalla. “Tener computadora y hablar inglés” han pasado a ser expectativas y
falsos indicadores de calidad en el sistema escolar, público y privado, y en
muchas ofertas educativas no-formales.
Entre la domesticación y el empoderamiento: el doble filo de las TIC, que se
prestan tanto para la globalización del modelo neoliberal como para la
globalización de la protesta, la solidaridad y la construcción de otro mundo
posible (Foro Social Mundial).
“Reducir la brecha digital” planteada como un objetivo en sí mismo, sin atención
a las brechas estructurales (políticas, económicas y sociales, entre el Norte y el
Sur, y dentro de cada país) que la sustentan.
Poderosos intereses y réditos financieros y políticos detrás de la carrera por las
TIC quedan ocultos tras la retórica de la SI. El campo educativo se ha convertido
en mercado privilegiado, disputado desde la política y desde la empresa privada
y las grandes corporaciones multinacionales.
Tensión entre lo local, lo nacional y lo global, con una fuerte tendencia
fagocitadora de los poderes y las industrias culturales globales, y el avance de la
inculturación, la homogenización y el pensamiento único.
Grandes expectativas puestas sobre las TIC como artífices de la esperada
revolución educativa, desviando la atención y los recursos de las condiciones
esenciales y los factores estructurales que condicionan la oferta y la demanda
educativa: el modelo económico, las políticas sociales, la deuda externa, la
cooperación internacional, la cuestión docente. Una mala escuela con
computadora sigue siendo una mala escuela.
La SI y el énfasis en la información contribuyen a reforzar, antes que a evitar,
problemas de viejo arrastre de la educación y los sistemas escolares, como la
memorización, el enciclopedismo, el aprendizaje sin comprensión, las
jerarquías, asimetrías y roles fijos entre emisores-docentes y receptoresalumnos. La “educación bancaria” ha salido del aula de clases y se ha extendido
a escala planetaria.
Reiteración de los errores, desestimando las lecciones aprendidas. Países y
agencias internacionales reiteran los mismos problemas y errores en el diseño y
ejecución de políticas y proyectos vinculados a las TIC y la educación.
Dobles discursos y agendas duales para el Norte y para el Sur. En plena
emergencia de la SI, el Norte adopta para sí el aprendizaje a lo largo de toda la
vida y prescribe para el Sur cuatro años de escolaridad, pensar globalmente y
actuar localmente. La “ayuda oficial para el desarrollo”, ni por su volumen ni por
sus condicionalidades, no soluciona un problema histórico de asimetría,
inequidad y creciente endeudamiento externo.
Hacia una sociedad del aprendizaje para todos
Partimos de constatar que la SI es un proceso en marcha, antes que una realidad
dada, y que la verdadera aspiración es construir sociedades que aprenden,
sociedades del aprendizaje. En esa ruta, una educación en y para la sociedad de
la información debería ser una educación que:
Asegura la alfabetización universal y una formación básica, relevante y de
calidad, a toda la población, en los países del Norte y en los del Sur.
Promueve y busca articular los aprendizajes dentro y fuera del sistema escolar,
en la educación formal, no-formal e informal, en la familia, en la comunidad, en
los espacios de trabajo, de producción, de creación y recreación, de
participación social, etc.
Aprovecha todas las herramientas y tecnologías disponibles - no sólo las TIC en el marco de una estrategia integral de comunicación y aprendizaje
Enseña a buscar y aprovechar selectiva y críticamente la información y el
conocimiento disponibles; a identificar, producir y difundir información,
conocimientos y saberes; a desarrollar el pensamiento autónomo y el
pensamiento complejo; a participar activamente en la acción social
transformadora y superadora de la propia realidad, a su vez fuente y proceso de
conocimiento y aprendizaje.
Defiende y encarna en su propia práctica el derecho a la educación entendida
fundamentalmente como derecho de todos y todas a aprender, a aprender a
aprender, y a aprender a lo largo de toda la vida.
Fuentes y referencias
Ballantyne, Peter. 2002. Collecting and Propagating Local Development Content.
Synthesis and Conclusions. Research Report, Nº7, May 2002. International
Institute for Communication and Development (IICD in collaboration with the
Tanzania Commission for Science and Technology. Funded by the UK Department
for International Cooperation (DFID). London. http://portal.unesco.org/ci/en/file...
content.pdf
Barbero, Jesús Martín. 2004. “Metáforas de la experiencia social”, en: Grimson,
Alejandro (comp.), La cultura en las crisis latinoamericanas. Buenos Aires:
CLACSO Libros, 2004.
Cabrera Almenara, Julio, “Nuevas tecnologías, comunicación y educación”, en:
Edutec, Revista Electrónica de Tecnología Educativa, Nº 3, sep. 1996.
http://www.uib.es/depart/gte/edutec...
Castells, Manuel. 1998. La era de la información. Economía, Sociedad y Cultura,
3 volúmenes. Madrid: Alianza Editorial.
Capurro, Rafael. 1989. “Towards an Information Ecology”. Contribution to the
NORDINFO International Seminar “Information and Quality”, Royal School of
Librarianship, Copenhagen, 23-25 August 1989. http://www.capurro.de/nordinf.htm
Center for International Development at the University of Harvard. 2002. The
Global Information Technology Report 2001-2002: Readiness for the Networked
World. http://www.cid.harvard.edu/cr/gitrr...
CIRET -International Center for Transdisciplinary Research, Moral Project (1987),
adopted at the I World Congress of Transdisciplinarity, Portugal, Nov. 2-6, 1994.
http://perso.club-internet.fr/nicol...
Comisión de las Comunidades Europeas. 2000. Memorándum sobre el
Aprendizaje Permanente. Bruselas: Documento de trabajo de los Servicios de la
Comisión.
Corea, Cristina y Lewkowicz, Ignacio. 2004. Pedagogía del aburrido. Escuelas
destituidas, familias perplejas. Buenos Aires: Paidós Educador.
Council of the European Union. 2001. Report from the Education Council to the
European Council “The concrete future objectives of education and training
systems”. Brussels, 14 February 2001.
Cumbre Mundial sobre la Sociedad de la Información (CMSI), Declaración de
Principios, “Construir la sociedad de la información: Un desafío mundial para el
nuevo milenio”, Documento WSIS-03/Geneva/Doc/4-S, 12 diciembre 2003.
http://www.psi.gov.ar/Documentos/De...
Dede, Chris (comp.) 2000. Aprendiendo con tecnología. Buenos Aires: Paidós.
Delors, Jacques et. al. 1996. La educación encierra un tesoro. Informe a la
UNESCO de la Comisión Internacional sobre la educación para el siglo XXI.
Madrid: Santillana, Ediciones UNESCO.
De Moura Castro, Claudio (IDB). “Education in the Information Age: Promises and
Frustrations”, Techknowlogia, Vol. 1, Nº 2, Nov.-Dec. 1999.
http://www.techknowlogia.org/TKL_ac...
Education for All - EFA Forum. 2000. The Dakar Framework for Action, World
Education Forum (Dakar, 26-28 April, 2000). Paris: UNESCO.
Faure, Edgar et.al. 1972. Learning to Be. The World of Education Today and
Tomorrow. Paris: UNESCO.
García Canclini, Néstor. 2004. Diferentes, desiguales y desconectados. Mapas de
la interculturalidad. Barcelona: Gedisa Editorial.
Guttman, Cynthia. 2003. Education in and for the Information Society. Paris:
UNESCO-WSIS Publication Series. http://portal.unesco.org/ci/en/file...
Haddad, Wadi, D. “If Technology is the Solution, Where is the Problem?”, in:
Techknowlogia, Vol. 1, Nº 2, Nov.-Dec. 1999.
http://www.techknowlogia.org/TKL_ac...
Katz, Jorge y Hilbert, Martin. 2003. Los caminos hacia una sociedad de la
información en América Latina y el Caribe. Santiago: CEPAL.
http://www.eclac.cl/cgi-bin/getProd... tpl/top-bottom.xslt
Mattelart, Armand. 2004. “La sociedad de la información: La retórica en acción”,
en: América Latina en Movimiento, No. 385-386, edición especial, Foro Social de
las Américas. Quito: ALAI. http://alainet.org/active/show_text...
Morin, Edgar. 1999. Los siete saberes necesarios para la educación del futuro.
París: UNESCO.
Morin, Edgar. 2004. Introducción al pensamiento complejo. México: Gedisa.
OECD. 1999. Education Policy Analysis 1999 Edition, “ICT in Education: Trends,
Investment, Access and Use”. http://www.oecd.org/topic/0,2686,en...
OECD/ Statistics Canada. 1997. Second Report of the International Adult Literacy
Survey (IALS). Literacy Skills for the Knowledge Society. Paris.
OECD/ Statistics Canada. 2000. Literacy in the Information Age. Final Report of
the International Adult Literacy Survey -IALS. Paris.
http://www1.oecd.org/publications/e...
PNUD. 2001. Informe sobre el Desarrollo Humano 2001 “Poner el adelanto
tecnológico al servicio del Desarrollo Humano.” Nueva York.
http://www.undp.org/hdr2001/spanish...
Torres, R.M. 1998. “Learning: Twelve Common Wrong Assumptions and their
Implications”. Paper presented at UNICEF Global Seminar “Basic Education for
the 21st Century”, Innocenti Center, Florence, 25 October-3 November 1998.
Torres, R.M. 2001a. “Knowledge-based aid: Do we need it, do we want it”?, in:
Gmelin, W.; King, K and McGrath, S. (eds.) Knowledge, Research and
International Cooperation. UK: University of Edinburg.
http://www.redistic.org/index.htm? body=proyectosj
Torres, R.M. 2001b. Comunidad de Aprendizaje: Repensando la educación desde
el desarrollo local y desde el aprendizaje. Ponencia presentada en el Simposio
Internacional sobre Comunidades de Aprendizaje, Barcelona Forum, Barcelona, 56 Octubre 2001 http://www.immagen.com/fronesis/rmt...
Torres, R.M. 2001c. “La profesión docente en la era de la informática y la lucha
contra la pobreza”, en: Análisis de Prospectivas de la Educación en América
Latina y el Caribe. Santiago: UNESCO-OREALC.
http://www.unesco.cl/medios/bibliot...
Torres, R.M. 2002. “Lifelong Learning in the North, Education for All in the South?”,
in: Carol Medel-Nuevo (editor), Integrating Lifelong Learning Perspectives.
Hamburg: UIE-UNESCO. http://www.unesco.org/education/uie...
Torres, R.M. 2004. Lifelong Learning in the South: Critical Issues and
Opportunities for Adult Education. Sida Studies 11. Stockholm: Sida.
http://www.sida.se/content/1/c6/03/...
UNESCO. 1998. Educating for a Sustainable Future: A Transdiciplinary Vision for
Concerted Action. Paris.
UNESCO. 2000. Informe Final. Foro Mundial sobre la Educación (Dakar, 26-28
Abril, 2000). París.
UNESCO. 2002. Building Knowledge Societies, 164th session of the Executive
Board, Paris, 25 April 2002 http://portal.unesco.org/ci/en/ev.p...
UNESCO. 2004a. World Report ‘Building Knowledge Societies’ 2004. Paris.
http://unesdoc.unesco.org/images/00...
UNICEF. 1990. Children and Development in the 1990s: A UNICEF Sourcebook,
on the ocasión of the World Summit for Children. New York, 26-30 Sep. 1990.
Visser, Jan. 2004. “The role of human learning in the information age: Challenges
and opportunities for Latin America and the rest of us”, in: Almeida, V.; BaezaYates, R.; Camarena, M.I. (Eds.), The role of humanity in the information age: An
Ibero-American perspective. (in press). http://www.learndev.org/dl/HumanLea...
WCEFA (World Conference on Education for All/ Inter-agency Commission). 1990.
World Declaration on Education for All and Framework for Action to Meet Basic
Learning Needs (Jomtien, Thailand, 5-9 March 1990). New York-Paris.
Sitios en la web
@LIS: Alianza para la Sociedad de la Información entre Europa y América Latina
http://www.alis-online.org
Commonwealth of Learning http://www.col.org/
Cumbre Mundial de la Sociedad de la Información (CMSI)
http://www.itu.int/wsis/index-es.html
EduTec - Revista Electrónica de Tecnología Educativa
http://www.uib.es/depart/gte/edutec...
EDUTEKA - Tecnologías de Información y Comunicaciones para la Enseñanza
Básica y Media http://www.eduteka.org/
Europe’s Information Society http://europa.eu.int/information_so...
Europe:
Education and training for the knowledge society
http://europa.eu.int/information_so...
European Union (EU) documents on education and training
http://elearningeuropa.info/ecb.php...
European Commission / E-learning initiative http://europa.eu.int/comm/education...
E-learning Europe http://elearningeuropa.info/
Eurydice/LifelongLearning http://www.eurydice.org/LifeLongLea...
Finland - The National Strategy for Education, Training and Research for the
Information Society (1995) http://www.minedu.fi/julkaisut/info...
Harvard’s Handheld Devices -WHD- for Ubiquous Learning Project
http://gseacademic.harvard.edu/ hdul/
iEARN - A Pioneer and Leader in the Field of Educational Telecommunications
http://www.iearn.org/about/about_hi...
Instituto Fronesis http://www.fronesis.org
Learning Development Institute http://www.learndev.org/
Mistica - Ciberoteca http://www.funredes.org/mistica/cas...
OECD/Education http://www.oecd.org/topic/0,2686,en...
OEI-Biblioteca Digital, Educación y Nuevas Tecnologías
http://www.oei.es/mapa.htm
OEI-Programas Educación y Nuevas Tecnologías
http://www.oei.es/nuevas_tecnologia...
SITE-Society for Information Technology and Teacher Education
http://site.aace.org/
Techknowlogia http://www.techknowlogia.org/
UNESCO-Education for All (EFA) website http://www.unesco.org/education/efa...
UNESCO-Learning without Frontiers: Constructing Open Learning Communities
for Lifelong Learning http://www.unesco.org/education/lwf/
Al momento de su acceso (marzo 2011) en el website del libro no hay versión en
español de este artículo. Hay traducciones al francés y al portugués
Derechos humanos
Rikke Frank Jørgensen
The concept of human rights in the information society involve comprehension of
two key phrases; human rights and the information society.
Linking a legal tradition to a vaguely defined policy concept
Human rights draw on deep and widespread historical roots since practically all
cultures, religions, and philosophies include human rights principles, though they
also contain practices which are incompatible with human rights. However, one
important date for placing it on the international agenda is December 10, 1948
when the Universal Declaration of Human Rights (UDHR) was adopted at the UN
General Assembly in the aftermath of the Second World War to ensure that such
horror would never again occur. The UDHR has since been developed into a large
body of international conventions and declarations, some of them legally binding,
others political statements, which UN member states commit to follow in their
national legislation and practice. [1]
In the following, human rights are referred to as defined in the Universal
Declaration of Human Rights, the International Covenant on Civil and Political
Rights, and the International Covenant on Economic, Social and Cultural Rights,
as civil and political rights of citizens, as well as their economic, cultural, and social
rights. At the 1993 UN World Conference on Human Rights held in Vienna, the
international community reaffirmed the four principles that lie at the heart of the
human rights regime: human rights are universal (rights belong to all persons),
indivisible (rights cannot be separated from one another), interrelated (rights
impact upon one another) and interdependent (a right cannot be fully achieved
without fulfilment of all other rights) [2].
The term information society has academic roots dating back to the mid-seventies
[3] but was politically revitalized by the American and European project to privatize
and liberalize the telecommunication sector globally. In 1994, Al Gore as the US
Vice President, announced the creation of “the Global Information Infrastructure”,
echoed at the European level in a number of white papers and reports in the mid¬nineties, the most famous of which was the Report of the Bangemann High Level
Expert Group in 1994. In official rhetoric the many political, economic, scientific,
and social changes related to globalization and communication infrastructure soon
became “the information society” [4].
At civil society level, American and European NGOs in particular have since the
early nineties focused on specific human rights challenges within a digital
environment, especially in relation to the protection of privacy and freedom of
expression. This initial US / European lead has today turned into an increasingly
large number of civil society groups from all over the world, focusing on analysis
and policy campaigns for the defense of human rights standards in a digital
context. [5] One of the largest networks of these groups is the Global Internet
Liberty Campaign (GILC), an umbrella organization with currently more than 60
member organizations [6]. However, long before the development of the cyber
rights community with its more specific Internet focus, a number of social
movements had raised issues of information and media ownership and access to
communication. [7]
When the World Summit of the Information Society (WSIS) process took off in
2002, one of its important contributions was to create and facilitate a global space
where these very diverse civil society groups and movements met and were forced
to interact since they were included in a formal UN process as one voice; the voice
of “civil society” [8]. Both in terms of mutual ¬learning and networking on a global
scale, and in terms of ¬putting human rights on the information society agenda [9],
the WSIS process played a significant role.
Dignity, liberty, and the equity of all human beings
No single definition of the rather broad concept of “human rights in the information
society” exists, although many documents praise human rights as the foundation
for the information age.
The concept has at least two connotations. One relates to the ways in which
technology can be used as an enabler for human rights workers. Countless
examples exist showing how Internet has facilitated communication from
suppressed groups, have enabled human rights activists to report on violations, to
campaign across borders and to reach global information, and support to
strengthen their case [10].
The other use of the concept, which is the main focus here, relates to the
challenge of protecting and enforcing human rights standards at a point in time
when new communicative means are essentially changing the way we live, work,
and develop. Human rights are subject to dynamic interpretation, and part of their
essence is their recognition as standards in a given context at a given time. This
requires analysis as to how human rights are affected by current developments,
how the core of a given right is potentially threatened, how it can be enhanced,
and - crucially - to what extent the existing system of protection is adequate and
effective given the realities of new technological developments. The international
body of human rights is thus in perpetual evolution to dismiss new threats as well
as to encompass new opportunities for their extension. Historically this evolution
has always been the result of social struggles led by different groups in specific
historical junctures. The relatively recent codification of women’s rights and the
rights of indigenous peoples are a case in point.
Civil Society representatives attending the WSIS have stressed that to apply the
human rights framework to the information society implies taking dignity, liberty
and the equity of all human beings as the starting point of reference rather than
technological considerations. It entails the task of addressing the basic values we
wish to guide the direction of the information society, and to ensure that these
standards continue to be upheld.
One central human rights challenge to the many societal changes, which we call
the information society, is the protection of human dignity, liberty, and equity as
technology becomes more invasive, as measures for information control,
ownership and surveillance stronger, and inequality more visible. [11]
Several trends that characterize the development of the information society
represent challenges to, and in many cases serious dangers for, a human rightsbased information society. These include extended regimes for information
ownership and management (i.e. copyright and patent regulation, trade
agreements, digital rights management systems), rapid advances in surveillance,
profiling, and retention of personal data (i.e. counter terror legislation, radio
frequency identification devices, IPV6, etc.) [12], and new means for censoring
and blocking information (i.e. state firewalls and filters, ISP licensing), to mention
but a few of the current developments [13].
The Human Rights framework is in perpetual evolution
The acknowledgment of human rights as the foundation for the information society
was after many negotiations included in the official outcome from the WSIS
Geneva Summit in 2003. The Declaration of Principles [14] in Article One speaks
of an information society “respecting fully and upholding the Universal Declaration
of Human Rights”. The vision articulated by the Declaration also stresses the four
principles of universality, indivisibility, interrelated, interdependency as reaffirmed
in the Vienna Declaration and Programme of Action. In other words, human rights
in the information society are not only about civil and political rights, such as
freedom of expression, freedom of assembly, the right to a fair trial or the right to
privacy, but equally include economic, social, and cultural rights, such as the right
to an adequate standard of living, to education, to health, to benefit from scientific
progress, and so on. This is important to bear in mind, since some civil society
groups tend to see human rights as something secondary to issues of
development, rather than the normative foundation for any society independently
of its level of development. At the same time, some civil society organizations,
especially from northern countries, have a narrow understanding of human rights,
and focus primarily on civil and political rights - or only freedom of expression [15].
The Geneva Declaration of Principles affirms that the information society must not
result in discrimination or deprivation of human rights and that states are obliged to
promote and respects all human rights within this context. [16] However, as stated
by the then Acting UN High Commissioner for Human Rights, there is yet no clear
response on how to meet this challenge: “We seek to build an Information Society
where people and individuals are placed at its centre, where human dignity is
firmly upheld and where human rights are recognized as its guiding principles.
How can we best ensure that these principles are reflected in an Information
Society? How can we make best use of information and communication
technologies, which are the vital tools and building blocks in this endeavor? These
questions await our answer, our commitment and our concerted action” [17].
From a legal perspective, many of the regulatory challenges relate to the
transnational nature of the Internet. International agreements have traditionally
been based on the premise of territorial jurisdiction, and Internet as a global
communication space challenges this premise. One of the current policy debates
related to the global nature of Internet concerns human rights and Internet
governance, and to what extent the current mechanisms for Internet governance
have an impact on human rights. Many civil society groups argue that human right
issues of privacy, freedom of expression, access to information, and the public
domain of knowledge are at stake in the existing governance structures.
Furthermore, there is the challenge of reforming the existing governing structures,
since the current forum for domain name management is a private party
dominated by a limited number of countries and based on a contract with a single
government. Here the human rights stance has been that the result of the ongoing
negotiations must ensure that the future mechanisms for Internet governance are
human rights compliant, both in their composition and governing structures and
through regular monitoring and assessment of their decisions. “It is a state
responsibility to ensure that Internet governance mechanisms are compliant with
human right standards, that there are means to enforce them, and that
governments can be held accountable for human rights violations, including before
international courts. Internet governance mechanisms can and should further
human rights by ensuring an enabling environment that protects and enforces
human rights standards and democratic principles of inclusiveness, transparency,
checks and balances, and the rule of law”[18]. At present, there seem to be a
growing acceptance of Internet as a global commons, which implies effective
access for all countries to participate in decisions regarding enjoyment of this
common good.
Another debate concerns the global CRIS (Communication Rights in the
Information Society) campaign. The CRIS campaign has raised issues of
knowledge ownership and media diversity within the information society agenda,
and demands the recognition of a new human right; the right to communicate. In
response to this, a number of human rights groups have argued that these issues
can and should be addressed within the existing human rights framework. The
right to communicate should not be conceived as a new and independent right but
rather as an umbrella concept; communication rights, encompassing the effective
implementation of a group of related existing rights. [19]
A continuous and final battlefield to be mentioned is the struggle to ensure that
working for and with human rights in the information society does not limit itself
solely to the affirmation of already set human rights standards, but includes the
effective protection and implementation of these rights.
With regard to technical developments entailing privacy threats, these call for a
tight legal and political framing, which must be built upstream through privacy
impact assessments, and not only once the risks have manifested themselves in
our everyday life.
It is urgent that we continuously address the challenge of bringing people and
countries closer to the standards outlined in the human rights treaties, and
evaluate their realization through benchmarks and indicators for national
enforcement and compliance. So far the WSIS process has shown little political
willingness to address this challenge.
Delito informático
Stephanie Perrin
El término delito informático se acuñó a finales de los años noventa, a medida que
Internet se expandió por toda Norteamérica. Después de una reunión en Lyón,
Francia, se fundó un subgrupo del grupo de naciones que conforman el
denominado “G8” con el objetivo de estudiar los problemas emergentes de
criminalidad que eran propiciados por o que migraron a Internet. El “Grupo de
Lyón” utilizó el término para describir, de forma muy imprecisa, todos los tipos de
delitos perpetrados en la red o en las nuevas redes de telecomunicaciones que
tuvieran un rápido descenso en los costos.
Al mismo tiempo, y guiado por los participantes en el grupo de Lyón, el Consejo
Europeo comenzó a diseñar el Tratado sobre Delito Informático [1]. Este tratado,
que fuera presentado a la opinión pública por primera vez en el año 2000,
incorporó una nueva gama de técnicas de vigilancia que las agencias encargadas
de la aplicación de la ley consideraban necesarias para combatir el “delito
informático”. ¿Cómo se definió el delito informático? La versión final de ese
tratado, aprobada en noviembre de 2001 después de los acontecimientos del 11
de septiembre, no definió el término. Es un término muy amplio referido a los
problemas que aumentaron el poder informático, abarataron las comunicaciones y
provocaron que haya surgido el fenómeno de Internet para las agencias policiales
y de inteligencia. El tratado describe de la siguiente manera las diferentes
disposiciones y áreas temáticas en las que se requiere una nueva legislación:
Título 1 - Delitos contra la confidencialidad, integridad y disponibilidad de los
datos y sistemas informáticos.
Título 2 - Delitos relacionados con las computadoras [falsificación y fraude].
Título 3 - Delitos relacionados con el contenido [pornografía].
Título 4 - Delitos relacionados con la violación del derecho de autor y los
derechos asociados.
Título 5 - Responsabilidades secundarias y sanciones [cooperación delictiva,
responsabilidad empresarial].
Delito informático: la caja de Pandora
Las disposiciones relativas a los delitos son en realidad muy concisas; la mayor
parte del tratado se refiere al derecho procesal y la cooperación internacional. El
proceso judicial exitoso exigía nuevas técnicas para recoger evidencias, asegurar
su integridad y compartirlas a escala internacional. Las órdenes expeditas de
preservación de los datos, las garantías electrónicas, la captura de datos en
tiempo real y la retención de los datos del tráfico traían consigo una intrusión en
las libertades civiles. El aumento de la dependencia de los tratados mutuos de
asistencia legal, incluso en los casos en que no existía un doble carácter delictivo,
destapó una Caja de Pandora de cargos criminales potenciales que yacían en los
regímenes de todo el mundo. Aunque el Tratado sobre Delito Informático ha
enunciado claramente los problemas inherentes a la investigación internacional
del delito, no ha abordado los métodos para mantener la privacidad y los
derechos humanos.
Al principio hubo una gran confusión. El delito informático se aplicaba a nuevos
tipos de criminalidad, tales como la pornografía cibernética o la distribución de
imágenes pornográficas que violaban algunas (pero no todas) leyes de los países
con respecto a la pornografía inaceptable o al material utilizado para explotar. El
hecho de que Internet no tenga fronteras, facilitó a las personas la distribución de
materiales a escala internacional, en ocasiones sin dejar rastros sobre su autor.
Una nueva forma de delito fue también la penetración ilegal en los sistemas
computarizados o “piratería informática”, que en muchos países aún no constituía
un delito penal. Uno de los propósitos del Tratado sobre Delito Informático fue
establecer y acordar las disposiciones que debían aparecer en las legislaciones
de los signatarios con el objetivo de luchar contra la nueva actividad delictiva con
más coordinación. Otro tema fueron los juegos de azar en línea; estaban
surgiendo pistas de carreras virtuales en Internet, y a pesar de que los países
variaron considerablemente su enfoque con respecto a los juegos de azar,
muchos países desarrollados contaban con las ganancias provenientes de estos
juegos para los presupuestos del gobierno o las economías basadas en el
turismo; para ellos, el surgimiento de competidores virtuales que operaban desde
paraísos fiscales constituyó una gran preocupación.
Retención de datos, criptografía: dos temas fundamentales de la seguridad
que están en peligro
Antes de que se presentara a la opinión pública el Tratado sobre Delito
Informático, los libertarios civiles del mundo estaban ocupados en combatir
diferentes cambios domésticos destinados a introducir la retención obligatoria de
datos o el almacenamiento de los ficheros de registros de las telecomunicaciones
y del tráfico en Internet con el propósito de investigar el delito. La retención de
datos se consideraba parte de un paquete de controles, que el FBI había
introducido por primera vez alrededor del año noventa y dos, necesario para
combatir el delito en la “autopista de la información” como lo denominamos en los
primeros años de Internet. Durante los años noventa, los activistas de Internet, los
expertos técnicos y las empresas privadas lograron aunarse en la lucha contra la
imposición de controles sobre la criptografía, incluyendo los proyectos de
depósitos de clave, en los que el gobierno conservaría una copia de todas las
claves criptográficas con el objetivo de investigar con mayor facilidad la actividad
y la evidencia delictiva. El más famoso de estos fue el “Clipper chip”
estadounidense, un proyecto que no solo proponía que el gobierno controlara las
claves de codificación, sino que desarrolló un algoritmo cerrado o propietario que
ningún experto tenía la autorización de analizar ni de evaluar. La seguridad es una
carrera armamentista, en la que los algoritmos y los controles de seguridad
necesarios para su exitosa puesta en funcionamiento son atacados tan pronto se
presentan, de modo que los únicas medidas de seguridad en que confían los
expertos son los sistemas que han sido expuestos a ataques y han sobrevivido la
prueba. Originalmente, la criptografía era dominio de los expertos militares y de
seguridad nacional, pero cada vez más los civiles fueron estudiándola y pasó a
ser de uso público.
En 1991, Phil Zimmerman, pacifista y experto en criptografía, presentó en
“Usenet” un programa criptográfico denominado Pretty Good Privacy o PGP, con
lo que hizo que potencialmente estuviera disponible en los países donde los
Estados Unidos se negaban a exportar la criptografía fuerte. El gobierno de los
Estados Unidos inició una investigación del Gran Jurado que duró tres años,
hasta que se retiró sin cargos criminales en enero de 1996. Phil se convirtió en un
héroe en la comunidad “Net”, puesto que había contribuido a que los disidentes
políticos en países como Letonia codificaran sus comunicaciones y evitaran la
vigilancia del Estado, pero durante un período de tres años enfrentó una posible
condena por la exportación de criptografía.
Este enfrentamiento en la exportación de criptografía continuó durante varios
años, ya que era una clásica situación en la que nadie gana: Si bien era cierto
que, por ejemplo, un delito cometido por personal administrativo podía ser
encubierto completamente por una persona que utilizara una criptografía
indescifrable y fuerte, también era cierto que una compañía necesitaba protegerse
del espionaje industrial y de la manipulación indebida delictiva con sus propios
registros mediante el uso de la misma criptografía fuerte. Al final, el “Clipper chip”
dejó de ser utilizado, y Estados Unidos y los países miembros del G8 suavizaron
sus controles sobre la criptografía, casi al mismo tiempo en que surgía el Tratado
sobre Delito Informático. No obstante, durante este tiempo el clima entre los
activistas de Internet y los expertos estaba contaminado por la desconfianza,
debido a las acciones de los gobiernos que intentaban bloquear la privacidad y la
codificación en la red. Se había iniciado una importante lucha por el poder entre el
Estado, que deseaba leer todo lo que se transmitiera por las redes de
telecomunicaciones, especialmente Internet, y los individuos (representados por
los grupos de libertades civiles), que no consideraban que el gobierno realmente
los estuviera protegiendo, sino que por el contrario tomaba el poder al comienzo
de la nueva era de la información y creaba sistemas de vigilancia que proliferarían
y amenazarían nuestras libertades.
El delito informático no es virtual
Entonces, ¿qué es el delito informático? Primero, ¿qué es el ciberespacio? El
término lo acuño el escritor de ciencia ficción William Gibson en el año 1982 y fue
aplicado a Internet por Howard Rheingold, de modo que se extendió como
denominación para esta nueva infraestructura de comunicaciones. Pero a veces
olvidamos que en realidad no existe. Lo que existe es una red y muchos
servidores y equipos. Las comunicaciones por Internet parecen ser efímeras y
que se evaporan y lo que funciona en las mentes de las personas es la gestalt.
Quizás sea por la fragilidad de la relación propia del individuo promedio con su
computadora y los programas de correo electrónico. ¿Quién no ha perdido un
documento al olvidar guardarlo o ha desaparecido su agenda o su correo
electrónico? De hecho, un buen investigador con herramientas forenses puede
encontrar y resucitar prácticamente todo, porque a diferencia del mundo
analógico, el mundo digital deja tras de sí la información de cada bit y de cada
byte que se envía. Dichas herramientas y habilidades no se encuentran
disponibles para el consumidor promedio, por lo que parece apropiado el
concepto de ciberespacio, un tipo de hiperespacio mágico a partir del cual los
datos entran y salen.
Cuando se iniciaron los primeros esfuerzos para la elaboración del Tratado sobre
Delito Informático, la mayoría de las agencias encargadas de la aplicación de la
ley estaba retrasada desde el punto de vista tecnológico. No sabían cómo
investigar, cómo buscar evidencias informáticas sin contaminarlas, cómo
conservar los datos para que en caso de que el propietario hubiese enviado un
programa asesino poder destruirlo, cómo rastrear a los autores de un mensaje,
particularmente cuando están codificados o se utilizan fuentes anónimas. Estos
no son problemas triviales, y parte del trabajo inicial de las agencias encargadas
de aplicar la ley estuvo dirigido a desacelerar el proceso y prestar atención a sus
propias necesidades de recursos para atacar un nuevo problema. Debido a que
generalmente es más fácil obtener nuevos recursos para luchar contra un
problema nuevo que mejorar los recursos antiguos, no resulta sorprendente que
se acuñaran nuevos términos. Sin embargo, no está claro que el término “delito
informático” sea un término útil y puede ser totalmente malinterpretado. El delito
ocurre en el mundo real y por lo general involucra a personas y dinero reales. Es
importante centrarse más en ese aspecto del problema que en otros aspectos
más efímeros sobre cómo se envían las comunicaciones.
Existen tres aspectos del “delito informático”
Existe el nuevo delito de penetración del código, invasión o espionaje dentro de
los sistemas informáticos de otras personas u organizaciones. Las opiniones
diferían en cuanto a si el hecho de solo mirar constituía un delito, especialmente
debido a que los primeros hackers [2] detectaban a menudo fisuras en la
seguridad y se consideraban ciudadanos honestos al informarlas. Naturalmente,
penetrar un sistema con intenciones delictivas es otra cosa.
En segundo lugar, existen situaciones en las que el delito es viejo, pero el sistema
es nuevo, como es el caso de las estafas fraudulentas por Internet. El fraude
comercial ha existido durante miles de años, las estafas telefónicas han existido
durante décadas y ahora tenemos las estafas por Internet. Esto también es válido
para la pornografía y el fraude al derecho de autor.
El tercer elemento es el referido a la investigación, donde la computadora sirve
como depósito de evidencias, necesarias para el procesamiento judicial exitoso
de cualquier delito que se cometa. Lo que solía archivarse en expedientes de
papel, prácticamente ya no se archiva de otra forma que no sea la digital y puede
ser destruido y decodificado a distancia.
Un perro de caza con un buen olfato da la impresión de habitar en un universo
paralelo... puede vivir con nosotros y caminar por la misma calle, pero
experimenta algo totalmente diferente a lo que experimenta el ser humano, un
mundo rico en información a escala química. En la actualidad, el hombre ha
construido un mundo donde los chips de silicio generan información nueva, la
envían alrededor del mundo en secuencias digitales electrónicas y no somos
capaces de detectarlas sin la ayuda de las computadoras. No obstante, este
mundo digital paralelo existe y los bits digitales constituyen un nuevo tipo de
evidencia. Los bits digitales también constituyen un nuevo tipo de riesgo para el
individuo, porque el que sepa cómo falsificar la evidencia digital puede crear una
nueva persona digital. Este es un cuarto tipo de delito, es más sutil que el resto y
más conocido cuando se presenta como ladrón de identidad. Si esta tendencia
persiste, el término delito informático podría ser útil para describir el delito contra
la persona digital.
La persona digital
¿Qué es la persona digital? ¿Es este un término útil? La expresión se ha utilizado,
al menos durante la última década, para describir la impresión que una persona
deja en Internet. El Dr. Roger Clarke la describió bien en el resumen de uno de los
primeros artículos sobre el tema [3]
La persona digital es un modelo de individuo creado mediante la recopilación,
almacenamiento y análisis de los datos sobre dicha persona. Es un concepto muy
útil e incluso necesario para comprender el comportamiento del nuevo mundo en
red. Este artículo introduce la idea, investiga sus orígenes y proporciona ejemplos
de su aplicación. Se sugiere que mediante el uso de la idea será posible o se
mejorará una comprensión de muchos de los aspectos del comportamiento en la
red.
La persona digital es también un fenómeno potencialmente amenazante,
degradante y quizás socialmente peligroso. Un área cuyos aspectos más
amenazadores que requieren consideración radican en la vigilancia de datos, el
monitoreo de personas a través de sus datos. La vigilancia de datos es un medio
económicamente eficaz para ejercer control sobre el comportamiento de los
individuos y las sociedades. Se analiza el modo en el cual la persona digital
contribuye a una compresión de técnicas particulares de vigilancia de datos tales
como la comparación y la caracterización por computadora y se esbozan los
riegos inherentes al monitoreo de la persona digital.
Actualmente hemos recorrido una distancia preocupante en el camino que señaló
en su artículo, hace once años. Clarke identifica a la persona digital como un
modelo, útil para entender la sombra que proyectamos en el mundo digital del
ciberespacio y distinguir entre las personas pasivas, activas y autónomas. Lo
define como:
La persona digital es un modelo de la personalidad pública de un individuo,
basado en los datos y mantenido por las transacciones y que ha sido
concebido para ser utilizado en representación del individuo.
Útiles como modelo para identificar a los individuos con el fin de dirigirse a ellos
(por ejemplo, las direcciones de correo electrónico) o identificarlos como personas
con permisos para realizar una función (pagar cuentas en línea, planificar viajes),
los bits pronto desarrollan un conjunto de hábitos y una personalidad que son tan
reales como el ser humano que está detrás de ellos. Actualmente, los gobiernos y
los negocios se basan en ellos para “conocer a sus clientes” y se confía más en
las pruebas electrónicas y la persona digital que en los propios individuos. Sin
embargo, las fragilidades en la seguridad demuestran en nuestros días cuán
desacertada puede estar esa confianza. Los ataques de “Phishing” [4] y
“Pharming” o la suplantación ilegal de correos electrónicos o páginas Web
seducen a las personas para que den información personal por Internet, y los
actores fraudulentos luego utilizan esos datos para convencer a comerciantes, al
gobierno o al banco de que son la persona real. En el entorno actual es aún más
complejo, los ladrones colocan amalgamas de datos para crear personas ficticias
pero probables.
En el mundo del ciberespacio, podría existir cualquier número de estos modelos
que actúan, generalmente (pero no siempre), con fines delictivos. Agentes del
orden se presentan como niños en las salas de charla para atraer a posibles
violadores de niños con el fin de ponerlos bajo arresto. Misteriosos compradores
comprueban los servicios de atención al cliente. Los adultos en todo el mundo
crean una persona en los sitios de citas por Internet, para esconder su verdadera
identidad hasta que hayan alcanzado un nivel de confianza con las personas
desconocidas con las que conversan.
A medida que avanzamos hacia un mundo donde la vigilancia digital de los seres
humanos crece exponencialmente, debemos preguntarnos hacia dónde vamos.
Pronto los chips de identificación por frecuencia de radio en las ropas que usamos
y los carnés de identidad que llevamos se comunicarán con el medio donde
vivimos y transmisores incorporados seguirán nuestros movimientos. Si alguien
falsifica correctamente esas huellas, un ser humano real podría enfrentarse en la
corte a una persona digital, muy bien fabricada fuera del control del individuo en
cuestión. Los intentos para relacionar esas huellas con el individuo mediante el
uso de la biometría pueden resolver el problema, o en realidad pudieran
empeorarlo. Los expertos en libertades civiles se preocupan acerca de la
intromisión de los lectores biométricos en nuestras vidas cotidianas, al afirmar que
no son confiables y producen demasiados positivos falsos y negativos falsos. Un
exitoso experimento reciente para engañar a los lectores de huellas digitales
mediante el levantamiento de estas y su aplicación a dedos falsos moldeados con
gelatina, como los ositos de goma, ha confirmado estas sospechas, pero ha
hecho poco por disminuir la introducción de sistemas [5].
En su artículo sobre la persona digital, Roger Clarke señaló el modelo jungiano
del individuo, con el alma virada hacia adentro para enfrentar el inconsciente y la
persona enfrentando al mundo. A medida que la persona digital crece en
importancia social y económica, atrae la atención de los delincuentes. ¿Qué
ocurre con el alma al enfrentar una carrera armamentista digital para controlar a la
propia persona individual, en lugar de dejarla en manos del mercado o de los
delincuentes? Si en realidad el individuo se ve obligado a distanciarse de su
persona, solo para hacer frente a las perspectivas de la constante vigilancia y
amenaza que ahora estamos soportando, esto no es buen augurio para nuestra
sanidad colectiva.
Derechos de la comunicación
Alan Alegre
Sean O’Siochru
Los derechos referidos a la comunicación han sido esenciales para el concepto de
los derechos humanos universales surgido a mediados del siglo XX, y para su
consolidación en la Carta de las Naciones Unidas y en la Declaración Universal
de los Derechos Humanos (DUDH). Pero de manera general se acredita a Jean
d’Arcy el haber sido el primero en presentar explícitamente argumentos a favor de
un “derecho a comunicar”. En 1969, mientras ocupaba el cargo de Director de los
Servicios Radiales y Visuales en la Oficina de Información Pública de las
Naciones Unidas, escribió:
“Llegará el momento en que las (DUDH) tendrán que incluir un derecho
más amplio que el derecho humano a la información, planteado por
primera vez hace 21 años en el Artículo 19. Se trata del derecho humano a
comunicar. Este es el punto de vista desde el que tendrá que verse el
desarrollo futuro de las comunicaciones si se desea entenderlo
completamente”. [2]
Plataformas intergubernamentales:
NOMIC, UNESCO y Comisión MacBride
Poco después, el tema fue catapultado a los primeros planos geopolíticos. Pronto
la idea de un “derecho a comunicar” se convirtió en el tema fundamental de un
debate diplomático internacional que duró varios años - el debate sobre lo que se
dio en llamar Nuevo Orden Mundial de la Información y la Comunicación
(NOMIC).
Desde la perspectiva del papel emergente de los medios y la comunicación,
muchos países comenzaron a preocuparse seriamente por el impacto que
tendrían en la identidad nacional, la integridad cultural y la soberanía política y
económica. El NOMIC, liderado por el Movimiento de Países No Alineados
(NOAL) de la ONU, se centró en:
la doctrina de la libre circulación de la información, que reforzaba el dominio de
los medios y del contenido de noticias occidentales;
la creciente concentración de los medios y de la industria de la comunicación, lo
que se traduce en una mayor posesión extranjera de los medios en los países
más pequeños y más pobres;
la forma en que la creciente importancia de las tecnologías controladas por
Occidente para la producción y difusión de los medios era difícil de seguir por
los demás.
Como único organismo de las Naciones Unidas equipado para debatir de manera
coherente la gama de temas surgidos, la batalla se llevaría a cabo sobre todo en
la UNESCO, donde permanecería durante una década. A partir de 1973, el NOAL
desarrolló un plan mucho más sofisticado para un Nuevo Orden Mundial de la
Información. En la Asamblea General de la UNESCO del año 1976, se puso en
evidencia el gran vacío existente entre los países miembros del NOAL y los
países occidentales (EE.UU., Reino Unido y otros). Solo pudo evitarse un
enfrentamiento mediante la creación de una Comisión Internacional para el
Estudio de los Problemas de la Comunicación, conocida como la Comisión
MacBride debido al nombre de su presidente, Seán MacBride.
El informe de la Comisión de MacBride a la Asamblea General del año 1980,
Muchas voces en un solo mundo, llevaba la marca distintiva de un proceso
político polémico, pues eludía muchos temas y contenía numerosas advertencias;
pero era abarcador (con una notable debilidad en lo referente al tema del género)
y vasto, e hizo recomendaciones concretas, entre las que se incluye:
“Las necesidades de comunicación en una sociedad democrática se deben
resolver mediante la extensión de derechos específicos tales como el derecho a
estar informado, el derecho a informar, el derecho a la privacidad, el derecho a
participar en la comunicación pública - todos ellos son elementos de un nuevo
concepto, el derecho a comunicar. En el desarrollo de lo que pudiera llamarse una
nueva era de los derechos sociales, sugerimos que se investiguen más a fondo
todas las implicaciones del derecho a comunicar.” [3]
Por primera vez, el NOMIC tenía un marco general, una justificación detallada, un
sistema de propuestas y un concepto unificador - el “derecho a comunicar”.
Finalmente, los resultados de la Comisión fueron aprobados - un momento
definitorio para el NOMIC, pero que duró poco. El acuerdo era muy débil; en lugar
de unir a ambas partes, el proceso simplemente puso al descubierto el vacío
existente entre ellas y un atrincheramiento en sus posiciones, especialmente de
los gobiernos occidentales envueltos en la geopolítica de la guerra fría.
EE.UU. lideró una “contraofensiva” en la UNESCO, contando con un fuerte apoyo
de la industria privada de los medios y de los grupos de presión. Su principal
argumento era que los países menos desarrollados trataban de imponer el control
gubernamental sobre los medios y suprimir la libertad de la prensa - a pesar del
hecho de que la libertad de prensa fue muy apoyada en todo momento por el
NOMIC. A la larga, Estados Unidos (en 1984) y el Reino Unido (en 1985) se
retiraron de la UNESCO, en parte debido al NOMIC.
Mientras surgía una nueva “sociedad de la información” politizada, el NOMIC en
su forma original había declinado. Trató de permanecer en el programa de la
UNESCO, aunque con poca acción, hasta 1987. Su fin oficial tuvo lugar en 1989,
con la adopción de la “Nueva Estrategia de la Comunicación”, bajo el mandato del
de Federico Mayor como Director General de la UNESCO. No obstante, los
argumentos que dieron origen al movimiento del NOMIC siguieron existiendo e
incluso en algunos casos llegaron a ser más agudos. Los argumentos continuaron
emergiendo en nuevos llamados - esta vez fuera de los gobiernos - a los
“derechos a la comunicación”.
Después del NOMIC: Participación de la sociedad civil
Para muchos, la principal lección del NOMIC fue que la forma de seguir adelante
tendría que ser a través de la democratización de los medios y de la
comunicación, y no mediante esfuerzos dirigidos por el Estado o la industria para
crear nuevos órdenes internacionales. En la práctica, era necesario realizar un
cambio significativo hacia la sociedad civil, que hasta ese momento había sido
excluida en su mayor parte. Los que habían estado participando -principalmente
organizaciones periodísticas y en algunos casos académicas - continuaron el
debate bajo el contexto de la Mesa redonda MacBride, que se reunió anualmente
de 1989 a 1999, e incorporó a la discusión a nuevos miembros de la sociedad
civil.
Un número creciente de ONG, algunas completamente independientes de los
debates anteriores y en su mayoría ajenas a ellos (y a menudo sin conocerse
entre sí), también comenzaron a cuestionar las tendencias de los medios, el
conocimiento y la comunicación. Entre esas organizaciones se incluían
asociaciones de medios comunitarios, organizaciones religiosas, sindicatos
internacionales, ONG emergentes de Internet y grupos de defensa surgidos para
abordar diversos temas (por ejemplo, el acceso a los medios, la ayuda a los
medios independientes, la participación en las políticas reguladoras de los
medios, la concentración de la propiedad de los medios, la censura comercial, la
vigilancia de Internet, el exceso de derechos de autor y de patentes). Estos
aspectos fueron colocados junto a preocupaciones más tradicionales como la
censura y los controles gubernamentales. La importancia cada vez mayor de las
tecnologías digitales y la aparición de Internet constituyeron también nuevos
argumentos para la democratización, pues las contradicciones sociales existentes
se manifestaron en las llamadas “divisiones digitales”. Se abrieron nuevos
escenarios en los que podrían converger las reivindicaciones tradicionales y las
emergentes.
Debido a que era su punto fuerte, la sociedad civil dejó que su práctica sobre el
terreno y las defensas en los escenarios nacionales y regionales dictaran el
discurso, aunque, en ese entonces, las iniciativas no se consideraron trabajo de
los “derechos a la comunicación”. Sin embargo, si se escribiera una historia del
movimiento de derechos a la comunicación “desde sus inicios”, probablemente
incluiría varias formas de activismo: el movimiento de telecentros, las
comunidades de programas libre de código abierto (FLOSS), los centros
mediáticos independientes, las organizaciones de género en las comunicaciones,
los que abogan por que los contenidos locales se escriban en la lengua local, los
proveedores de servicios de Internet (ISP) no lucrativos - todos ellos fortalecidos
por las nuevas herramientas y tecnologías de trabajo en red. Estas formaciones apoyadas por instituciones donantes y académicos favorables - se desarrollaron
de manera independiente y agudizaron las críticas a las nuevas jerarquías de la
información y la comunicación.
Durante los años noventa, se crearon varias coaliciones y se emprendieron
iniciativas para abordar la situación más amplia implícita en muchos de estos
aspectos; entre esas iniciativas se encuentran la Carta de la Comunicación de las
Personas y la Plataforma para la Democratización de las Comunicaciones. Se
efectuaron muchas conferencias y reuniones generales para aunar criterios e
intercambiar ideas a escala internacional.
Poco a poco fue surgiendo una nueva comunidad de usuarios basada en la
sociedad civil, pero ahora desde una perspectiva diferente y que se beneficiaba
gradualmente de la experiencia histórica y de la práctica sobre el terreno [4].
Muchos de sus miembros se unieron en octubre de 2001 en la Campaña por los
Derechos de la Comunicación en la Sociedad de la Información (Campaña CRIS)
[5], en los inicios de otro lugar de debate mundial sobre la gobernanza - la
Cumbre Mundial sobre la Sociedad de la Información (CMSI).
El “derecho a comunicar” y los “derechos de la comunicación”
Los términos “derecho a comunicar” y “derechos a la comunicación” no son
sinónimos, y su historia, su principio y sus tácticas están vinculados a su uso por
parte de diferentes grupos.
Como hemos visto, el término “derecho a comunicar” se asoció a una (mala)
interpretación del NOMIC promovida por sus opositores. Aún en la actualidad, en
el contexto de la CMSI, existen algunos que plantean que los intentos de
promover un “derecho a comunicar” son simplemente esfuerzos encubiertos para
restablecer el NOMIC [6]. A estos opositores les resulta más difícil criticar la idea
de los “derechos a la comunicación” que la del “derecho a comunicar”, puesto que
ha dejado detrás las connotaciones del NOMIC.
En la esfera política también se ha convocado a la creación de un nuevo derecho
conforme al derecho internacional. Este derecho se basaría en el actual marco
jurídico internacional, al establecer el “derecho de comunicar” como un derecho
inequívoco de todas las personas. Esta posición reconoce claramente que
muchos de los actuales derechos humanos son componentes esenciales de este
derecho, pero que un “derecho a comunicar” explícito lo reforzaría tanto desde el
punto de vista conceptual como real. Sin embargo, no se han expuesto
completamente las especificidades de este derecho, su formulación exacta, la
forma legal en que sería incorporado, etcétera.
Por otra parte, el término “derechos a la comunicación”, en plural, se refiere
implícitamente a los actuales derechos relacionados con la comunicación. El
énfasis cambia ligeramente hacia la aplicación en la práctica de los actuales
derechos a la comunicación, no hacia el establecimiento de un nuevo convenio
internacional.
El llamado a la materialización de los derechos a la comunicación, y la
reafirmación de que todos tienen - o deben tener - un derecho a comunicar, son
totalmente complementarios. El “derecho a comunicar” se debe utilizar como
llamado informal de convocatoria para la defensa, aunque también puede
utilizarse en un sentido legal formal, en el cual debe tomar su lugar junto a otros
derechos fundamentales consagrados en el derecho internacional.
Los “derechos de la comunicación” se refieren inmediatamente a un conjunto de
derechos humanos existentes, negados a muchas personas, y cuyo significado
completo puede ser observado solo cuando son tenidos en cuenta juntos como un
grupo correlacionado.
La campaña de CRIS es la alianza internacional más articulada de la sociedad
civil que pretende promover el concepto y la práctica de los derechos a la
comunicación. Pero además de esta formación, muchos otros han adoptado el
término en varias plataformas.
El “derecho a comunicar” fue muy apoyado en varios puntos por influyentes
participantes durante el proceso de CMSI. El tema adquirió cierta importancia,
aunque los esfuerzos por desacreditarlo y el miedo a la controversia
probablemente fueron responsables de su exclusión del texto final [7]. El
Secretario General de las Naciones Unidas, Kofi Annan, indicó: “millones de
personas en los países más pobres continúan siendo excluidos del “derecho a
comunicar”, considerado cada vez más como un derecho humano fundamental”
[8]. La Comisión Europea señaló: “la cumbre debe reafirmar el derecho a
comunicar y al acceso a la información y al conocimiento”. [9]
Otras importantes ONG, que no son miembros de la campaña de CRIS, también
lo han apoyado. El Artículo 19, en su descripción del derecho a comunicar, lo
describe como: “un término general, que abarca un grupo de derechos
relacionados existentes. Esto significa que cualquier elaboración del derecho a
comunicar debe ocurrir en el marco de los derechos existentes.” [10]
Derechos a la comunicación vs.libertad de expresión
La “libertad de la expresión” es uno de los fundamentos sacrosantos de todos los
derechos humanos. Está contenida en numerosos tratados y convenios
internacionales, y consagrada en diferentes formulaciones contenidas
virtualmente en todas las constituciones y legislaciones nacionales. La referencia
más citada es el Artículo 19 de la DUDH:
“Todos tenemos derecho a la libertad de opinión y de expresión; este
derecho incluye la libertad de opinar sin interferencia y de buscar, recibir y
transmitir información e ideas a través de cualquier medio y sin tener en
cuenta las fronteras.”
¿Es suficiente la libertad de expresión?
La pregunta a que se enfrentan los defensores de los derechos a la comunicación
es por qué se necesita algo más que la “libertad de la expresión”. Además, si en la
práctica un derecho tan fundamental sigue siendo negado a muchos, ¿debemos
realmente centrar nuestras energías en asegurar la libertad de expresión para
todos? ¿El asegurar la libertad de expresión aseguraría en efecto los derechos a
la comunicación?
El ideal en que se basa la legitimidad de la libertad de expresión presupone un
grupo de individuos que se comunican, cada uno de ellos con un derecho igual a
concebir, transmitir y recibir ideas de otros, y de ese modo a llegar a decisiones
racionales para beneficio mutuo. El problema con esto es que no vivimos como
grupo de individuos con iguales derechos. Vivimos en una sociedad con grandes
diferencias en los niveles de acceso al poder, una sociedad en la que la mayoría
de la comunicación entre las personas es muy mediada y filtrada - en la cual los
medios de comunicación, los gobiernos, las corporaciones comerciales, los
grupos de interés especial y muchos otros se disputan la atención y tratan de
influir en y controlar el contenido y el flujo de las comunicaciones. Una insistencia
exclusiva en la libertad de expresión no dice nada con respecto al proceso por el
cual son controlados los medios de expresión de la sociedad - periódicos,
televisión, radio, filmes, música y material educativo - y en interés de quién
operan.
En este contexto, la libertad de expresión - en que las leyes impidan una
intervención directa del Estado y defiendan la libetad de palabra - puede hacer
muy poco para evitar el dominio de las voces más fuertes, es decir, las que tienen
más posibilidades de influir en los medios de la comunicación dentro de la
sociedad, independientemente de que se trate del gobierno, los propietarios de
periódicos y los dueños de los medios, o de poderosos grupos de interés.
En este ejemplo, ¿cuán real es la “libertad para recibir y transmitir la información”,
si una persona apenas puede leer o escribir, o no puede hablar la lengua oficial
del país? O, ¿cuán real es la libertad de “buscar y recibir información”, si los
gobiernos y las corporaciones no están obligadas a proporcionarla? O, ¿si usted
no puede darse el lujo de pagar materiales educativos o medios fundamentales de
acceso a la comunicación tales como el teléfono o (cada vez más) la Internet? ¿Si
usted sabe que sus medios de comunicación están siendo espiados? Estos son
síntomas del acceso desigual al poder, en un mundo en el cual la comunicación
es posible cada vez más solo a través de medios y mecanismos complejos y
controvertidos.
Por tanto, un desafío esencial para los defensores de la libertad de expresión es
el cambio conceptual de la idea de individuos iguales, a la de una sociedad
compleja y abigarrada con una comunicación muy mediada y diferentes
estructuras de poder. Para poder enfrentarlo es necesario un conjunto adicional
de conceptos e instrumentos, que constituyen el núcleo del discurso de los
“derechos de la comunicación”.
Formulación de los “derechos a la comunicación”
Los derechos a la comunicación pueden verse como una creación de las
condiciones para el ejercicio completo de la libertad de expresión en una sociedad
compleja y mediada, en la cual el poder y el control de los recursos están
distribuidos de manera muy desigual. De hecho, la libertad de expresión forma
parte del núcleo de los derechos a la comunicación. Sin embargo, la defensa de
los derechos a la comunicación va más allá en tanto crea el ambiente en el cual
se puede consumar plenamente la libertad de expresión a escala de la sociedad.
Los derechos a la comunicación se basan en la comunicación, la realización de
una interacción entre las personas; Estos derechos que la libertad de interactuar
con otras personas radica, en última instancia, en la generación de un ciclo de
comunicación, del cual puede sobrevenir el aprendizaje, la comprensión y la
cooperación. Una aproximación inicial al objetivo de los derechos a la
comunicación es la siguiente: asegurar la generación de un ciclo considerado,
creativo y respetuoso de interacción entre las personas y los grupos en la
sociedad, que respalde en la práctica el derecho de todos por igual a hacer que
sus ideas sean expresadas, oídas, escuchadas, tenidas en cuenta y respondidas.
Derechos habilitadores
Los derechos a la comunicación se basan en aspectos de otros derechos
humanos -derechos “colaterales” o derechos “habilitadores”- contenidos en la
Declaración Internacional de Derechos y en tratados y documentos legales
suplementarios. Por ejemplo:
Derecho a participar en su propia cultura, y a utilizar su lengua materna,
incluyendo a las minorías étnicas, religiosas o lingüísticas;
derecho a la información con respecto a la gobernanza y a temas de interés
público (libertad de información);
derecho a la protección de los intereses morales y materiales de la autoría;
derecho al honor y la reputación propia, y a la protección contra ataques;
derecho a la privacidad;
derecho a la reunión y asociación pacíficas;
derecho a la educación primaria gratuita y a la introducción progresiva de la
educación secundaria gratuita.
Una dimensión de cada uno de esos derechos trata sobre el proceso de
comunicación en la sociedad (a todos se les podría añadir “en relación con los
medios y la comunicación”). Estos derechos pudieran ser ser considerados el más
alto nivel de los derechos a la comunicación. Sin embargo, se siguen
especificando y en ocasiones se les añaden otras dimensiones.
Por ejemplo: el derecho a utilizar medios diversos e independientes y al acceso a
los medios ha sido reconocido en foros tan diferentes como el Tribunal Europeo
de Derechos Humanos, el Tribunal Supremo de Sri Lanka, el Tribunal
Constitucional Federal Alemán, la UNESCO, y las Resoluciones del Consejo de la
Unión Europea. (Artículo IX, 2003)
La promoción de los derechos a la comunicación pretende eliminar las barreras
sociales, históricas, económicas y sicológicas de la comunicación, fomentar un
ambiente de respecto mutuo y desarrollar las capacidades de todos en
comunicación e interacción.
Valor agregado de los derechos a la comunicación
Esta interpretación de los derechos a la comunicación tiene varias implicaciones.
En primer lugar, el conjunto de derechos a la comunicación es más que la suma
de sus partes. Los derechos a la comunicación agrupan dimensiones relevantes
de un conjunto de derechos habilitadores que los componen, y pueden ser
aplicados solo a través de ellos. Sin embargo, los derechos a la comunicación
pueden ser considerados también como metaderechos, que dan un significado
nuevo y adicional a esos derechos habilitadores.
En segundo lugar, el surgimiento de los derechos a la comunicación en la práctica
es la creación de un clima de respeto y tolerancia mutuos no solo entre los
individuos que poseen esos derechos, sino también entre diversas comunidades
y culturas, grupos étnicos y nacionalidades. El llamado a los derechos a la
comunicación respalda y apoya, a la vez, la idea y el valor de la diversidad.
En tercer lugar, los derechos a la comunicación implican inevitablemente
procesos y dinámicas sociales. Los derechos a la comunicación, por su propia
naturaleza, cuestionan el hecho de si las estructuras sociales limitan y posibilitan
de manera diferenciada la capacidad de diferentes individuos y grupos de
comunicarse con eficacia dentro de las sociedades.
El concepto de derechos de la comunicación nos obliga a hacernos partícipes de
manera más exhaustiva del espíritu de la “libertad de la expresión” hacia la
eliminación de las limitaciones en secciones completas de la sociedad, y a
desarrollar el acceso y las capacidades de los excluidos.
Derechos a la comunicación: ¿por qué ahora?
¿Por qué los derechos a la comunicación como concepto son especialmente más
importantes ahora que en el pasado? ¿Qué justifica en este momento un
movimiento encaminado a hacer cumplir y profundizar nuestros derechos a la
comunicación?
En las últimas décadas, la importancia de los derechos a la comunicación ha
aumentado considerablemente, debido a un conjunto de factores y tendencias en
la esfera de la información y las comunicaciones internacionales, entre los que se
incluyen:
Dominio corporativo y concentración de los medios.
Efectos negativos de los sistemas de los medios en sobre la(s) identidad(es) y
la(s) cultura(s).
Aparición de regímenes de “derechos de autor” y erosión del dominio público del
conocimiento mundial.
Limitaciones de las iniciativas del mercado de las telecomunicaciones y las TIC.
Erosión de los derechos civiles en el entorno digital, especialmente después del
11 de septiembre (por ejemplo, estructuras de vigilancia electrónica más
completas y enmarcadas y aplicadas internacionalmente).
Mediante el empleo del concepto de derechos a la comunicación se pueden
analizar y entender todos esos temas y diseñar soluciones integrales.
En conjunto, estas dinámicas tienen gran influencia en cada paso del proceso de
comunicación en la sociedad. Estas tendencias pueden dar forma
fundamentalmente a los resultados de la comunicación social y a quien se
beneficia de ellos, mediante el control de la creación y propiedad del
conocimiento, los procesos y medios de difusión y comunicación, y su empleo
para alcanzar objetivos políticos, económicos y sociales.
El peligro inminente es que cada momento del ciclo se está vinculando a las
necesidades de capital y de mercado. El peligro final es que el ciclo del proceso
de comunicación social de la sociedad se interrumpa, el proceso de aprendizaje
social sea cada vez más débil, y, en definitiva, el proceso de creatividad se
transforme y se reduzca en una reducida producción de beneficios, insostenibles
y de corto plazo, para una pequeña minoría. La sociedad puede encontrarse con
que prácticamente ha perdido la capacidad de crear, de compartir de manera
inclusiva y equitativa el conocimiento, de participar democráticamente en las
estructuras políticas, de expresar la diversidad cultural y la identidad, e incluso la
capacidad de aprender de las generaciones pasadas y presentes.
Los “derechos a la comunicación”, como concepto y como práctica, tienen
potencialmente la profundidad y la amplitud para analizar y entender estos
peligros y diseñar soluciones integrales para enfrentarlos.
Medios de comunicación
Marc Raboy
Marcelo Solervincens
“Medios” es, en muchos sentidos, un término antiguo. Un “medio” es, en el sentido
estricto, un agente de transmisión. Los antiguos creían que el universo estaba
conformado por el medio del éter. Para que se entienda mejor, el aire, o el agua,
es un medio. En este sentido, un medio de transmisión -o comunicación- es un
agente neutro. Sin embargo, se puede apreciar con facilidad que a pesar de su
estado aparentemente objetivo, la naturaleza de un medio ya determina el tipo y
la calidad de la información que puede pasar por él.
El uso moderno se apropió del término con el significado de medios de
comunicación. Aunque en la actualidad consideraríamos al libro o la prensa como
medios, el término tomó vigencia con el surgimiento de la comunicación a larga
distancia a través de la tecnología -o la telecomunicación. La telegrafía fue el
primer medio de comunicación verdaderamente moderno, seguido rápidamente
por la telefonía, la radio, la televisión, la transmisión por cable y satélite, y por
supuesto Internet. Todo este desarrollo ocurrió en los últimos 150 años, la mayor
parte durante el último siglo con Internet en la ultima década.
A lo largo del progreso de la tecnología, cada nueva generación de medios de
comunicación trajo consigo su carga de utopías de creación de espacios públicos
de interacción participativa entre ciudadanos informados que hacen uso de su
derecho a la palabra. Todo medio de comunicación nuevo constituye al mismo
tiempo el punto de disputas entre lógicas societales en competencia del Estado,
del mercado y de la sociedad civil. Históricamente, las luchas por la libertad de
prensa, y la libertad de expresión que ella implicaba en ese entonces, han
estimulado y participado en las grandes batallas democráticas contra la censura,
los derechos humanos, la esclavitud, etc. Estas luchas han contribuido en gran
medida a la elaboración y la fundación de nuestras democracias y los principios y
legislaciones que prevalecen en la actualidad en términos de derechos a la
información y a la comunicación. Asimismo, lograron modelar una intersección de
espacios mediáticos en el cual coexisten diversas formas de medios de
comunicación y de instituciones mediáticas.
Hoy consideramos a los medios de comunicación como las instancias masivas de
la comunicación, ya sea la prensa, la radio y la televisión en sus acepciones
públicas, privadas o comunitarias. Se trata de mecanismos que permiten la
diseminación masiva de información facilitando la construcción de consensos
sociales, la construcción y reproducción del discurso público y ciertos niveles de
interacción principalmente de los nuevos medios independientes, alternativos y
comunitarios. [1]
El papel y el lugar de los medios de comunicación en la sociedad
Las reflexiones sobre los medios de comunicación se centran tradicionalmente en
la capacidad de las instituciones mediáticas y de las tecnologías de comunicación
de desempeñar un papel en la democratización de las sociedades, en la creación
de una esfera pública a través de la cual las personas pudieran participar en
asuntos cívicos, en el realce de la identidad nacional y cultural, en la promoción
de la expresión y el diálogo creativos. Por ello, los debates sobre las diferentes
formas de censura y sobre la propiedad de los medios de comunicación siempre
han formado parte de las agendas de trabajo. El sentido de las preguntas que se
plantean las lógicas del mercado así como las estatales es más bien de cómo
constituir una vía para la publicidad, cómo generar beneficios financieros para los
accionistas y cómo servir como instrumentos de propaganda y control social y
político.
En casi todos los contextos nacionales, se considera necesaria cierta forma de
intervención -o regulación- gubernamental que permita a los medios de
comunicación desempeñar uno u otro de los roles antes mencionados. Tan pronto
como la producción y distribución de los medios requiera un mayor grado de
organización y de recursos que los que pueden proporcionar artistas o creadores
individuales que trabajan en grupos relativamente pequeños -es decir, tan pronto
como los medios de comunicación se industrialicen- normalmente el estado
asume cierta forma de organización estructural, ya sea directamente o a través de
una autoridad a distancia. Esto se puede hacer de varias maneras.
En el modelo de mercado libre, el estado crea un ambiente en el cual las
corporaciones de los medios de comunicación gozan de plena libertad para
operar comercialmente; el acceso al mercado en algunos sectores tales como la
difusión sigue estando controlado fundamentalmente mediante la concesión de
frecuencias de transmisión, mientras que el área de la prensa escrita queda
abierta a cualquier persona que disponga de los recursos para poseer y operar un
medio de comunicación. En el modelo autoritario, los medios de comunicación se
consideran una extensión de la autoridad estatal. El modelo de servicio público
pone énfasis en la creación de servicios de radio y televisión al servicio público,
en el financiamiento de unos medios de comunicación no lucrativos basados en la
comunidad y en varias restricciones sobre la propiedad de los medios de
comunicación comerciales (limitando la cantidad de puntos de distribución que
una firma particular podría controlar o prohibiendo que los propietarios de dichos
medios de comunicación sean extranjeros). En realidad, en muchas sociedades,
si no en la mayoría, los medios de comunicación funcionan según un modelo
mixto basado en una combinación de dos o más de los antes mencionados. En la
mayoría de los casos existe una instancia reguladora que dicta y controla las
reglas de funcionamiento a nivel nacional.
En la actualidad, todo el mundo reconoce que la lógica del mercado es la que
predomina y la que impone sus valores y sus condicionamientos sobre los modos
de producción y de distribución, lo que acarrea consecuencias mayores sobre los
contenidos y la naturaleza misma de la información. Ahora bien, aquí aparecen
nuevos desafíos mucho más complejos relacionados con la concentración de
medios de comunicación, la uniformización y la pobreza de los contenidos, el
desequilibrio de los flujos de información y la falta de diversidad cultural, el papel
regulador de los Estados en los planes nacionales e internacionales, y la
necesaria redefinición de un servicio público en términos de información.
Además de esto, la reciente revolución digital viene a cuestionar a los medios de
comunicación respecto a su propia definición y redefine su papel en términos
completamente inéditos colocándolos en una “sociedad de la información” que se
esfuerza por delimitar.
La relación entre los medios de comunicación y la sociedad de la información
plantea efectivamente un desafío aparentemente paradójico. Por un lado, los
medios de comunicación de masa (prensa, radio, televisión) viven un proceso de
concentración de la propiedad y de integración horizontal y vertical de sonido,
audio e imagen gracias al advenimiento del soporte numérico. Por otro lado,
Internet y el soporte digital en general individualizan y democratizan el acceso a la
comunicación y a la interacción, permitiendo el desarrollo inédito de nuevos
medios alternativos o cooperativos que afectan al mismo tiempo a los medios
masivos tradicionales.
La relación entre los medios de “comunicación” y la sociedad de la “información”
aparece por tanto bajo la forma de una disociación contradictoria que es difícil
explicar sin considerar la definición del proyecto de la sociedad de la información,
el contexto en el que evolucionan los actores que construyen la sociedad de la
información y los desafíos que plantean los avances tecnológicos.
Estado actual: medios de comunicación globalizados
Un análisis del estado actual de los medios de comunicación sobre todo en esta
época de globalización ilustra los nuevos desafíos que reubican el papel de los
medios de comunicación dentro de una sociedad de saberes compartidos.
Es necesario destacar que en el contexto de la globalización neoliberal, la
información “digital” se ha transformado en una mercancía más que circula de
acuerdo a las leyes del mercado de la oferta y la demanda.
Según esta lógica, los medios no están vendiéndole información a los ciudadanos,
están vendiendo los ciudadanos a los publicistas. En esta medida, los contenidos
resultan en distorsión de la realidad, fortaleciendo los estereotipos y reduciendo
claramente la diversidad de los contenidos distribuidos. A manera de ejemplo
-bastante utilizado- del resultado de este proceso de desregulación de los últimos
30 años, se pueden citar las declaraciones del jefe de la Instancia reguladora
estadounidense bajo Ronald Reagan en 1980, quién en plena fiebre
desreguladora declaró que la televisión era como cualquier aparato doméstico,
como un “tostador con imágenes.” Y como no se regulan los tostadores, por qué
regular la televisión. Lo cierto es que la privatización y la liberalización que
acompañan a la globalización no han producido medios más diversos y
pluralistas. [2]
La irrupción de la revolución de Internet y de la era digital atrajo al sector de la
información, con la perspectiva de ganancia fácil, a una plétora de industriales de
los sectores más variados -electricidad, informática, armamento, construcción,
teléfono, agua. Edificaron gigantescos imperios que acapararon en pocas manos
los medios de comunicación e integraron de manera vertical y horizontal los
sectores de la información, la cultura y la diversión, separados anteriormente, con
el desarrollo de conglomerados donde el conocimiento y los contenidos se
transforman en una nueva mercancía.
Estos conglomerados multi-medios influyen en todos los aspectos de la vida
cultural, social y política. Sin embargo, su lógica misma ha generado que los
medios de masa hayan dejado de funcionar como contrapoder. Los medios de
comunicación de masa (radio, periódicos, televisión, Internet), se realinean en
función de una vocación mundial, y ya no más de carácter nacional. El proceso de
concentración de los medios se traduce como el control de una gran variedad de
medios en diferentes países y continentes. Por ello, no actúan como contrapoder
al interior de los países.
Estos principales grupos son: Vivendi Universal, AOL Time Warner, Disney: News
Corporation, Viacom y Bertelsmann, General Electric, Microsoft, Telefónica,
France Telecom [*]. El poder real se encuentra ahora entre las manos de estos
conglomerados que tienen más poder económico que la mayoría de los
gobiernos. [3] La ausencia de los principales conglomerados mediáticos en los
debates de la CMSI da cuenta de esta realidad.
La concentración de la propiedad de los medios significa por ejemplo que los
cinco mayores conglomerados estadounidenses controlan casi la totalidad de las
cadenas de radio y de televisión de este país. Lo importante no es el número de
*
NOTA DE MEC
Vivendi Universal (actualmente Vivendi S.A.): conglomerado francés con presencia en los mercados de
telecomunicaciones y entretenimiento, actor principal en la industria discográfica y de videojuegos a
escala mundial a través de sus subsidiarias Universal Music Group y Activision Blizzard.
Time Warner (denominada AOL-Time Warner entre 2001 y 2003, tras la fusión entre America Online y
Time Warner): empresa estadounidense dedicada a la comunicación, con divisiones dedicadas a Internet,
a la publicación, televisión y a las telecomunicaciones.
The Walt Disney Company S.A. (también conocida como Disney Enterprises, Inc., simplemente Disney o
Grupo Disney S.A.): una de las compañías de medios de comunicación y entretenimiento más grandes
del mundo con sede corporativa en Burbank, California.
News Corporation (abreviado News Corp): empresa de medios de comunicación estadounidense con
sede central en Nueva York. El presidente, consejero delegado y fundador de la compañía es Rupert
Murdoch. En 2009 la Oficina Contable del Gobierno estadounidense informó de que News Corp posee
152 empresas subsidiarias en paraísos donde no pagarían impuestos o donde estos serían muy
reducidos.
Viacom Inc. o simplemente Viacom: es un conglomerado de medios de comunicación estadounidenses
de intereses mundiales por cable y satélite (MTV Networks y BET) y la producción de películas
(Paramount Pictures y DreamWorks).Sumner Redstone es el presidente y mayor accionista de Viacom.
También es dueño de Nickelodeon y Neopets.
Viacom y CBS Corporation tienen el mismo dueño y mayor accionista manejándolos.
Bertelsmann AG: empresa de medios de comunicación multinacional con sede en Gütersloh, Alemania.
Opera en 63 países y da empleo a más de cien mil personas. Consta de seis divisiones corporativas: RTL
Group, empresa de radiodifusión europea; Gruner + Jahr, empresa editora de revistas (la más grande en
Europa y la segunda más grande mundialmente); Prisma; BMG (Bertelsmann Music Group); BMG Music
Publishing; Random House, el mayor editor de libros (literatura popular); Direct Group, el mayor
distribuidor de libros y música; Arvato, un servicio internacional para medios de comunicación.
General Electric: empresa multinacional de infraestructuras, servicios financieros y medios de
comunicación altamente diversificada con sede central en Fairfield, Estados Unidos. Está presente en
más de 100 países, con más de 300.000 empleados. Constas de cinco divisiones -GE Technology
Infrastructure, Home & Business Solutions, Energy Infrastructure, GE Capital y NBC Universal- que
operan en numeroso sectores de actividad, desde energía, agua, transporte y salud hasta servicios de
financiación e información.
Microsoft Corporation: empresa multinacional de origen estadounidense, dedicada al sector de la
informática, con sede en Redmond, Washington, Estados Unidos. Desarrolla, fabrica, licencia y produce
software y equipos electrónicos.
Telefónica S. A.: operador multinacional de servicios de telecomunicaciones con sede central en Madrid,
España, con presencia en Europa, África, Latinoamérica y, desde 2010, en Asia. Al mes de julio de 2010
es la quinta compañía de telecomunicaciones en tamaño e importancia en el mundo.
France Telecom: principal operador de telecomunicaciones en Francia. Emplea cerca de 220.000
personas y tiene unos 150 millones de clientes en todo el mundo.
canales de televisión sino la diversidad de fuentes y de propietarios. Del primer
caso resulta un mensaje simplificado para el consumo masivo. Con ello, es el
derecho a la información el que aparece limitado y en entredicho. Por un lado, el
fin de los monopolios estatales en países del Sur y en Europa ha traído consigo
avances en la pluralidad de medios, aunque existe preocupación por la
deslegitimación de los medios tradicionales. Sin embargo, la desreglamentación
favorece este proceso porque a pesar de que las leyes de la libertad de prensa
hayan sido establecidas para limitar el poder estatal, ahora resultan insuficientes
para asegurar que la información y la comunicación sean un bien común. Como lo
indica Ignacio Ramonet, aunque en los países del Norte la libertad de palabra
esté garantizada, el derecho a estar bien informado es cuestionado por la
concentración de los medios.
Por último, estos conglomerados no diferencian las tres formas tradicionales de
comunicación (escrita, verbal o con imágenes), fomentando tanto Internet como
las telecomunicaciones en general como un nuevo y poderoso medio que abarca
las actividades culturales, de diversión y deportivas, de comunicación y de
información. En esta medida cada vez es más difícil distinguir a los diferentes
sectores industriales de la información de los de la cultura de masas y de la
diversión. Los grandes conglomerados mundiales adquieren dimensiones de
multimedia y venden sus productos bajo otros soportes aparte de la radio, la
televisión y los periódicos tradicionales, o sea con filmes, videos, discos
compactos, DVDs, parques de diversiones, cines, teatros, deportes.
El desarrollo de las cadenas mundiales de información continua del tipo CNN ha
sido imitado por otras cadenas estadounidense y del mundo, entre otras BBC, con
gran impacto. La manipulación de la información y la resistencia en los países del
Sur del planeta han dado origen, en primer lugar, a la cadena árabe Al’Jazeera,
para contrarrestar la campaña contra el islamismo. Más recientemente, ha surgido
Telesur con base en Venezuela, para contrarrestar la “propaganda
estadounidense”. Estas experiencias evocan el cuestionamiento del Informe
MacBride en los años 70 y las esperanzas fallidas de los países no alineados en
un proyecto de “Nuevo Orden Mundial de la Información y de la Comunicación”
propuesto por la Unesco. [4]
Y al mismo tiempo, revelan la capacidad de adaptación de los medios
tradicionales a las nuevas tecnologías y su persistencia como vehículos masivos
de producción de consensos sociales y políticos.
Los nuevos medios de comunicación.
La apropiación por las comunidades y los ciudadanos
El impacto de los nuevos medios de comunicación de la sociedad de los saberes
y del conocimiento está ligado a la posibilidad de una mayor apropiación de quien
los usa, ya sea como individuo o como una comunidad o grupo activo. A
comienzos de los años 70 los medios de comunicación masivos tradicionales ya
habían entrado en crisis en la medida en que la radio, la prensa y la televisión
dejaban de lado a las minorías y a los asuntos locales.
En ese contexto los cambios tecnológicos favorecieron el desarrollo de proyectos
colectivos de comunicación. En los años 60 y 70, en todas las regiones del
mundo, se empezaron a desarrollar proyectos de videos y de emisoras de radio
locales y comunitarias contra la hegemonía y las limitaciones de los medios
tradicionales. Estas acciones se vieron beneficiadas con la revolución provocada
por la aparición de los transistores, de los transmisores FM, del video. A esta
etapa pertenecen las radios piratas en el Reino Unido, las radios libres en
Francia, las televisiones comunitarias, las radios y clubes de video involucrados
en la comunicación para el desarrollo, [5] movimientos sociales que usan las
tecnologías apropiadas para llevar a cabo proyectos contra la crisis de
representatividad de los sistemas políticos existentes y que constituyen una
resistencia contra los grandes medios de comunicación. Se trata de procesos de
contra-información y de procesos de comunicación en interactividad social que
realizan las comunidades a partir, por ejemplo, de radios comunitarias en zonas
rurales. [6]
Estos nuevos actores multiplican los espacios mediáticos y forman redes
nacionales, regionales e internacionales que tarde o temprano harán su aparición
sobre el escenario político mundial, interviniendo en diferentes instancias
políticas. [7]
La llegada de Internet no sólo tuvo un impacto importante en los medios
tradicionales, como ya se ha señalado, sino también en el fortalecimiento de los
medios alternativos y comunitarios como la radio, la televisión y la prensa
comunitaria favoreciendo procesos sociales de comunicación interactiva e
intercambios en multimedia producto de la digitalización de los mensajes y de la
integración de los “telecentros”. Internet abrió la posibilidad de un espacio inédito
de intercambio de la información fuera de los circuitos de los conglomerados
mediáticos, lo que contribuyó a dar una dimensión real al movimiento social
mundial de la sociedad civil en temas globales. Algunos eventos en los que la
circulación libre de información en Internet fue relevante son: la Rebelión
Zapatista, en 1995 en Chiapas; la creación en red del movimiento francés ATTAC,
a fines de 1998; el desarrollo en Internet de freenets, de los Centros de medios
independientes como Indymedia que mostraron su eficacia en 1999 en Seattle
para la cumbre de la OMC. Entre los movimientos recientes destaca el uso de
Internet para canalizar la información alternativa y la organización ciudadana de
reacción a la manipulación de la información por parte del gobierno de Aznar en
España, después de los atentados de la estación Atocha de Madrid en 2004. En la
misma tendencia de uso de las TIC para el fomento de redes y medios
alternativos de circulación de la información y de monitoreo se encuentran el
Observatorio Francés de Medios de Comunicación, el CMAQ en Québec, Pulsar
en América latina y Simbani en Africa. [8]
Por otro lado, el desarrollo de los iPod y de los blogs, entre otros avances
tecnológicos, sumados al uso de Internet favoreció la creación de nuevos medios
de comunicación y nuevas experiencias de periodismo ciudadano que han tenido
gran éxito no sólo en Estados Unidos y en países desarrollados sino también en
la lucha por la libertad de expresión en los países del Sur.
Entre los nuevos medios de comunicación alternativos destaca el desarrollo
inédito de comunidades virtuales en una perspectiva de mayor apropiación
individual, a la vez local e internacional. [9] Cabe mencionar dentro de los
movimientos sociales y redes ciudadanas en Internet con esta óptica [10] a:
Globalcn, Mistica, Vecam, la Comunidad Web de movimientos sociales.[11] Se
trata, como lo señala Manuel Castells, del advenimiento de las redes como nueva
morfología social basada en la interconexión y la flexibilidad de la nueva topología
que permite una circulación de enunciados que generan nuevos sentidos y
efectos para la acción social y ciudadana;[12] lo que permite la existencia de
redes de movimientos sociales, redes ciudadanas y cibercomunidades sobre
temas de carácter mundial como la defensa del medio ambiente, la promoción de
los derechos de la mujer en la organización de la cuarta Conferencia Mundial de
la Mujer de la ONU y de la Marcha Mundial de las Mujeres.
Este desarrollo de los medios alternativos en la red y mediante el uso de nuevas
tecnologías no deja de estar enfrentado a enormes desafíos entre los que destaca
la problemática de la excesiva circulación de información en Internet. Algunos
estudios señalan [13] que si antes había apenas algunos medios en cada
localidad, ahora existen millones de sitios accesibles, lo que hace que el 50% del
tráfico en la red visita un 0.5% de los sitios web. De este modo, la riqueza de la
información se traduce en disminución de la atención y la cuestión de la
credibilidad de la información se transforma en una cuestión fundamental.
Funciones y responsabilidades de los medios de comunicación.
La regulación, tema central del debate
¿Cómo intervendrá la comunidad internacional para facilitar un proceso de
democratización de las comunicaciones en la relación compleja entre los medios
y la sociedad de la información?
Con el advenimiento de la globalización, debido a una variedad y combinación de
razones -algunas técnicas, otras políticas, económicas, o ideológicas- los políticos
nacionales están menos dispuestos y son menos capaces de intervenir en la
esfera de la actividad de los medios de comunicación. Al mismo tiempo, han
surgido poderosos mecanismos formales e informales (tales como acuerdos
comerciales internacionales) a escala internacional, que limitan la capacidad de
los gobiernos nacionales de influir en este sector. El ambiente internacional de los
medios de comunicación en la era neoliberal es una nueva frontera en la que las
reglas se van estableciendo sobre la marcha; como en toda situación fronteriza, el
más poderoso establece las reglas para satisfacer sus necesidades particulares,
mientras el menos poderoso trata de sobrevivir en una situación que él no creó.
Por otro lado, si dejamos de lado a las agencias internacionales como la UIT, que
tienen un papel puramente más que nada técnico y que son subvencionadas y
controladas por las grandes empresas mediáticas, no quedan lugares ni
instancias donde se pueda debatir y menos aún tomar decisiones respecto a la
información y los medios de comunicación como lo fue la UNESCO.
En este contexto, la CMSI constituía habrá constituido una ocasión única para
discutir sobre los medios de comunicación en la sociedad de la información.[14]
Sin embargo, la clara ausencia de los grandes medios de comunicación a lo largo
del proceso preparatorio y de las Cumbres de Ginebra y Túnez no ha hecho
posible dicho debate lo que pronostica resultados negativos. No obstante, la CMSI
habrá permitido por lo menos que los diferentes actores sociales que participaron
en este acontecimiento fundamental se posicionen.
Para algunos -incluyendo varios gobiernos y agencias internacionales importantes
tales como la Unión Internacional de Telecomunicaciones y la Organización
Mundial del Comercio-, los medios de comunicación no son otra cosa que un
molde vacío a través del cual viaja la información. Según este punto de vista, no
tiene ningún sentido, por ejemplo, debatir sobre los derechos humanos o la
libertad de expresión en la Cumbre Mundial sobre la Sociedad de Información.
Para aquellos para quienes el término “medios de comunicación” se refiere en
primer lugar al contenido y luego al envase, una afirmación como la antes
mencionada es como valorar un vino por la forma de su botella.
Otro aspecto de este debate gira alrededor de la regulación. Los defensores de la
desregulación de los medios plantean que la televisión, como hemos visto antes,
no es más que “una tostadora con imágenes”. Por otro lado, aquellos que
defienden la autorregulación de la industria o la regulación compartida entre la
industria y el gobierno son más sensibles a la importancia del contenido, pero
atribuyen un papel predominante a las entidades corporativas que constituyen las
grandes organizaciones de los medios de comunicación.
El punto de vista de los medios de comunicación centrado en las personas enfoca
el papel de éstas en la sociedad como facilitadores e intermediarios del debate
público y del empoderamiento individual y colectivo. Desde este punto de vista,
los medios de comunicación deben disfrutar de libertad de expresión sujeta a
ciertas obligaciones -por ejemplo, la necesidad de respetar la dignidad humana.
En este sentido, también son cuestiones claves el acceso y la accesibilidad -la
capacidad de utilizar los medios de comunicación para enviar y recibir mensajes.
Esta visión también reconoce la naturaleza ambivalente de los medios de
comunicación masiva contemporáneos como agentes del status quo social y
como agentes potenciales del cambio. Acentuar el papel social de los medios de
comunicación justifica las limitaciones que la sociedad les impone -por ejemplo,
las restricciones en la concentración de la propiedad de los medios de
comunicación, las reglas para los distribuidores por cable y por satélite, la
obligación de trasmitir mensajes de servicio público, el derecho a responder,
etcétera.
Las nuevas formas de comunicar y la creación de plataformas de comunicación
interactiva y cooperativa implican también el reconocimiento de nuevos bienes
comunes de la información, una redefinición de lo que se entiende por “servicio
público” de información y comunicación y una revisión de los regímenes de
propiedad intelectual. Por consiguiente, los debates sobre los medios de
comunicación están cada vez más implicados en el debate internacional más
amplio sobre los derechos a la comunicación.
Notas y Referencias
[1] GKP, The Media & the Information Society, (2004) Kuala Lumpur, GKP.
[2] Marc Raboy, Media and Democratization in the Information Society,
http://files.crisinfo.org/raboy.pdf
[3] Ignacio Ramonet, Le cinquième pouvoir, Le Monde Diplomatique, Octobre,
2003.
[4] Alfonso Gumucio’Dragón, Right to Communicate. From the Summit to the
People, I4d, in http://www.i4donline.net/july05/rig...
[5] Ignacio Ramonet en el seminario Democratizar las comunicaciones y los
medios en el FSM el 25 de enero de 2005.
[6] No debe confundirse con la interactividad de las comunidades vituales a través
del Internet. Ver Bruce Girard (Editor) The one to watch. Radio New ICTs and
interactivity, 2003, FAO, Roma, p. 8 p. 12.
[7] Alain Ambrosi, La difficile émergence des réseaux de communication
démocratique dans l’espace politique global in Proulx Serge et Vitalis André (dir.)
Vers une citoyenneté simulée. Médias, Réseaux et mondialisation, Apogée,
Rennes, 1999.
[8] http://www.amarc.org
[9] RedISTIC, Otro lado de la brecha. Perspectivas latinoamericanas y del caribe
ante la CMSI, (2003), RedISTIC, Caracas.
[10] Valérie Peugeot, Réseaux humains, réseaux électroniques, Paris, Charles
Léopold Mayer, 2002.
[11] Osvaldo León et Al. Movimientos sociales en la red, (2001) Quito, ALAI.
[12] Manuel Castells, La era de la información: Economía, sociedad y cultura - La
sociedad en Red, (1999), México, Siglo XXI.
[13] Matthew Hindman, Media Diversity and the Concentration of online attention,
Harvard, 2002
[14] Por otro lado, la Unión Europea de radiodifusión cooperó en la organización,
en diciembre de 2003, de un Foro Mundial sobre los Medios de Comunicación
Electrónicos, uno de los eventos más importantes realizados paralelamente a la
Cumbre en términos de financiamiento y asistencia. http://www.wemfmedia.org/
Bibliografia
«Définir des sociétés de l’information centrées sur les besoins des êtres humains
», Déclaration de la société civile au Sommet mondial sur la société de
l’information, 8 décembre 2003.
Aigrain, Philippe, Cause commune. L’information entre bien commun et propriété,
2005.
Aprea, Gustavo, La Sociedad, Información y el Conocimiento ante la difusión de
las TIC, in http//www.littec.ungs.edu.ar
Mattelart, Armand, Genèse de la notion de société de l’information ; Peugeot,
Valérie (Coordonnatrice) Réseaux humains, réseaux électroniques, (2001) Paris,
Charles Leopold Mayer-Vecam.
Reich, Robert, The work of the Nations. Prospering Ourselves to XX! Century
Capitalism, (1991) Nueva York, Knof.
Piratería
Christine Schweidler
Sasha Costanza-Chock
Al menos desde el siglo XV, la propaganda estatal y la corporativa han empleado
el término “piratería” para referirse a la apropiación y reventa de la propiedad
privada. Más recientemente, la aplicación de este término se ha extendido a la
reproducción y distribución ilegal de bienes intangibles, independientemente de
que los “piratas” tengan o no afán de lucro. La campaña propagandística
relacionada con la “piratería” en línea ha sido muy exitosa. Sin embargo, rara vez
el análisis público incluye la valoración de la amenaza que representa para el
conocimiento y la creatividad la limitación del área pública del conocimiento en
manos de empresas multinacionales privadas.
En nuestra definición de “piratería”, comenzaremos haciendo un recorrido a través
de la historia legal y popular del término, desde el “pirata” marítimo, que asoló a
los monopolios de comercio marítimo, hasta los actuales “piratas” digitales, que se
dedican a la duplicación, la distribución o el empleo desautorizados de materiales
patentados o protegidos por el derecho de autor. Luego analizaremos el uso
actual del término por parte de la industria como herramienta fundamental en sus
esfuerzos por penalizar el intercambio libre de información. Primero nos
concentraremos en el concepto de “piratería” empleado en discusiones de
materiales audiovisuales, software y otras formas de información digital. No
obstante, queremos destacar desde el principio las conexiones entre la lucha por
la penalización de la invasión de la “propiedad intelectual” en la arena del
contenido digital y las acciones relacionadas que tienen lugar en otros sectores.
La expansión mundial del sistema de la “propiedad intelectual” (en especial las
patentes) tiene un significativo impacto en el acceso al conocimiento esencial de
la medicina, la biotecnología, la agricultura, la ciencia, etcétera. Por último,
concluiremos resaltando algunos proyectos y vías alternativas utilizados por los
activistas de la sociedad civil para salvaguardar el valor social del conocimiento.
Historia del concepto
El término moderno “piratería” fue utilizado por primera vez en el siglo XV [1]. Se
aplicó inicialmente a individuos apátridas que se apoderaban en alta mar de las
mercancías transportadas por embarcaciones de compañías del Estado o
respaldadas por este. Aunque puede parecer que el uso actual del término es lo
suficientemente diferente como para garantizar apartarlo totalmente de su sentido
marítimo, existen varios vestigios de este uso inicial que aún persisten. El antiguo
concepto de piratería marítima fue, en parte, una idea desarrollada y promovida
por poderosas empresas privadas que buscaban la protección legal del Estado
para legitimar sus propios intereses materiales y los monopolios comerciales [2].
Por consiguiente, incluso durante el apogeo del saqueo en alta mar, el uso del
término dependía completamente de la posición que se tuviera [3]. Por ejemplo,
fue muy importante la distinción legal británica entre “corsarios”, que eran barcos
o individuos reconocidos o patrocinados por un Estado europeo o cualquiera otro;
y los “piratas”, que no pertenecían a ningún Estado. El concepto de piratería se
arraigó de forma tan intensa en el supuesto de un derecho a la dominación
comercial, que a menudo las naves europeas consideraron legítima su propia
depredación de los comerciantes locales. En otros términos, la única diferencia
entre “pirata” y “corsario” era que este último poseía una carta del gobierno que lo
autorizaba a saquear.
En la actualidad, la batalla contra la “piratería” se lleva a cabo en el reino del
conocimiento comercializado, y en la ley y la retórica del uso, la distribución y la
producción ilegítimos de bienes que giran en torno a políticas cada vez más
proteccionistas que rigen los intangibles, tales como las marcas de fábrica, las
patentes, y el derecho de autor. Los antecedentes de estas políticas provienen de
los siglos XVI y XVII, cuando las leyes venecianas e inglesas concedieron los
monopolios de la impresión a editoriales específicas, y establecieron el control
directo del Estado (es decir, la censura). Durante el siglo XIX, el término “piratería”
se aplicó cada vez más a las editoriales que hacían copias de libros para vender
sin permiso del autor o sin pagar comisiones por derecho de autor al autor
original. Muchos de los debates en esta época giraban en torno a la reproducción
no autorizada de trabajos en el extranjero, donde las leyes locales no tenían
jurisdicción.
En una fase temprana en la historia de los Estados Unidos, el Congreso
norteamericano reconoció el papel que desempeñarían la importación y la amplia
diseminación de trabajos culturales, artísticos y científicos extranjeros en la
promoción de la alfabetización y en el “desarrollo” económico, político, social y
cultural. De esta forma, aunque la Ley Norteamericana de Derecho de autor de
1790 ofrecía protección limitada a los autores nacionales, la Sección 5 de la Ley
planteaba que:
“...nada de lo dispuesto en esta ley se interpretará como una prohibición a
la importación o venta, reimpresión o publicación dentro de los Estados
Unidos, de cualquier mapa, diagrama, libro o libros escritos, impresos o
publicados por cualquier persona que no sea ciudadano de Estados
Unidos, en el extranjero o en lugares que no estén bajo la jurisdicción de
los Estados Unidos.” [4]
Es decir, los que redactaron la primera ley norteamericana de derecho de autor
entendían que limitar el alcance de los derechos privados de propiedad del
conocimiento era de interés público y estatal. De esta forma, EE.UU. decidió
establecer su propia soberanía sobre las reclamaciones de propiedad de otros
Estados e individuos.
De hecho, la “piratería” de libros y otras formas impresas estaba muy extendida
en la época colonial de los estados norteamericanos [5]. Después de la
independencia, la apropiación de obras extranjeras fue estimulada por élites que
planteaban que serviría para elevar el nivel cultural público (una definición
demasiado inadecuada de “público”, compuesto por hombres blancos libres), así
como para estimular el desarrollo de la literatura nacional y de una industria
editorial local [6]. Por ejemplo, Thomas Jefferson planteó que el acceso libre y
abierto a la información era vital para el proceso democrático, y necesario para
que el público se autogobernara. En realidad, el propio espíritu de la Cláusula de
Derecho de autor 1787 de la Constitución de los Estados Unidos obliga al
Congreso a equilibrar los intereses financieros individuales de los creadores con
el interés del gran público con acceso a la información [7]. Esta cláusula se
convirtió en la base legal del uso equitativo: el principio de que se harán
excepciones del derecho de autor para fines de crítica, parodia, reportes de
noticias y educación [8]. Los tiempos han cambiado.
Para finales del siglo XIX, el desarrollo de la ley internacional de derecho de autor
estaba bien avanzado. En 1886, diez países (excluyendo a EE.UU., que no firmó
hasta 1988) estaban preparados para firmar lo que se conoció como el Convenio
de Berna. Este Convenio proporcionaba a todos los países participantes una
garantía de respeto mutuo para las leyes nacionales de derecho de autor que
protegen las obras literarias, científicas y artísticas, y ofrecía excepciones
limitadas para los países “en desarrollo”. Durante el siguiente siglo, el Convenio
de Berna fue sometido a revisiones y firmado cada vez por más países. En 1967,
se convirtió en la piedra angular de la Organización Mundial de la Propiedad
Intelectual (OMPI), un órgano creado dentro del sistema de la ONU para
supervisar, desarrollar y promover la “propiedad intelectual” (derecho de autor,
patentes, y marcas registradas).
Entretanto, tecnologías como las fotocopiadoras, que impactaron el mercado en
1949 y cuyo empleo se extendió a finales de los años sesenta, transformaron la
“piratería” del libro y de partituras musicales en un floreciente negocio
internacional. Igualmente a finales de los años sesenta, la grabación de audio en
cintas magnetofónicas alteró la industria musical, los casetes rivalizaron con los
discos de vinilo como forma estándar de distribución, y los propagandistas de la
industria comenzaron a aplicar el término “piratería” a la duplicación masiva de
forma ilícita de casetes de música para venderlos a los consumidores [9]. En
1971, la Ley Norteamericana de Grabación de Sonido inició la protección de las
grabaciones de sonido bajo la ley de derecho de autor. En los años setenta tuvo
lugar el desarrollo y la difusión de las primeras video-caseteras prácticas para el
hogar, y se produjeron las primeras copias “piratas” de películas comerciales. En
respuesta a estos avances tecnológicos, las compañías de la industria
cinematográfica presionaron al Congreso para la protección contra las propias
tecnologías de duplicación, y demandaron mayores sanciones para la duplicación
ilegal. Las compañías de grabación también influyeron para retardar la puesta en
circulación de las tecnologías que según ellas afectarían su monopolio de
distribución. En la mayoría de los casos, la presión ejercida por la industria no
logró impedir el desarrollo y la distribución de las tecnologías de duplicación [10].
Sin embargo, la industria audiovisual presionó con éxito al Congreso
norteamericano para penalizar la “piratería”, y durante los últimos 30 a 40 años, el
Congreso amplió repetidamente las definiciones y sanciones por la infracción del
derecho de autor. La Ley Norteamericana de Derecho de autor de 1976 expandió
la aplicación de la ley a aquellos que incluso no habían obtenido ni un centavo de
la infracción, pero que se pudiera demostrar que intentaban obtener ganancias; la
Ley de Piratería y Modificaciones Falsificadas de EEUU de 1982 aumentó
significativamente las sanciones por infringir las obras audiovisuales registradas
[11]. De modo similar, el rápido desarrollo de la industria de software de
computación en los años ochenta estuvo acompañado de las exigencias de la
industria de software para la protección de sus “bienes”. Sus esfuerzos se vieron
premiados en 1992, cuando también se declaró ilegal la reproducción y
distribución no autorizada de software con el fin de obtener ganancias [12].
Hasta hace muy poco, el término “piratería” se aplicaba sólo a la duplicación
masiva con afán de lucro de copias impresas de textos, contenido audiovisual y
software (copias realizadas en materiales físicos como papel, cinta magnetofónica
o disco plástico). No fue hasta la adopción extendida de las nuevas tecnologías
digitales y la Internet, a finales de los años noventa, que la industria comenzó a
aplicar el término “piratería” a la práctica creciente de intercambio libre de música,
y a llamar “piratas” a los individuos que participaban en el intercambio libre de
información. El Congreso hizo lo mismo. Aunque fue debatida acaloradamente, en
1997 salió a la luz la Ley Contra el Robo No Electrónico (NET por sus siglas en
inglés), que de hecho penalizó el empleo de obras registradas,
independientemente de la intención con que se hiciera. Al dejar de considerarse el
afán de lucro como una característica que define la “piratería”, la intención de
compartir libremente el material ya no podría ser un pretexto para estar exonerado
de una responsabilidad penal. La Ley de Derechos de Autor en el Milenio Digital
(DMCA por sus siglas en inglés), promulgada en 1998 para acompasar la
legislación norteamericana de propiedad intelectual con dos tratados de la
Organización Mundial de la Propiedad Intelectual (OMPI) (el Tratado de Derecho
de autor, de 1996, y el Tratado de Actuaciones y Fonogramas, de 1997), no solo
materializó las expansiones antes mencionadas, sino también restringió aún más
el desarrollo de tecnologías que pudieran significar un debilitamiento de los
sistemas de protección del derecho de autor. No obstante, la diseminación libre de
archivos estalló en la conciencia popular en 1999 con el conocido servicio de
diseminación de archivos Napster.
La historia norteamericana del derecho de autor, contada anteriormente, tuvo
como telón de fondo el auge del desarrollo industrial norteamericano después de
la II Guerra Mundial. Los procesos de investigación, producción y distribución
surgidos como resultado de un complejo sólidamente construido entre la industria,
la universidad y el ejército, proporcionaron a los Estados Unidos una creciente
ventaja económica basada principalmente en la producción de nuevos
conocimientos en los sectores claves (tecnologías médicas y científicas,
farmacéutica, química, electrónica, informática, etcétera). Particularmente a lo
largo de los últimos 60 años, el gobierno norteamericano reconoció que la
producción del conocimiento era fundamental para su crecimiento económico y su
seguridad nacional. Durante el mismo período, la propiedad del conocimiento
pasó de manos de los individuos a las corporaciones, y estas últimas tuvieron
cada vez más éxito al exigir la aplicación de las protecciones del monopolio.
Después de la II Guerra Mundial, el mundo seguía siendo muy desigual en
términos de la distribución del poder político y económico y, ciertamente, lo mismo
ocurría con respecto a las llamadas industrias del conocimiento. En la década del
setenta, las poderosas industrias del conocimiento dentro de los EE.UU. habían
incorporado de forma exitosa sus intereses a la política exterior norteamericana:
la cláusula “301 Especial” de la Ley de Comercio de Estados Unidos de 1974 creó
un mecanismo para presionar a los gobiernos extranjeros a acatar la ley
norteamericana de derechos de autor y de patentes, elaborando una lista que
clasificaba a los países según su grado de infracción de “la propiedad intelectual”
(“PI”). Ya en los años ochenta, EE.UU. había comenzado a tomar en serio su
agenda de “PI” en el extranjero mediante acuerdos comerciales, que presionaban
a los países a acatar y aplicar las normas norteamericanas de derecho de autor y
de patentes como una condición para el comercio. A pesar del hecho de que el
Convenio de Berna y otros acuerdos internacionales sobre “PI” concedieron
excepciones a los países más pobres y a sus agendas de desarrollo, aquellos
países que no respetaron, o se negaron a aceptar, la ley norteamericana de “PI”,
o hicieron uso pleno de licencias reglamentarias [13] u otras excepciones, fueron
llamados cada vez más “piratas de la propiedad intelectual”.
Sin embargo, los años ochenta eran solo el comienzo de la relación entre la ley de
comercio y la “PI”. Frustrado porque los organismos internacionales existentes no
obligaban a los países a observar las leyes de la “PI”, y superado en número en
los foros internacionales compuestos por delegados de nuevos Estados
independientes, que antes eran colonias (por ejemplo, instituciones de la ONU
como la OMPI y la UNESCO), Estados Unidos desarrolló una estrategia para
trasladar la lucha sobre la “PI” a otra parte. Las industrias de derecho de autor
(audiovisual), en coordinación con las industrias de patentes (química y
farmacéutica, y cada vez más del software), lucharon durante décadas por crear
un fuerte sistema mundial de “PI”. Después de una feroz batalla dentro de la
OMPI (específicamente entre los gigantes de la industria del conocimiento, como
EE.UU., Japón, Reino Unido y Alemania, contra la inmensa mayoría de los países
en vías de desarrollo), la expansión del sistema de “PI” fue llevada a la fuerza a
otro escenario. En 1996, el contenido y la intención del Convenio de Berna y de
otros convenios de derecho de autor, patentes, y marcas registradas fueron
suplantados en gran medida por el acuerdo de la Organización Mundial del
Comercio (OMC) sobre aspectos de los derechos de propiedad intelectual
relacionados con el comercio (ADPIC). El ADPIC ha demostrado ser una
herramienta muy eficaz para obligar a los países en vías de desarrollo a adoptar
un sistema de “PI” al estilo norteamericano, independientemente de que fuera o
no por los mejores intereses de sus poblaciones, pues al incumplirlo se arriesgan
a ser sometidos a sanciones comerciales. La OMPI quedó a la saga del ADPIC,
pero continuó siendo parte importante de la armonización internacional de la ley
de “PI”.
A escala internacional, la campaña maximalista y anti-piratería de derecho de
autor y de patente está ganando terreno rápidamente, sin una participación
general en el debate y sin que el público conozca lo que está en riesgo. Los
gobiernos de Japón, la UE [14], Australia e incluso algunos países en vías de
desarrollo [15], están adoptando cada vez más los argumentos anti-piratería, que
fueron desarrollados en un inicio por las industrias norteamericanas beneficiadas.
El término “piratería” no solo se emplea en las negociaciones comerciales
bilaterales, regionales (ALCA) e internacionales (OMC), sino también ha sido
utilizado de forma generalizada por el gobierno norteamericano en las
instituciones multilaterales. Esto ocurre especialmente en la OMPI, pero también
dentro de la UNESCO y en el proceso de la Cumbre Mundial sobre la Sociedad
de la Información (CMSI). Por ejemplo, la necesidad de combatir la “piratería” en
línea (y el “ciberterrorismo”) es un puntal de la posición norteamericana en la
CMSI, así como en la UNESCO durante las negociaciones sobre el anteproyecto
de Convenio sobre la Protección y Promoción de Contenidos Artísticos y
Expresiones Culturales [16].
Un criterio de evaluación: acceso al conocimiento
Si se permite que continúen de forma descontrolada, los recientes
acontecimientos de la ley de derechos de autor y de patente que amplían la
definición y las sanciones por “piratería” traerán consigo serias implicaciones
negativas para el fair use [17] y el dominio público, las tecnologías y las normas
tecnológicas (por ejemplo, los requerimientos de los DRM), la educación y el área
pública del conocimiento. Un movimiento creciente y diverso considera que el
actual sistema de “propiedad intelectual” es una amenaza para la democratización
de la educación, la participación cívica, la promoción de la expresión creativa y la
protección de una herencia humana compartida de conocimiento y creatividad.
Muchos plantean que el problema debe ser reformulado: en lugar de preguntar
“¿qué hay de malo en la piratería?”, se podría preguntar “¿qué hay de malo en la
“propiedad intelectual”?” Sería un eufemismo decir que existe un acalorado
debate sobre el actual empleo en la industria del término “piratería”.
Las “industrias del derecho de autor” (de la música, el cine y especialmente del
software) emplean una definición sumamente amplia de “piratería” que incluye
toda duplicación, distribución y uso de material registrado sin autorización,
independientemente de si dicha duplicación es realizada: 1) por empresas
profesionales, que realizan una duplicación a gran escala y revenden materiales
con afán de lucro; 2) por proveedores de servicios que poseen herramientas de
distribución de archivos; 3) por individuos que usan las redes de distribución de
archivos para intercambiar materiales libremente; o incluso 4) por consumidores
que sin saberlo se ven involucrados en la “piratería” al no comprender totalmente
los términos de licencia de los productos que inicialmente compraron, por ejemplo
cuando hacen algunas copias extras para uso personal o familiar [18]. Todos
estos usos del término “piratería”, exceptuando el primero, son ampliaciones
serias que no deben ser tomadas a la ligera. En parte debido a la expansión del
término en la industria, los legisladores de la pasada década comenzaron a
combinar la distribución gratis de contenidos con la reventa de material registrado,
al punto de que la distribución de archivos prácticamente se ha convertido en
sinónimo de “piratería” [19].
La propaganda de la industria (y del Estado) sobre la piratería dirigida a la opinión
pública se basa en algunos puntos claves: primero, enfatizan en la vulnerabilidad
del artista, el investigador o el programador, y el sufrimiento directo de los
creadores originales en manos de los “piratas”; segundo, plantean que sin los
beneficios económicos garantizados por una política fuerte de “propiedad
intelectual” y una aplicación rigurosa, disminuiría la creatividad por falta de
incentivos; tercero, afirman que las regulaciones débiles de la “propiedad
intelectual”, particularmente en los países en vías de desarrollo, debilitan el
“desarrollo”, impiden el sustento de los artistas locales y el crecimiento de la
industria local, y amenazan el conocimiento local. Aunque la industria financia
costosos estudios que generan cifras muy especulativas para apoyar esas
afirmaciones, los resultados son problemáticos y no concluyentes [20].
Aun si se aceptaran las cifras de la industria sobre las “ganancias perdidas”, esas
cifras siempre encubren la relación explotadora entre los titulares de los derechos
corporativos y los productores originales. No resulta sorprendente que exista un
debate dentro de la industria que rompe con las líneas de postura en la cadena de
artículos de consumo. Los creadores, los editores, los presentadores, los
publicistas, los vendedores minoristas, todos tienen diferentes intereses en juego.
Incluso dentro de cada categoría existen intereses diferentes; por ejemplo, entre
los artistas estrellas y la inmensa mayoría, entre las empresas titulares y las
nuevas, entre los distribuidores con modelo comercial basado en la venta de
productos físicos y los que se dedican a la distribución digital. Sin embargo, existe
un marcado y creciente desacuerdo de los creadores que se resisten a la ofensiva
industrial contra la “piratería” en su nombre.
También existe una polémica pendiente con respecto a si las ganancias
provenientes de las patentes y del derecho de autor son o no incentivos
necesarios para la innovación. Hasta cierto punto, el debate está determinado por
la dominación de la propaganda que describe las pérdidas por ventas potenciales
(y, en última instancia, no se puede comparar una copia “pirateada” con una
compra perdida). Ahora bien, afirmar que conferirles beneficios económicos a los
titulares de los derechos de “propiedad” intangible es el método más eficaz de
apoyar la labor intangible es una posición ideológica, no un hecho económico
concreto. La manera economicista estrecha en que se ha conducido el debate
margina la existencia de otras estrategias para el apoyo económico.
La estimación de la escala de “piratería” es sumamente difícil aun cuando se
concentre en la falsificación masiva de productos “duros” (casetes, CD, DVD). En
lo referente a la “piratería” en línea, incluso la industria admite que sus mejores
estimados son palos de ciego. Por ejemplo, en el momento en que se escribe este
artículo, los analistas del tráfico de Internet consideran que un tercio de todo el
tráfico de Internet lo ocupan los archivos bittorrent [21]. Se desconoce el
porcentaje de tráfico de bittorrent compuesto por la distribución gratuita de
archivos de material audiovisual y software registrados, pero probablemente sea
alto. Si bien resulta difícil calcular la cantidad de archivos que se intercambian, es
más difícil aún solucionar las aseveraciones contradictorias acerca de los
impactos de la “piratería” en las ventas de la industria (¿representa cada archivo
intercambiado un producto que realmente alguien quería comprar?), en la
conducta del consumismo (¿estimula la frecuente distribución de archivos a las
personas a que escuchen una música que de otra forma nunca hubieran podido
escuchar, y en general las llevan a comprar más música?), y en los sustentos de
los creadores (¿crean los músicos mayores bases de admiradores, atraen a
mayores multitudes para disfrutar los espectáculos en vivo, y venden más
productos debido a la libre distribución de archivos?).
En lo referente al software, la “piratería” extendida puede en última instancia
contribuir a un aumento de las ventas, aun cuando las perjudiquen a corto plazo.
Esto se debe a que la “piratería” sirve para establecer una base de mercado para
la explotación futura, y en algunos casos puede contribuir a la saturación casi
monopolista del mercado. De hecho, esto es algo que los ejecutivos de Microsoft
no han pasado por alto, y probablemente sea la causa de la reciente conducta
“filantrópica” del gigante del software, particularmente ante la “amenaza” que
representan los software libres de código abierto. El partenariado de mil millones
de dólares entre Microsoft y el Programa de las Naciones Unidas para el
Desarrollo, anunciada en el Foro Económico Mundial de 2004, constituye desde
este punto de vista un esfuerzo para asegurar un segmento del mercado, al
atrapar a los usuarios de los países en vías de desarrollo en los productos de
Microsoft. La expectativa es que las actuales “pérdidas” (el costo real de la
reproducción del software es casi cero) se compensen varias veces con las
ventas a los futuros mercados compuestos por empresas y consumidores, una
vez que estos sean asegurados por la globalización continua de un fuerte sistema
de “PI” al estilo norteamericano. El mismo argumento puede aplicarse a la
industria audiovisual, en el sentido de que el producto “pirata” en los países en
vías de desarrollo sirve para crear una demanda local de contenido, así como de
infraestructura para la distribución y el consumo. Una vez creada la demanda,
comienza la presión para establecer una ley más estricta de “PI” y de “ofensiva
contra la piratería”, y la industria recogerá los beneficios.
A escala internacional, la industria ofrece cifras país por país que representan las
pérdidas estimadas por piratería cada año, y las emplea para presionar a los
países en vías de desarrollo en las negociaciones comerciales [22]. Los grupos de
la industria, que ejercen presión a nombre de los gigantes titulares del derecho de
autor y las patentes, plantean al gobierno norteamericano que el futuro de la
hegemonía económica norteamericana será cada vez más dependiente de su
dominio de la economía del conocimiento [23]. Las recomendaciones de las
industrias del derecho de autor para las negociaciones internacionales son
aceptadas, generalmente, casi al pie de la letra, y los países que aparecen en la
lista tienen que cambiar sus leyes nacionales de derecho de autor y patentes o
reciben sanciones comerciales.
Para resumir lo planteado hasta aquí: los limitados monopolios del conocimiento
protegidos por el Estado tenían originalmente la intención de promover la
educación, las artes y las ciencias equilibrando un mecanismo de incentivo para
los creadores originales con los derechos del público a acceder al conocimiento.
Ahora, sin embargo, las grandes corporaciones son las dueñas de los monopolios
del conocimiento, no los creadores originales; los términos del derecho de autor
se han extendido hasta casi un siglo [24] después de la muerte del autor, y las
sanciones por las infracciones son mayores que nunca antes. La creciente lista de
“conocimiento” protegido ha llegado a incluir hasta nuestro propio código genético,
e incluso organismos vivos completos. ¿Cuáles son los costos? Un daño
incalculable a la innovación, la educación, las artes, las ciencias, al derecho de
intercambiar información libremente, y, en el caso de las patentes de
medicamentos, a las vidas humanas [25].
En el contexto de la creciente desigualdad económica, la estratificación del
acceso al conocimiento a través de los mecanismos del mercado marginará aún
más la pobreza. Los países en vías de desarrollo, junto a innumerables grupos de
la “sociedad civil”, continúan planteando que el paquete de “PI” de nombres de
marcas, patentes y derechos de autor, ofrecido a través de ADPIC, la OMPI o
acuerdos comerciales bilaterales, no es más que un medio para que las firmas ya
dominantes se conviertan en monopolios regionales y mundiales. Además, a
pesar de un discurso bien elaborado sobre la necesidad especial de combatir la
“piratería” audiovisual y otras formas de piratería en el mundo en vías de
desarrollo, muchas personas plantean que los verdaderos piratas en el Sur son
los biopiratas: las grandes empresas farmacéuticas y agrícolas del Norte que
tratan de apoderarse de patentes de plantas medicinales y variedades de cultivos,
“descubriendo” objetos que han sido desarrollados durante miles de años por los
pueblos indígenas [26].
Reclamación del patrimonio común
Muchos reconocen que el actual sistema proteccionista del derecho de autor y las
patentes causa más daños que beneficios. Algunos países en vías de desarrollo
se están organizando, para asegurar que el sistema de “PI” incluido en la agenda
“ADPIC-plus” no sea del todo contrario a sus intereses. Bibliotecarios, científicos,
artistas y muchos otros continúan organizándose para promover un amplio acceso
público libre al conocimiento. La distribución de archivos ha aumentado
vertiginosamente a pesar de los pleitos legales de la industria contra los usuarios
finales. Históricamente, al menos en EE.UU., el Congreso y los tribunales se han
opuesto a censurar completamente el desarrollo tecnológico para aplacar las
demandas de la industria [27]. En el pasado, las llamadas actividades “piratas”
lograron alcanzar la legitimidad legal (por ejemplo, el movimiento de radio “pirata”
en EE.UU. trajo como resultado la legalización de estaciones FM de baja
potencia). Al menos en algunos casos, la privacidad ha triunfado por encima de
los intereses de la industria [28]. En el año 2004, la OMPI se vio forzada, por la
presión de los países en vías de desarrollo y de la sociedad civil, a aceptar una
revisión de sus actividades a la luz de los Objetivos de Desarrollo de las Naciones
Unidas para el Milenio. Recientemente, Brasil adoptó Creative Commons como la
licencia preestablecida para las grabaciones musicales, y el software de código
abierto en todas las instituciones públicas. Estas y muchas otras técnicas,
estrategias y movimientos alternativos se están desarrollando dentro y fuera del
sistema actual de “propiedad intelectual”.
Agenda para el desarrollo.
En el caso de medicamentos esenciales, una importante victoria en la ronda de la
OMC efectuada en Doha aseguró excepciones de los ADPIC para el otorgamiento
obligatorio de licencias para medicamentos genéricos bajo ciertas condiciones.
Ahora, los países que lucharon por la excepción de Doha están presionando
fuertemente para reformar la OMPI de forma tal que la “PI” sea considerada como
uno de los muchos mecanismos posibles para hacer llegar el conocimiento
necesario a los países en vías de desarrollo, y no como un fin en sí mismo.
Además, Brasil, China y una lista creciente de otros países en vías de desarrollo
están movilizándose para adoptar el software de código abierto como norma en
las instituciones públicas. Sus argumentos van desde la sostenibilidad económica,
dado el alto costo de mantenimiento del software patentado, hasta la seguridad.
En términos de “bienes” culturales, el Ministerio de Cultura Brasileño, encabezado
por el músico y activista de la justicia social Gilberto Gil, propuso recientemente
adoptar una licencia similar a la asignación y distribución no comercial de
Creative Commons como la licencia preestablecida para las grabaciones
musicales, basado en el argumento de que la disponibilidad de un patrimonio
creativo común es esencial para el nuevo trabajo creativo. Además, algunos
países en vías de desarrollo han aumentado la presión para instituir mecanismos
legales internacionales para defenderse contra la “biopiratería” y para proteger a
los pueblos indígenas contra la apropiación de su conocimiento tradicional y sus
expresiones creativas a través de derechos de autor y patentes no validadas.
Tratado de Acceso al Conocimiento.
En febrero de 2005, una importante conferencia organizada en Ginebra por
Consumer Project on Technology (CPTech), Third World Network (TWN) y la
Federación Internacional de Asociaciones de Bibliotecarios (IFLA por sus siglas en
inglés) contó con una gran participación de grupos de interés público,
investigadores, académicos y diplomáticos para discutir la creación de un
“Tratado de Acceso al Conocimiento”. Esta acción de la sociedad civil dio
seguimiento a un reclamo de Argentina y Brasil a la OMPI de una “Agenda para el
Desarrollo”. Esta conferencia “a2k” se centró en organizar estrategias y un
potencial camino común a seguir: un tratado que equilibre mejor las necesidades
de información de públicos diferentes con los intereses privados de los titulares
del derecho de autor. Materialmente, el Tratado de Acceso al Conocimiento podría
incluir excepciones y limitaciones a patentes y derecho de autor en áreas claves
como la salud pública y la educación [29].
Movimiento de software libre/de código abierto.
La difusión mundial del movimiento de software libre/de código abierto (F/LOSS
por sus siglas en inglés) es uno de los ejemplos más importantes contra la
cruzada anti-“piratería”. Miles de programadores consagran su tiempo a trabajar
en software con código fuente abierto al público (código abierto), y en muchos
casos de uso gratuito y patentado de forma que otros puedan desarrollarlo y
mejorarlo, pero sólo bajo la condición de que su trabajo también sea gratuito y
abierto (software libre). A medida que aumenta el éxito del software libre, los
gigantes del software lo enfrentan en forma de una creciente presión para obtener
patentes de software, algo ya común en los Estados Unidos y que está siendo
sometido a consideración en la UE.
Distribución de la música.
Muchos músicos independientes plantean que, para la inmensa mayoría de los
músicos que se ganan más la vida por las actuaciones en vivo que por el cobro de
comisiones por derechos de autor sobre las grabaciones, la distribución gratis de
la música a través de las redes de distribución de archivos no constituye una
amenaza, sino una forma de publicidad gratuita y una manera de aumentar el
número de admiradores. Otros promueven un modelo “shareware” de grabaciones
de audio donde la distribución es gratuita, pero se insta a los admiradores a que
donen una pequeña cantidad directamente al artista si disfrutan de la grabación
[30]. Como todo el dinero va directamente al artista, incluso las pequeñas
donaciones de los admiradores significan más para los músicos que el modelo de
la industria, donde la inmensa mayoría de los precios desaparece a lo largo de
una cadena de intermediarios. Tales actitudes hacia la distribución de archivos
entre los creadores no son marginales: un reciente estudio realizado por Pew
Internet y American Life sobre los músicos y artistas [31] concluyó que, aunque
los artistas están divididos en sus actitudes con respecto a la distribución de
archivos, la mayoría (2/3) no considera la Internet como una amenaza a su
sustento, y una parte significativa considera que la distribución gratuita de
archivos los ha ayudado en sus carreras.
Redes punto a punto (P2P).
La tecnología P2P reemplaza al modelo en el cual la información está hospedada
en un único servidor que envía un archivo por usuario, por un modelo de red
donde cada usuario puede recuperar la información compartida directamente
desde las máquinas de cada uno de los otros usuarios. De esta manera, se
optimiza el uso del ancho de banda y resulta más fácil descargar los archivos que
realmente tienen una alta demanda (debido a que existen más copias disponibles
y más máquinas que proporcionan acceso a ellos). Aunque las industrias
audiovisuales están intentando convertir la tecnología P2P en sinónimo de
“piratería”, la propia tecnología tiene una amplia gama de usos. La tecnología P2P
ha permitido la comunicación descentralizada a comunidades, movimientos,
grupos de interés, campañas, etcétera. Esta tecnología permite a los disidentes
que viven bajo gobiernos represivos comunicarse entre sí y con el resto del
mundo. Cada vez es mayor el número de personas que participa en lo que se ha
dado en llamar “producción pública entre colegas”, donde la producción del
conocimiento, de obras artísticas y de servicios se basa en recursos de dominio
público y organizados por colegas. Sin embargo, la tecnología P2P está bajo la
amenaza legal de la industria: en el momento en que se escribe este artículo, la
Corte Suprema de los Estados Unidos está escuchando los argumentos sobre la
tecnología P2P, y decidirá si se permitirá legalmente continuar desarrollándola.
Una amplia gama de grupos de interés público se ha unido para defender la
tecnología P2P e instar a la corte a que se apoye en el precedente establecido en
el caso Betamax, que plantea que son los usuarios, y no las tecnologías, quienes
infringen el derecho de autor [32]. Entretanto, el número de usuarios de P2P
continúa creciendo.
Publicación de libre acceso.
Las bases de datos y archivos que son propiedad de revistas académicas, a las
que ni siquiera muchas universidades de los Estados Unidos pueden permitirse el
lujo de suscribirse, garantizan virtualmente que los países en vías de desarrollo
no tengan acceso suficiente al conocimiento producido en ambientes con más
financiamiento. Esta grave desigualdad impide a los países en vías de desarrollo
acceder a un conocimiento que puede ser esencial para mejorar las condiciones
locales, impide su participación en la investigación actual, y establece agendas de
investigación según las prioridades de los países adinerados [33]. Sin embargo,
existe una solución: la publicación libre, que básicamente pone a disposición
artículos de revistas y otros materiales en línea sin costo alguno y sin restricción
de acceso, ha estado creciendo espectacularmente. Existen numerosos modelos
de cómo subvencionar la producción y evaluación por colegas, y un número
creciente de agencias y fundaciones exigen o promueven el acceso gratuito en
línea a las publicaciones resultantes de la investigación que ellos han ayudado a
financiar [34].
Licencias alternativas.
Están apareciendo varias formas de licencias alternativas, entre las que se
encuentra la Licencia del Público General (GPL por sus siglas en inglés) bajo la
cual tiene lugar el desarrollo de muchos software libres de código abierto, el
copyleft y las licencias Creative Commons [35], que son una vía amigable al
usuario para separar los derechos de autoría, de explotación y de duplicación. Por
ejemplo, la licencia Creative Commons, similar a la asignación y distribución no
comercial, significa que cualquiera puede usar libremente la obra protegida por la
licencia, y puede incorporar fragmentos de ella en su propia obra. El que lo haga,
debe dar crédito al autor de la obra protegida por la licencia y, lo más importante,
debe licenciar su propia nueva obra bajo los mismos términos. Las licencias GPL,
copyleft, y Creative Commons ayudan a generar un dominio público sólido.
El futuro del conocimiento
¿Cuál será el futuro del conocimiento? El conocimiento, a diferencia de la mano
de obra o la tierra, puede reproducirse infinitamente. El dinamismo del crecimiento
creativo depende de su reproducción. Las leyes basadas en el principio de la
escasez son absurdas en este contexto. La “tragedia del área pública”, un
argumento empleado para justificar la delimitación de la tierra para garantizar el
aumento de la producción, no se aplica al conocimiento. La privatización del
conocimiento restringe la innovación y la productividad. Cuando los intereses
corporativos patrocinados por el Estado continúan ampliando los términos de la
propiedad sobre la creatividad humana, lo hacen a expensas del dominio público;
entonces, ¿quién es el ladrón en la batalla por los límites de las áreas públicas del
conocimiento? Esta batalla se está llevando a cabo en las instituciones políticas
locales, nacionales, regionales e internacionales, y es un debate que ninguno de
nosotros puede permitirse el lujo de ignorar.
Notas y referencias
[1] “[del griego] acometer, atacar, asaltar. Cf. Fr. pirate (1448 in Hatz.-Darm.), Es.,
Pt., It. pirata, Ne. piraat, De. Su. Da. pirat. 1. Alguien que roba y saquea en el mar,
en ríos navegables, etc., o navega con ese propósito; alguien que practica la
piratería; o es ladrón del mar. 2. transf. Barco utilizado para la piratería o tripulado
por piratas; un barco pirata. 3. Cualquiera que se dedique al saqueo, que robe
con violencia; un maleante, saqueador, usurpador. También fig. 4. fig. a. Alguien
que reproduce sin permiso o se apropia, para su propio beneficio, de una
composición literaria, artística, o musical, o de una idea o invención de otro, o, por
lo general de cualquier cosa a la que no tenga derecho; específicamente alguien
que usurpa el derecho de autor de otro. b. Alguien que recibe o transmite
programas de radio sin tener licencia para ello. El empleo actual se refiere a las
transmisiones radiales.” Tomado de Oxford English Dictionary (1989). OED
Online. Oxford University Press. 21 de marzo de 2005.
http://dictionary.oed.com/cgi/entry...
[2] Risso, Patricia (2001): “Cross-Cultural Perceptions of Piracy: Maritime Violence
in the Western Indian Ocean and Persian Gulf Region during a Long Eighteenth
Century,” Journal of World History - Volumen 12, Número 2, Otoño de 2001, pp.
293-319. University of Hawaii Press.
[3] Por ejemplo, ver la descripción de Risso (2001), de un Kanhoji del siglo XVII,
un “pirata” para los británicos, enemigo del estado Mogol, pero para otros un
campeón de la resistencia india; o de William Kidd, “pirata” para la Compañía
Británica de las Indias Orientales, autoproclamado “corsario” al servicio de la
corona, y agresor europeo para los Mogoles.
[4] Ley de Derecho de autor, 31 de mayo de 1970, sección 5. Vea Paltry, William
F. (1994): “Copyright Law and Practice.” The Bureau of National Affairs, Inc., 1994:
33. http://digital-law-online.info/patr...
[5] “Los Estados Unidos se destacaron con respecto a países como Francia,
donde el Decreto de 1852 de Luis Napoleón prohibía la falsificación de
documentos nacionales y extranjeros. Otros países que eran afectados por la
piratería norteamericana tomaron represalias al rechazar el derecho de autor de
los norteamericanos. A pesar de la presión de numerosos autores y celebridades
a ambos lados del Atlántico, las leyes norteamericanas de derecho de autor no
permitieron proteger el derecho de autor de documentos extranjeros durante todo
un siglo.” Khan, B. Zorina (2002): “Intellectual Property and Economic
Development: Lessons from American and European History.” Comisión sobre los
Derechos de la Propiedad Intelectual.http://www.iprcommission.org/papers...
[6] Ibid.
[7] Las personificaciones originales del derecho de autor fueron mucho más
protectoras de los intereses del público que de los monopolios de los titulares de
los derechos. Vaidhyanathan, Siva (2001): Copyrights and copywrongs: the rise of
intellectual property and how it threatens creativity. Nueva York: New York
University Press. Boyle, James (2003): “The second enclosure movement and the
construction of the public domain.” Law and Contemporary Problems, Enero de
2003. http://www.law.duke.edu/journals/lc...
[8] Vea las páginas sobre derecho de autor y fair use en Stanford University
Libraries: http://fairuse.stanford.edu/index.html
[9] Chesterman, John, y Andy Libman (1988): The Electronic pirates: DIY crime of
the century. Londres: Comedia Books.
[10] Por ejemplo en el “caso Betamax” de 1984, la Corte Suprema de los Estados
Unidos confirmó el derecho de la Sony a vender equipos de grabación de videos
para el hogar. Sony Corp. v. Universal City Studios (1984): 464 U.S. 417, 104 S.
Ct. 774, 78 L. Ed. 2D 574. http://www.eff.org/legal/cases/sony...
[11] Harvard Law Review (1999): “The criminalization of copyright infringement in
the digital era.” Harvard Law Review, 112(7): 1705-1722. Recuperado el 20 de
marzo de 2005 de la base de datos Academic Universe/Lexis-Nexis.
[12] Ibid.
[13] « Una licencia compulsoria es una licencia para emplear una patente, un
derecho de autor u otro derecho exclusivo mediante la cual un gobierno obliga a
su titular a concederla a otros. Ejemplos en la ley de patentes: Las licencias de
patente compulsoria constituyen una flexibilidad de los requisitos de patentes
otorgada a los gobiernos durante la Cuarta Conferencia Ministerial del Tratado de
la Organización Mundial de Comercio en el año 2001 para satisfacer necesidades
emergentes de productos patentados (como los medicamentos que salvan vidas).
Los gobiernos tienen derecho de decidir qué constituye una situación de
emergencia en su país. » http://en.wikipedia.org/wiki/Compul...
[14] En los países ricos, el empleo del término “piratería”, aplicado a la distribución
de archivos por Internet, ha estado encabezado principalmente por la industria
norteamericana y, por extensión, por el gobierno de los Estados Unidos. Los
países de la UE estaban algo divididos, por un lado, con respecto al acuerdo
general sobre la necesidad de fortalecer el sistema de PI y, por otro lado, a la
resistencia frente a algunos aspectos de la ley norteamericana de PI. Por ejemplo,
en estos momentos está teniendo lugar en la UE una encarnizada batalla que
perdura desde el año 2004/2005 sobre si extender o no las patentes a los
software. Finalmente el Parlamento Europeo decidió declinar la patentabilidad del
software. En la actualidad también existe una propuesta para una Directiva
europea sobre la Piratería.
[15] Por ejemplo, durante las negociaciones de la UNESCO, la delegación de
Benin planteó que el tema de la piratería debía ser incluido, debido a que esto
contribuiría a proteger “a los famélicos músicos africanos que no pueden
alimentarse debido a la piratería”, la delegación de Kenya tuvo una postura
similar. Media Trade Monitor (2005). UNESCO intergovernmental session II,
Fourth Day: Thursday, February 3, 2005. http://www.mediatrademonitor.org/no...
[16] Vea las posiciones del Departamento de Estado de los Estados Unidos con
respecto a la CMSI en http://www.estate.gov/e/eb/cip/WSIS/; y vea
http://www.mediatrademonitor.org para una actualización detallada de las
posiciones de los Estados Unidos con respecto a la “piratería” durante las
recientes negociaciones en la UNESCO.
[17] “La doctrina de uso razonable es un aspecto de la ley del derecho de autor
de Estados Unidos que permite la cita o incorporación legal o ilegal de material
protegido por el derecho de autor en el trabajo de otros autores, teniendo en
cuenta ciertas condiciones específicas. (...) El uso razonable pone a disposición
del público los trabajos protegidos por el derecho de autor como materia prima sin
que sea necesario un permiso o una autorización para su reproducción, siempre y
cuando el uso libre sirva más a los propósitos de la ley de derecho de autor, que
la Constitución de los Estados Unidos define como la promoción del “Progreso de
la Ciencia y las Artes aplicables” (I.1.8), que a la aplicación legal de
reclamaciones por infracción. Por tanto, la doctrina intenta equilibrar los intereses
individuales de los titulares del derecho de autor con los beneficios sociales o
culturales que traen consigo la creación y la distribución de los trabajos derivados”
http://en.wikipedia.org/wiki/Fair_use En Europa, el “derecho a la copia privada”, a
pesar de que se basa en un enfoque jurídico totalmente diferente, desempeña un
papel similar en el intento de establecer un equilibrio entre los diferentes intereses
de las partes implicadas.
[18] Vea, por ejemplo, las actuales definiciones del término “piratería” que utilizan
las industrias del software, del cine, y de las grabaciones: Software and
Information Industry Alliance (2005): “What is Piracy?” SIAA.
http://www.siia.net/piracy/whatis.asp ; Motion Picture Association of America
(2005): “Anti-Piracy.” MPAA. http://www.mpaa.org/anti-piracy/ ; Recording Industry
Association of America (2005): “Anti-Piracy.” RIAA.
http://www.riaa.com/issues/piracy/d...
[19] Vea en particular los debates sobre la Ley Contra el Robo No Electrónico de
1997, que penalizó la diseminación de archivos musicales aun cuando no fuera
con fines de lucro (Goldman, Eric (2003): “A Road to No Warez: The No Electronic
Theft Act and Criminal Copyright Infringement. “Oregon Law Review, Vol, 82.
http://ssrn.com/abstract=520122), y la Ley de Derecho de Autor del Milenio Digital
de 1998, que concedió a los titulares de la propiedad intelectual el derecho a
retirar el uso razonable y otros derechos relacionados del público para proteger un
esquema comercial de “gestión de los derechos digitales”, e interferir el
funcionamiento legítimo de los sistemas de distribución de archivos punto a punto.
Probablemente la DMCA sea “inconstitucional” (Electronic Frontier Foundation,
2005 “Digital Millennium Copyright Act (DMCA) Archive.”
http://www.eff.org/IP/DMCA/).
[20] Existen algunas evidencias, principalmente patrocinadas por la industria, de
que la distribución de archivos perjudica las ventas de música. Para una lista de
enlaces a los estudios (principalmente patrocinados por la industria) en los que
aparece este planteamiento, vea European Audiovisual Observatory, 2005 “Report
and Studies of the Economic and Sociological Dimension of Peer-to-Peer.”,
http://www.obs.coe.int/db/gavis/piracy.html#3>. Sin embargo, esto se contradice
con estudios recientes que han hallado una fuerte evidencia de que la distribución
de archivos no tiene un impacto estadístico, o de que quizás incluso aumenta las
ventas de música, según Oberholzer y Strumpf (2004) quienes concluyeron que el
impacto de la distribución de archivos en las ventas de música era
“estadísticamente indistinguible de cero.” Oberholzer, Félix, y Koleman Strumpf
(2004). “The Effect of Filesharing on Record Sales: an Empirical Analysis.”
http://www.unc.edu/ cigar/papers/Fi...
[21] Bittorrent es un programa de distribución de archivos punto a punto muy
popular http://www.bittorrent.com. CacheLogic (2004). “The True Picture of Peer to
Peer Filesharing.” CacheLogic. http://www.cachelogic.com/research/...
[22] Vea el sitio Web de la Alianza Internacional de Propiedad Intelectual
(http://www.iipa.com) para los estimados anuales de las “pérdidas como
consecuencia de la piratería”, así como la metodología empleada para “calcular”
estas cifras y las sugerencias de la coalición industrial al USTR (por ejemplo,
“2005 Special 301 Report on Global Copyright Protection and Enforcement.” IIPA.
http://www.iipa.com/special301_TOCs.... La IIPA es una coalición de la Asociación
de Editores Estadounidenses (AAP), la Alianza de Software Comercial (BSA), la
Asociación de Software de Entretenimiento (ESA), la Alianza de Cine y Televisión
Independientes (IFTA), la Asociación Cinematográfica Estadounidense (MPAA), y
la Asociación Estadounidense de la Industria Discográfica (RIAA).
[23] El Informe anual de 2004 de la Alianza de Propiedad Intelectual Internacional
(IIPA), titulado “Industrias del Derecho de Autor en la Economía norteamericana,”
proporciona datos que indican la importancia de estas industrias para el bienestar
económico de los EE.UU. (http://www.iipa.com/pdf/2004_SIWEK_...). Pero la IIPA
no se detuvo ahí: cada año, la organización presenta sus datos junto con
recomendaciones al Representante de Comercio de los Estados Unidos (USTR)
para la actualización anual de la lista “Special 301”.
[24] En Europa, el término es de 70 años después de la muerte del autor.
[25] Para más información sobre los costos de un régimen maximalista derecho
de autor y de patente, vea el trabajo de Lawrence Lessig (The Future of Ideas:
The Fate of the Commons in a Connected World. Nueva York: Random House),
Siva Vaidhyanathan (op. cit), Peter Drahos y John Braithwaite (Information
Feudalism: Who Owns The Knowledge Economy? Londres: Earthscan. 2001), y
James Boyle (op.cit.), entre otros.
[26] Por ejemplo, la India ha luchado en contra de patentar las plantas y otros
organismos vivos, aunque los ADPIC requieren que esas formas de vida sean
patentables (éste fue un problema muy polémico en la historia de la Ley
Norteamericana de Patentes). La India obtuvo una victoria en la Oficina de
Patente de la UE sobre un intento del Departamento de Agricultura de los Estados
Unidos y la empresa WR Grace para patentar el acederaque que había sido
empleado durante mucho tiempo en aplicaciones medicinales y fungicidas y no se
consideraba de ninguna forma como producto novedoso “descubierto” por WR
Grace o el Departamento de Agricultura de los Estados Unidos. Está aumentando
la conciencia sobre los riesgos que representa el nuevo sistema de “PI” para los
conocimientos tradicionales de todo tipo. La pregunta es, ¿será posible convencer
a los países de que el propio sistema de “PI” no es necesario para “proteger” el
conocimiento tradicional? ¿Puede permanecer así el conocimiento local en el
dominio público? Y entonces, ¿cuáles son los mecanismos que permitirían al
conocimiento tradicional o público seguirlo siendo, sin que siga vulnerable a la
piratería corporativa? Algunas lecturas sobre la biopiratería: Merson J., “Bioprospecting or bio-piracy: intellectual property rights and biodiversity in a colonial
and postcolonial context”: Osiris. 2000; 15: 282-96 Posey DA., “Commodification
of the sacred through intellectual property rights”, J Ethnopharmacol, noviembre
de 2002; 83(1-2):3-12. Timmermans K., “Intellectual property rights and traditional
medicine: policy dilemmas at the interface.” Soc Sci Med, agosto de 2003;
57(4):745-56.
[27] Por ejemplo en 1984 en el “caso Betamax,” el Tribunal Supremo de los
Estados Unidos defendió el derecho de la Sony a vender equipos de video para el
hogar (la decisión del Tribunal Supremo en Sony v. Universal Studios 464 U.S.
417, 1984).
[28] Vea el archivo del caso RIAA vs. Verizon:
http://www.eff.org/legal/cases/RIAA...
[29] Para más información sobre la Agenda para el Desarrollo de la OMPI, vea,
http://www.cptech.org/ip/wipo/geneva declaration.html Para más información
sobre el Tratado de Acceso al Conocimiento: http://www.cptech.org/a2k/
[30] Los artistas independientes están creando de forma activa sistemas para el
pago directo de los fanáticos a los músicos, tanto en el terreno como a escala
política. Vea “The Future of Music Coalition in the US”:
http://www.futureofmusic.org
[31] Pew Internet y American Life Project (2004): “Artists, Musicians, and the
Internet.” http://www.pewinternet.org/PPF/ r/142/report_display.asp
[32] Para más información sobre MGM vs Grokster. Vea
http://www.eff.org/IP/P2P/MGM_v_Gro...
[33] Para más información vea People’s Health Movement
http://www.phmovement.org y Médicos Sin Fronteras http://www.msf.org
[34] Vea la Biblioteca Pública de Ciencia: http://www.plos.org En teoría, se podría
pensar que cualquier investigación financiada con dinero público es de dominio
público. Según el Instituto Nacional de Salud (NIH, EE.UU.), muchas
organizaciones públicas del mundo están apoyando el acceso público a las
publicaciones científicas.
[35] Crative Commons: http://www.creativecommons.org Liang, Lawrence, “A
Guide to Open Content Licenses”, Media Design Research, PZI Rotterdam 2004,
http://pzwart.wdka.hro.nl/mdr/resea..., Critique of Creative Commons from Meta
Mute: http://tinyurl.com/3pm2j
Software libre
Marcelo D’Elia Branco
Vivimos en un período histórico conocido como la “era de la información”. En esta
fase del desarrollo capitalista convivimos con una revolución tecnológica que tiene
como elemento central la tecnología de la información y de la comunicación. La
revolución digital o la sociedad de la información es el resultado de estímulos
contradictorios provocados, por un lado, por los grandes intereses del capitalismo
internacional en viabilizar la llamada globalización de la economía y, por otro lado,
por la capacidad creativa y el espíritu libertario de los hackers.
Los hackers fueron quienes crearon prácticamente todo lo que hace que Internet
funcione, en la mayoría de los casos en forma voluntaria. Los protocolos TCP/IP
[1], WWW (world wide web)[2], DNS[3], DHCP[4], FTP[5] y el e-mail fueron
desarrollados por hackers y colocados para el uso libre de toda la humanidad. El
desarrollo de Internet es el más grande ejemplo de la capacidad de innovación de
las tecnologías libres.
También fueron los hackers quienes, en los años 80, iniciaron la creación del
“Movimiento Software Libre”.
Sin embargo, en el transcurso de la década de los 90 se inició una reacción de las
grandes corporaciones transnacionales, con la perspectiva de apropriarse y
controlar toda la tecnología desarrollada. Importantes inversiones del llamado
“capital de riesgo” especulativo y el peso de estas megacorporaciones fueron
arriesgados en esta estrategia y, contradictoriamente, contribuyeron
decisivamente a la expansión de la Red Mundial y a la consolidación de la
revolución digital.
No obstante, Internet mantiene hasta hoy su carácter original: libre,
descentralizada, multifuncional y, hasta el momento, no puede ser controlada,
convirtiéndose entonces en un “espacio de debate”. Por un lado, los poderosos
intereses políticos, financieros y comerciales que pretenden que su función
principal sea la de vigilar, controlar, anunciar y vender. Por el otro lado, los
intereses ciudadanos y democráticos que aspiran convertir Internet en un
instrumento al servicio de la democracia, del desarrollo sustentable, de la
innovación, de la ciencia, de la cultura, de la educación y de la salud.
Uno de los elementos clave de este debate es el control por el lenguaje del siglo
XXI: el código fuente. Las corporaciones monopolistas desean “controlar” la
innovación tecnológica a través de la restricción de estos códigos, atesorando los
programas de computadoras como sus propiedades y haciendo suyas las obras
intelectuales y culturales (música, películas, libros). Por otro lado, el movimiento
por la libertad del conocimiento y el movimiento software libre, que están
liberando el conocimiento aprisionado por los verdaderos “piratas”, apuestan en la
evolución y en la innovación como una forma de socialización de los beneficios de
la revolución digital.
Historia del software libre
“En el campo concreto de la informática, desde los años 80 se ha reproducido un
fenómeno antiguo: el conocimiento, transmitido mediante un código de lenguaje
escrito, está siendo guardado celosamente por individuos que lo utilizan para
mantener una estructura de poder a lo largo de los siglos. En los años 60 y 70, el
desarrollo de la informática se debió, en parte, a que los técnicos compartían su
conocimiento. Los códigos de los programas de computadoras eran compartidos,
de manera que los avances de uno eran utilizados por otros para mejorar dicho
programa. Actualmente, la gran parte de las aplicaciones de informática que
utilizamos tienen su código oculto, pertenecen a sus propietarios, por eso no
podemos copiarlas y tampoco compartir su desarrollo. Solo ellos, los propietarios,
pueden modificarlas, mejorarlas. Si les interesa, por supuesto”.[6]
El alto precio de los software utilizados en las computadoras y el bloqueo del libre
conocimiento científico y tecnológico impuesto por las licencias propietarias han
dificultado e inclusive impedido que algunas regiones del planeta se beneficien de
esa revolución para proporcionar una mejor calidad de vida a sus habitantes.
Cuando Richard Stallman [7](RMS) comenzó a trabajar en el Laboratório de
Inteligencia Artificial del MIT, en 1971, se incorporó a una comunidad que ya
compartía software y que tenía muchos años de existencia. Según RMS, “el acto
de compartir software no estaba restringido a esta comunidad en particular; es tan
antiguo como las computadoras”. Al principio esta comunidad no denominaba a
estos programas como “software libre” pues, según RMS, este término no existía.
El concepto de software libre surgió durante los años 70, en los Estados Unidos,
especificamente en los laboratórios del MIT -Massachusetts Institute of
Technology[8] Richard Stallman no recuerda con exactitud en qué momento fue
adoptado este término, sin embargo, “este término ya era corriente en el MIT”
cuando fue lanzado, en 1984, el Manifiesto GNU [9] que dio origen al Movimiento
Software Libre. La(s) autoría(s) del término también es desconocida, no obstante
ganó gran significado y notoriedad gracias a Richard Stallman quien lo utilizó
desde el inicio, con el lanzamiento del Movimiento Software Libre.
Algunos motivos para el uso del software libre
Razón macro-económica
Brasil, por ejemplo, transfiere al exterior, anualmente, más de un millardo de
dólares en pagos de licencias de software, en un mercado interno que mueve
anualmente tres millardos de dólares. Esto significa que un tercio de lo que mueve
la industria del software en el Brasil es transferido, en forma de pagos de
royalties, a las mega-empresas monopolistas de software del extranjero.
Esa realidad, además de significar un aumento del déficit en la balanza
internacional de servicios, inviabiliza el desarrollo de las empresas de informática
en el Brasil.
Brasil, por ejemplo, apenas tiene el 8,6% de la población con conexión a Internet
en la casa y, conforme datos oficiales, más del 53% de esos usuarios utilizan
software ilegal - sin autorización de los propietarios. Por lo tanto, son
considerados criminales según las leyes de propiedad intelectual.
Para poder mentener el actual “mercado legal” de software, que alcanza apenas
el 4% de la población brasileña, tenemos que transferir al exterior más del doble
del presupuesto anual del programa “Fome Zero” (Hambre Cero) [10] en un país
en el cual 22 millones de personas pasan hambre y 44 millones - 1/3 de la
población - viven por debajo de la línea de pobreza. No se justifica para los países
en desarrollo adoptar el modelo de software privativo en los programas de la
Sociedad de la Información.
Seguridad y confidencialidad de la información
Las cuestiones de la seguridad y de la confidencialidad también son factores
importantes para la escogencia del software libre. Una plataforma tecnológica
debe garantizar la seguridad en los sistemas de información y la confidencialidad
de los datos de los usuarios. Para que esto ocurra es imprescindible el acceso al
código fuente de los programas. Sin el código fuente es imposible verificar si los
programas hacen solamente aquello que el fabricante dice que hacen, o si en
verdad hay una “puerta trasera” violando la confidencialidad de la información.
Igualmente, sin el código fuente se hace imposible corregir las fallas en el
programa sin recurrir al fabricante propietario.
Autonomía e independencia tecnológica
El principal capital de la revolución digital y de la Sociedad de la Información es
justamente el conocimiento digital. Esto implica que los excluidos digitales son
aquellos que no tienen acceso al conocimiento digital. ¿Cómo pensar en la
inclusión de cualquier país en la sociedad del conocimiento sin que las
universidades, escuelas, empresas, centros de búsqueda, gobiernos y sociedad
tengan conocimiento pleno de la tecnología que se está difundiendo? Por lo tanto,
cualquier programa de inclusión digital o de inserción en la Sociedad de la
Información sólo es consistente si es realizado con software libre. Programas de
inclusión digital, realizados con software secreto y privativo son, en verdad,
programas de “exclusión” del conocimiento digital.
No queremos ser solamente consumidores de productos y de tecnologías
propietarias. Los países y sus habitantes tienen el derecho a ser sujetos activos
en la Sociedad de la Información.
Independencia de los proveedores
Tenemos el derecho a conocer lo que estamos utilizando o comprando. Las
dependencias tecnológicas causadas por las plataformas propietarias inhiben la
competitividad, imposibilitan el conocimiento sobre el contenido del producto
adquirido y crean una exclusividad de mercado a la empresa que vendió al
consumidor.
El software libre da más independencia en relación al proveedor de soluciones. El
individuo que utiliza una solución de software libre tiene acceso al código fuente y
a las cuatro libertades básicas del software libre. De esta manera, al tener el
código fuente, no está supeditado al que desarrolló la solución original.
La utilización de software privativo es lo mismo, por ejemplo, que utilizar un
medicamento sin tener el derecho a conocer la fórmula química. O aún, comprar
alimentos industrializados sin tener el derecho a conocer de qué están hechos.
Conocimiento compartido
Para que los países menos desarrollados o en vías de desarrollo tengan la
oportunidad de superar una etapa histórica de dependencia y subordinación en el
escenario mundial, las actuales leyes y tratados internacionales de patentes,
copyright y marcas, protegidas por la ideología de la propiedad intelectual,
necesitan ser alteradas y flexibilizadas. Históricamente, el discurso de la ideología
de la propiedad intelectual se estableció para favorecer la libertad de creación,
para estimular a los inventores y para promover los beneficios para la sociedad.
Hoy se ha convertido en un mercado exclusivo de los países desarrollados y sus
monopolios. Alternativas como las licencias “copyleft”[11], GPL - General Public
License[12] y Creative Commons [13] trabajan con la expectativa de la libertad y
del conocimiento compartido, dando un sentido positivo y actual, sintonizado con
las nuevas posibilidades creadas por la revolución digital.
Desafíos y perspectivas del software libre
El software libre, a pesar de haber sido creado e inspirado en los conceptos
libertarios de los hackers es, más allá de todo, una tecnología. El software libre
como tecnología no es algo de izquierda o incompatible con el capitalismo. Según
Manuel Castells [14], “el software libre es incompatible con las corporaciones
monopolistas, como Microsoft. Es también incompatible con gobiernos represivos
que quieren controlar la libertad, sean de derecha o de izquierda. Sin embargo,
no es incompatible con IBM, e IBM no es un órgano revolucionario mundial. Ni
tampoco es incompatible con gobiernos democráticos que quieren desarrollar la
creatividad de los jóvenes. No obstante, yo no compararía el software libre con la
izquierda pues es algo mucho más amplio. Sus valores son valores de
transformación social y creo que más próximos del anarquismo. Las ideas que
están por detrás del software libre creo que son antiautoritarias y de libertad. Para
mí, esas ideas son revolucionarias. Sin embargo, cabe una diferenciación de la
expresión política organizada de izquierda. El movimiento software libre es más
amplio que el movimiento anticapitalista y puede encontrar aliados en el
capitalismo. Existen en común las ideas de libertad y ellos están dispuestos a
aceptarlas. Esto es, en el fondo, muy revolucionario, pues los grandes poderes
mundiales no están dispuestos a aceptar la libertad.”[15].
Es importante destacar que no todos los millones de hackers que desarrollan
software lo hacen por ideología o como una acción libertaria consciente. La
mayoría de ellos tampoco son activistas sociales, son “técnicos benevolos” que
respetan los principios de las licencias y el conocimiento compartido, que tanto
pueden estar al servicio de las grandes corporaciones globales como de las
organizaciones sociales “alter-globales” que desean construir un “otro mundo
posible”, inspiradas por el movimiento del Forum Social Mundial.[16].
También es verdad que la gran mayoría de las organizaciones sociales y casi la
totalidad de los partidos de izquierda aún no han incorporado en sus programas
de lucha y en su práctica cotidiana los desafíos de la “Era de la Información”. De
acuerdo con el Ministro de la Cultura y músico brasileño Gilberto Gil[17], al hablar
sobre su experiencia en el 5° Forum Social Mundial, “una de esas contradicciones
es la convivencia cotidiana entre el más arcaico discurso político, la más bizantina
forma y el más bizantino contenido, la más antigua y superada agenda, la más
antigua y superada actitud y, las formas contemporáneas, los contenidos, las
agendas y las actitudes más sintonizadas con nuestro tiempo. La convivencia
entre lo analógico y lo digital, entre la hoz y el martillo y los flujos virtuales.
Existe espacio y probablemente sentido en todo esto, quizás porque el impulso
básico del cambio, de la transformación y del progreso esté, o haya estado un
día, en la génesis de todos los movimientos de crítica al orden establecido y de
construcción de nuevos órdenes. El impulso fundamental de superación, de
aventura y de peregrinación que se hizo y se hace presente en cada paso
adelante de la humanidad. Las personas y las organizaciones que constituyen el
Forum Social Mundial tienen, por lo tanto, una base en común, aunque las fallas,
las visiones, los métodos y las prácticas sean diferentes. Aquí está lo que explica
la convivencia pacífica y estimulante entre agendas tan dispares, por ejemplo,
como la agenda de este encuentro, sobre la revolución digital y las nuevas redes
y las agendas de los partidos marxistas tradicionales.” [18]
Para nosotros, que deseamos y luchamos para construir una nueva Sociedad de
la Información más justa y solidaria, el principal desafío es el de extrapolar el
universo de ese debate más allá de la esfera selecta del “people de la information
society” y sensibilizar a las organizaciones sociales que luchan por cambios
estructurales en el planeta a actualizar sus discursos, prácticas y programas
políticos, incorporando los temas de la revolución digital al siglo XXI con la
prioridad adecuada.
De no ser posible realizar esta tarea, los programas o software y el propio
movimiento software libre serán incorporados por el capitalismo globalizado y las
prácticas transformadoras de este movimiento desaparecerán al poco tiempo.
Una “Nueva Sociedad de la Información es Posible”, aunque eso no está
garantizado como un curso único de la historia. Dependerá del resultado de los
diversos debates que tendremos en adelante y, por lo tanto, de nuestra capacidad
de ampliación de las tesis y prácticas libertarias del software libre con la sociedad
global.
Anexo:
Definiciones de Software Libre y Fuente Abierta
El origen del término “Free Software” viene de la lengua Inglesa y como en este
idioma free significa libre de freedom (libertad) y también significa gratuito,
muchos errores de interpretación de su verdadero significado acompañan la
historia.
El término software libre aplicado correctamente se refiere a “libre” de libertad y
no tiene nada que ver con el precio o con la gratuitidad. Un software libre puede
ser distribuído gratuitamente, pero también puede tener un costo. No existe
contradicción entre software libre y software comercial. La contradicción está
entre el software libre y el software privativo [19], que son conceptos opuestos.
Un software libre, por definición de la “Free Software Foundation” [20], debe tener
necesariamente las cuatro libertades fundamentales:
“Software Libre” es una cuestión de libertad y no de precio. Para entender el
concepto debe pensar en “libertad de expresión” y no en “cerveza gratis”.
“Software libre” se refiere a la libertad de los usuarios para ejecutar, copiar,
distribuir, estudiar, modificar y perfeccionar el software. Más exactamente se
refiere a las cuatro libertades del software para los usuarios:
La libertad de ejecutar el programa para cualquier propósito (libertad no. 0);
La libertad de estudiar cómo funciona el programa y adaptarlo a sus necesidades
(libertad no. 1). El acceso al código fuente es un pre-requisito para esta libertad;
La libertad de redistribuir copias de manera que se pueda ayudar al prójimo
(libertad no. 2);
La libertad de perfeccionar el programa y divulgar esas mejoras de manera que
toda la comunidad se beneficie (libertad n° 3). El acceso al código fuente es un
pre-requisito para esta libertad.
Un programa es software libre cuando los usuarios tienen todas estas libertades.
Por lo tanto, usted debe ser libre de redistribuir copias, sea con o sin
modificaciones, sea gratuitamente o cobrando una tasa por la distribución, para
cualquier persona en cualquier lugar. Ser libre para hacer esas cosas significa
(entre otras cosas) que usted no tiene que pedir o pagar por la autorización.
Usted debe también tener la libertad de hacer modificaciones y usarlas
exclusivamente en su trabajo o en sus momentos de ocio, sin siquiera mencionar
que ellas existen. Si usted publica las modificaciones no puede ser obligado a
avisarle a alguien en particular o de ningún modo en especial.
La libertad de utilizar un programa significa tener libertad para cualquier tipo de
persona física o jurídica de utilizar el software en cualquier tipo de sistema
informático, para cualquier tipo de trabajo o actividad, sin que sea necesario
comunicarle al desarrollador o a cualquier otra entidad en especial.
La libertad de redistribuir copias debe incluir formas binarias o ejecutables del
programa, así como el código fuente, tanto para las versiones originales como
para las modificadas. Está todo bien si no es posible producir una forma binaria o
ejecutable (pues algunos lenguajes de programación no soportan este recurso),
pero debe ser concedida la libertad de redistribuir esas formas en caso que sea
desarrollado un medio para crearlas.
Para que la libertad de hacer modificaciones y de publicar versiones
perfeccionadas tenga algún significado, se debe tener acceso al código fuente del
programa. Por lo tanto, el acceso al código fuente es una condición necesaria
para el software libre”. [21]
El término “Open Source” o “código abierto” fue descrito por primera vez en junio
de 1997, por Bruce Perens [22], en un documento para la conferencia de
desarrolladores Debian [23] de ese año. En esa oportunidad, Perens suprimió las
referencias originales de los documentos para crear la “Definición de Fuente
Abierta” [24]. Más tarde, en 1998, algunos miembros de la comunidad software
libre lanzaron la “Iniciativa de Fuente Abierta” - Open Source Initiative (OSI)[25].
Actualmente, el liderazgo del movimiento software libre y del movimiento de
fuente abierta representa movimientos separados que se diferencian en la
filosofía y en la política. Así describan programas de computadoras de igual
categoría, los presentan de forma diferente. Uno de los argumentos utilizados por
los líderes del OSI es que el término “código abierto” elimina la confusión de “free”
como “gratis”. Esta iniciativa busca ser más atractiva para los ejecutivos del
mercado y para las grandes empresas comerciales de programas de
computadoras. Los argumentos se centran en las cuestiones tecnológicas, en la
calidad del producto y en las posibilidades de la economía generada por el
software libre, dejando de lado los principios de libertad y ética construidos desde
el inicio por la comunidad del software libre. Este movimiento se expresa de forma
más importante en los Estados Unidos y no tiene mucha expresión en otros
lugares del mundo. El término “código abierto” fuera de la lengua inglesa es
mucho menos amplio, y de significado y comprensión compleja fuera de la
comunidad técnica, que el término “software libre”.
Conceptos relacionados
El término software libre es muchas veces confundido o mencionado con otras
categorías de software.
Para fines de aclaración, será necesario describir las similitudes y diferencias de
estas otras categorías en relación al software libre: [26]
Domínio Público - El software de domínio público no está protegido por copyright.
Cualquier persona puede hacer una versión modificada o una copia no-libre
(privativa), a partir del programa original. Un software libre no es conceptualmente
un software de domínio público.
Software Semilibre - Software semilibre no es un programa totalmente libre. Viene
con autorización para ser utilizado, copiado, distribuido y modificado (incluyendo
la distribución de versiones modificadas), pero solamente para fines no
comerciales.
Software Privativo - Software privativo es aquel que no es libre ni semilibre. Su
uso, redistribución o modificación está prohibida o requiere que usted solicite
autorización o está restringida de tal forma que usted no puede hacerla libre de un
modo efectivo.
Software Freeware - El término “freeware’’ no posee una definición clara y
aceptada. Es muy usado para paquetes que permiten la redistribución pero no la
modificación (y su código fuente no está disponible). Estos programas no son
software libres.
Software Shareware - Shareware es el software que viene con autorización para
redistribuir copias, pero después de un tiempo determinado para continuar usando
una copia debe pagarse la licencia. Shareware no es software libre ni semilibre,
pues en su mayoría el código fuente no está disponible y no viene con
autorización de copia para nuevas instalaciones sin previo pago de licencia.
Software Comercial -Software comercial es aquel desarrollado por una empresa
que aspira lucrarse a través del uso del mismo. “Comercial” y “Privativo” no son la
misma cosa. La mayor parte del software comercial es privativo, no obstante
existen softwares libres comerciales y softwares no-comerciales privativos.
Software Libre de Fuente Abierta - (Free and Open Source Software - FOSS y
Free/Libre and Open Source Software - FLOSS: Definición muy utilizada
recientemente en Europa y que pretende incluir y mezclar los conceptos del
movimiento software libre y del movimiento de fuente abierta, sin entrar en el
mérito de las diferencias políticas y filosóficas existentes.
Los derechos de propiedad intelectual
Mouhamadou Moustapha Lo
Detrás de la expresión “Derechos de propiedad intelectual” se esconde en
realidad una batalla cultural, política y comercial mundial. ¿Acaso no vivimos en
un mundo donde algunos grupos industriales de los países del Norte, acaparando
cierto número de patentes o licencias, llegan a imponer a los otros (la mayoría)
límites al uso de sus obras y trabajos?
En nuestros días, la tendencia dominante apunta a relacionar la complejidad de
los “derechos de propiedad intelectual” sólo a su aspecto económico. Es lo que
explica que las negociaciones centrales tengan lugar bajo la égida de la OMC
(Organización Mundial del Comercio) y no en la UNESCO (Organización de las
Naciones Unidas para la Educación, la Ciencia y la Cultura). Hasta la Cumbre
Mundial sobre la Sociedad de la Información evita el tema, aun cuando se trata de
un fundamento jurídico y social muy importante para la creación y transmisión del
conocimiento. Pero esta situación cambia, y numerosos países del Sur insisten,
en todas las estructuras que debaten acerca de la propiedad intelectual, en poner
en evidencia sus preocupaciones. Así, quince países proponen a la OMPI la
redacción de una “Iniciativa para el Desarrollo” [1], lo que va en el sentido de la
acción de entidades de la Sociedad Civil que quieren redactar un Tratado para el
“libre acceso al conocimiento” [2]. De este modo, la protección de la “diversidad
cultural” ha sido defendida en el seno de la UNESCO, rechazando que la creación
sea alineada sobre las reglas del comercio [3]. Así, los programas libres, las
licencias de tipo Creative Commons, la defensa de un patrimonio digital mundial y
el rol central de las bibliotecas en la circulación de la información digital son ideas
defendidas en el seno de la CMSI tanto por la Sociedad Civil como por numerosos
países en desarrollo.
¿Qué comprenden los “derechos de propiedad intelectual”?
Los derechos de propiedad intelectual constituyen un haz de normas jurídicas a
las cuales se puede recurrir con fines de protección, indemnización y
conservación de los derechos referentes a una “creación intelectual” (invento, idea
técnica, obra artística, diseño de objetos o marca registrada, etc.). Ellos cubren
varios sectores: en el centro, la propiedad literaria y artística (derecho de autor o
copyright) y la propiedad industrial (patente, marca registrada, dibujos o modelos),
pero también cada vez más las reglas de derecho y los tratados referentes a los
saberes indígenas o tradicionales, a la biodiversidad, los derechos de los
campesinos, o la salud pública.
Una voluntad reciente que data de los años 1980 provoca la reunión de todos
estos enfoques en un único marco global que trata de todas las obras y trabajos
inmateriales.. El término consagrado hoy en el derecho y en los debates
mundiales de “Derechos de la propiedad intelectual” es la traducción de una
opción política y económica que apunta a considerar a la “propiedad intelectual”
como un “derecho natural”, tomando como ejemplo la propiedad de la tierra o de
los medios de producción. Ahora bien, esto es ampliamente contradicho tanto por
la historia como por el análisis de las consecuencias dramáticas que podría tener
esta acción, si se llegara a realizar.
El derecho de propiedad intelectual tiene una larga historia. Desde el “Statute of
Anne”, ley británica, primera tentativa de escribir un “derecho de autor” en 1710
[4], la propiedad literaria ha sido concebida como un derecho de equilibrio entre
los intereses de la sociedad (“alentar a los hombres esclarecidos a componer y
escribir libros útiles”, decía el Estatuto de Ana) y los derechos de los autores.
Estos últimos disponen del monopolio de explotación de sus obras, que no
pueden ser editadas o representadas sin su consentimiento. Pero numerosas
“excepciones y exenciones” son presentadas en todas las leyes que tratan de la
creación. Estas apuntan a defender la capacidad de la sociedad para utilizar el
conocimiento que está incorporado en obras y para facilitar el acceso a las obras
y su circulación; excepciones para la educación y las bibliotecas, derecho de
copia privada, derecho de citación, derecho de caricatura, derecho de trascripción
para favorecer el acceso a personas discapacitadas, etc. Agreguemos que,
tradicionalmente, la propiedad literaria y artística se refiere a la forma de la
creación, y no a las ideas que son contenidas en ellas. Engloba no solamente la
obra de arte original y la escritura creadora, sino también las bases de datos
informatizadas y los programas informáticos.
Esta relación de equilibrio entre los creadores y la sociedad se manifiesta
plenamente en la existencia de un “dominio público”, en el cual se encuentran
obras después de un cierto plazo (actualmente 70 años después del deceso del
autor, 50 años después de su difusión para las interpretaciones musicales, 20
años después de su expedición para las patentes, 70 años después de su
depósito para los dibujos y modelos, etc.). Este “dominio público” se enriquece
también con trabajos creados para el poder público (Leyes, informes, decisiones,
actas, etc.), descubrimientos científicos y datos experimentales (descifrado del
genoma humano, teoremas matemáticos, etc.). Finalmente, se ve aparecer la
noción de un “dominio público autorizado”, en el cual los mismos autores y
creadores deciden colocar sus obras en el momento de su creación. Es, por
ejemplo el caso de los programas libres de tipo Creative commons, de los
depósitos de datos científicos, de los bancos de datos de conocimientos prácticos
de los archivos abiertos para la publicación de la ciencia [5].
El sistema de las patentes, por su parte, concede derechos exclusivos de
propiedad sobre el objeto de la patente, más precisamente sobre las
“reivindicaciones” que siguen a la descripción técnica de la invención. Este
régimen ofrece a su titular el derecho moral de impedir que cualquier otra persona
utilice, fabrique o venda el objeto de la patente, o utilizar la técnica o el proceso
durante cierto período, a cambio de la inscripción de su conocimientos prácticos
en un documento técnico. Originalmente las patentes fueron concebidas no en
contra del acceso al conocimiento sino, por el contrario, para servirlo. Esto ha
permitido a los países entonces emergentes, como los Estados Unidos durante
todo el siglo XIX, utilizar el conocimiento práctico anterior o “extranjera”, porque
las patentes deben designar los países a los cuales se aplican. Así pues la
patente está destinada a estimular la creatividad y la invención, y es un privilegio
otorgado a individuos en beneficio de la sociedad.
Sobre el fundamenteo de la “patentización” no hay una unanimidad. Las
negociaciones comerciales mundiales actuales apuntan a impedir el uso por parte
de los países en desarrollo de esta oportunidad económica. Los países
desarrollados quieren extender al mundo entero las reglas que les son propias [6],
lo que plantea el problema de equilibrio para los países del Sur, que no tienen las
capacidades de inversión necesarias en esta carrera contra el reloj.
La propiedad intelectual ante las redes y lo digital
Los ordenadores y, en sentido más lato, la digitalización de la cultura y del
conocimiento, por una parte, y las redes que ofrecen la capacidad de hacer
circular rápidamente estos objetos digitales a escala mundial, por otra parte,
abren un nuevo desafío a las reglas de propiedad intelectual. ¿Cómo escribir, a
escala mundial, un nuevo equilibrio que permita favorecer la creación y la
innovación, garantizando el acceso de todos al conocimiento, y la distribución
mundial de los beneficios de la investigación?
Los nuevos soportes nacidos de la emergencia de las TIC ocasionan una
aceleración de las innovaciones y una mundialización de los intercambios. En
consecuencia, se impone la urgencia de un nuevo enfoque, un nuevo derecho de
la propiedad intelectual que elimine cualquier tipo de diktat de los grupos
industriales de los países del Norte. Los derechos de propiedad intelectual no
pueden ser concebidos únicamente como una extensión del monopolio de
explotación de un pensamiento o de una obra intelectual, sino que deben tomar
en cuenta otros intereses. A título de ejemplo, la aceleración de la innovación en
sectores como los de la informática o las biotécnicas acentúa las divergencias de
posición entre los países del Norte y los del Sur. Los derechos de propiedad
intelectual deben consagrar un derecho en provecho de los creadores, limitado al
mismo tiempo por obligaciones hacia los utilizadores, en nombre del derecho de
acceso a la información, un derecho fundamental.
Con el objeto de delimitar bien los desafios del debate actual, hay que empezar
teniendo una visión clara de lo que cubre la expresión “derechos de propiedad
intelectual”. El enfoque jurídico nos ofrece dos tipos de visión: estática o dinámica.
La primera consiste en contentarse con herencia, tradiciones, privilegios [7]. Los
derechos de propiedad intelectual aparecen así como un conjunto de textos cuya
aplicación suscita interrogantes. Numerosas normas nacionales, regionales e
internacionales son establecidas principalmente para reforzar el monopolio sobre
las obras e invenciones de los autores, inventores y más aun, de las empresas
que valorizan y distribuyen esas creaciones. Esta tendencia a dictar leyes de
control de la circulación del conocimiento, acentuada por la implementación de
“medidas técnicas de protección” directamente al interior de los documentos
digitales ¿corresponde a los desafíos actuales de la sociedad de la información?
Este concepto occidental de la cuestión es refutado por los países del Sur,
víctimas de la regla según la cual el que llega primero, se sirve primero. Toda
creación implica en el inicio una protección, pero conviene medirla con el fin de no
obstaculizar los procesos de producción o de acceso a la información en adelante.
La segunda visión, dinámica, considera que los derechos intelectuales deben
facilitar antes que nada la expresión de las ideas, su circulación a través de las
tecnologías de la información y de la comunicación (TIC) y su utilización
sistemática posteriormente. La sociedad de la información cambia las
modalidades de la creación y sobre todo de la transmisión de las obras. Las TIC,
al abrir otras perspectivas con una difusión más amplia de las obras, crean
nuevos modelos económicos, por un lado, y permiten un mayor seguimiento de
los usos, por el otro. Esto, tanto para las personas privadas como para las
industrias y los países en desarrollo. En este contexto, los países del Sur trabajan
para el fortalecimiento y la ampliación de los derechos de los utilizadores. Ellos
preconizan una demostración de inventiva en los mecanismos jurídicos a ser
implementados. Además, para ellos, no es porque un grupo de países
industrializados tiene el monopolio mundial de las patentes (el 97% de las
patentes es depositado por los países desarrollados) que esos países deban
tener el derecho de exigir a los países en desarrollo alinearse sobre sus propias
normas. Esto significa reproducir la dominación haciendo competir a estos países
con una desventaja muy pesada, para poder ser admitidos en el seno de un
sistema mundial de intercambio. Es también una cuestión de control del saber
(incluyendo el de la censura). Martín Khor considera que para favorecer el libre
acceso mundial al conocimiento, conviene limitar el “alcance del copyright y de las
patentes a favor de los consumidores y del interés público” [8] con miras a
favorecer un número más grande de accesos a la información y al conocimiento.
Una evolución mercantil que destruye el equilibrio
La controversia en curso es suscitada por la actitud de un gran número de grupos
de presión - actores de la creación, nuevas profesiones de lo digital [9] que quiere
actuar sobre los derechos de propiedad intelectual. Su acción concertada
conduce a imponer un fortalecimiento de la idea de una mercantilización de la
información, una visión estrictamente económica de la propiedad intelectual [10].
Esta evolución se hace a expensas de los bienes comunes de la información y de
las excepciones al uso que favorecen la circulación del conocimiento. Además,
ella apunta a ampliar permanentemente el campo de la propiedad intelectual,
llegando hasta a tocar las reglas fundamentales y los sectores vitales para la
humanidad (medicamentos, genética, patente de lo viviente, semillas agrícolas,
conocimientos tradicionales, datos geográficos y botánicos, etc.). Esto confiere a
las cuestiones relativas al derecho de la propiedad intelectual una importancia
nueva en el universo digital, y más ampliamente en todas las técnicas de la era de
la información.
La carrera hacia el lucro empuja a los grupos de industriales de los países del
Norte a patentar todo lo que puede ser imaginado para el futuro. Así colocan
numerosos cerrojos sobre las técnicas en gestación, cuyos conocimientos
prácticos están a menudo lejos de ser formalizados. La parte descriptiva de las
patentes depositadas pierde entonces su interés para la transmisión del saber
técnico. La patente sirve más bien para prospectar tranquilamente en el futuro,
que para proteger una innovación existente. Por ese hecho, limita la investigación
y el desarrollo [11]. También acrecienta de manera ineluctable el flujo de pagos de
los países del Sur hacia los países del Norte, a título de royalties y de ganancias a
los detentadores de las patentes.
Este procedimiento conduce a multiplicar las patentes que recaen directamente
sobre el conocimiento (algoritmos y software informáticos, secuencias genéticas),
las formas de organización del mundo (patentes llamadas de “método”), las
moléculas químicas (y no solamente los procesos de fabricación), los saberes
ancestrales (la “biopiratería”), los vegetales [12], los animales [13] y más
ampliamente todo lo viviente. Al “patentar lo viviente”, que consiste en conceder a
una empresa o a un individuo la propiedad sobre un componente de lo viviente, se
descubre una visión intelectualmente aberrante y humanamente inaceptable de la
propiedad industrial. Hay que tener en mente que hasta los años 90, el sistema de
patentes comprendía esencialmente los objetos inanimados y los procesos
mecánicos [14].
Apoyándose sobre el registro de tales patentes, empresas transnacionales
quieren prohibir a los países del Sur la utilización de los conocimientos para
luchar contra las calamidades que les afectan. La ilustración más perfecta sigue
siendo el proceso intentado por varias multinacionales del sector farmacéutico
contra el gobierno sudafricano cuando este último trató de democratizar el acceso
a los tratamientos de salud para los enfermos del sida [15]. Las excepciones que
aún existen en los tratados internacionales como el tratado de la OMC, por
ejemplo sobre las licencias legales de los medicamentos por razones de salud
pública, son cuestionadas en cada negociación y desmanteladas indirectamente
por negociaciones bilaterales [16].
En el ámbito cultural, se asiste igualmente a una extensión del campo de los
derechos de autores más allá de un régimen equilibrado. Nuevos sectores son
corroídos (desde las publicaciones científicas hasta los cursos de los docentes),
producciones mecánicas caen bajo la égida de los derechos de autor (ej.: las
fotografías automáticas, como las de los satélites, tan útiles para prevenir las
catástrofes). Las empresas intermediarias, como los medios de comunicación o
los editores científicos, se apoyan sobre una interpretación de sentido único del
derecho de autor para agregar limitaciones al libre acceso a la cultura,
especialmente en la escuela, las universidades y las bibliotecas.
Esta extensión de la propiedad, además de la extensión de los campos cubiertos,
sigue dos ejes: el del tiempo (prolongación de la duración de propiedad) y el de
los usos. Con las “medidas de protección técnica” (DRM: digital right management
systems) o el “derecho de los difusores” (“broadcast flag”), los detentadores de
derechos quieren poder seguir los usos privados de los documentos digitales, lo
que constituye una grave amenaza para la libertad de expresión, la vida privada y
los Derechos Humanos [17].
Hasta el presente, todos los mecanismos capitalistas de difusión de la información
han apuntado a crear artificialmente una escasez de información. Se trata de una
estrategia de acaparamiento. Ahora bien, en el campo del conocimiento, la
posesión por parte de uno no significa de ningún modo desposeer a los otros. Se
puede efectivamente poseer una información e intercambiarla sin ser por lo
mismo desposeído de ella.
La búsqueda de un equilibrio que tenga en cuenta esta naturaleza de los bienes
inmateriales es la aspiración de la acción emprendida a escala mundial por la
Sociedad Civil, acompañada por Estados en desarrollo, para obtener un “Tratado
para el libre acceso al conocimiento” [18]. Se trata de permitir a todos, y
especialmente a los países en desarrollo, utilizar los conocimientos de la
humanidad para enfrentar los males del siglo XXI. Construir un dominio público
universal de la información [19] aparece como una necesidad urgente. De ahora
en más, la técnica nos ofrece las condiciones de su realización. Conviene que las
reglas jurídicas y económicas permitan su realización.
La protección de los derechos intelectuales no debe ser una desventaja en un
mundo donde cualquiera podría producir, intercambiar y acceder a los yacimientos
intelectuales y recursos protegidos, es decir, a un dominio público abierto, de los
recursos comunes. Este dominio público universal de la información supone una
definición clara de los derechos reconocidos tanto a los creadores como a los
utilizadores.
Toda invención merece recompensa a los esfuerzos realizados. Los países del
Sur no niegan de ningún modo esa realidad. Sin embargo, solo las invenciones
que son verdaderamente únicas, nuevas o creativas merecen ser protegidas. Una
opción semejante equivaldría a recompensar la creación y la innovación, antes
que favorecer a los detentadores de portafolios de derechos de propiedad. La
época de las restricciones debe concluir porque “cuanto más libremente accede la
gente a entidades intelectuales, más capaz y deseosa es de dedicar tiempo a
acceder y a crear entidades de valor”. [20]
La recompensa debe ser la respuesta a todo esfuerzo innovador. Pero no todo
debe ser patentable. En principio, toda invención intelectual debe ser destinada al
dominio público, salvo si es necesario hacer posible su apropiación temporaria, y
aún así, solamente si esto no acarrea discriminaciones inaceptables. La atribución
de un derecho de propiedad, a justo precio, solo debe ser aceptada si la inversión
en cuestión es importante excluyendo toda retribución económica sistemática.
El reconocimiento de un valor primordial de los bienes comunes relativos a la
información, libremente accesibles y utilizables para todos, está lejos de ser
realizado.[21] En este momento, el ejemplo más visible sigue siendo los
programas libres. Es el único bien común de la información que ha llegado a su
madurez. Su utilización se generaliza poco a poco entre los utilizadores privados,
pero también en el seno mismo de la administración y de los servicios de
numerosos países o colectividades territoriales. Hay que ir más rápido y permitir a
todos acceder a las otras fuentes de información. Para eso, una solución pasa por
la reducción de la duración de propiedad antes de la accesión al dominio público.
Es tiempo de hacerla suficientemente corta, por el simple hecho de que la
accesibilidad se ha vuelto más fácil y más rápida en nuestros días. [22]
El derecho es una formalización de las relaciones sociales. En tal sentido, los
derechos de propiedad intelectual constituyen una cuestión política que debe ser
discutida como tal por los gobiernos y por la sociedad civil. Teniendo en cuenta la
importancia de la información para la vida cotidiana, para la educación de las
generaciones futuras y para el desarrollo económico sostenible y la protección de
la naturaleza, conviene asegurar su protección por los Estados, asociando a los
usuarios, los poderes económicos y científicos. No es el mercado el que debe
dictar su ley y no se puede dejar instalar una situación donde algunos grandes
grupos se repartirían todo el conocimiento del mundo. Las sociedades de la
información sólo serán realmente inclusivas si existe un dominio público universal
de la información funcionando en beneficio de todos. La verdadera armonización
de los derechos de propiedad intelectual pasa por un reequilibrio entre los
propietarios y los usuarios, pero también entre los países desarrollados y los
países en desarrollo. La información debe servir a la humanidad y que el saber
siga siendo el vínculo del desarrollo.
Economía de la información
Roberto Verzola
El concepto de una sociedad y economía post-industrial fue mencionado por
primera vez en los años cincuenta, cuando los investigadores se percataron de
que existía una expansión gradual de las secciones no agrícolas, no industriales
de las economías industriales avanzadas. Al constatar que estas secciones
constituían la base de una nueva economía incipiente, el término “post-industrial”
fue empleado con frecuencia para describir esta economía. Esto implicaba que los
rasgos principales de esta nueva economía aún no estaban lo suficientemente
claros o no se entendían lo suficiente, por lo que la nueva economía fue definida
simplemente en términos de la economía anterior que estaba reemplazando.
Los primeros estudios de la economía “post-industrial” la consideraron
erróneamente como una economía de servicios. Uno de los primeros autores en
reconocer correctamente la característica principal de la nueva economía
incipiente fue Machlup (1962), quien para describirla empleó el término “industria
basada en el conocimiento”. Él descubrió que en el año 1959, las ocupaciones
que generaban conocimiento habían superado en número a las demás. Sin
embargo, en 1973, autores como Daniel Bell (1973) seguían refiriéndose a la
economía incipiente como economía “post-industrial”. En 1977, Marc Uri Porat
(1977), a quién más tarde se unió Rubin, escribió un ensayo de 9 volúmenes, que
midió y estimó el alcance de esta economía, y describió este sector emergente
como “economía de la información”. Desde entonces su obra ha sido muy citada
como la primera obra importante en que se empleó el término “economía de la
información”.
Cuando la tecnología digital posibilitó la producción sin límites de copias exactas
de textos, imágenes, sonido, video y otros materiales de información, la economía
de la información creció rápidamente. Con el surgimiento de Internet y después de
la World Wide Web, la economía de la información maduró gradualmente hasta
convertirse en la floreciente economía de la actualidad.
Uno de los más recientes esfuerzos por estimar el alcance de la economía de la
información de Estados Unidos fue realizado por Apte y Nath (2004), quienes
llegaron a la conclusión de que la participación del sector de la información de los
Estados Unidos en el PNB aumentó “de aproximadamente 46% en 1967 a
aproximadamente 56% en 1992, y a 63% en 1997.”
Información: de un sector a toda una economía
La definición más citada de “economía de la información” es la de Porat, quien
distingue entre dos dominios económicos: el dominio de la materia y la energía, y
el dominio de la información. A este último lo llamó sector de la información y el
primero incluye los sectores agrícola e industrial. El sector de la información se
refiere a la transformación de la información “de un formato a otro.”
Una economía se convierte en una economía de la información cuando el trabajo
relacionado con la información comienza a superar al trabajo relacionado con
otros sectores. Según las valoraciones de varios sectores realizada por Porat,
esto ocurrió en 1967, cuando el 53% de la mano de obra norteamericana
realizaba un “trabajo de información.”
Porat clasifica el sector de la información en dos sectores, el sector primario de la
información y el sector secundario de la información. Los trabajadores del “sector
primario de la información” son aquellos que se relacionan casi totalmente con la
creación o gestión de la información, como los científicos, escritores,
bibliotecarios, etc. Los trabajadores del “sector secundario de la información” son
aquellos que trabajan principalmente en cuestiones no relacionadas con la
información, pero cuya labor implica un trabajo de información como aspecto
secundario. Estos últimos son los trabajadores de empresas e industrias que no
son de la información, pero generan información para uso interno en la producción
de mercancías agrícolas o industriales (es decir que no son información).
Porat incluye en el sector primario de la información a las siguientes industrias:
1) producción de conocimientos e invención (I+D y servicios de información
privados);
2) distribución de la información y comunicación (educación, servicios de
información públicos, telecomunicaciones);
3) gestión de riesgos (industrias de seguro y finanzas);
4) búsqueda y coordinación (industrias de correduría, publicidad);
5) servicios de procesamiento y transmisión de la información (procesamiento de
la información por computadoras, infraestructura de las telecomunicaciones);
6) mercancías de la información (calculadoras, semiconductores, computadoras);
7) actividades gubernamentales seleccionadas (educación y servicio postal);
8) instalaciones de apoyo (edificios, mobiliario de oficina);
9) la venta al por mayor y al por menor de los productos y servicios de
información.
Porat incluye en el sector secundario de la información a “todos los servicios de la
información generados para consumo interno por el gobierno y las empresas no
pertenecientes a la esfera de la información”, exceptuando las actividades
gubernamentales que pertenecen al sector primario de la información como la
educación y la impresión, pero incluyendo actividades gubernamentales tales
como planificación, coordinación, supervisión, control, evaluación y toma de
decisiones. También se incluyen en el sector secundario de la información las
áreas de las empresas e industrias privadas no pertenecientes a la esfera de la
información involucradas en labores de información o de la producción de
información no destinada a la venta o arriendo en el mercado, pero que apoyan
solamente la producción de productos no pertenecientes a la esfera de la
información, entre los que se incluyen los servicios internos de procesamiento de
datos y de biblioteca.
La OCDE (Organización para la Cooperación y el Desarrollo Económico) ha
adoptado la definición de Porat en sus estudios sobre la naturaleza, el alcance y
el crecimiento de las economías de la información. Otras definiciones de la
“economía de la información” son variantes de la definición de Porat o la de
Machlup.
Las fronteras elusivas de la economía de la información
La cuestión referida a qué actividad o producto se considera parte de la economía
de la información, presagiada por las diferencias entre los enfoques de Machlup y
Porat, continúa suscitando los debates actuales sobre la economía de la
información. Por ejemplo:
¿Deben incluirse en el sector de la información las actividades productoras de
información en las empresas que por sí mismas no generan productos de
información para el mercado? A fin de cuentas, toda ocupación produce y
gestiona información. Los agricultores, los mecánicos, los niños limpiabotas y
los conserjes también necesitan información, la producen, y la utilizan para sus
propios fines. Como no generan productos de información para la venta o
intercambio, hay quienes consideran que no deben formar parte del sector de la
información.
¿Deben incluirse o no, al estimar el alcance del sector de la información, las
salidas intermedias (que sirven como entradas para otras actividades de la
producción)?
¿Debe limitarse el sector de la información solo a las actividades que producen
información, o debe abarcar también las que gestionan, distribuyen, muestran,
etc. la información?
¿Deben considerarse parte del sector de la información las industrias que
producen bienes tangibles (por ejemplo, computadoras, monitores, enrutadores,
etcétera)?
¿Deben ser considerados parte del sector de la información los servicios que
proporcionan información, pero no productos de información para el mercado
(por ejemplo: un médico que emite un diagnóstico o administra medicamentos)?
Puede decirse que no, porque el servicio que proporcionan no tiene el mismo
costo marginal de producción, aproximadamente cero, que la generación de los
productos de información.
¿Deben incluirse las categorías basadas en las cuentas existentes del ingreso
nacional, o deben incluirse las actividades no incluidas en esas cuentas - quizás
porque antes no existían?
¿Los estimados de la contribución del sector de la información al PNB deben
basarse en el “valor añadido” o en la “demanda final”? La demanda final se basa
en las ventas del producto, mientras el valor añadido se basa en el ingreso.
¿Debe definirse la economía de la información en relación con su alcance con
respecto a otros sectores de la economía, o cuando se haya alcanzado un nivel
específico de informatización dentro de una economía?
¿Son los enfoques monopolizadores como las patentes y los derechos de autor,
normalmente conocidos como derechos de propiedad intelectual (DPI), los
medios más apropiados de propiedad sobre la información?
Apte y Nath (2004) resumieron las diferencias entre los enfoques de Machlup y
Porat. Un análisis más profundo puede encontrarse en Huber y Rubin (1986).
Como pudo apreciarse anteriormente, aunque la economía “post-industrial” ya ha
sido identificada de forma clara como una “economía de la información”, continúa
el debate en torno a cuáles actividades y qué productos deben ser clasificados
dentro del sector de la información de dicha economía.
Una gama de productos e instalaciones que tienen un impacto en el proceso
de producción
1. Una economía de la información es una economía en la que el sector de la
información llega a ser más dominante que los sectores agrícola o industrial de la
economía.
2. El sector de la información es la parte de la economía que se ocupa de la
creación, gestión, procesamiento, transmisión, distribución, y empleo de la
información, donde la información se define como la reducción de la
incertidumbre, y la incertidumbre es una medida del número de posibilidades. La
unidad más pequeña de información es el bit que resuelve la incertidumbre entre
dos resultados igualmente posibles. La información es un ente no material, sin
energía y solo toma forma física cuando se almacena en un medio físico (como en
un disco duro) o se comunica en forma física (como en una señal de radio).
3. Según esta definición, la información incluye programas, bases de datos,
música, video, contenido de un libro, diseños, información genética, memorias
orgánicas y humanas, y otros entes que eventualmente puedan ser
representados, almacenados y comunicados en forma de bits. Éstos pueden
llamarse productos de información. En ocasiones son incluidos dentro de la
categoría de contenido de la información. Entre los productos de información se
incluyen productos que no son puramente información, pero que contienen una
cantidad de información tal que aporta la mayor parte del precio del producto.
También incluyen los números de Protocolo de Internet (IP), nombres de dominio,
formatos, normas, y aspectos similares empleados en los equipos e instalaciones
de la información.
4. La economía de la información también incluye el equipamiento físico y las
instalaciones empleados para la generación y el procesamiento de la información,
aun cuando este propio equipamiento pudo haber sido producido fuera de la
economía de la información. Este equipamiento físico incluye computadoras,
equipos de comunicaciones, equipos de conmutación, equipos de conexión de
redes, equipos de audio y video, imprentas, estudios y estaciones de radio y
televisión, bibliotecas, cines, equipos de secuenciamiento de ADN y otros equipos
similares. Todos ellos pueden ser llamados equipos e instalaciones de
información.
5. La economía de la información incluye también a las personas que se ocupan
de generar y distribuir información.
6. La información es un ente no material, sin energía, y la materia y la energía son
necesarias sólo en la medida en que la información deba ser almacenadao
comunicada. A medida que la tecnología de la información continúa avanzando,
siguen desarrollándose formas de almacenamiento/comunicación de la
información que emplean menos materia o energía. Por tanto, el costo de
reproducción (es decir, duplicar, hacer copias) de la información se aproxima a
cero.
7. El párrafo precedente solo define los aspectos económicos de la información:
un producto cuya creación requiere una cantidad importante de materia o energía,
pero cuya reproducción no requiere prácticamente ningún costo, conduce a una
economía que es unívocamente diferente a la economía de productos físicos (es
decir, productos que contienen en cada unidad una cantidad establecida de
materia y energía consumida, que se reflejará inevitablemente en el costo de
dichos productos). Los productos de información pueden reproducirse
prácticamente sin costo alguno (es decir, un costo marginal de producción de casi
cero), lo cual significa que una vez creado, la carencia de este producto puede
erradicarse prácticamente sin costo alguno. Por consiguiente, un estudio de la
economía de la información no sólo debe implicar un estudio convencional de los
aspectos económicos de la escasez, sino también un estudio de los aspectos
económicos de la abundancia.
8. Hoy resulta posible ser propietario de productos de información a través de un
mecanismo llamado derechos de propiedad intelectual (DPI), que incluye
mecanismos estatutarios monopolizadores tales como las patentes y los derechos
de autor. Los DPI crean una carencia artificial, al negar la abundancia potencial de
un producto de información una vez creado y permitir a los titulares de los DPI
mantener artificialmente el precio de un producto de información a un nivel
arbitrario. Una economía de la información que se basa en mecanismos
monopolizadores tales como los DPI para recompensar la actividad intelectual
puede llamarse economía de la información monopolizadora. En el futuro,
podremos ver también el surgimiento de economías de información no
monopolizadoras, donde la actividad intelectual será recompensada sólo a través
de medios no monopolizadores, que le permitan al público disfrutar plenamente
de la abundancia de productos de información una vez creados. Los equipos e
instalaciones de información son poseídos de la misma manera tradicional en que
se posee un equipo industrial y la tierra, aun cuando aspectos individuales de
tales equipos e instalaciones de información puedan contener también material
patentado o registrado.
En las economías de información monopolizadoras, los pagos por el uso tanto de
los productos de información como de los equipos e instalaciones de información,
no incluyen ninguna transferencia de propiedad, sino solo un permiso temporal
para utilizar el producto, equipo o instalación. Por tanto, estos pagos adquieren la
forma de arriendo. Las clases acaudaladas de la economía de la información, que
poseen productos de información, equipos o instalaciones, son, por consiguiente,
clases que pretenden arrendar. Estas clases arrendadoras pueden ser
denominadas terratenientes del ciberespacio o cibertenientes.
Conceptos relacionados, variante(s)
El sector de las tecnologías de la información y las comunicaciones (TIC)
incluye los artículos del sector industrial y el sector de la información
relacionados con el almacenamiento, gestión, procesamiento, transmisión,
presentación y empleo de la información. Pueden ser productos tangibles o
intangibles.
El comercio electrónico se refiere al uso de Internet y otras infraestructuras
nacionales o internacionales de comunicaciones para iniciar o realizar
transacciones comerciales, tales como consultas, presentación de pedidos,
realización de pagos o transacciones de documentación.
A menudo se emplea como sinónimo de la economía de la información el
término “economía del conocimiento” o incluso “industrias del conocimiento” o
“industrias basadas en el conocimiento”. Estos fueron los términos utilizados
originalmente por Machlup. Aún se emplean como término común para referirse
a la economía de la información. Aunque ambos términos parecen diferentes,
algunos autores consideran que el término “economía del conocimiento” es el
más general, mientras otros creen que es “economía de la información”.
El autor del presente artículo prefiere el término “economía de la información”
porque es la información, no el conocimiento, lo que se transfiere o se
intercambia. La información se convierte en conocimiento sólo después que es
procesada internamente de manera apropiada por una persona. Personas que
adquieran el mismo conjunto de información pueden generar internamente
diferentes tipos de conocimientos partiendo de ese mismo conjunto de
información. Además, las ciencias de la información tienen una definición muy
específica y generalmente aceptada de información en términos de resolver la
incertidumbre y los medios y unidades para medirla, pero no existe una definición
o unidad de conocimiento generalmente aceptada.
Los desafíos del multilingüismo
Adriana Lau
Desde un principio, la idea de que el presente glosario fuera multilingüe fue una
de las piedras angulares en la concepción del proyecto: no se puede hablar de
multiculturalidad en una obra redactada en un solo idioma y que por lo tanto
refleja la idiosincrasia de una sola cultura. Se previó así convocar a expertos en el
tema provenientes de diferentes partes del mundo que hablaran portugués, inglés,
español o francés, cuatro de los idiomas más representativos en la materia a nivel
mundial en la actualidad. Cada autor definiría un concepto en su lengua materna y
posteriormente debía enriquecerlo gracias a un debate conjunto entre todos los
autores participantes. Los artículos finales serían luego traducidos a los cuatro
idiomas.
El panorama se complicó al caer en cuenta de que no todos los autores hablaban
los otros idiomas diferentes del suyo propio. Se pensó entonces recurrir a la
ayuda de un equipo de traducción no sólo para la traducción de los artículos al
final del proceso de redacción sino para la traducción de la primera versión de los
artículos que serviría para la comunicación y el intercambio entre los 27 autores y
los 3 coordinadores.
Para coordinar este complejo trabajo de traducción que se requeriría a lo largo de
todo el desarrollo del proyecto se contó con la participación de la Unión Latina.
El proceso de traducción
Se convocó a profesionales de diferentes países para conformar el equipo de
traducción. La mayor preocupación fue tratar de mantener la pluralidad del
proyecto -sobre todo teniendo en cuenta que estos 4 idiomas son hablados en
una vasta zona geográfica. Se logró mantener la diversidad respecto a la
procedencia. Sin embargo, se corroboró una vez más que los interesados en
temas relacionados con las lenguas y por ende con la labor de traducción son en
su mayoría mujeres. Así, participaron en el proceso de traducción traductoras de
Brasil, Cuba, Estados Unidos, Francia, Gran Bretaña, Paraguay y Venezuela (ver
presentación de las traductoras).
La gestión del proceso de traducción no fue tarea fácil. El hecho de que las
traductoras participantes tuvieran procedencias tan variadas nos obligó a
mantener un contacto exclusivo vía mensajería electrónica. Cada texto recibido en
una primera versión en su lengua de origen fue inmediatamente enviado a las
traductoras para su respectiva traducción en los otros tres idiomas. Una vez
traducido, se incluía el artículo en el sitio web del proyecto para que estuviera a
disposición de los demás autores y se pudiera iniciar así el debate sobre cada
concepto.
Gracias a los intercambios entre los autores y coordinadores del proyecto, los
artículos fueron mejorados, algunas veces añadiendo ideas, otras más bien
suprimiéndolas o en ocasiones simplemente modificando la estructura interna del
texto para hacerlo más accesible al público en general. Posteriormente, la nueva
versión de los artículos fue enviada a las respectivas traductoras para realizar las
modificaciones necesarias en los otros idiomas. Terminada esta etapa, los
artículos quedaron listos para su publicación en el sitio web y en versión impresa.
Este fue, a grosso modo, el sistema de trabajo. Sin embargo, viendo un poco más
en detalle el desarrollo de este proceso de traducción, pudimos observar que esta
obra constituye en sí la prueba palpable de la utilidad de las nuevas tecnologías
de la información en la sociedad actual. En efecto, un proyecto semejante no
hubiera podido ver la luz - por lo menos no en un periodo de tiempo tan reducido hace algunos años, cuando no se disponía de una herramienta como Internet. La
condición vital de contar con la participación de especialistas y de traductores de
todas partes del mundo hubiera quedado en simple proyecto.
Internet, multilingüismo y multiculturalidad
Efectivamente, esta obra fue realizada tal y como se pensó en gran medida
gracias a Internet. Sin embargo, la comunicación por Internet y el trabajo en
equipo a distancia no sólo traen ventajas consigo, también representan ciertas
dificultades.
Con el propósito de tener una comunicación fluida tanto entre los coordinadores,
como entre éstos con los autores y con las traductoras, se crearon diferentes
listas de discusión. Hubo una lista dedicada exclusivamente al trabajo de
coordinación, otra sirvió de medio de comunicación entre los coordinadores, los
autores y las traductoras, y una tercera fue puesta a entera disposición de las
traductoras para resolver dudas relativas a los idiomas.
No obstante, uno de los mayores problemas “técnicos” es, por supuesto, el
acceso a Internet. Como es del conocimiento de todos, en muchos países del Sur,
ya sea por cuestiones técnicas o de costos, no es fácil acceder a esta
herramienta. En algunos casos, debido a este tipo de dificultades, las listas de
discusión no cumplían su función comunicadora; algunas de las traductoras, al no
tener acceso directo a una conexión de Internet, no recibían en tiempo real
mensajes urgentes de modificaciones de último minuto o intervenciones de los
autores que debían ser traducidas para alimentar el intercambio entre ellos, por
citar algunos ejemplos.
Este último caso de comunicación entre los autores nos ayudó a tomar conciencia
de otro detalle “técnico”. Al no tener pronta respuesta de las traductoras y con el
objetivo de acelerar el intercambio de ideas entre los miembros del equipo, se
optó por utilizar un programa de traducción automática a nivel interno en las listas
de discusión. Este recurso simplificó los problemas de comunicación cuando el
lector final de dicha traducción tenía ciertos conocimientos del idioma de origen;
no obstante, para aquellos que lo desconocían, estas traducciones no
comunicaban ningún sentido o, lo que es peor, transmitían contrasentidos.
Entonces, la intervención de los coordinadores y de las traductoras se hacía
necesaria para aclarar las dudas.
Esta situación puso de manifiesto el gran error de aquellos que piensan que un
traductor será reemplazado tarde o temprano por la traducción automática.
Estamos lejos de que esto suceda. En todo caso, será difícil concebir un
programa que sea capaz de identificar los pequeños -o grandes- matices de las
diferentes culturas que conforman nuestro planeta y, más aun, que sea capaz de
entrar en comunicación con los autores de los textos tratados para aclarar
términos ambiguos, como fue el caso en este proyecto.
Cabe mencionar también que algunos de los autores, como un síntoma más de la
globalización, no residen en sus países de origen y hablan diferentes idiomas,
pudiendo expresarse mejor a nivel profesional en un idioma extranjero que han
“adoptado” por haber realizado sus estudios o por desempeñar sus cargos en
estos idiomas. Algunos de estos autores redactaron sus artículos en estos
idiomas “adoptados”. No obstante, si bien es cierto que dominan la jerga
profesional, la gramática puede tener ciertas fallas.
Por otro lado, muchas veces el autor de un texto se encuentra tan inmerso en el
tema que le ocupa que no se percata de que su texto no es suficientemente claro
para los lectores.
En estos casos, frente a “deslices gramaticales” o ambigüedades terminológicas,
el traductor juega un papel muy importante; un programa de traducción
automática no tendrá nunca la capacidad intelectual de un traductor para
interpretar dichas fallas ni contará con la posibilidad de hacer consultas sobre
imprecisiones, ofreciendo como resultado un texto ininteligible.
Quisiéramos finalmente poner de relieve que fueron justamente las intervenciones
de las traductoras en la lista de discusión común solicitando aclaraciones sobre
terminología en este campo del saber las que provocaron numerosos debates
entre los autores. En estos debates cada autor defendió su propio enfoque frente
a dichos términos, lo que confirmó la necesidad de una obra como ésta para
llegar a ciertos “acuerdos” respecto a conceptos en plena creación y constante
cambio, sin olvidar las diferencias que implica la diversidad cultural.
En efecto, el carácter multicultural de esta obra le debe mucho a las traductoras
participantes. ¿Hubiéramos podido hablar de multiculturalidad basándonos en una
obra traducida mecánicamente? Cada autor plasma la idiosincrasia de su pueblo
con respecto a un concepto perteneciente a un tema tan amplio como la llamada
Sociedad de la Información, pero ¿hasta qué punto las nuevas tecnologías de
esta nueva sociedad hubieran sido capaces de reflejar cabalmente y por sí solas
las diferentes culturas que van contenidas en estos textos? Hemos visto que sólo
la experiencia de los traductores y la comunicación constante con los autores
permiten obtener un texto claro y preciso en un idioma diferente. Y, muchas veces,
es la participación de los traductores la que permite incluso enriquecer un texto en
lengua original.
Agradecemos pues una vez más a las traductoras participantes por su importante
labor en la realización de este proyecto multicultural y multilingüe, así como por su
capacidad de colaboración y compromiso con esta tarea comunicadora.
FIN
Descargar