It is the cache of ${baseHref}. It is a snapshot of the page. The current page could have changed in the meantime.
Tip: To quickly find your search term on this page, press Ctrl+F or ⌘-F (Mac) and use the find bar.

Revista iberoamericana de ciencia tecnología y sociedad - La apropiación social de la ciencia: nuevas formas

SciELO - Scientific Electronic Library Online

 
vol.4 número10Los usos sociales del periodismo científico y de la divulgación: El caso de la controversia sobre el riesgo o la inocuidad de las antenas de telefonía móvilNueva retórica del concepto vida índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Bookmark


Revista iberoamericana de ciencia tecnología y sociedad

versión On-line ISSN 1850-0013

Rev. iberoam. cienc. tecnol. soc. v.4 n.10 Ciudad Autónoma de Buenos Aires ene. 2008

 

La apropiación social de la ciencia: nuevas formas*

Cipriano Barrio Alonso
(pano@uniovi.es)
Departamento de Filosofía, Universidad de Oviedo, España

 La aparición de nuevas formas de generación de conocimiento científico y tecnológico, denominadas desarrollo cooperativo, permite redefinir el papel de los ciudadanos respecto al sistema de ciencia y tecnología y considerar la apropiación social de la ciencia como un problema de redistribución del conocimiento.

Palabras clave
: Apropiación social de la ciencia; Redistribución del conocimiento; Desarrollo cooperativo.

The appearance of new forms of generation of scientific and technological knowledge, named cooperative development, allows to redefine the role of citizens with reference to the science and technology system, and to think about the social appropriation of science as a problem of redistribution of knowledge.

Key words
: Social appropriation of science; Knowledge redistribution; Cooperative development.

1. La apropiación social del conocimiento

El término "apropiación social", referido al conocimiento en general y en particular a la ciencia y la tecnología, tiene un amplio uso y parece consolidado firmemente tanto en el ámbito académico como en el de la política (López Cerezo y Cámara Hurtado, 2004: 31; CAB, s/f). No obstante sería conveniente, tal como entendemos y pretendemos exponer en este trabajo, revisar su significado y replantear su sentido a la vista de las nuevas vías que se abren y de los nuevos modos de relación entre los generadores del conocimiento científico y tecnológico y la sociedad en que éstos se insertan.

Si recurrimos a explorar desde la base el significado del término "apropiación", encontramos que el diccionario lo define como "acción y afecto de apropiar". Ello nos conduce al significado de "apropiar", cuyas acepciones pueden encuadrarse básicamente en dos: una asociada a un cambio de propietario y otra asociada a adecuar algo a una cosa.

Tomaremos como base para nuestra discusión estas dos acepciones. La primera implica claramente el que alguno pase a tener como propia alguna cosa, pero que no era suya inicialmente. Por tanto, este sentido se asocia a un cambio de dueño que incluso puede, como se remarca en alguna acepción de las que reseña el diccionario, introducir una cierta noción de forzamiento.

Los planteamientos asociados en la práctica académica y de políticas públicas parecen estar encuadrados en una concepción de las relaciones entre conocimiento y sociedad que se superponen en gran medida con el sentido contenido en esta acepción. En consecuencia, la acción política pública y los análisis teóricos asociados a ella comparten la presuposición de la conveniencia o necesidad de hacer a la sociedad dueña de un conocimiento que hasta el momento no es suyo; tal planteamiento se cristaliza en la hipótesis del déficit cognitivo y en las correspondientes acciones que se planifican y realizan para eliminar o reducir tal déficit.

La segunda de las acepciones apunta hacia la adecuación de lo aplicado al soporte que lo recibe, pero sin que aparezca explicitada ya la connotación de ser ajeno. Si probamos utilizar "apropiación social de la ciencia" con esta acepción veremos que el sentido inicial se transforma en otro mucho más potente, en el que el conocimiento científico ya no se plantea como una construcción al margen de la sociedad ni en su génesis ni en su uso.

Mientras que la primera acepción conduce a plantear e intentar resolver el problema de la transmisión del conocimiento científico y técnico de quienes lo poseen a los que no, la segunda conduce a replantearlo como un problema de redistribución del conocimiento, redefiniendo el papel de los actores implicados y disolviendo la brecha aparente entre el sistema de ciencia y tecnología y el resto de la sociedad. Este sentido de redistribución del conocimiento, así como el papel de las políticas públicas en ciencia y tecnología, pueden analogarse con el de la redistribución de la renta y el papel de las políticas fiscales, de profunda raigambre en los sistemas democráticos avanzados y con una fundamentación radicada en los principios de equidad, justicia social y solidaridad.

2. La dinámica del conocimiento en ciencia y tecnología

Desde la perspectiva usual, la dinámica del conocimiento científico y tecnológico puede plantearse como un problema que abarca dos dimensiones, las cuales diferenciaremos como horizontal y vertical.

La dimensión horizontal comprende la conexión entre generadores y usuarios primarios de conocimiento (científicos y tecnólogos) y presenta a su vez dos modalidades básicas de transmisión o comunicación:

- Conocimiento sin valor de mercado directo: libre (publicaciones, artículos en revistas, comunicaciones en congresos, reuniones, etc.).

- Conocimiento con valor de mercado potencial: restringido (patentes, secreto industrial, etc.).

La dimensión vertical reúne las conexiones entre generadores y público, el cual puede también ser visto como un conjunto de consumidores finales indirectos. Esta dimensión presenta también dos modalidades básicas, las cuales admiten a su vez subdivisiones:

- Formal o reglada: corresponde al sistema educativo como encargado de transmitir el conocimiento a los distintos estratos sociales, con dos ramificaciones: la de la formación general, o alfabetización científica, y la de la formación especifica de nuevos científicos y tecnólogos.

- No reglada: comprende todos los diversos modos que se agrupan bajo el término paraguas de divulgación, tanto la directa (museos de la ciencia, prensa diaria, revistas, cine, televisión u otros medios de comunicación auto identificados como tal divulgación) o indirecta (ciencia-ficción, deportes o aficiones asociados a determinados medios tecnológicos, etc.).

Esta dinámica, tal como la hemos expuesto, recoge la visión clásica y está sustentada en la concepción de la apropiación social del conocimiento según la primera de las acepciones vistas arriba. Sin embargo, la aparición de nuevas formas no contempladas en este esquema, y que analizaremos a continuación, obligan a replantearlo y permitirán una reformulación de la concepción de la apropiación social, más de acuerdo con la segunda de las acepciones. Estas nuevas formas se presentan muy fuertemente asociadas a la aparición de las llamadas nuevas tecnologías de la información y la comunicación, ya que en los casos más significativos surgen y operan en ese ámbito y en otros, aunque fuesen modalidades presentes con anterioridad, se potencian de forma determinante con la aparición de tales tecnologías.

3. El camino hacia la Gran Ciencia

Cuando en el siglo dieciocho comienza el desarrollo de la nueva ciencia, ésta está en manos de un reducido número de personas e instituciones; los científicos caben bajo la definición de sabios y amateurs, pues como tales sabios son considerados por la sociedad y su actividad científica está dentro del ámbito de lo privado en su mayoría, o al menos no forma parte explícitamente de las obligaciones de sus cargos o empleos ni reciben beneficios o remuneración directa por ello. Las instituciones que sirven de foro a las contribuciones de los científicos son sociedades científicas y academias, que, aunque en algunos casos cuenten con el patrocinio de reyes o estados y tengan como uno de sus objetivos la difusión, son fundamentalmente sociedades privadas.

Los cambios políticos, sociales y tecnológicos asociados al cambio de siglo hacen que los estados se percaten de las consecuencias económicas y geoestratégicas que tiene el desarrollo en ciencia y tecnología y tomen medidas en ese sentido. Con ellos se llega, finalmente, a que a través de la extensión de la educación, del cambio de modelo universitario y otras acciones paralelas se pueda decir que los procesos de institucionalización de la actividad científica, su difusión y la profesionalización de sus agentes son rasgos distintivos de la ciencia del siglo diecinueve.

La ciencia en el siglo veinte, especialmente a partir de su primer tercio y luego con el estallido de la Segunda Guerra Mundial y la posterior Guerra Fría, evoluciona hacia el crecimiento del tamaño de los equipos de personal y de la importancia de los equipamientos e instalaciones, que se culmina con la aparición de la Big Science. La construcción del nuevo conocimiento científico en los campos más avanzados se materializa en grandes proyectos con enormes inversiones materiales y humanas. La construcción de la ciencia y del conocimiento en general deja de estar al alcance, salvo excepciones, de los aficionados.

4. La aparición de nuevas formas de hacer ciencia

Simultáneamente con el clímax de la Gran Ciencia aparecen otras formas de construir y desarrollar ciencia y tecnología, que son en cierta medida antitéticas con el modo de operar de ésta. El caso más fácil de identificar y el que de alguna forma se puede tomar como modelo está relacionado con una tecnología nueva y se inicia a partir de los años stenta, paradójicamente dentro de la Gran Ciencia: el software de Internet.

El software de Internet, casi como ella misma, aparece como un subproducto no buscado explícitamente de un típico proyecto Big Science en el que las características de su desarrollo y de los sujetos implicados están fuera de los patrones de esta Gran Ciencia. Tanto el diseño de los protocolos de interconexión como de los servicios (correo, grupos de noticias, web, mensajería, videoconferencia, etc.), así como los programas servidores y clientes, se elaborarán y desarrollarán según un nuevo modelo que cristalizará en las ideas bajo las cuales, en 1982, Richard M. Stallman creó la Free Software Foundation y la licencia GPL, y que condujo en los años noventa al sistema operativo Linux. Relataremos y comentaremos sucintamente algunos de los pasos más representativos en este proceso.

4.1. De ARPANET a Internet

En el año 1964, la Agencia de Proyectos de Investigación Avanzada del Departamento de Defensa de Estados Unidos (DARPA) subvenciona el estudio de una red de comunicaciones entre computadoras, descentralizada e independiente del diseño particular de las máquinas. El objetivo principal era poder acceder desde una máquina a los recursos de cómputo de otra. En los primeros momentos del diseño de la red ya se incorporó una característica inicialmente surgida en otro proyecto de la Agencia para el desarrollo de una red telefónica capaz de seguir operando en caso de un ataque nuclear. Esta característica, que no formaba parte de las especificaciones iniciales y que a medio y largo plazo influiría decisivamente en la evolución de la red, era que la información se fragmentaría en paquetes que se enviarían independientemente y que se podrían comprimir y encriptar.

El primer nodo de la red ARPANET entró en funcionamiento en septiembre de 1969 en la Universidad de California en Los Ángeles (UCLA), y en diciembre se habían sumado otros tres nodos. Con una treintena de nodos enlazados por líneas dedicadas tiene lugar, en 1972, la primera demostración pública de la capacidad de la red, en la International Computer Communication Conference. En ese mismo año, Ray Tomlinson introduce el correo electrónico, que inmediatamente se manifiesta como una herramienta decisiva para el incremento de la productividad en la comunicación humana; el uso del correo electrónico pasa a ser tanto o más interesante desde el punto de vista de los usuarios que la posibilidad de acceso a los propios recursos de cómputo compartidos, llegando en sólo un año a constituir el 75% del tráfico de la red. En 1973 se incorporan a la red Noruega e Inglaterra y se llega a cuarenta nodos y cuarenta y cinco maquinas conectadas.

Los investigadores en computación sin participación en proyectos relacionados con Defensa, conocedores de las ventajas de disfrutar de la red, logran que la National Science Foundation (NSF) de Estados Unidos financie una red análoga, CSNET, abierta a ARPANET, a la que se incorporan progresivamente muchos miembros de la comunidad universitaria. En 1983, con 4.000 computadoras conectadas, se sustituye el protocolo NCP usado hasta entonces por el TCP/IP, desarrollado por V. Cerf y R. Kahn, que será el usado hasta el presente. TCP/IP, en realidad un conjunto de protocolos, es mucho más simple de implementar que el precedente en todo tipo de ordenadores, lo que va a facilitar que se diseñen mas tarde versiones incluso para ordenadores personales.1

Finalmente ARPANET se divide, separándose los intereses estrictamente militares (MILNET) de los de la investigación académica, que queda bajo la NSF (NSFNET). Paralelamente, DARPA había financiado en la Universidad de California en Berkeley (UCB) la revisión del sistema operativo Unix, con la inclusión del protocolo TCP/IP, entre otras mejoras, dando lugar al Unix BSD. La política de distribución gratuita a universidades y centros educativos de este sistema iniciada por AT&T, su creador, y seguida por UCB -y que más adelante comentaremos- hace que se difunda rápidamente en el mundo académico. La interconexión de las redes académicas de otras partes del mundo y el incremento continuado del número de nodos, de usuarios y del tráfico marca la evolución de la red. ARPANET desaparece -muere de éxito, se suele decir- en 1990, con la apertura a las redes comerciales, pero Internet, concebida y estructurada de forma descentralizada como red de redes interconectadas mediante TCP/IP, ya está madura.

Las especificaciones del funcionamiento de ARPANET y de su sucesora, Internet, han estado desde su principio abiertas y disponibles públicamente, de forma que cualquiera puede, de acuerdo con ellas, diseñar una máquina o un programa que pueda conectarse a la red al margen de patentes, royalties o secretos. Esta filosofía de apertura y disponibilidad pública ha sido, sin duda, uno de los factores decisivos en el crecimiento y difusión de estas redes.2

 4.2. Usenet News

El acceso a las redes existentes a finales de los años setenta estaba limitado a las universidades participantes en algún proyecto federal, y no todos los centros universitarios disponían de él. En 1979 dos estudiantes graduados de la Duke University y otro de la cercana de North Carolina crean las Usenet News (Unix User Network), enlazando los computadores de sus respectivas universidades por medio de UUCP, un protocolo que permite conectar ordenadores con el sistema Unix mediante módem sobre líneas telefónicas convencionales, dando lugar a la llamada "the poor man's ARPANET", la ARPANET de los pobres. La idea surgió porque siendo este sistema operativo gratuito para las universidades, AT&T no daba asistencia técnica ni mantenimiento, como veremos más adelante. Usenet News consistía inicialmente en la creación de un directorio de noticias y avisos para los usuarios sobre mantenimiento y configuración del sistema Unix, que se actualizaba en ambos ordenadores mediante conexiones periódicas en las que se comparaba el contenido de cada máquina y se intercambiaban las novedades.

Una vez que el sistema fue puesto en funcionamiento, los contenidos se ampliaron y se diversificaron rápidamente. La revisión y mejora del programa se presenta en 1980 en la conferencia USEUNIX y se pone en el dominio público. Usenet parece ser el medio ideal para cubrir una necesidad de comunicación no satisfecha hasta entonces y muestra un crecimiento continuado a medida que se conectan más nodos. El espíritu de cooperación y ayuda mutua desinteresada de los grupos iniciales sobre configuración, trucos y recetas para el hardware y software se mantiene en los nuevos que se van creando, definiéndose una comunidad "virtual" de usuarios con esas características identificatorias. En 1981 la Universidad de California en Berkeley, una de cuyas máquinas estaba conectada simultáneamente a ARPANET y a Usenet, comienza a hacer de puente entre ambas. Cuando el tráfico de artículos de Usenet se distribuye a través de ARPANET, un número creciente de personas se incorpora a las discusiones, provocando un espectacular aumento, de modo que en 1982 ya hay cuatrocientos sitios con un promedio de cincuenta nuevos artículos diarios; en 1985 son respectivamente mil trescientos sitios, trescientos setenta y cinco artículos diarios y más de 1Mb de tráfico por día. En 1986 se introduce el protocolo NNTP, que utiliza el protocolo TCP/IP en lugar del inicial UUCP, lo que permite el acceso a las noticias desde otras máquinas que no tienen necesidad de almacenar los artículos localmente y posibilita su lectura desde ordenadores personales.3

4.3. World Wide Web

Basándose en los trabajos de Ted Nelson, creador de la idea de hipertexto, y de Douglas Engelbar, desarrollador del NLS, el primer sistema de hipertexto funcional, Tim Berners-Lee, con la colaboración de Robert Cailliau y otros informáticos del CERN (Conseil Européen pour la Recherche Nucleaire, un centro europeo de investigación en física de altas energías) desarrollan en 1989 el Hyper Text Markup Language (HTML), a fin de facilitar la presentación y difusión del trabajo experimental del centro. Las dos directrices fundamentales de la iniciativa son su arquitectura abierta, capaz de funcionar en cualquier tipo de computadora, y distribución en red. En 1990 entra en funcionamiento en el primer servidor, en el que se incluye, entre otra información, el listín telefónico interno, lo que será uno de los motivos de la difusión inicial en el CERN. En 1991 tiene lugar la presentación pública en Hypertext '91, y en 1993 Berners-Lee consigue que el CERN ponga la tecnología web y el código del programa en el dominio público, lo que sería también decisivo para su difusión generalizada. La aparición en ese mismo año del navegador Mosaic para sistemas Unix, unos meses después para ordenadores McIntosh y algo posteriormente para Windows, y la presentación en 1994 de Netscape, el primer navegador comercial, marca el comienzo del crecimiento explosivo del web

4.4. El sistema Unix y el lenguaje C

en 1969, K. Thompsom y D. Ritchie, programadores de los laboratorios Bell de AT&T, tratan de programar en su tiempo libre el juego Space Travel en una gran computadora General Electric 635 con la que trabajaban, que usaba un sistema operativo llamado Multics. Las limitaciones del sistema para este tipo de tareas, las limitaciones de la presentación gráfica y el elevado coste del tiempo de CPU empleado les lleva a utilizar un miniordenador DEC PDP-7 presente en el laboratorio y en la práctica fuera de uso, en el que para poder implementar el juego comienzan a desarrollar por su cuenta el germen de un sistema operativo al que llamarán UNIX, en oposición a Multics. La filosofía que guiará el diseño de este nuevo sistema es la sencillez y eficacia, con la construcción de pequeños módulos de programa que realicen tareas elementales de forma eficiente, pudiendo utilizar de forma estandarizada los resultados de uno como datos de entrada de otro, conduciendo así a la realización de tareas complejas acoplando solamente los módulos necesarios. Esta modularidad permitirá, desde el punto de vista de la programación, optimizar y depurar el código fácilmente y, desde el de la ejecución, necesitar menos recursos físicos, pues sólo se cargarán en la memoria los módulos necesarios para cada programa que corra.

Thompsom intenta en 1971 adaptar el FORTRAN, un lenguaje de programación para cálculo científico, al nuevo sistema. Ante las dificultades que encuentra desarrolla un lenguaje interpretado muy simple, que llamó B. Posteriormente, Ritchie amplia el lenguaje y diseña un compilador para él; esta nueva versión pasará finalmente a llamarse C. El lenguaje C, por sus características, llegará con el tiempo a convertirse en el más ampliamente utilizado en el desarrollo de programas de aplicación.4 En 1973 el núcleo del sistema UNIX, escrito en ensamblador se rescribe en C, lo que será una decisión trascendental para la posterior difusión del sistema.5 Las prestaciones del nuevo sistema, multiusuario y multitarea, y el lenguaje C asociado hacen que se vaya adoptando en algunas secciones de los Bell y en 1974 UNIX funciona ya en una docena de máquinas de diferentes tipos.

Las leyes antimonopolio en Estados Unidos no permiten que AT&T, una empresa de telefonía de la que los Laboratorios Bell son una filial, entre en el negocio del software, por lo que no puede explotar comercialmente el UNIX, aunque sí puede ceder la licencia a quien se lo solicite. AT&T sigue la política de distribuirlo a las universidades por un precio simbólico, aunque sin proporcionar servicio de soporte y mantenimiento. Esto, junto con que funcione sobre ordenadores PDP y Vax de la compañía DEC, más baratos que otras marcas y por tanto más asequibles para muchos departamentos universitarios, lleva a que hacia el año 1980 se convierta en el más difundido en ese ámbito. Como hemos relatado más arriba, esta circunstancia será condicionante decisivo en el origen de las Usenet News.

Tras una estancia sabática de Thompsom en la Universidad de Berkeley se continuará en ésta el desarrollo de una versión (UNIX BSD) que ya mencionamos más arriba y que representará una línea adicional en el desarrollo del sistema.

4.5. Historia de Linux

Linus Torvalds, estudiante de informática de la Universidad de Helsinki, comienza en 1989 el desarrollo de una versión Unix para procesadores Intel 386 inspirándose en Minix, una versión reducida para uso educativo, y en 1991 publica el Linux 0.02, primera versión oficial. Al año siguiente, tras realizar varias revisiones, pone Linux bajo licencia GPL, lo que estimula su difusión, permite que se superen los 1.000 usuarios y comienzan a aparecer colaboradores en el desarrollo y depuración del sistema. En 1994 Torvalds publica en Internet la versión 1.0. Los usuarios llegan ya a 100.000.

La constatación de la mayoría de edad de este proceso puede establecerse en 1998 con la filtración del informe Hallowen,6 un informe interno de Microsoft, la compañía que detenta un liderazgo casi hegemónico en varias áreas del software. El informe considera a Linux como un competidor peligroso del NT Server, analiza puntos fuertes y débiles y busca estrategias para contrarrestar su expansión. El máximo representante de un modelo de producción y desarrollo de tecnología que se autocalifica de innovador, pero dentro del modelo clásico, en un campo de actividad en crecimiento y que está rindiendo beneficios económicos fabulosos, se siente amenazado por el nuevo modelo de producción de tecnología en el que la colaboración desinteresada de amateurs fuera de sus horas de trabajo consigue desarrollar productos comparables y en algunos aspectos superiores a los suyos.7

5. Características de la I+D cooperativa

Un paso necesario en la detección e identificación de un nuevo fenómeno consiste en encontrar una denominación que lo describa de manera adecuada y diferenciada. De este modo, la oposición a la noción de "Gran Ciencia" parece conducir al nombre de "Pequeña Ciencia", pero este término ya ha sido utilizado, aunque con otro sentido (Price, 1963). Además, además no resalta la que creemos su característica más definitoria. Es por ello que el término que proponemos es el de "desarrollo cooperativo", como opuesto al "desarrollo competitivo"; este último, aunque no explicitado habitualmente, es uno de los componentes presentes en el modelo de I+D tradicional. Las características de estas nuevas formas de cultura científica activa son:

. Ser abierta, permitiendo a cualquiera acceder a ella.

. Ser libre: cualquiera puede utilizarla y redistribuirla.

. Ser gratuita: los autores no reciben ni pretenden recibir contraprestación económica por su uso

. Ser anónima, en el sentido de que aunque pueda saberse quién contribuyó al desarrollo de cada parte, este es un dato secundario; el producto se contempla primariamente sin referencia al autor, no tiene marca.

. Ser modificable: cualquiera puede no sólo usarla, sino modificarla siempre que mantenga las condiciones anteriores.

. Ser modular (fragmentable): esto es más bien una precondición para poder desarrollar un proyecto según un modelo cooperativo.

El modelo de desarrollo cooperativo se caracteriza también por cumplir una serie de funciones que son, a su vez, su soporte social:

. Ser socialmente útil: la contribución de los participantes en un proyecto se considera una aportación social útil y necesaria. Además de la satisfacción personal de desarrollar una afición mediante una actividad creativa, se siente que se contribuye al bien común.

. Conjugar conocimiento y acción: los participantes actúan en el ámbito del conocimiento personal y colectivo, pero con la visión final de una contribución eficaz.

. Proporcionar cohesión e identidad grupal: quienes colaboran en un proyecto se sienten integrados en un grupo con el que se relacionan e identifican, aunque no necesariamente a través de las formas tradicionales, pero igualmente en la sociedad en su conjunto, en correspondencia con los dos puntos anteriores.

. Romper la dialéctica aficionados/profesionales: el trabajo de los aficionados puede, en determinados casos y condiciones, ser comparable al de los profesionales. La división entre unos y otros se difumina, en paralelo con la de trabajo remunerado/trabajo voluntario.

6. Los distintos casos de contribución cooperativa

Enumeraremos a continuación una serie de casos que pueden entrar bajo esta denominación. Los casos pueden agruparse en distintos tipos.

6.1. Contribución ciudadana pasiva

Los participantes permiten el uso de sus recursos privados de forma gratuita, generalmente cuando están inactivos, para que se utilicen en un proyecto científico o tecnológico. El cómputo distribuido en red es el ejemplo: los que participan de forma pasiva en el proyecto ceden potencia de cálculo de sus máquinas cuando están inactivas; los datos y resultados se intercambian por la red, pudiendo lograrse así una capacidad de cálculo muy elevada, comparable en algunas condiciones a la de superordenadores típicos de la Big Science. Entre los proyectos activos están:

. Seti: búsqueda de vida en el universo

. NFCR / Oxford University Screensaver-Lifesaver Project: búsqueda de moléculas con actividad anticancerígena

. Einstein@Home: búsqueda de ondas gravitatorias

. Predictor@Home: plegamiento de proteínas

. Proyecto RC5: criptografía

. ClimatePrediction: modelos climáticos

6.2. Contribución ciudadana activa

En este tipo de casos los participantes intervienen de forma activa, mediante su trabajo personal, en el desarrollo de nuevos conocimientos o productos. Se puede establecer aquí una división entre formas clásicas, asociadas a ciencias clásicas, y formas nuevas, relacionadas con tecnologías o ciencias nuevas. No obstante, en las denominadas clásicas, la introducción de nuevas herramientas tecnológicas, en particular las de información y comunicación desarrolladas también en la mayoría de ocasiones a través de métodos cooperativos, ha permitido ampliar y potenciar extraordinariamente el nivel y amplitud de esa contribución. En el rubro "clásicas" se pueden agrupar naturalistas aficionados (ya sea en zoología [entomología], botánica, ecología) y astrónomos aficionados (dedicados a la detección de cometas, asteroides o supernovas). En el rubro "nuevas" se pueden situar quienes desarrollan software abierto (FSF, GNU, Opensource) y quienes se dedican a generar insumos para la Wikipedia.

7. Cambio del papel de los ciudadanos

El papel reservado al público en la concepción estándar de la producción del conocimiento es el de receptor de la difusión de cultura científica. El conocimiento en general, y el científico de una forma más acusada, es generado por especialistas de alto nivel. Mediante un proceso en cascada, en cada salto se gana en receptores a la vez que se disminuye la profundidad y especialización, hasta llegar al público en general, receptor y sujeto de la cultura científica entendida del modo tradicional.

El carácter distintivo de los tipos de participación cooperativa descritos es que determinados ciudadanos, los que se integran en alguno de estos proyectos -sea del tipo que sea- han pasado de ser sujetos pasivos últimos del proceso de transmisión de conocimiento a ser sujetos activos primarios de su creación, agentes de la construcción de cultura científica, sustituyendo el flujo unidireccional único del modelo anterior por una red de flujos mucho más compleja.

8. Un nuevo modelo

La presencia de todas estas nuevas formas de desarrollo del conocimiento alteran el modelo previamente expuesto y la posibilidad de seguir ejerciendo la distinción horizontal/vertical. En la antigua dimensión horizontal, la aparición y difusión del conocimiento de dominio público en sus diversas modalidades para desarrollos con valor de mercado potencial altera el esquema previo y apunta hacía el desplazamiento del valor económico del conocimiento hacía otros modos, que son en cierto sentido análogos al desplazamiento de la riqueza en la economía de la producción de bienes a la de servicios. Esta tendencia constituye así una terciarización en el conocimiento, desplazando la generación de rentas y beneficios, en su caso, de la producción a los servicios asociados a la puesta en uso de ese conocimiento.8

En cuanto a la antigua dimensión vertical, la contribución ciudadana invierte el flujo unidireccional del modelo anterior, convirtiéndolo en un flujo multidireccional y multicéntrico, haciendo incluso que deje de ser aplicable la separación dimensional presente. Este nuevo modelo, más diversificado y más rico en conexiones, estaría representado más satisfactoriamente por una topología en red. Esta estructura apoya la posibilidad de plantear las cuestiones de la generación de conocimiento en ciencia y tecnología en términos de redistribución, como proponíamos al principio de este trabajo.

Notas:

* Este trabajo ha sido elaborado en el marco del proyecto de investigación HUM2005/06760 financiado por el Ministerio de Educación y Ciencia de España.

1. En la actualidad, incluso asistentes personales, teléfonos móviles o consolas de videojuegos incorporan el protocolo TCP/IP.

2. Las especificaciones están descritas en una serie de documentos numerados denominados RFC (Request For Comments), accesibles libremente en la propia red. Quien quiera introducir un nuevo servicio o mejorar alguno de los existentes debe redactar un borrador con la descripción correspondiente y enviarlo a una organización en la red encargada de editarlos; si supera con éxito un proceso riguroso de discusión pública y selección se le asignará un número y podrá pasar a formar parte del corpus establecido.

3. Las Usenet News consiste en una serie de foros de discusión agrupados en jerarquías. Las jerarquías clásicas son comp (computadoras), sci (ciencias en sentido amplio), soc (cuestiones sociales, culturales), news (sobre ellas mismas, mantenimiento) talk (charlas), rec (aficiones y hobbies), misc (miscelanea, temas variados) y alt (alternativos), a la que se añadió hummanities en 1996, cada una de las cuales tiene a su vez divisiones y subdivisiones. Hay dos tipos de grupos: moderados y no moderados. En los primeros hay un moderador o moderadores que reciben los artículos y deciden si su contenido se adecua a la temática para ser incluidos o rechazados. En los no moderados se incluyen automáticamente todos los artículos enviados. En cada uno de los grupos los usuarios pueden leer los mensajes almacenados, enviar nuevos mensajes o responder a los existentes ("followup"). Las respuestas a un mensaje dado se presentan unidas secuencialmente a él formando un hilo ("thread"). La creación de nuevos grupos implica la propuesta inicial por parte de algún usuario con el nombre y la finalidad, temática y carácter moderado o no moderado del grupo (RFD, request for discussion). Tras un periodo de discusión publica se elabora una propuesta definitiva (CFV, call for votes) que se somete a votación durante un periodo definido. Si alcanzan cien votos más a favor que en contra y son los favorables al menos dos tercios del total, se crea el grupo. Estas cifras pueden ser diferentes para grupos de ámbito más reducido.

4. La mayor parte de los programas de uso común actualmente (procesadores de texto, hojas de cálculo, gráficos, navegadores, servidores web, etc., y una gran parte de sistemas operativos como Windows) están escritos total o parcialmente en este lenguaje.

5. Los lenguajes ensambladores son de bajo nivel, muy próximos al lenguaje máquina y por ello complejos y tediosos de programar. Asimismo, es prácticamente imposible trasladar de un tipo de máquina a otra los programas escritos en ellos: trasladar un sistema operativo escrito en ensamblador a otro modelo de ordenador implica en la práctica tener que rescribirlo. Si el sistema está codificado en un lenguaje de alto nivel, como el C, para adaptarlo a una máquina diferente basta con poseer un compilador, que debería haberse escrito en ensamblador, pero construir ese compilador para una máquina en particular es una tarea muchísimo más sencilla que la de todo un sistema operativo.

6. El informe puede verse en http://www.catb.org/~esr/halloween/.

7. Dos documentos clave en la cultura asociada a estas nuevas formas que recogen su propia historia y son a la vez declaraciones programáticas son Netizens (Hauben y Hauben, 1996) y The Bazaar and the Cathedral (Raymond, 1997-1998)

8. Alrededor del software libre hay empresas y una intensa actividad económica que no se sustenta en la venta del software -el cual puede generalmente obtenerse de Internet al coste únicamente del tiempo de descarga- sino en la prestación de servicios de asesoría, mantenimiento, sistemas llave en mano, cursos y edición de manuales, etc.

Bibliografía

1. CAB (Convenio Andrés Bello) (s/f): Apropiación social de la ciencia y la tecnología, disponible en formato electrónico en el sitio http://ciencia.convenioandresbello.org/apropiacion/mod.php?mod=userpage%26menu=43%26page_id=2        [ Links ]

2. HAUBEN, R. y M. HAUBEN (1996): Netizens, disponible en formato electrónico en el sitio http://www.columbia.edu/~hauben/netbook/        [ Links ]

3. KEHOE, Brendan P. (1993): Zen and the Art of the Internet, Englewood Cliffs, NJ., Prentice Hall Inc.        [ Links ]

4. LÓPEZ CEREZO, J. A. y M. CÁMARA HURTADO (2005): "Apropiación social de la ciencia", en Percepción social de la ciencia y la tecnología. España 2004, Madrid, FECYT.        [ Links ]

5. PRICE, D. J. D. (1963): Little Science, Big Science, New York, Columbia University Press.        [ Links ]

6. RAYMOND, E. (1997-1998): The Bazaar and the Cathedral, disponible en formato electrónico en el sitio http://www.catb.org/~esr/writings/cathedral-bazaar/cathedral-bazaar/index.html#catbmain         [ Links ]

7. RAYMOND, E. (2003): The art of Unix Programming, disponible en formato electrónico en el sitio http://www.faqs.org/docs/artu/index.html        [ Links ]

Otras fuentes consultadas

Bell Laboratories: http://www.bell-labs.com/history/unix/

Climateprediction.net: http://climateprediction.net

Distributed.net, Project rc5: http://www.distributed.net/rc5

Einstein@home: http://einstein.phys.uwm.edu

Free Software Foundation: http://www.fsf.org

GNU Project: http://www.gnu.org/

Linux online: http://www.linux.org/

National Foundation for Cancer Research: http://www.nfcr.org

Opensource Initiative: http://www.opensource.org

Predictor@home: http://predictor.scripps.edu

Real Academia Española (2001): Diccionario de la Lengua Española, XXII ed., Madrid, RAE, accesible en línea en http://buscon.rae.es/draeI/

RFC Editor: http://www.rfc-editor.org/

Seti Institute: http://www.seti.org

STEWART, B. et al.: Living Internet, http://www.livinginternet.com/

The Halloween Documents (1998): http://www.catb.org/~esr/halloween/

Wikipedia: http://www.wikipedia.org