Wikipedia, Enciclopedia Británica, redes, inteligencia colectiva y trabajo colaborativo



El futuro será “colectivo” o no será. No hay más lugar para la toma de decisiones aisladas. La inteligencia colectiva permite compartir conocimientos unos con los otros. La cooperación y solidaridad mundial dependen hoy, entre muchas otras cosas, de las competencias y habilidades para navegar e indagar en el espacio de la información. Cuanto antes los grupos humanos se organicen en colectivos y/o redes inteligentes, en sujetos cognitivos abiertos, capaces de iniciativa, de imaginación y de reacciones rápidas, tanto mejor lograrán pensar y elaborar soluciones prácticas para los problemas complejos de la vida cotidiana.

Inteligencia colectiva es una inteligencia distribuida en todas partes, ubicua, incesantemente valorizada, coordinada en tiempo real, resultante de una movilización efectiva de competencias. Nadie sabe todo, todos sabemos alguna cosa: todo saber está en la conjunción. Se trata de agregarlo, transformarlo, hacerlo a medida (customizarlo) y tornarlo propio, interactuando en el mismo entorno virtual de conocimientos.

El principal proyecto arquitectónico del siglo XXI es diseñar y organizar el espacio interactivo y móvil del ciberespacio. En este espacio social, económico, científico y cultural las personas están desarrollando otras formas de lectura/escritura/producción de contenidos resultado del uso de herramientas 2.0.

Las personas -antes meros navegantes u observadores o simples usuarios- asumen el rol de autoras de sí mismas y productoras de sus propios recursos, incrementando la capacidad de comunicación con los demás porque se sienten parte de un gran colectivo, nuevo universo de “prosumidores” conectados en/por la web. Para nuevos tiempos, nuevos conceptos.

Algunos conceptos para comprender a qué nos referimos cuando hablamos de Web 2.0

<strong>-La red como plataforma
-Aprender en cualquier lugar
-Inteligencia colectiva
-Construcción social del conocimiento
-Aprender de los iguales
-Experiencias de usuario enriquecidas




En la web 2.0, la red es la plataforma y “cualquier lugar” significa cualquier lugar en la red. El usuario decide dónde hacer cosas en la web. En este contexto, el PLE (Personal Learning Environment) es un espacio personal del usuario administrado/organizado según sus propios recursos y la elección de herramientas disponibles en la red.

La Wikipedia, sobre la que profundizaré unos párrafos más adelante, es un ejemplo de construcción colectiva sin autores individuales. Este modo de generar contenidos conlleva algunas dificultades, por ejemplo, al usar wikis en educación es difícil conciliar la autoría colectiva y la construcción social del conocimiento con el sistema de evaluación, certificación y recompensa individual en el que se basa el sistema educativo. Una parte de la calificación de una actividad podría ser la puntuación otorgada por los propios compañeros al aporte particular de un estudiante dado a la construcción de conocimientos colectiva. Los wikis universitarios funcionan en la medida en que reconocen y premian a los autores individuales.



Más allá de un simple dispositivo -aprender en cualquier lugar mientras se hace cualquier otra cosa- la generalización del acceso a internet mediante dispositivos móviles (iPods, móviles 3G, portátiles ligeros, laptops, etc.) diluyen la separación entre el tiempo de trabajo, el tiempo de estudio y los tiempos dedicados a otras actividades –por ejemplo, ocio, entretenimiento, etc-. Si la diferencia entre tiempo de estudio y otros tiempos desaparece, podría significar que aprendemos al mismo tiempo que hacemos diferentes cosas (al igual que lo hacen los niños).




Otra experiencia que gana en riqueza es la de aprender de los iguales o “aprendizaje p2p”, peer to peer, de par a par. En la concepción tradicional hay una clara diferencia entre el profesor y los estudiantes, al igual que en la web 1.0 existe la diferencia entre creadores y consumidores. En la web 2.0: los usuarios –entre ellos los estudiantes- son prosumidores, es decir, productores y consumidores de información y de conocimiento. Una idea realmente atractiva, sobre todo si los profesores son capaces de articular formas para que los estudiantes rentabilicen a nivel de calificaciones su aporte a la construcción colectiva de conocimientos.


Prosumidores al asalto: los usuarios se apropian de la red

En internet, hasta hace poco, siempre habían quedado bien diferenciados los roles de productor y consumidor de contenidos, pero con la aparición de los sistemas de publicación personal (blogs, twitter, etc.) y otras aplicaciones (wikis), esos papeles ya no están tan claros y ha empezado a surgir el prosumidor. Todo apunta a que la amplificación del componente participativo en internet es parte de un fenómeno de socialización económica, impulsado por la innovación en la figura del usuario, que promueve el consumo productivo de una actitud que puede ser categorizada como la de infociudadano.

Hasta hace poco, la publicación, edición o revisión de contenidos en internet era tarea reservada a muy pocos (los geeks o los webmasters), ahora, potencialmente cualquier usuario sin amplios conocimientos informáticos ni tampoco dominio de estrategias de marketing, puede convertirse en autor/editor de sus contenidos y, potencialmente, generar debate e influir con sus opiniones, materiales o informaciones en otras personas.

Durante el proceso de socialización de la red ya se han manifestado una serie de exponentes. El principal exponente es la posibilidad de producir “noticias” por medio de los blogs (weblogs o bitácoras) tanto individuales como colectivos. Otro de los exponentes es la producción colectiva de contenidos, que permite introducir una amplia diversidad de matices e, incluso sesgos que los relativizan a diferencia de las fuentes clásicas que imponían la “autoridad”. Es el caso de los wikis y su plasmación en la enciclopedia Wikipedia.




A los chicos y jóvenes que nacieron en la era de internet se los denomina “nativos digitales”. Ellos se encuentran inmersos en el uso de las nuevas tecnologías en la vida cotidiana, así como los adultos también las estámos incorporando cada vez más a todas las actividades. De ahí la necesidad de pensar modos de contar, de narrar, de poner en escena las formas de acceso, los diferentes usos, las facilidades y los beneficios que estas herramientas traen y señalando la importancia de la dimensión audiovisual de la web 2.0, olvidada en muchas ocasiones.


Redes de personas

En esta dinámica de morfogénesis, de cambios, además surgieron una serie de portales basados en el modelo de las comunidades en los cuales -a diferencia de los que se consolidaron en la primera etapa de internet- los usuarios pasan a ser de consumidores de contenidos a productores y gestores de sus propios contenidos, consolidando redes sociales articuladas en un conjunto de servicios y en un lugar en el que comunicarse, intercambiar información, dudas y conocimiento con otras personas. Pero además de ser dueños de sus propios contenidos, ahora los usuarios con mínimos conocimientos técnicos pueden combinar datos, contenidos multimedia y geolocalización en mapas existentes en otros portales y sitios web creando nuevas aplicaciones híbridas o mashups (ediciones amateurs de video, fotos y/o música).




Estas redes sociales se sustentan en la teoría de los pequeños mundos, fundamento del concepto de los “seis grados de separación” que formuló Stanley Milgram, psicólogo de la Universidad de Harvard, en 1967. Dicha teoría sostiene que cualquier persona en la Tierra puede estar conectado a cualquier otra persona en el planeta a través de una cadena de conocidos que no tiene más de seis intermediarios. El concepto está basado en la idea que el número de conocidos crece exponencialmente con el número de enlaces en la cadena, y sólo un pequeño número de enlaces son necesarios para que el conjunto de conocidos se convierta en la población humana entera.


En las plataformas orientadas a las redes sociales, como Facebook, Myspace, NING VER RED SOCIAL ESTRATEGIAS PARA TRABAJAR TICS EN EL AULA, Friendster, MSN spaces, Flickr, Fotolog, Blogger, Twitter y YouTube, entre muchos otros ejemplos, esto se concreta en un “modelo viral” en el que cada usuario invita a contactos y conocidos propios, que a su vez invitan a los suyos y así sucesivamente, creando una red cada vez mayor y más interconectada entre sí, estableciéndose vínculos de todo tipo y compartiendo materiales variados: notas, artículos, mensajes, videos, clips, música, fotografías, invitaciones a fiestas, organización de eventos, aplicaciones, etc.


Es posible que nos encontremos ante un cambio de paradigma en la colaboración entre grupos humanos. El embrión de este cambio ya estaba en la génesis de internet con aquellos grupos de personas que actuaron al margen de las jerarquías y las grandes corporaciones y propiciaron el desarrollo del “software libre”.

De este modo, no sólo los que tenían dinero para comprar los programas originales pudieron beneficiarse de las bondades de internet sino todas y cada una de las personas que utilizó y continúa utilizando software libre puede hacerlo.

En este sentido, los propios grupos de usuarios fueron los verdaderos protagonistas de una cierta democratización de las herramientas al desmontar y cuestionar muchos de los principios de la lógica capitalista como la propiedad intelectual, las patentes, el secreto y la circulación dosificada de la información.



La folcsonomía o nubes de etiquetas


Otro de los aspectos que se está manifestando son las nuevas formas de clasificación de la información con el uso de las folcsonomías en contraposición con la taxonomías. Folcsonomía es un neologismo que denota la categorización colaborativa por medio de etiquetas simples o palabras claves (tag) en un espacio de nombres llano, sin jerarquías ni relaciones de parentesco predeterminadas a diferencia de la taxonomía basada en un sistema de tipo jerárquico o mediante facetas para categorizar /clasificar.

La folcsonomía, que puede resultar anárquica y poco efectiva en principio, con el poco tiempo que lleva, está dando resultados no esperados, sobre todo por la cantidad de personas que terminan interviniendo en el proceso de categorización de los contenidos y el grado de coincidencia que aparece.


De lleno a la Wikipedia

Los blogs como productores de noticias y los wikis como productores de fuentes de conocimiento tienen multitud de detractores que los ven como enemigos del rigor y la exactitud necesarios para cualquier fuente de información de medios tradicionales de noticias y de las fuentes tradicionales del conocimiento académico, pero también han surgido defensores de este proceso de elaboración colectivo aunque pueda conllevar errores o informaciones no verificadas. La validación de fuentes es un trabajo que agudizará la mirada crítica de quienes participan de la construcción de esta arquitectura. No hay que temer a los errores, sino aprender de ellos. Eso sucede con la enciclopedia on line Wikipedia fabricada enteramente por voluntarios aficionados de todo el mundo que suben información, escriben, redactan, aportan, actualizan y revisan artículos en un proceso constante.




La polémica de 2006
Después de un informe de la revista Nature donde se alegaba que la Wikipedia tenía solamente algunos pocos errores comparada con la Enciclopedia Británica, los editores de ésta contraatacaron.

La Enciclopedia Británica lanzó una andanada de protestas contra Nature. Al no obtener resultado en varias gestiones privadas, decidió abrir fuego de forma pública. Para ello, mandó cartas a cinco mil bibliotecarios y difundió una refutación desde su sitio web. "La investigación de Nature es tan pobre, y sus resultados están tan llenos de errores, que carece de todo mérito", se asegura en la refutación.

La enciclopedia, que tiene sede en Chicago, sostiene que el primer error de Nature fue analizar no sólo material de la enciclopedia, sino también de viejas ediciones de su Libro del Año, una actualización anual. Nature también seleccionó artículos de la Enciclopedia Británica Estudiantil, destinada a lectores más jóvenes.


El informe de la Británica también acusa a Nature de cortar y pegar material de diferentes artículos de la enciclopedia para convertirlos en un resultado a evaluar, y hasta de incorporar lenguaje que no formaba parte de tales artículos. "Los hechos exigen una completa retractación, tanto de la investigación como del artículo basado en la misma", señalaba el informe de la Enciclopedia Británica.

En aquel momento, David Gerard, editor británico de la Wikipedia, explicó que la Wikipedia no estaba libre de errores: "Si bien aspiramos a ser tan buenos como la Enciclopedia Británica, somos un trabajo en proceso —dice—. La Wikipedia no es perfecta. No esperen que sea perfecta. Trátenla como algo más en la web."
Para no dejar dudas, Gerard agregó: “Es decir, trátenla con un poco de sospecha y sólo utilícenla por lo que es: una herramienta de búsqueda de internet. Si quieren obtener alguna información en 60 segundos, Wikipedia es formidable. Si quieren una introducción rápida a alguna jerga histórica, técnica o científica minutos antes de una reunión comercial, el sitio debería satisfacer sus necesidades. Y, a diferencia de otros sitios web, no tienen que lidiar con publicidad o con popups molestos en el camino”.

Pero, para que la búsqueda online de conocimiento sea lo más libre de errores posible, el sitio web cambió en el camino su política editorial: Wikipedia dejó de permitir que los usuarios no registrados creen entradas y también prohibió editar material de perfil alto a los usuarios recién registrados.
Los detractores de la enciclopedia online muchas veces argumentan que Wikipedia no es fiable. En realidad, el problema no es ése sino, más bien, que hay personas con intereses concretos que dado el carácter abierto de la Wiki aprovechan para corromper la información accesible y gratuita proporcionada por Wikipedia de forma reiterada. Lo cierto también es que el voluntariado mantiene aceitados los mecanismos para corregir casi de inmediato los actos de vandalismo. Esta “dinámica del riesgo” es una apuesta fuerte que hace Wikipedia, justamente por la naturaleza colaborativa que le dio origen, riesgo que, por supuesto, no corre la enciclopedia Británica impresa y fijada, elaborada por expertos remunerados.


Tampoco hizo falta que Nature publicara aquel artículo para hacer foco en ciertos asuntos. La prueba más importante y fehaciente de la fiabilidad de la Wikipedia es la propia estadística de uso personal alimentada por el sentido común: ¿cuántas veces hemos consultado la Wikipedia de forma satisfactoria, gratuita e inmediata? ¿Y la Enciclopedia Británica? ¿Cuántas de las personas que consultan la enciclopedia Británica podrían comprobar in situ y ya mismo la veracidad o no de la información volcada en ella?
Hoy en día no basta sólo el prestigio como garantía de calidad. Los usuarios adaptados a la abundancia de información y a la complejidad e incertidumbre del entorno digital usan la Wikipedia como parte de su proceso de aprendizaje. No es su única fuente y saben filtrar sus contenidos comparándolos y combinándolos con otras fuentes. Para ellos, Wikipedia es un proceso, no un producto final.

Nature vuelve con noticias sobre Wikipedia y el ámbito científico a fines de 2008


La revista Nature, referente ineludible del mundo científico y académico, nos informó hace un mes de una inversión radical en los procedimientos editorales, de un vuelta de tuerca copernicana en los circuitos de difusión del conocimiento, de una revolución definitiva en los procesos de reconocimiento y atribución del crédito científico: la revista “RNA Biology” ha pedido a todos los autores que pretendan publicar un artículo en su sección RNA Molecules que agreguen automáticamente ese mismo contenido a la Wikipedia de manera que sean expuestos pública y gratuitamente desde el mismo momento de su creación.


¿Por qué esta noticia se refiere a una vuelta de tuerca copernicana en los circuitos de difusión del conocimiento?
Porque la ciencia es, y siempre ha sido, un campo de producción autónomo que posee su propio lenguaje y, por supuesto, sus propios procedimientos de acreditación, reconocimiento y referendum. Los mecanismos que imperan desde la década de 1960 consisten en publicar contribuciones escritas, “papers” en la jerga profesional, en las cabeceras que el consenso científico internacional (ISI) establezca como más prestigiosas, en las revistas cuyo índice de impacto sea más elevado, en las publicaciones cuya visibilidad internacional sea superior.

Esto genera una suerte de círculo vicioso cuyos síntomas son numerosos y todos negativos. Por ejemplo: una dolencia identificada como "impactitis" es la más grave y otra fue, tradicionalmente, la reserva y la oscuridad con que circulaba la difusión de los contenidos científicos, reservados a una élite.

Sucede que la gran mayoría de los científicos quiere publicar, única y exclusivamente, en aquellas revistas (en papel) que supuestamente le garantizan el prestigio que persigue, rechazando cualquier otra cabecera que no esté bien situada y repudiando, sobre todo, aquellas plataformas digitales de difusión de contenidos libre, abiertos y gratuitos que son desdeñadas por las autoridades académicas.





Esto, afortunadamente, puede estar cambiando gracias a RNA Biology y su pedido (sin precedentes) a todos los autores que pretendan publicar un paper en su sección RNA Molecules a sumarlo automáticamente en la Wikipedia como requisito para su aprobación.
Se trata de diseminar el conocimiento sin restricciones sin perder, en ningún caso, el rigor que el lenguaje científico requiere y demanda, porque los artículos publicados paralelamente en el espacio de la Wikipedia serán sometidos a un proceso de evaluación, a un procedimiento de peer review, de la misma entidad que el que pudieran sufrir en la revista.

El problema fundamental no es ya, por tanto, el soporte o la modalidad de difusión del conocimiento, sino los mecanismos por medio de los que se reconoce académica y científicamente esas aportaciones, las resistencias de la comunidad académica a darse por enterada de la existencia de medios alternativos de construcción y difusión de los contenidos.



La Enciclopedia Británica contraataca

La Enciclopedia Británica -una de las desbancadas del podio del Olimpo histórico de las obras de referencia y consulta-, puso en marcha a fines de 2008 en su página web un blog (sí, un blog, para los escépticos defensores a ultranza de los canales ungidos por la tradición) en torno a lo que han denominado “Brave new classroom 2.0”.
En el lanzamiento y administración de ese nuevo foro virtual se entreven dos motivaciones: la de no quedarse atrás permitiendo a los agentes que quieran participar construir parte del contenido que constituirá a la Enciclopedia Británica futura, anclada demasiado tiempo en las cómodas certezas de la cerrazón y la clausura; por otra, la de reflexionar sobre el futuro de la educación y el papel que las nuevas tecnologías jugarán o no en su desarrollo.


Algunos números para cerrar

Los más de 11 millones de artículos de Wikipedia (2,6 millones en inglés) han sido redactados colaborativamente por voluntarios de todo el mundo, y prácticamente todos pueden ser editados por cualquier persona que pueda acceder a ella. Lanzada en enero de 2001 por Jimmy Wales y Larry Sanger es actualmente la mayor y más popular obra de consulta en internet.

Actualmente Wikipedia presenta ediciones en 264 idiomas. Veintitrés ediciones superan los 100.000 artículos: inglés, alemán, francés, polaco, japonés, italiano, holandés, portugués, español, ruso, sueco, chino, noruego, finés, catalán, ucraniano, turco, rumano, volapük, checo, húngaro, esperanto y eslovaco.

Tan sólo algunos de los datos citados resultan suficiente estímulo para seguir pensando en la frase inicial de esta nota: el futuro será “colectivo” o no será.