Logo Lainformacion.com
< Preajustes Lightroom de XEquals Blog
El Barcelona de gira >

La capacidad de autocorrección de la Wikipedia

Este artículo lo publiqué originalmente en La Linterna del Traductor, una nueva revista de la Asociación Española de Traductores, Correctores e Intérpretes, donde estrenaron una sección dedicada a la tecnología y para la que me pidieron amablemente una contribución sobre el funcionamiento de la Wikipedia. Se puede descargar la revista completa desde su web: La Linterna del Traductor, julio 2009 [PDF, 5 MB].

Logo WikipediaWikipedia, la popular enciclopedia libre de Internet que contiene millones de artículos en cientos de idiomas, ha conseguido desarrollar con el tiempo, mediante una combinación de factores técnicos y humanos, una peculiar capacidad «autocurativa» que protege sus contenidos de vandalismos y manipulaciones malintencionadas.

Suele decirse de Wikipedia, al igual que de la propia Web, que si a un grupo de expertos le hubieran planteado hace décadas crear tan vasto repositorio de información en unos pocos años, incluso con un presupuesto teóricamente ilimitado, lo hubiera dado por imposible. En cambio, una buena base técnica, la idea del «contenido generado por los usuarios» y la colaboración altruista de voluntarios hicieron posible lo que parecía inalcanzable: un lugar que en la actualidad cuenta con más de doce millones de artículos, en más de 200 idiomas. Puesta en marcha a principio de 2001 por Jimmy Wales y Larry Sanger, la Wikipedia sólo tardó cinco años en alcanzar el nivel de exactitud y calidad de la Encyclopaedia Britannica, como indicó un estudio realizado por expertos publicado en la revista científica Nature.

El concepto básico de la Wikipedia –y de los sitios denominados wikis en general– es que cualquier usuario puede participar y cambiar el contenido de las páginas que está leyendo. Lo puede hacer creando una cuenta de usuario, pero también se aceptan las participaciones «anónimas», algo que dota de cierta agilidad al sistema, aunque también acarrea ciertos problemas. La enciclopedia se publica además con una «licencia libre» que anima a la gente a copiar y reutilizar sus contenidos en otros sitios, con total libertad. Esto hace que los voluntarios que participan consideren útiles sus aportaciones para la creación de un bien común y accesible para todos.

En un día típico de la Wikipedia muchas personas leen alguno de sus millones de artículos: si ven una errata pueden corregirla rápidamente; si ven un error de concepto o tienen algún dato que convenga añadir, editan la página y la corrigen o amplían. Si descubren que un tema interesante todavía no existe, pueden comenzar un nuevo artículo que poco a poco se irá ampliando con ayuda del resto de la comunidad.

Se podría dudar de que esta forma de «caos organizado» fuera realmente funcional, pero el hecho es que el resultado tras algunos años ha sido excelente y está a la vista de cualquiera: Wikipedia es uno de los sitios más admirados por la comunidad de Internet y sus artículos figuran entre los más enlazados desde otras páginas de la Red. Se distribuye en versiones «móviles», en CD-ROM y DVD e incluso existen algunas ediciones en papel.

El lado oscuro de la edición masiva de contenidos

El hecho de que cualquiera pueda editar las páginas de la Wikipedia no está exento de problemas. Con el tiempo la comunidad vio que los artículos que creaba pasaban por todo tipo de situaciones incómodas, algunas de mayor importancia que otras:

  • Textos con erratas, errores o datos incorrectos
  • Gente que editaba artículos sin un conocimiento real de los temas, incluyendo en ellos opiniones o interpretaciones en vez de hechos comprobados, datos factuales y referencias a fuentes fiables
  • Ediciones incorrectas por parte de usuarios que no conocían bien el sistema, ocasionando errores o el borrado de información
  • Vandalismo por parte de individuos que modificaban los artículos simplemente por diversión
  • Manipulación y sabotajes por parte de personas, grupos, organizaciones o empresas interesadas en mostrar un punto de vista concreto en ciertos artículos

La Wikipedia aborda cada uno de estos problemas de una forma diferente. Por poner algunos ejemplos: existen «robots» que pueden corregir automáticamente erratas simples; los usuarios pueden insertar unos cartelones de aviso en un artículo para indicar que es de «mala calidad» por su estilo, que está «siendo traducido», que se trata un «artículo incompleto sobre el que se está trabajando», o que puede tratarse de un «artículo controvertido sobre el que no hay acuerdo en los puntos de vista». Además, un equipo de administradores denominado «los bibliotecarios» cuida de que se cumplan las normas y tiene capacidad para «congelar» ciertos artículos si se produce una guerra de ediciones en un momento dado. Miles de estos bibliotecarios de todos los países velan por la integridad de las diferentes ediciones de la Wikipedia, además de realizar otras tareas de mantenimiento.

Las herramientas de edición y corrección

Hay un buen número de soluciones técnicas en la Wikipedia que, aunque no son demasiado conocidas por el público en general, están al alcance de sus usuarios y facilitan el seguimiento de los artículos y su corrección. Entre estas destacarían:

  • El historial de ediciones. Todos los artículos de la Wikipedia contienen una pestaña denominada Historial en la que se pueden ver todos los cambios que han sufrido con el paso del tiempo y desde su creación. Esta es una de las bases técnicas de los wikis y donde reside su poderío: se puede ver quién cambió qué y cuándo lo hizo. Se pueden comparar versiones. Se puede entender el porqué de las modificaciones, porque cada cambio incluye un pequeño «comentario». Muchos artículos tienen cientos de ediciones que se remontan a años atrás, pero es fácil localizar cada modificación, especialmente las más recientes.
  • La función para deshacer cambios. En el historial de los artículos un enlace llamado Deshacer permite revertir los cambios hechos a un artículo, algo que los usuarios expertos (entre ellos los bibliotecarios y un grupo especial llamado «reversores») pueden hacer con un solo clic. De este modo es tremendamente fácil conseguir que un artículo vuelva a una versión anterior en caso de problemas. Si se observa una manipulación por vandalismo, una errata o algún otro tipo de cambio inadecuado, basta un clic para devolverlo a su estado original.
  • Vigilancia de artículos. Las personas interesadas en ciertos artículos pueden añadirlos con un clic en la pestaña Vigilar a su lista personal de favoritos. De ese modo pueden verlos todos cómodamente agrupados en una página llamada Lista de seguimiento y hacer un seguimiento de cómo van siendo modificados con el tiempo. La persona que comienza un artículo desde cero suele tener razones personales para estar interesada en el tema y vigilar la evolución de su «criatura»: de ese modo casi todos los artículos de la enciclopedia están vigilados por alguien.
  • Seguimiento de cambios por RSS. Aunque es poco conocida, esta función permite a las personas que acostumbran a utilizar programas agregadores (como Google Reader, FeedDemon o NetNewsWire) para leer weblogs o sitios de noticias añadir los cambios de las páginas de Wikipedia como una fuente RSS más. Los feeds de sindicación RSS se encuentran en el cuadro Herramientas en la pestaña de Historial de cada artículo individual. Es una forma muy práctica de ver qué va sucediendo con ciertos artículos a cada momento sin ni siquiera tener que ir a la Wikipedia a leerlos.
  • Robots que detectan vandalismos. La Wikipedia cuenta con «programas robot» (bots) que detectan cambios de tipo vandálico y que actúan en consecuencia, a veces de forma automática, a veces preventiva. Si una página de contenido es borrada completamente y dejada en blanco, o si en un artículo aparecen insultos o palabras malsonantes que están en una lista de «palabras a vigilar» esos robots pueden actuar: a veces reponen las páginas originales o las versiones anteriores; otras veces avisan a los bibliotecarios para que vayan en persona a comprobar qué ha sucedido. El robot principal se llama AVBOT y fue desarrollado por un usuario de Cádiz. De él existen varios clones que otros programadores han preparado para que realicen diferentes tareas y que van mejorando día tras día.
  • La reputación de los usuarios. Al igual que sucede en las redes sociales, el peso de la reputación de un usuario de la Wikipedia tiene un valor incalculable. Los cambios de un visitante anónimo apenas se tendrán en cuenta en caso de conflicto, mientras que los de un usuario que lleva años participando y tiene cientos de ediciones a sus espaldas serán sin duda respetados. Todos los usuarios registrados tienen un historial público donde se pueden consultar todas las ediciones que ha realizado con el paso del tiempo.

Tanto los usuarios registrados de la Wikipedia como los bibliotecarios que vigilan su correcto funcionamiento utilizan estas herramientas a diario para supervisar los cambios que se reciben en la enciclopedia, que son muchos: en la Wikipedia en español, por ejemplo, se producen varias decenas de cambios por minuto.

Cómo se vigilan los cambios en la Wikipedia

Los bibliotecarios vigilan en una página llamada Cambios recientes los cambios que se hacen en la enciclopedia. Un vistazo a esa página sirve para hacerse una idea de cómo va evolucionando la infinidad de artículos existentes y las ediciones que se realizan en ellos, en tiempo real:

  • Isabel Allende – 10:47, BOT - Posible vandalismo de 87.218.201.64, revirtiendo hasta la edición 25995020 de AVBOT.
  • Festival de la Canción de San Remo‎ – 10:48, 87.18.197.242 – Ganadores del Festival
  • Bandera de Cataluña‎ – 10:50, Garnet – borro afirmación no suficientemente contrastada
  • Josep María Beá‎ – 10:53, Manu – Se está produciendo una guerra de ediciones en este artículo. Un anónimo empezó a trabajar en el artículo desde el 30 de abril
  • (m) Influenzavirus B‎ – 10:53, Jorab – Epidemiología: enlace
  • (n) ORP Grom‎ – 10:51, Airwolf – Página creada con «El primer Grom. ORP Orzel es el nombre de tres buques de guerra de Polonia

La interpretación de esta cronología de cambios y la terminología que se utiliza es la siguiente:

En el artículo sobre Isabel Allende, un robot intervino al detectar un vandalismo (un borrado masivo de texto y la inserción de insultos), por lo que anuló esa edición y avisó a los bibliotecarios. En la ficha del Festival de la Canción de San Remo‎ alguien añadió información a la lista de ganadores. En estas dos acciones, números conocidos como «direcciones IP de Internet», como por ejemplo 87.218.201.254, indican que los cambios los realizaron usuarios anónimos no registrados, a diferencia de los usuarios registrados que figuran con su nombre o apodo.

En el artículo sobre la Bandera de Cataluña otro usuario registrado (Garnet) borró información añadida por alguien porque valoró que no estaba suficientemente contrastada. En el artículo sobre el dibujante Josep María Beá se avisó de que se estaba produciendo una guerra de ediciones, por si los bibliotecarios considerraran oportuno intervenir.

Finalmente, en el artículo sobre el Influenzavirus B un usuario registrado añadió un enlace. La (m) indica que consideró que hacerlo era una «modificación menor» del artículo, algo sin demasiada importancia, un indicativo que se utiliza también al revisar erratas o pequeños cambios de gramática o estilo. Finalmente, la referencia a (n) ORP Grom indica que alguien creó un nuevo artículo (n) sobre unos buques de la guerra de Polonia llamados «ORP Grom».

Diferentes situaciones y cómo afectan a la Wikipedia

Como se ha visto, la Wikipedia dispone de excelentes herramientas técnicas para la corrección de artículos y la vigilancia de éstos. Esta vigilancia la realizan tanto quienes crean los artículos como el resto de usuarios que los leen y disfrutan: si alguien está leyendo algo y ve un error, puede corregirlo o ampliar la información. En ocasiones intervienen los bibliotecarios para poner un poco de orden o tomar decisiones que sólo ellos pueden llevar a cabo: bloquear un artículo para que no sea editado durante algún tiempo, revisar todas sus ediciones antes de que se muestren en público o borrar completamente contenidos inapropiados.

Los problemas de tipo social que afectan a la Wikipedia son prácticamente un reflejo de lo que sucede cada día en el mundo real: vandalismo, discusiones crispadas sobre temas políticos, religiosos o deportivos; debates sin fin sobre puntos de vista contrapuestos… Cuanta más relevancia adquirió la enciclopedia con el paso de los años y más gente la utilizaba, más virulentos se volvieron estos problemas.

Cierto tipo de artículos son más propensos a ellos. Está claro que el artículo sobre qué es un columpio no será de los que generen demasiadas discusiones, al igual que puede sucederle a la biografía del ilusionista y escapista Harry Houdini. En cambio páginas como la definición de Homeopatía, un campo donde existe una gran controversia sobre su conveniencia, validez científica y credibilidad son caldo de cultivo de grandes debates sin fin. Por no hablar de páginas dedicadas a políticos como José Luis Rodríguez Zapatero, José María Aznar o prácticamente a cualquier otro, tanto actual como histórico.

Un vistazo a algunos ejemplos de cambios en diferentes páginas revela algunos tipos de ediciones características y qué sucede con ellas al poco tiempo, así como de dónde surge esa autocorrección casi «mágica» que hace que la Wikipedia parezca comportarse como un ente vivo que se autorrepara:

  • Los usuarios entran en debates terminológicos, por ejemplo si debe usarse Xunta de Galicia o Junta de Galicia en un artículo. En general, estas discusiones sobre el uso de los distintos idiomas están bien definidas en normas oficiales, que por lo general son también acatadas por la Wikipedia, de modo que se opta por ese criterio como solución. Los artículos de la enciclopedia tienen un área especial llamada Discusión donde deben explicarse los cambios en caso de discrepancia. Esto pretende evitar que el artículo esté siendo constantemente modificado hasta que se haya llegado a un consenso.
  • Un usuario anónimo añade o reemplaza un texto en una biografía de un político por «es un imbécil integral». Los insultos son revertidos manual o automáticamente a los pocos minutos. Si cambios como estos se producen de forma masiva, el artículo queda bloqueado de modo que sólo los usuarios registrados puedan modificarlo, a veces incluso sólo los bibliotecarios o supervisores de la Wikipedia. (Para la versión en español hay más de ciento treinta bibliotecarios voluntarios y tres supervisores elegidos por votación.)
  • Por error, desconocimiento o vandalismo, alguien cambia algunas palabras de un texto correcto introduciendo erratas, o borra el contenido de una página. En cuestión de minutos u horas un bot revisor ortográfico revierte el cambio, o bien otros usuarios observan que el cambio es inadecuado y devuelven la página a su estado correcto anterior.
  • Otro usuario anónimo cambia la fecha de nacimiento de un personaje del 4 de mayo al 5 de mayo, o de 1955 a 1956. Es difícil detectar si es una edición honesta o una broma vandálica: alguien debe comprobar el dato correcto y en su caso volver a la fecha original (o no). En general, si la edición la realiza un anónimo sin más explicaciones, en un artículo que llevaba meses o años publicado, se confía en el dato original. Si lo edita un usuario registrado con cierta reputación e historial a sus espaldas, se confía en su criterio (normalmente además incluirá una referencia o fuente). Este tipo de revisiones pueden ser cuestión de horas o días.
  • Alguien se dedica a «redecorar» algún artículo de algún personaje con insultos de carácter claramente difamatorio o añade información de carácter personal que violaría la privacidad de dicha persona. En este caso y como último recurso, el equipo de supervisores puede borrar todo rastro de dicha información para prevenir mayores problemas.
  • La relevancia de un artículo es cuestionada y alguien lo borra o propone borrarlo. Esto ha sucedido con innumerables artículos, entre ellos –a modo de curiosidad simpática– una ficha dedicada al partido de clasificación para la Eurocopa de fútbol España-Malta de 1983. El debate desemboca en una votación, donde sólo pueden participar los usuarios más veteranos, que deciden que el artículo permanezca. Esto puede requerir semanas.
  • Alguien vandaliza a modo de broma el artículo del ilusionista Houdini añadiendo que «una vez coincidió en una sauna con un integrante del grupo humorístico Los Morancos, lo cual le cambió la vida». El cambio es revertido a las pocas horas por otro usuario que estaba vigilando la página.
  • Sucede un hecho noticioso –generalmente, una catástrofe– y rápidamente aparece un nuevo artículo en la Wikipedia al respecto. Pero el artículo se llena de datos sin confirmar, cifras que varían constantemente y menciones a informaciones sin referencia. Los bibliotecarios del sitio recuerdan entonces a los usuarios que la Wikipedia no es un sitio de noticias (a diferencia de Wikinoticias, basado en la misma idea y software) y que deben incluirse enlaces a fuentes originales fiables, generalmente noticias publicadas en periódicos o medios informativos tradicionales (que se supone confirman mejor los datos a partir de fuentes directas).
  • Un artículo dedicado a una empresa o a un producto es modificado o saboteado de modo que parece contenido publicitario (o busca desprestigiarlo) y a todas luces carece de la neutralidad recomendable: habla demasiado bien o demasiado mal de la empresa, producto o persona en cuestión. Si se sospecha que las modificaciones son interesadas (tanto a favor como en contra) las ediciones se revierten: una de las normas de la Wikipedia es que no se puede estar involucrado personalmente en la información que se publica. Los bibliotecarios suelen recordar a los usuarios que la Wikipedia no es sitio para promocionar empresas o productos, ni una colección de enlaces a otros sitios de Internet.

Como puede verse, todos estos problemas acaban siendo solucionados de forma automática o manual mediante los diferentes sistemas de autocorrección de la Wikipedia y la participación externa: bots automáticos, gente que pasaba por allí, usuarios registrados, expertos en los diferentes temas o bibliotecarios y supervisores de la propia enciclopedia.

Los vandalismos y las ediciones incorrectas suelen ser un problema menor que se resuelve en cuestión de minutos u horas, sin causar mayores problemas. Las ediciones más complejas o que requieren de los conocimientos de expertos necesitan unas cuantas horas para madurar y, en caso de ser incorrectas, pueden tardar horas o días en ser revisadas y corregidas. Las modificaciones que dan lugar a discusiones y debates de fondo, sobre conceptos, estilo, validez de las fuentes de información empleadas y demás pueden durar semanas o meses –o alargarse eternamente– pero si pueden afectar a la calidad de un artículo, se inserta un aviso al respecto. No es raro ver artículos de Wikipedia encabezados por un llamativo letrero que advierte sobre la «posible falta de neutralidad en los puntos de vista», la «falta de fuentes o referencias fiables», la «limitación cultural o geográfica» de lo escrito u otros detalles. Es labor de la comunidad arreglar eso, y a ello anima la propia Wikipedia, pero también es responsabilidad de los visitantes no fiarse tanto de esa información como de otra.

Un perverso círculo

No es habitual, pero alguna vez ha sucedido: un hecho falso en la Wikipedia a veces puede «demostrarse a sí mismo» como verdadero. En febrero de 2009 alguien editó de forma vandálica el apellido (realmente largo) de un nuevo ministro alemán que era noticia en ese momento. Alguna agencia de noticias lo copió de la Wikipedia (en vez de consultar una fuente mejor) y lo transmitió a la prensa tradicional. Se publicó entonces en muchos periódicos, revistas y otros sitios web erróneamente.

Aunque la edición de la wikipedia fue «revertida» (devuelta a su estado original), hubo quien cuestionó esa corrección. Lo que sucedió entonces fue realmente maquiavélico: otros usuarios citaron a los propios medios de información «serios» como fuentes tradicionales… Pero como en realidad habían copiado el nombre erróneo de la Wikipedia, se cerró el círculo del despropósito. Como bien resumieron en Slashdot, un conocido blog de tecnología:

En la Wikipedia se publicó algo falso, que fue recogido por los medios respetables, que entonces fueron usados como fuentes de referencia fiables para demostrar que el hecho falso era verdad.

Cómo utilizar la Wikipedia evitando posibles errores

La propia Wikipedia no se cansa de afirmar que no es una fuente tradicional de información y mucho menos una «fuente primaria». Es un lugar donde se han volcado conocimientos y definiciones, y a través del cual se puede llegar a fuentes fiables y verificables de referencia, ya sean libros, artículos periodísticos publicados en medios tradicionales, trabajos académicos, transcripciones literales de grabaciones u otros. Cada afirmación de un artículo suele estar respaldada por notas a pie de página –la sección titulada Referencias– donde se listan formalmente las fuentes utilizadas. Generalmente son enlaces a otras páginas de Internet y referencias bibliográficas.

Medio en serio, medio en broma, se acuñó en la Red el término Argumentum ad Wikipediam para referirse a la falacia lógica de utilizar expresiones o razonamientos del estilo «Esto que te cuento es cierto… porque lo leí en la Wikipedia». Teniendo en cuenta que no es una fuente primaria, la afirmación no tiene mucho sentido. Y considerando que cualquiera puede ir y en cuestión de segundos sabotearla para que el artículo sobre el número Pi afirme que el redondo número vale 4,81516… en vez de 3,14159… se aprecia la magnitud del problema.

La forma correcta de servirse de la Wikipedia para buscar información y utilizarla es ser consciente de cómo funcionan sus mecanismos de creación y corrección de artículos, y tenerlos en cuenta a la hora de dar validez a la información allí publicada. Para una utilización informal, los datos tal cual están publicados pueden servir sin problemas pues son correctos en su mayor parte. Pero si se va a hacer un uso más serio o formal de la información no está de más ser doblemente precavido con lo que se encuentra allí. Una lista de consejos que tener en cuenta sería esta:

  • Los datos publicados en los artículos suelen incluir varias referencias a pie de página. Esas son las verdaderas fuentes de los datos, no el propio artículo. Yendo a esas fuentes se puede valorar su credibilidad, precisión y fiabilidad. En ocasiones son otras páginas de Internet, y a veces libros o noticias publicadas en medios de comunicación. Un artículo de Wikipedia sin referencias a las fuentes es menos fiable que uno con ellas.
  • Si se sospecha que un dato puede haber sido vandalizado o modificado maliciosamente, basta echar un vistazo rápido al historial del artículo para revisar las últimas modificaciones: si ese dato lleva semanas o meses publicado, probablemente sea correcto (en caso contrario, probablemente alguien lo habría corregido hace tiempo). Los datos añadidos muy recientemente pueden ser menos fiables.
  • Ante un acontecimiento noticioso conviene revisar el historial de los artículos para comprobar los datos al respecto que existían antes y después de la fecha en que se haya producido el hecho. Los añadidos recientes que se noten hechos a toda prisa y sin referencias suelen ser menos fiables. Hay gente que tiende a vandalizar a modo de broma artículos relacionados con temas de actualidad. Por suerte, también el hecho de que algo sea «de actualidad» hace que esté más vigilado por la comunidad.
  • En caso de duda sobre la objetividad o neutralidad de los datos de un artículo, la reputación de los autores de los últimos cambios puede ser un buen indicativo: los de usuarios registrados tienen más valor que las ediciones hechas por usuarios anónimos. Los cambios hechos por usuarios anónimos (que en vez de con un nombre aparecen indicados con una dirección IP numérica) pueden provenir de gente u organizaciones que prefieren no identificarse porque tienen conflictos de intereses y quieren por ejemplo apoyar o desprestigiar a una empresa, producto o personaje, o bien buscan difundir ideas o formas de pensamiento, sin importarles el valor enciclopédico del resultado.
  • Hacer uso del sentido común: al igual que los periódicos a veces publican informaciones incorrectas, erróneas o falsas, o que hay errores en libros y enciclopedias, una pequeña dosis de sentido común puede ayudar a mejorar la fiabilidad de lo que se está leyendo: ¿Quién escribió sobre esto? ¿Es realmente un experto? ¿Son correctas y suficientes las fuentes? ¿Es normal que estos datos no se hayan actualizado hace tanto tiempo? ¿O que se hayan actualizado demasiado en tan pocos días? Si un artículo tiene muy pocas ediciones o casi todas son del mismo usuario, ¿es realmente fiable?

La suma de las herramientas técnicas, la comunidad alrededor de la Wikipedia y un poco de cautela y sentido común hacen que esta enciclopedia gestionada por la comunidad tenga una enorme capacidad de autocorrección. En ocasiones es tan abrumadora que se diría que incluso puede haber sorprendido a sus propios creadores. Es en definitiva todo un ejemplo de cómo el trabajo en grupo, desorganizado y caótico en cierto modo pero con una finalidad clara, acaba superando escollos como los errores, el vandalismo o los intentos de manipulación.

Agradecimientos a Jorge (Lucien leGrey), bibliotecario de la Wikipedia en español, por sus sugerencias en la revisión del artículo. Siguiendo con el espíritu de la propia Wikipedia, este artículo queda licenciado como Creative Commons BY-SA 3.0 (creativecommons.org/licenses/by-sa/3.0/deed.es) y GFDL lo que significa que se puede reproducir, distribuir y crear con él cualquier tipo de obra derivada siempre que se mencione la autoría original y se reproduzca usando este mismo tipo de licencia.