Wikipedia es todo un símbolo para varias generaciones: toda una enciclopedia libre, disponible en prácticamente todos los idiomas y que contiene y mantiene actualizado buena parte del conocimiento humano en internet de forma colaborativa. La plataforma ha dado un importante paso adelante y ha anunciado que ya no permitirá contenido generado por IA.
Es toda una declaración de intenciones en el contexto actual: en una época en que muchos estudiantes no conciben acabar la carrera sin entregar trabajos hechos íntegramente por IA y en que incluso profesionales tan serios y respetados como abogados han quedado retratados al entregar alucinaciones de IA impresas como argumentos legales en juicios reales, Wikipedia deja claro que ese no es el camino que la plataforma va a seguir.
Todo un símbolo del Internet más utópico
Los que cuentan tantas canas (o tan pocas) como el que escribe, probablemente recordarán lo que era irse a la biblioteca a hacer trabajos por no haber otra fuente de información disponible, o el dineral que se gastaban muchos de nuestros padres en enormes enciclopedias de muchos volúmenes.
Luego llegó Encarta, la enciclopedia digital que algunos pocos tenían… y finalmente internet acabó de un seco y contundente plumazo con todas estas cosas. Toda la información pasó a estar en el formato digital, pero encontrarla de forma verosímil y estructurada seguía siendo un desafío. Creada a principios de 2001 como una maravillosa muestra de lo que Internet significaba para los más soñadores entonces, Wikipedia apareció como lo que sigue siendo hoy: un valiosísimo recurso universal, descentralizado y libre, sin ánimo de lucro.
Hoy Wikipedia cuenta con más de 63 millones de artículos en 334 idiomas, y ha dejado claro que no va a priorizar, como tantos otros en los últimos años, cantidad por encima de calidad humana.
La prohibición de contenido generado por IA
Wikipedia ha hecho su pública su prohibición de que los editores creen o editen artículos usando herramientas de inteligencia artificial generativa como ChatGPT, Gemini y tantos otros modelos actuales.
Esta medida no se ha tomado por una simple cuestión de ideología o ética de ningún tipo: nace del más simple y contundente aspecto práctico. La IA sigue cometiendo errores.
Las alucinaciones de IA, que así es cómo se llama a cuando los Grandes Modelos de Lenguaje cometen errores y se inventan datos, han dejado claro que son un problema estructural intrínseco a los modelos actuales. Pese a las inversiones desmesuradas que empresas como OpenAI han recibido, solo han conseguido reducir su probabilidad de aparición o hacerlos más sutiles, pero en ningún caso erradicarlos.
Esto, que puede parecer poco importante desde el prisma lúdico o recreativo, se convierte en un gravísimo problema cuando se intenta aplicar la IA al ámbito productivo o profesional: un porcentaje de fallo, por pequeño que sea, obliga a revisarlo todo por sistema. Y si hay que revisar todo lo que la IA dice, la IA deja de ser útil en una gran cantidad de casos, pues ya no ahorra tiempo de trabajo.
Es un problema mucho más grave de lo que parece y que podría tener consecuencias económicas desastrosas incluso a nivel global si todo esto termina por desplomarse, pero eso no es lo que nos ocupa hoy. Lo importante es que la IA generativa no es fiable como fuente de conocimiento y que, por tanto, Wikimedia Foundation la descarta como tal.
Wikipedia sigue permitiendo el uso de la IA como herramienta a la hora de hacer correcciones gramaticales o como apoyo a traducciones automatizadas, pero la generación de contenidos originales queda expresamente vetada.
Se marca así un importante precedente que podría extenderse a otras plataformas de generación comunitaria de información e incluso más allá: una declaración de que la IA es una herramienta con un enorme potencial, pero tenemos que empezar a usarla de forma más madura y afinada y no abusar indiscriminadamente de ella.
