Wikipedia endurece su defensa contra textos creados por IA y acorta el proceso para borrarlos: “Están vigilantes para que el contenido se mantenga neutral y fiable”

Wikipedia ha activado un protocolo de acción acelerada para expulsar del sitio los artículos detectados como generados por inteligencia artificial sin revisión humana. El nuevo procedimiento permite a los administradores eliminar de inmediato los textos que cumplan ciertos indicios claros, sin pasar por la discusión habitual de siete días que antes precedía a cada borrado.

Este movimiento responde a la creciente llegada de borradores con datos falsos, citas inventadas y referencias inexistentes, que según editores veteranos consumen horas de trabajo para su limpieza.

Se ve a la legua

Un sistema interno detecta patrones típicos de los textos creados por chatbots

El sistema identifica como sospechosos los artículos que incluyen mensajes redactados de forma directa al lector, referencias imposibles de verificar o enlaces muertos y códigos bibliográficos inválidos. Además, dentro del proyecto interno denominado WikiProject AI Cleanup, un grupo de voluntarios mantiene una lista de patrones lingüísticos y de formato que suelen aparecer en textos producidos por chatbots, desde un uso abusivo de guiones largos hasta ciertas expresiones promocionales o conjunciones repetitivas.

Lee también

Elon Musk impulsa la monetización de Grok con sugerencias patrocinadas que podrían condicionar las respuestas: “Vamos a centrarnos en cómo pagar esas costosas GPU”

Héctor Farrés

Horizontal

La Fundación Wikimedia, que alberga la enciclopedia pero no dicta sus normas editoriales, mantiene una postura abierta al uso de la IA siempre que el resultado sea exacto y de calidad. Su director de producto, Marshall Miller, explicó en una entrevista que “están vigilantes para que el contenido se mantenga neutral y fiable”, y señaló que la comunidad actúa como un “sistema inmune” que se adapta a las amenazas.

También apuntó que la propia fundación emplea inteligencia artificial para detectar actos de vandalismo y que su estrategia incluye ayudar a los editores a automatizar tareas repetitivas y traducciones.

Mayor eficacia

Nuevas funciones buscan orientar a editores novatos y prevenir abusos

Entre las herramientas en desarrollo figura Edit Check, destinada a guiar a los colaboradores novatos para que respeten las políticas de Wikipedia. Actualmente puede recordar la necesidad de añadir citas y comprobar que el tono se mantenga neutral.

Lee también

Sam Altman premia con pagos millonarios a un millar de empleados para asegurar el talento que impulsa OpenAI: “Queremos seguir aumentando la compensación a medida que nos vaya mejor”

Héctor Farrés

Sam Altman, durante una conferencia.

En una fase futura incorporará una función llamada Paste Check, que preguntará a quienes peguen grandes bloques de texto si son de su autoría. Algunos miembros han sugerido incluso que se pida a los usuarios declarar qué parte del contenido fue generada por IA.

La nueva política de borrado rápido también cubre otros supuestos, como páginas con insultos, textos incoherentes, bulos o actos de vandalismo. Con estas medidas, Wikipedia intenta reducir la carga de trabajo de los editores y frenar la expansión de material no verificado que amenaza su fiabilidad.

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!