Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Wikipedia enfrenta la "basura de IA" — El impacto de la "eliminación rápida": Nuevas reglas para proteger la calidad

Wikipedia enfrenta la "basura de IA" — El impacto de la "eliminación rápida": Nuevas reglas para proteger la calidad

2025年08月10日 12:07

Introducción: Cómo las enciclopedias enfrentan la "inundación de IA"

El auge de la IA generativa ha traído "rapidez", para bien o para mal. La capacidad de generar grandes cantidades de texto en poco tiempo es un arma de doble filo para proyectos colaborativos como las enciclopedias. Wikipedia ahora enfrenta una avalancha de contenido de baja calidad, conocido como "AI slop", inflado con desinformación y referencias ficticias. The Verge informa que la comunidad ha comenzado a funcionar como un "sistema inmunológico" frente a este problema. Detecta rápidamente elementos extraños, los elimina y aprende a manejarlos, según la metáfora.  


Contenido de las nuevas reglas: G15 "Páginas generadas por LLM sin revisión humana"

Después de un debate, se adoptó una extensión de los criterios de "eliminación rápida". Normalmente, la eliminación requiere una discusión pública de siete días, pero las páginas claramente generadas por IA sin revisión humana por parte del autor ahora pueden ser eliminadas inmediatamente a discreción de los administradores (el criterio se llama "G15"). Hay dos señales principales que sirven como guía: ① frases con olor a "respuesta de prompt" como "Aquí está tu artículo de Wikipedia..." o "como un modelo de lenguaje grande...", ② referencias inventadas como artículos inexistentes, citas irrelevantes, DOI irresolubles o ISBN inválidos. Wikipedia404 Media


Este nuevo criterio se aplica solo a casos "tan evidentes que merecen eliminación inmediata". Un estilo simplemente parecido al de la IA no es suficiente. Es importante que se considere una "violación evidente" al nivel de vandalismo, publicidad, artículos ficticios o acoso, junto con otras eliminaciones rápidas tradicionales (como G10 o G11).  


Catálogo para detectar "parecidos a IA": WikiProject AI Cleanup

La comunidad ha lanzado "WikiProject AI Cleanup", que organiza un "mapa de minas" de expresiones y formatos característicos de la IA. Se comparten señales como un tono excesivamente promocional, retórica demasiado pulida, un uso excesivo de "además", comillas torcidas (“ ”) y guiones largos excesivos (—). Sin embargo, estas son solo "líneas de apoyo". La clave para decidir la eliminación son las "huellas decisivas" como la importación directa de prompts y las citas falsas mencionadas anteriormente.  


404 Media fue el primero en informar, extendiéndose a medios de todo el mundo

404 Media fue el primero en informar sobre el cambio de política. Luego, PCWorld y el alemán Heise siguieron, y el tema se hizo visible globalmente. El punto clave es que "en Wikipedia, que valora la cultura del debate, se han definido condiciones excepcionales para priorizar la 'rapidez'". 404 MediaPCWorldheise online


Posición de la fundación: se detiene la IA de resumen, pero avanza la "IA para ayudar a las personas"

La Fundación Wikimedia, que gestiona la operación, es independiente de las decisiones de la comunidad. En junio, detuvo un experimento para mostrar resúmenes de IA al inicio de los artículos debido a la oposición de la comunidad (en el pasado, había fuertes voces de "detenerlo"), pero continúa introduciendo "IA para apoyar a los editores" como detección de vandalismo y asistencia en traducción. Edit Check se encarga de alertar sobre la falta de citas y verificar la neutralidad, y Paste Check está diseñado para verificar "¿es realmente tu texto?" cuando se pega en masa.  


¿Qué cambia?: Rapidez, carga y confiabilidad

  • Rapidez: El "AI slop" evidente puede abordarse sin esperar a la discusión. Si se pueden eliminar rápidamente los "artículos de vandalismo" y "citas inventadas" recién creados, se puede dedicar más tiempo a otras tareas de edición. 404 Media

  • Alivio de carga: Se puede reducir la carga de "limpieza" que se dedicaba a artículos de IA sin revisión previa, permitiendo redistribuir los limitados recursos de patrullaje.  

  • Confiabilidad: Las citas incorrectas y las referencias ficticias sacuden la base de una enciclopedia. La estandarización de "huellas decisivas" fáciles de identificar tiene un gran significado. PCWorld


Sin embargo, no es una "cura milagrosa"

Incluso dentro de la comunidad, hay voces que lo consideran un "parche". Un artículo iniciado por IA puede ser de alta calidad si es revisado cuidadosamente por humanos, y los humanos también pueden escribir artículos de mala calidad. Por eso, el G15 se centra en "errores evidentes". A medio y largo plazo, son esenciales herramientas de apoyo como Edit Check, la formación de consensos en las páginas de discusión y el fortalecimiento del flujo de trabajo de verificación de fuentes. PCWorld


Reacciones en redes sociales: Mayoría de apoyo, pero también preocupaciones sobre errores y disuasión

 


  • X (anteriormente Twitter): Las publicaciones de The Verge y Slashdot se difundieron como un centro. En general, el sentimiento es de "bien hecho", pero también hay preguntas como "¿No es esto una negación total de la IA?". X (anteriormente Twitter)

  • Reddit: En r/technology y r/wikipedia, aunque predominan los apoyos como "la dirección es correcta" y "quiero aumentar las donaciones", también hay advertencias sobre ejemplos de "reescritura" de debates con IA y señalamientos sobre el riesgo de errores. Reddit

  • Hacker News: Los lectores de larga data están preocupados por la "referencia circular de AI slop (IA→Wiki→siguiente generación de IA)". Aunque dan la bienvenida a la estandarización actual, discuten el equilibrio con la apertura. Hacker News

  • Threads / Bluesky: Se valoró la naturaleza pública de Wikipedia, y se vieron voces que decían que otras plataformas deberían seguir su ejemplo. ThreadsBluesky Social


¿Cómo prevenir errores de juicio?

La "apariencia de IA" es solo evidencia circunstancial. Las guías de Wikipedia también establecen claramente que comillas torcidas o el uso excesivo de "además"por sí solos no son razones para la eliminación, y la decisión final se basa en "golpes decisivos" como la importación directa de prompts y las citas inventadas. Esto también actúa como un mecanismo de seguridad para evitar la disuasión de autores legítimos.  


Razón por la que aún se necesita "consenso humano"

La confianza en una enciclopedia se basa en la verificabilidad de las fuentes y la transparencia del historial de revisiones. La IA puede ayudar en esto, pero no puede reemplazarlo. La metáfora del "sistema inmunológico" que menciona un representante de la fundación sugiere que, al final,el consenso humanose convierte en el anticuerpo. Para que los editores superen la "velocidad de proliferación de la desinformación", no hay más remedio que aumentar la velocidad de aprendizaje de la comunidad.  


Perspectiva: Precisamente porque es abierta, se debe formalizar la delimitación

El G15 es una "infracción de velocidad mínima" para proteger la confiabilidad sin comprometer la apertura. La importancia de establecer un riel para respuestas rápidas excepcionales dentro de una cultura que valora el debate no es pequeña. En el futuro, la clave será la "transparencia del proceso de creación" como Paste Check y la sofisticación de la detección de vandalismo mediante IA. Wikipedia no rechazará la IA, sino que evolucionará diferenciando entre "IA que ayuda a las personas" y "IA que engaña a las personas".


Artículos de referencia

Cómo Wikipedia está luchando contra el contenido de baja calidad generado por IA
Fuente: https://www.theverge.com/report/756810/wikipedia-ai-slop-policies-community-speedy-deletion

Powered by Froala Editor

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.