Diez veces más rápido, diez veces más barato: una era en la que la IA capta el ambiente político

Diez veces más rápido, diez veces más barato: una era en la que la IA capta el ambiente político

¿Puede la IA escuchar la "opinión pública"? — Una revolución silenciosa en el campo de la investigación

"¿Qué imagen o emoción te viene a la mente cuando escuchas la palabra 'político'?"

Desde el otro lado del teléfono, se escucha una voz que parece ser de una mujer joven. Es calmada, formal y el ritmo de la conversación es casi natural. Sin embargo, la dueña de esa voz no es humana. Es un agente de IA, un oyente que funciona mediante un programa.

Mientras el encuestado expresa desconfianza o cinismo hacia los políticos, detrás de escena, varias IAs están en funcionamiento. Una IA verifica si las respuestas se ajustan a las preguntas, otra profundiza si el contenido es superficial, y otra intenta detectar si el interlocutor es un encuestado fraudulento o un bot. Esto no es un experimento del futuro, sino una escena real de una encuesta política llevada a cabo por la empresa francesa de encuestas de opinión con IA, Naratis.

Las encuestas de opinión han sido durante mucho tiempo una herramienta crucial para visualizar la voz de la sociedad. Las tasas de apoyo antes de las elecciones, la aprobación o desaprobación de políticas, la evaluación de productos de las empresas, las actitudes hacia los problemas sociales. Los números presentados en los periódicos y la televisión han influido en las decisiones de políticos, empresas, medios de comunicación e incluso de los propios votantes.

Sin embargo, esa base está tambaleándose ahora. Cada vez menos personas responden al teléfono y aún menos contestan encuestas. Muchas personas ignoran números desconocidos y no se molestan en completar cuestionarios largos. A medida que disminuye el número de personas dispuestas a responder, las encuestas se vuelven más costosas y sesgadas. Aquí es donde entra en juego la automatización de encuestas de opinión mediante IA.

Pierre Fontaine, fundador de Naratis, explica que la fortaleza de su empresa radica en "permitir que las personas conversen con la IA en lugar de seleccionar casillas de verificación". Las encuestas cuantitativas tradicionales recogen una gran cantidad de opciones como "a favor", "en contra" o "neutral". Por otro lado, Naratis apunta al ámbito de las encuestas cualitativas, que requieren más tiempo y dinero. A través de entrevistas a un pequeño número de personas o discusiones grupales, se busca no solo "qué piensan", sino "por qué piensan así".

Este ámbito es de gran valor para las campañas políticas y las encuestas de marca de las empresas. Por ejemplo, ¿por qué alguien que escucha el eslogan de un candidato lo encuentra atractivo? ¿Las personas que se oponen a una propuesta política lo hacen porque no les gusta el contenido del sistema o porque no les gusta cómo se presenta? A menudo, las verdaderas pistas están ocultas en las emociones, asociaciones y vacilaciones que los números por sí solos no pueden captar.

La IA tiene el potencial de escalar rápidamente estas encuestas cualitativas. Si un entrevistador humano realiza las entrevistas una por una, se requiere tiempo y costos laborales. Pero con IA, se pueden llevar a cabo múltiples conversaciones simultáneamente. Naratis afirma que sus encuestas son "10 veces más rápidas, 10 veces más baratas y con un 90% de precisión" en comparación con las encuestas realizadas por humanos. Lo que antes requería semanas y decenas de miles de euros, ahora podría completarse en uno o dos días.

Esta velocidad tiene un gran significado en el ámbito político. Durante el período electoral, la opinión pública puede cambiar drásticamente con una sola declaración, un desliz o un evento internacional. Con las encuestas tradicionales, no es raro que la situación cambie para cuando se obtienen los resultados. Si la IA puede recopilar reacciones en 24 horas, las campañas pueden leer casi en tiempo real las emociones de los votantes y ajustar sus mensajes.

Sin embargo, aquí radica el primer peligro. Comprender la opinión pública más rápidamente también significa poder influir en ella más rápidamente. Si la IA puede mostrar que "esta expresión evitará la ira" o "estas palabras movilizarán a la base de apoyo", los políticos y las campañas podrán lanzar palabras más precisamente ajustadas a las insatisfacciones y ansiedades de los votantes. ¿Es esto un avance en el diálogo para la democracia? ¿O es una sofisticación en la manipulación emocional?

En el debate sobre las encuestas de opinión con IA, es importante distinguir entre dos tecnologías. Una es el método en el que la IA sustituye las entrevistas a personas reales. La otra es el método en el que la IA crea "respondientes sintéticos" o "gemelos digitales" para responder en lugar de personas reales.

El primero automatiza al oyente y al analista de la encuesta. Las respuestas las dan personas reales. El segundo, basado en datos pasados e información de atributos, hace que la IA suponga "así respondería una persona de este tipo". Esto podría ser útil para pruebas de concepto o creación de hipótesis en investigaciones de mercado, pero en encuestas políticas, el problema se vuelve mucho más grave.

Porque las encuestas de opinión en política no son simplemente documentos de negocios. Las tasas de apoyo publicadas son reportadas, influyen en las donaciones y el comportamiento de votación, y crean impulso para los candidatos. Si las respuestas generadas por IA se tratan de la misma manera que las opiniones recogidas de humanos, es posible que no se esté midiendo la "voluntad del pueblo", sino simplemente sintetizando algo que parece serlo.

En este punto, las empresas de encuestas existentes son cautelosas. Ipsos, un gigante de la investigación de mercado, utiliza IA, pero hay una fuerte precaución contra el uso de respondientes generados por IA en encuestas políticamente sensibles. Bruno Jeanbart, CEO de OpinionWay, también ha declarado que no publicará encuestas basadas en datos generados por IA. La razón es clara: el mayor activo de la industria de la investigación es la "confianza".

En las redes sociales, la reacción hacia las encuestas de opinión con IA se inclina más hacia la precaución que hacia la expectativa. Especialmente en las comunidades tecnológicas de habla inglesa, se ha extendido la expresión "las encuestas de opinión con IA son encuestas falsas", y en Reddit se destacan críticas como "no son respuestas de personas reales, sino simplemente modelos de lenguaje a gran escala que generan respuestas siguiendo reglas". Otro usuario argumentó que, dado que muchas personas no leen la metodología escrita en letra pequeña, debería indicarse de manera que no se pase por alto que se trata de respuestas generadas por IA.

Sin embargo, no todas las reacciones son completamente negativas. En LinkedIn, también hay un debate sobre que la audiencia sintética generada por IA debería considerarse como un "modelo predictivo" en lugar de una "encuesta de opinión real". Es decir, si se utiliza para la verificación de hipótesis, la detección de sesgos o las pruebas iniciales de mensajes, tiene sentido. El problema no es el uso de IA en sí, sino presentar simulaciones como si fueran datos medidos, es la posición que se defiende.

Esta diferencia en las reacciones refleja bien la esencia de las encuestas de opinión con IA. Si se ve como una herramienta conveniente, la IA amplía las posibilidades de la investigación. Incluso en temas que los humanos encuentran difíciles de responder, puede haber personas que se sientan más cómodas hablando con una máquina. Incluso aquellos que se pavonean o dan respuestas socialmente deseables a un oyente humano pueden ser más francos con una IA. En Francia, se dice que el apoyo a la extrema derecha ha sido subestimado en las encuestas de opinión, pero si se pueden captar estas "verdades difíciles de decir", las entrevistas con IA tienen ciertas ventajas.

Además, la IA es adecuada para profundizar en las respuestas. En las encuestas normales, a menudo no se puede profundizar lo suficiente en las razones detrás de una respuesta de "en contra". Sin embargo, con una IA conversacional, se puede seguir preguntando "¿Por qué piensas eso?", "¿Cuándo cambió tu opinión?", "¿Qué evento te dejó una impresión?". Clasificar una gran cantidad de respuestas abiertas y organizar emociones y puntos de discusión también es un área en la que la IA se destaca.

Aun así, la IA tiene debilidades fatales. Primero, la IA puede cometer errores que parecen plausibles. Lo que se conoce como alucinaciones. En el mundo de la investigación, una pequeña distorsión puede llevar a grandes malentendidos. Segundo, la IA depende en gran medida de los datos pasados. Las opiniones que se han expresado mucho en el pasado, los discursos que han quedado en gran cantidad en Internet, los valores del mundo angloparlante o urbano, pueden ser tratados como más generales de lo que realmente son.

Tercero, la IA tiende a inclinarse hacia "la plausibilidad promedio". Las opiniones humanas son contradictorias, emocionales y varían según la situación. Puede que alguien esté a favor de una política, pero no le guste el político que la propone. La preocupación por el hogar y la conciencia ambiental pueden chocar. Si la IA genera respuestas demasiado ordenadas, se eliminan estas fluctuaciones humanas. Como resultado, se puede crear una opinión pública demasiado pulida.

De hecho, en una revisión de investigaciones sobre respondientes sintéticos, se señala que, aunque los valores promedio de alto nivel pueden acercarse a las respuestas humanas, surgen problemas en los detalles como las diferencias por atributos, la variabilidad, la correlación y los coeficientes de regresión. En el ámbito político, lo importante son precisamente esos detalles. Aunque el promedio general sea correcto, si se malinterpretan las reacciones de los votantes independientes en regiones específicas, los jóvenes, los votantes con antecedentes de inmigración o los ancianos en áreas rurales, se pueden cometer errores en las estrategias electorales y las decisiones políticas.

Más grave aún es el problema de la rendición de cuentas. Las encuestas de opinión tradicionales también tienen sus límites. La parcialidad en la selección de la muestra, la redacción de preguntas que guían las respuestas, el rechazo a responder, los métodos de ponderación, no existe una encuesta perfecta. Sin embargo, al menos se podía mostrar a quién se le preguntó, cuándo se le preguntó, a cuántas personas se les preguntó y cuál fue la pregunta, permitiendo cierta verificación externa.

Con la entrada de la IA, esta verificación se complica. ¿Qué modelo se utilizó? ¿Con qué datos se entrenó? ¿Cómo se evaluó la profundidad de las respuestas? ¿Cómo se detectaron las respuestas fraudulentas? Si se utilizaron respondientes sintéticos, ¿en qué se basó la creación de su perfil? Si esta información permanece opaca y solo se publican los números, no será una encuesta, sino una legitimación de una caja negra.

Si las encuestas de opinión con IA se expanden, el debate sobre la regulación será inevitable. Especialmente en el ámbito político, si se publican encuestas basadas en datos generados por IA, puede ser necesario establecer reglas claras de divulgación o prohibición. En países como Francia, donde la regulación de las encuestas de opinión es relativamente estricta, podría haber restricciones en la publicación de encuestas políticas que utilicen datos sintéticos.

Entonces, ¿la IA hará que las encuestas de opinión sean más precisas?

La respuesta no es simple. La IA es fuerte en áreas que las encuestas tradicionales encuentran difíciles, como la velocidad, el costo, el análisis de respuestas abiertas y la profundización conversacional. Para una industria que enfrenta la escasez de entrevistadores humanos y la disminución de las tasas de respuesta, es una solución atractiva. Si se escucha a personas reales y la IA complementa y analiza esa conversación, hay un potencial significativo para mejorar la calidad de las encuestas de opinión.

Sin embargo, el momento en que la IA comienza a "responder" en lugar de los humanos, la historia cambia. No es una medición de la opinión pública, sino una suposición, una simulación y una salida de un modelo. Puede ser útil. Pero hay que ser cauteloso al llamarlo voluntad del pueblo.

Lo más probable es que el futuro sea un modelo híbrido, no completamente automatizado. La IA hará preguntas, organizará respuestas, detectará valores atípicos y formulará hipótesis. Los investigadores humanos supervisarán el diseño, verificarán los resultados y asumirán la responsabilidad política y ética. La IA aumentará los oídos, pero al final, lo que se considere escuchado será decidido por los humanos. Esa demarcación será crucial.

Las encuestas de opinión con IA podrían hacer que la democracia sea más conveniente. Podrían captar voces que no se escuchaban, visualizar emociones complejas y acercar las políticas y los informes a la realidad. Pero al mismo tiempo, existe el peligro de sintetizar, manipular y dar una falsa sensación de comprensión de la voluntad del pueblo.

La esencia de las encuestas de opinión no es crear números. Es saber qué temen, qué enfurece, qué desean y dónde dudan las personas que viven en la sociedad. Si la IA ayuda en esa tarea, será un avance bienvenido. Pero si la IA comienza a hablar en lugar de los humanos, se convertirá en un peligro demasiado conveniente para la democracia.

Al final, lo más importante en las encuestas de opinión en la era de la IA no es cuán inteligente sea la IA. Es la capacidad de los encuestadores para explicar honestamente qué se dejó en manos de la IA y qué se escuchó de los humanos. ¿Salvará la IA las encuestas de opinión que han perdido la confianza, o las hará aún más sospechosas? La respuesta depende de la transparencia en el uso, no de la tecnología.


Resumen de reacciones en redes sociales

 

En las redes sociales y secciones de comentarios, las reacciones hacia las encuestas de opinión con IA se dividen en tres grandes grupos.

El primero y más común es la fuerte desconfianza. En la comunidad tecnológica de Reddit, las reacciones hacia el método en el que la IA simula a los encuestados destacan por el sentimiento de que "si no se pregunta a personas reales, no es una encuesta de opinión". Especialmente, hay una fuerte preocupación de que las encuestas que utilizan respuestas generadas por IA se difundan solo con titulares o gráficos, lo que podría llevar a los lectores a malinterpretarlas como encuestas reales.

El segundo es una visión realista de que "es útil si se limita su uso". En LinkedIn, hay opiniones de que la audiencia sintética generada por IA debe tratarse como un modelo predictivo o una herramienta de verificación de hipótesis, no como una medición de la opinión pública. Se puede utilizar para pruebas iniciales de mensajes o para verificar sesgos en el modelo, pero no reemplaza la voz real de las personas.

El tercero es la desconfianza hacia las encuestas de opinión existentes. En las redes sociales, también hay voces que dicen "¿no están también llenas de sesgos las encuestas a humanos?", lo que sugiere que no solo la IA es el problema, sino que la confianza en las encuestas de opinión en general está tambaleándose. La crítica hacia las encuestas de opinión con IA también refleja una insatisfacción con las encuestas tradicionales.


URL de la fuente

BBC "¿Conducirá la IA a encuestas de opinión más precisas?"
Encuestas de opinión política por agentes de IA, Naratis, Ipsos, OpinionWay, preocupaciones sobre datos sintéticos, y otras informaciones centrales del artículo. Consulte el texto completo subido.
https://www.bbc.com/news/articles/cwyw6rylzepo

Artículo reestructurado por Info Nasional basado en el artículo de la BBC
Para verificar el contenido del artículo de la BBC. Afirmaciones de Naratis, disminución de la tasa de respuesta, postura cautelosa de OpinionWay, etc.
https://world.infonasional.com/ai-agents-political-opinion-polling

Reddit "Las 'encuestas de IA' son encuestas falsas"
Referencia de reacciones en redes sociales. Reacciones críticas hacia las encuestas de opinión con IA como "no