IA y Opinión Pública
Ante un ecosistema que ya ha sido alterado de manera irreversible por el uso irrestricto de las Redes Sociales, llega la Inteligencia artificial a enrarecer aún más el ambiente.
En esta charla, Mario Campos, de Radio Ibero, analiza junto con Edgar Rodríguez de Conexionistas, la forma en la que la Inteligencia Artificial está cambiando la forma en la que la realidad es analizada y entendida.
Una plática obligatoria en tiempos en los que la verdad se ha transformado en una opción.
Escúchanos en Spotify:
Aquí la serie sobre Inteligencia Artificial en «La Caja de Petri»
Transcripción de la conversación
Edgar Rodríguez conversa con Mario Campos sobre inteligencia artificial y opinión pública
Edgar Rodríguez:
¿Qué tal? Mucho gusto en regresar con ustedes, amigas y amigos de Conexionistas, ahora en esta sección de La Caja de Petri. Arrancamos este año 2026 con una pregunta y una reflexión sobre la presencia de la inteligencia artificial, no solamente en la vida cotidiana o en el uso empresarial, sino en sus implicaciones más profundas en la opinión pública. Hoy nos acompaña Mario Campos, académico, periodista, analista y politólogo. Mario, gracias por estar aquí. Quisiera preguntarte directamente: ¿cuáles son esos cinco aspectos que te preocupan o que ves como alentadores en la relación entre inteligencia artificial y opinión pública?
Mario Campos:
Encantado de estar contigo, Edgar. Este es un tema en desarrollo y complejo, porque estamos tratando de describir un objeto en pleno crecimiento. Lo que sabemos hasta ahora es que la teoría clásica de la opinión pública está en revisión. Antes había unos cuantos generadores de información que definían la agenda pública. Ese oligopolio se rompió y cambió el ecosistema: se multiplicaron las voces y se perdió el control de gobiernos y medios. Hoy la opinión pública está fragmentada en comunidades de interés, y los algoritmos son quienes definen qué vemos o no vemos.
Esto ha abierto la puerta a actores —domésticos e internacionales— que buscan incidir en la opinión pública, exacerbar estados de ánimo y provocar conductas. La inteligencia artificial potencia este escenario:
- Produce contenidos sintéticos (texto, foto, video) indistinguibles de la realidad.
- Genera contenidos más efectivos para captar atención y engagement.
- Mapea audiencias y produce mensajes específicos para movilizarlas.
Lo que vimos con Cambridge Analytica ahora está multiplicado por “esteroides tecnológicos”. La gestión de la opinión pública se vuelve mucho más compleja.
Edgar Rodríguez:
Entonces, ¿la inteligencia artificial lo que hace es acelerar la ruptura de barreras de entrada? Antes el control estaba en manos de unos pocos, ahora cualquiera puede producir contenido. ¿Podemos entenderlo así?
Mario Campos:
Sí, aunque con matices. Los actores previos —gobiernos, medios, plataformas digitales— siguen ahí, cada uno con sus intereses. Las plataformas como YouTube, X, Instagram, WhatsApp, TikTok, Meta o Google tienen dueños y algoritmos que deciden qué se visibiliza y qué se censura. La IA democratiza la producción de contenidos, pero también complica la regulación. A diferencia de los medios tradicionales, las plataformas no son responsables legalmente del contenido que transmiten. Eso permite que circulen deepfakes, pornografía o noticias falsas sin consecuencias directas para ellas. Mientras no haya responsabilidad clara, esto seguirá siendo “tierra de nadie”.
Edgar Rodríguez:
Lo que me preocupa es el aislamiento que genera la IA. El algoritmo me ofrece lo que quiero ver, me encierra en mi burbuja. Incluso hay personas que dialogan con inteligencias artificiales como si fueran personas reales, llegando a pedir consejos. Eso me parece un fenómeno de aislamiento que, combinado con agendas políticas autoritarias, puede pavimentar el camino para modelos extremos de gobierno.
Mario Campos:
Coincido. La tecnología determina el tipo de conversación. Las plataformas premian los extremos y generan cámaras de eco. El algoritmo radicaliza: empiezas viendo un video moderado y terminas en contenidos extremos. Además, la interacción directa con IA —como ChatGPT o Gemini— fomenta aislamiento. Estas inteligencias son complacientes, recuerdan tus conversaciones, se adaptan a tu tono y voz. En 2025 vimos el auge de los AI Companions, incluso casos de personas que establecen relaciones afectivas con avatares. Todo esto privilegia la zona de confort y dificulta el encuentro con la alteridad. Hacer política se complica porque los estados de ánimo son efímeros y no alcanzan a construir proyectos colectivos.
Edgar Rodríguez:
¿Dónde te ubicas entonces? ¿Vaso medio lleno o medio vacío? ¿Hay esperanza de que la IA contribuya a un mejor entendimiento ciudadano?
Mario Campos:
Si acaso, un octavo de lleno. No encuentro muchas razones para el optimismo. Llevamos 25 años con redes sociales y apenas ahora empezamos a reconocer sus efectos negativos: polarización, ansiedad, aislamiento. Con la IA estamos repitiendo el mismo patrón, soltando la tecnología sin filtros. La Unión Europea intenta regular, pero la industria y los mercados celebran las ganancias. La única salida es recentralizar el papel de la verdad en la conversación pública. Sin custodios de la verdad —universidades, medios, instituciones— todo se vuelve relativo.
Edgar Rodríguez:
Entonces, ¿qué indicadores deberíamos observar para saber que estamos cerca del “punto sin retorno”?
Mario Campos:
Cuando los encargados de cuidar la verdad —medios, universidades, organizaciones— renuncien a ella por conveniencia política o económica. Si la verdad se convierte en un estorbo, ya no habrá terreno común. Como dijo un funcionario en tiempos de Bush: “Tú perteneces a la comunidad de los hechos, pero no has entendido que los hechos son los que nosotros definimos que sean”. El día que todos pensemos así, habremos perdido la posibilidad de reconstruir un espacio compartido.

