
La conversación mundial sobre la inteligencia artificial suele estar dominada por dos voces: la de los gobiernos que hablan de innovación y modernización, y la de las empresas tecnológicas que presumen avances como si fueran dones inevitables del progreso. Falta la voz más importante: la de la gente común, la de quienes viven la realidad de la vigilancia, la desigualdad digital y los efectos concretos de tecnologías que, según se dice, “van a cambiarlo todo”. La IA ya está cambiando nuestra vida diaria, pero no de manera uniforme ni equitativa. Sus resultados dependen de quién la usa, con qué recursos y con qué intenciones.
Hoy, en muchos países —incluido el nuestro— convivimos con una paradoja: por un lado, los gobiernos autoritarios y los aparatos de seguridad que han encontrado en la IA una herramienta para vigilar más, controlar más y anticipar la disidencia; por otro, los ciudadanos, colectivos, periodistas, docentes, comunidades organizadas y movimientos sociales que buscan en la misma tecnología una oportunidad para protegerse, defender derechos y abrir nuevos espacios de resistencia. Esta desigualdad de poder marca la discusión: no se trata solo de tecnología, sino de condiciones.
Muchos activistas, periodistas comunitarios, defensores de derechos humanos y líderes locales operan con herramientas limitadas, mala conectividad y recursos escasos. No es que no quieran acceder a la IA: es que no pueden hacerlo en igualdad de circunstancias. Mientras tanto, los gobiernos centralizan datos, adquieren sistemas avanzados, integran algoritmos en la seguridad pública y se asocian con corporaciones capaces de modelar el comportamiento social a gran escala. En ese contraste se define buena parte de la lucha democrática contemporánea.
La vigilancia algorítmica ya forma parte del paisaje político. Se traduce en monitoreo constante en redes sociales, etiquetado automático de contenidos críticos, seguimiento de perfiles, rastreo de dispositivos y análisis de patrones de comportamiento. Las tecnologías que antes se entendían como recursos especializados hoy pueden utilizarse para identificar tendencias, anticipar reuniones, perfilar comunidades enteras o asignar etiquetas de riesgo. Todo esto ocurre con poca transparencia y sin contrapesos reales.
Aun así, el interés aquí no es repetir lo que hacen los autócratas, sino señalar lo que puede hacer la ciudadanía incluso frente a esa desventaja. La IA está dejando de ser un terreno exclusivo de grandes empresas o gobiernos. Se está convirtiendo en una herramienta que miles de personas están aprendiendo a utilizar para documentar abusos, proteger su identidad, verificar información, automatizar denuncias, analizar patrones de violencia, monitorear la actividad pública y acompañar procesos de organización comunitaria.
La gente está descubriendo que la IA no solo sirve para generar imágenes o responder preguntas triviales. Puede ser una aliada para fortalecer la democracia desde abajo, para construir redes más seguras, para entender fenómenos complejos sin depender de la información oficial, para comunicar de manera más eficiente y para proteger a quienes se encuentran en situaciones de riesgo.
El principal obstáculo no es la falta de interés sino la falta de acceso. Esa brecha tecnológica afecta a comunidades rurales, barrios populares, periodistas sin respaldo institucional, colectivos de mujeres, grupos de búsqueda, organizaciones locales de defensa ambiental y defensores comunitarios que enfrentan amenazas. Todos ellos necesitan la IA no como herramienta futurista, sino como un recurso práctico para sobrevivir en un entorno donde la vigilancia y la desinformación aumentan.
No se trata de que los ciudadanos consigan la misma infraestructura masiva que los gobiernos. Eso es imposible. Pero sí es viable dotar a los movimientos sociales de mejores herramientas de seguridad digital, capacitación accesible, acompañamiento técnico, financiamiento y redes de colaboración que hagan más fácil y más seguro el trabajo de resistencia. La IA puede ayudar a reducir los riesgos, a hacer más eficiente el trabajo y a amplificar la voz de quienes normalmente están en desventaja.
Las experiencias recientes muestran algo importante: cuando se acercan a la IA desde su realidad concreta y no desde el lenguaje de Silicon Valley, las comunidades la adoptan con rapidez. No necesitan conceptos sofisticados: necesitan soluciones claras para problemas inmediatos. Por ejemplo: cómo proteger su identidad digital, cómo detectar un ataque coordinado, cómo verificar un rumor que circula en WhatsApp, cómo documentar un abuso sin ser identificados, cómo almacenar evidencia de manera segura, cómo rastrear patrones de violencia en su municipio o cómo entender qué está alimentando un discurso de odio.
Esa es la IA que importa: la que reduce riesgos, la que ayuda a las comunidades a cuidar su entorno, la que ofrece acompañamiento práctico, la que democratiza la información y la que convierte datos dispersos en conocimiento útil. No se trata de competir con un Estado autoritario, sino de operar de manera más inteligente y estratégica.
Aquí es central recordar algo central: la IA no sustituye la organización social, la complementa. No reemplaza la confianza comunitaria ni la articulación de causas, ni la movilización de calle ni el periodismo local. Pero puede volver todo eso más seguro, más rápido y más eficaz. Esa es la dimensión socialmente transformadora.
La interacción entre la IA y el activismo subraya una verdad fundamental: la tecnología no es intrínsecamente buena ni intrínsecamente mala; es un reflejo de los valores e intenciones de quienes la utilizan. Mientras que los regímenes autocráticos utilizan la IA para reprimir la disidencia y consolidar el poder, los activistas están encontrando formas innovadoras de cambiar el rumbo y utilizar las mismas herramientas para luchar por la justicia, la igualdad y los derechos humanos.
Aun con esa claridad, debemos reconocer la asimetría inevitable: los gobiernos siempre tendrán más dinero, más datos, más infraestructura y más capacidad de integrar tecnología a gran escala. Ese desequilibrio define el entorno. Pero no lo determina todo. Lo que sí determina el resultado es la capacidad de adaptación y estrategia de quienes resisten. Es ahí donde la IA abre una oportunidad.
Los movimientos de base siempre han tenido que operar con menos recursos. La novedad es que la IA permite compensar parte de esa desventaja con eficiencia y velocidad. Automatizar procesos clave puede significar liberar horas de trabajo para tareas urgentes; detectar patrones de manera temprana puede evitar daños; proteger identidades puede salvar vidas. Los activistas que entienden esta lógica están construyendo nuevas formas de defensa adaptadas a la era digital.
La historia está llena de ejemplos de movimientos con menos recursos y menos favorecidos que utilizan las herramientas a su disposición para superar en astucia a los autócratas, incluso a aquellos que parecían invencibles. La IA es simplemente otra herramienta que los activistas pueden usar.
Esto sugiere otra verdad fundamental: el verdadero campo de batalla no es la capacidad tecnológica en sí, ni se trata de usar la IA por sí misma. La verdadera prueba será comprender la IA e integrarla estratégicamente en los objetivos más amplios de un movimiento. La IA no es una carrera armamentística entre activistas y autoritarios; más bien, es una competencia de habilidades por las condiciones, donde la adaptabilidad, la creatividad y la aplicación estratégica importan más que el mero poder.
Las comunidades que ya trabajan con IA lo hacen con un enfoque muy distinto al discurso oficial. No buscan controlar, sino proteger. No buscan perfilar ciudadanos, sino levantar datos para defender su territorio. No buscan manipular conversación, sino verificarla. No buscan dominar, sino sobrevivir.
Por ejemplo, colectivos de vecinos están utilizando modelos de IA para organizar información sobre incidentes de violencia en sus colonias; grupos de mujeres emplean herramientas automáticas para revisar riesgos en sus redes sociales; defensores ambientales usan análisis de imágenes para monitorear cambios en zonas naturales; periodistas locales están aplicando algoritmos básicos para verificar documentos, clasificar archivos o automatizar tareas repetitivas.
El conocimiento generado en cada una de estas experiencias merece ser compartido. Las comunidades no necesitan nuevas dependencias: necesitan nuevas capacidades. Y eso implica tres prioridades inmediatas: formación accesible, redes de apoyo y financiamiento modesto pero estratégico. No hace falta crear un laboratorio sofisticado: basta con habilitar espacios para que la gente aprenda a usar las herramientas desde su propia realidad.
La IA no va a resolver los problemas políticos más profundos, pero sí puede ayudar a revelar patrones, desmontar narrativas, desmentir información falsa, proteger a quienes denuncian, acompañar procesos colectivos y mejorar la organización desde abajo. Esa es una oportunidad que no debe desperdiciarse.
En este momento histórico, la pregunta no es si los ciudadanos deben usar IA; la pregunta es cómo la incorporan sin perder su esencia democrática. La respuesta está en construir prácticas transparentes, comunitarias, con controles éticos y con conciencia clara de las limitaciones.
Lo decisivo será la capacidad de aplicar la IA a las necesidades concretas de cada causa. Eso es lo que transforma un algoritmo en una herramienta política: su contexto. La tecnología no es neutra, pero tampoco está predeterminada. En manos de ciudadanos organizados puede convertirse en una herramienta de defensa y libertad.






