top of page
  • Facebook
  • Instagram
Buscar

La guerra invisible: cómo la inteligencia artificial ya decide quién vive, quién trabaja y quién es vigilado

 

Mientras gobiernos y corporaciones compiten por dominar la inteligencia artificial, millones de decisiones humanas comienzan a pasar silenciosamente por sistemas automatizados que pocos comprenden y casi nadie controla.

 

Durante siglos, el poder tuvo rostro. Reyes, presidentes, generales y empresarios concentraban decisiones capaces de modificar el destino de millones de personas. Las sociedades podían identificar centros de poder, señalar responsables y comprender —aunque fuera parcialmente— quién controlaba el escenario político, económico y militar.

 

Pero el siglo XXI está produciendo una transformación mucho más profunda: el poder comienza a desplazarse desde las estructuras visibles hacia sistemas tecnológicos cada vez más complejos, automatizados y difíciles de auditar.

 

La inteligencia artificial ya no pertenece al terreno de la ciencia ficción. Se está integrando silenciosamente en decisiones sensibles de gobiernos, corporaciones, sistemas financieros, plataformas digitales y estructuras de seguridad. Y quizá lo más inquietante sea que gran parte de la sociedad todavía no percibe hasta qué punto este proceso ya comenzó.

 

Hoy, millones de decisiones cotidianas pasan por algoritmos entrenados con volúmenes gigantescos de datos. Sistemas automatizados intervienen en procesos que determinan qué noticias vemos, qué contenidos desaparecen de las plataformas, quién accede a un crédito, qué perfiles avanzan en búsquedas laborales, qué usuarios son considerados riesgosos y qué información recibe mayor visibilidad pública.

 

La cuestión central no es solamente tecnológica.

Es política.

 

Porque muchas veces ya no decide una sola persona. Las decisiones empiezan a surgir de una combinación entre gobiernos, corporaciones tecnológicas, agencias de inteligencia, fondos de inversión y modelos algorítmicos cuya complejidad supera incluso la comprensión total de sus propios desarrolladores.

 

El poder global ya no se concentra únicamente en quienes poseen más territorio o mayor capacidad militar. Comienza a concentrarse en quienes controlan la arquitectura digital, las redes de procesamiento de datos y el desarrollo de inteligencia artificial avanzada.

 

En el siglo XX, las potencias dominaban petróleo, rutas comerciales y armamento nuclear. En el siglo XXI, el recurso estratégico más valioso es la información humana procesada a escala masiva.

 

Y quienes controlan ese ecosistema tecnológico adquieren niveles de influencia comparables —e incluso superiores— a muchos gobiernos democráticos.

 

Los ejemplos ya existen

.

En China, sistemas de vigilancia apoyados en reconocimiento facial e inteligencia artificial permiten monitorear movimientos y comportamientos de millones de ciudadanos en tiempo real. Según estimaciones internacionales, China ya supera las 700 millones de cámaras de vigilancia conectadas a sistemas de monitoreo inteligente. Es la red de observación digital más grande construida en la historia moderna.

 

El llamado sistema de “crédito social” abrió además un debate global sobre hasta qué punto la tecnología puede utilizarse para premiar, limitar o condicionar conductas individuales mediante mecanismos automatizados.

 

En Estados Unidos, compañías como Palantir Technologies desarrollan herramientas de análisis masivo de datos utilizadas por organismos estatales y estructuras de seguridad. La frontera entre poder público, inteligencia y tecnología privada se vuelve cada vez más difusa.

 

La transformación también alcanza el terreno militar.

 

En conflictos recientes comenzaron a utilizarse sistemas de inteligencia artificial capaces de analizar imágenes, movimientos y patrones de comportamiento para identificar posibles objetivos con velocidades imposibles para un análisis humano tradicional. La automatización no reemplaza completamente a las personas, pero empieza a intervenir en procesos donde se toman decisiones sobre vigilancia, seguridad y uso de fuerza letal.

 

Eso abre un problema ético y político enorme: cuando una máquina participa en decisiones críticas, la responsabilidad se vuelve más difícil de determinar. ¿Quién responde ante un error? ¿El operador? ¿La empresa que diseñó el sistema? ¿El Estado que lo utiliza?

 

La guerra contemporánea ya no depende únicamente de soldados y armamento convencional. Depende cada vez más de capacidad computacional, procesamiento de datos y superioridad tecnológica.

 

Pero el fenómeno va mucho más allá de los conflictos armados.

 

La inteligencia artificial también está redefiniendo la forma en que las sociedades consumen información y construyen percepción pública. Cada búsqueda, cada clic y cada interacción digital alimenta modelos predictivos capaces de analizar hábitos, emociones, preferencias e inclinaciones ideológicas.

 

Las plataformas tecnológicas ya no solo observan comportamientos humanos.

Empiezan a anticiparlos.

 

Y cuando un sistema puede anticipar conductas a gran escala, también puede influir sobre ellas.

 

La manipulación política digital dejó ejemplos concretos. El caso de Cambridge Analytica mostró cómo datos obtenidos de redes sociales fueron utilizados para construir campañas de segmentación psicológica dirigidas específicamente a determinados perfiles de votantes. La información personal comenzó a convertirse en herramienta de influencia política.

 

A eso se suma el crecimiento de los deepfakes y de los sistemas capaces de generar imágenes, audios y videos falsos con niveles de realismo cada vez más difíciles de detectar. La posibilidad de fabricar discursos inexistentes o alterar registros audiovisuales plantea nuevos desafíos para las democracias modernas y para la propia noción de verdad pública.

 

Mientras tanto, plataformas como Meta, Google y TikTok utilizan algoritmos capaces de definir qué contenidos reciben mayor circulación y cuáles quedan prácticamente invisibles dentro del flujo masivo de información digital.

 

En paralelo, millones de personas ya son evaluadas por sistemas automatizados en ámbitos laborales y financieros. Muchas empresas utilizan inteligencia artificial para filtrar currículums, analizar perfiles y decidir qué candidatos continúan en procesos de selección. Según distintos estudios del sector tecnológico, más del 70% de las grandes compañías ya utilizan algún tipo de inteligencia artificial en procesos de contratación, análisis de datos o automatización de recursos humanos.

 

En numerosos casos, la primera evaluación sobre el futuro laboral de una persona ocurre sin intervención humana directa.

 

La inteligencia artificial también produce avances extraordinarios en medicina, investigación científica, logística, educación y prevención de delitos. El problema no es la tecnología en sí misma, sino el nivel de concentración de poder y opacidad con el que comienza a implementarse en áreas cada vez más sensibles de la vida social.

 

Ese debate resulta especialmente importante para los países periféricos.

 

Gran parte de la infraestructura tecnológica mundial se encuentra concentrada en pocas potencias y corporaciones privadas. Los modelos de IA más avanzados, los centros de datos, los chips de alto rendimiento y las plataformas digitales globales pertenecen principalmente a empresas y Estados con capacidades tecnológicas muy superiores al resto del mundo.

 

Países como Argentina enfrentan así un nuevo tipo de dependencia: no solamente económica, sino también tecnológica y estratégica. A medida que gobiernos, empresas y ciudadanos utilizan sistemas desarrollados en el exterior, aumenta la dificultad para ejercer soberanía sobre datos, información e infraestructura crítica.

 

La competencia geopolítica global ya no gira únicamente alrededor de recursos naturales o poder militar.

 

También gira alrededor del dominio tecnológico.

En ese escenario emergen actores privados con una influencia inédita en la historia contemporánea. Empresas como OpenAI, Google, Meta, Palantir Technologies y NVIDIA participan de una carrera global donde el recurso estratégico más importante ya no es solamente el capital financiero, sino la capacidad de desarrollar sistemas capaces de procesar información humana a escala planetaria.

 

Y ahí aparece quizá el aspecto más delicado de esta transformación: el surgimiento de estructuras de poder que operan con niveles de opacidad cada vez más difíciles de controlar democráticamente.

 

Muchos modelos avanzados funcionan como auténticas cajas negras. Incluso sus desarrolladores reconocen que no siempre pueden explicar completamente por qué determinados sistemas producen ciertas respuestas, recomendaciones o decisiones.

 

Por primera vez en la historia, la humanidad está construyendo estructuras capaces de influir simultáneamente sobre la economía, la seguridad, la política y el comportamiento social mientras disminuye la capacidad pública de comprender plenamente cómo funcionan.

 

La pregunta ya no es si la inteligencia artificial tendrá impacto sobre el poder global.

Ese proceso ya comenzó.

 

La verdadera discusión es otra: qué nivel de control democrático tendrán las sociedades sobre tecnologías que empiezan a intervenir en aspectos centrales de la vida humana.

 

Tal vez el mayor riesgo no sea que las máquinas piensen como humanos.

Tal vez el verdadero riesgo sea que los humanos empiecen a obedecer sistemas que nadie puede explicar completamente.

 

Porque cuando el poder controla la información, la percepción y los datos de millones de personas, ya no necesita imponerse por la fuerza.

 

Solo necesita volverse indispensable.




 
 
 

Comentarios


¿Queres ser el primero en enterarte de los nuevos lanzamientos y promociones?

Serás el primero en enterarte de los lanzamientos

© 2025 Creado por Ignacio Arnaiz

bottom of page