jueves 23 de abril de 2026
Opinión

Democracia tutelada por algoritmos

Por Guillermo Andrada (*)

De la administración del sentido al diseño de la conducta. Del diseño de la conducta a la captura de la soberanía.

Uno de los primeros libros que me abrió una puerta en este tema fue “La propaganda política”, de Jean-Marie Domenach. No parecía gran cosa, pero proponía una interesante premisa: mucho antes de la televisión, de Internet y de la inteligencia artificial, el poder ya había comprendido que gobernar no consiste solo en administrar territorios, sino también en organizar lo que una sociedad puede saber, oír e interpretar.

Domenach lo mostró con claridad al recordar que la palabra “propaganda” no nació en la política moderna, sino en el proceso de la Contrarreforma en la Iglesia Católica. Eso significa que mucho antes de los algoritmos ya existían poderes encargados de filtrar la realidad, seleccionar lo que debía circular y ofrecer una interpretación del mundo.

Después vino la cultura moderna de la lectura, posibilitada por la imprenta de tipos móviles metálicos de Gutenberg, abriendo para el ser humano el espacio crucial del juicio personal y del pensamiento crítico. Leer exigía tiempo, distancia, comparación, interioridad. Los medios seguían siendo verticales, pero entre el mensaje, la recepción, la interpretación y la reacción todavía quedaban importantes pausas, en las que vivía una parte esencial de la libertad política: la posibilidad de pensar antes de responder.

La televisión empezó a desarmar ese espacio. Giovanni Sartori lo vio antes que muchos en “Homo videns”. El problema no era solo quién controlaba los medios, sino que el propio instrumento estaba transformando al homo sapiens formado por la cultura escrita en un homo videns para el cual la palabra era desplazada por la imagen. Su tesis era todavía más inquietante: la primacía de lo visible sobre lo inteligible empobrece la abstracción, deteriora la formación de la opinión pública y debilita la capacidad de distinguir entre lo verdadero y lo falso. El ciudadano empezaba a ceder terreno frente al espectador.

La Web

Con Internet, muchos creímos que la historia cambiaba de signo. La World Wide Web prometía democratizar la palabra. Ya no seríamos solo receptores, también podríamos opinar, responder, producir y difundir contenido. La interactividad parecía un avance frente al viejo esquema vertical de los medios.

Pero detrás de esa promesa se gestaba una amenaza.

Cada clic, cada búsqueda, cada “Me gusta”, cada segundo de permanencia, de visualización, cada desplazamiento sobre la pantalla empezó a convertirse en dato. La participación dejó de ser solamente expresión, pasó a ser también extracción. La conversación pública se transformó en materia prima. El problema dejó de ser únicamente comunicacional.

Históricamente, pero sobre todo durante buena parte del siglo XX, el poder quiso influir en lo que pensábamos. Edward Louis Bernays comprendió que las sociedades de masas podían ser guiadas sin necesidad de coerción abierta, mediante la fabricación del consentimiento, la administración del deseo y la persuasión organizada. Había que convencer. Había que instalar climas. Había que modelar percepciones.

Esa lógica no se detuvo allí. Se volvió más precisa, íntima y ambiciosa. Ya no se trataba solo de influir sobre la opinión, sino de intervenir sobre el entorno mismo de la decisión. Empezaba a perfilarse una mutación decisiva. El nuevo poder ya no quiere solo persuadir, quiere diseñar el contexto en el que actuamos. En Stanford, B. J. Fogg le dió a ese salto una formulación concreta en “Persuasive Technology”. Computadoras pensadas para cambiar lo que pensamos y hacemos. Ya no se trata solo de difundir mensajes, se trata de programar contextos.

Notificaciones, recompensas intermitentes, recomendaciones algorítmicas, jerarquización de contenidos, segmentación fina, personalización constante. Todo eso no organiza solo el consumo, sino también la atención. Y quien organiza la atención empieza a intervenir asimismo sobre la percepción de la realidad. La pregunta ya no es solo qué información circula, sino bajo qué condiciones emocionales, cognitivas y temporales la recibimos.

Por eso el problema contemporáneo no puede reducirse a la vieja idea de manipulación mediática. El salto real ocurre cuando la información deja de ser un insumo para influir y pasa a ser infraestructura de poder. Los datos ya no sirven solo para vender productos o personalizar campañas. Sirven para perfilar ciudadanos, anticipar conductas, clasificar riesgos y orientar decisiones a escala masiva.

IA

Así llegamos al surgimiento de la inteligencia artificial. Y con ella, a uno de los actores más inquietantes del presente: Palantir.

Detrás de ese pequeño territorio llamado Silicon Valley, se estaba gestando otra forma de poder. En ese mar de datos empezaron a gestarse verdaderas ballenas tecnológicas, capaces de devorar información y convertirla en capacidad de intervención sobre la realidad. Entonces, la vieja frase “información es poder” empezó a adquirir otro significado.

Hoy empieza a verse el resultado de todo ese proceso. Los nuevos tecnócratas no quieren solamente más datos, quieren influir sobre la conducta. La economía conductual les dio un lenguaje elegante para esa aspiración. Richard Thaler, figura central de ese campo, popularizó la idea del nudge, el “empujón” sutil que orienta a la población hacia ciertas decisiones sin necesidad de prohibir otras opciones.

El problema es que esa lógica, nacida en apariencia para guiar decisiones individuales, hoy escala hacia otro nivel. Ya no se trata solo de empujar consumos o conductas cotidianas, sino de integrar datos, predicción y capacidad estatal.

Ahí es donde Palantir deja de ser una empresa más del ecosistema digital y pasa a convertirse en uno de los nombres propios de esta mutación. No es solo una empresa de software. No solo procesa información. Está situada en la intersección entre análisis de datos, inteligencia artificial, seguridad estatal y defensa. Ofrece plataformas que integran datos dispersos y los vuelven operativos para agencias públicas.

Así, el problema cambia de escala. La cuestión ya no es solamente qué sabe una empresa privada, sino qué ocurre cuando ese saber se integra a la capacidad estatal de ver, clasificar, anticipar y decidir.

Lo más inquietante es que esta amenaza ya ni siquiera se esconde. Tiene discurso, doctrina y voceros. Alexander C. Karp, cofundador y CEO de Palantir, publicó junto con Nicholas W. Zamiska “The Technological Republic”, un libro cuyo planteo central es que la industria del software debe volver a comprometerse con los desafíos estratégicos del poder occidental, incluida la nueva carrera armamentista de la inteligencia artificial. La tesis de fondo habla por sí misma: Silicon Valley no debería limitarse a producir aplicaciones o entretenimiento, sino convertirse en un brazo decisivo del poder duro.

Después vino la síntesis en 22 puntos que Palantir difundió a partir de ese libro. Allí aparece el futuro ideal de una tecnocracia de poder duro. Silicon Valley con una “deuda moral” hacia Estados Unidos, una subordinación creciente de la política a la superioridad técnica, el reclamo de servicio nacional universal, la idea de que la era atómica está terminando y que será reemplazada por una nueva era de disuasión construida sobre inteligencia artificial. La pregunta, según esa lógica, ya no es si habrá armas de IA, sino quién las construirá y con qué propósito. Eso ya no es un subtexto. Es un programa.

Y cuando una empresa que vende software al Pentágono, a agencias de seguridad y a áreas críticas del Estado formula así su horizonte, el problema deja de ser meramente tecnológico. Pasa a ser abiertamente político. Porque el algoritmo deja de aparecer como una herramienta neutral y empieza a mostrarse como una forma de tutela. Deja de constituir un instrumento al servicio de la humanidad, para erigirse como un nuevo actor en esta posmodernidad que atravesamos. Un novel protagonista con objetivos y ambiciones propias.

La democracia seguirá vigente como práctica. Habrá urnas, campañas, partidos, debates, representantes elegidos por el pueblo. Pero si las condiciones reales en las que se forma la percepción pública están administradas por sistemas opacos, predictivos, privados o con una dudosa sociedad entre lo público y lo privado, la libertad política empieza a vaciarse desde adentro. No hace falta prohibir el voto para domesticar la voluntad. Basta con intervenir de manera persistente en el ambiente donde esa voluntad se fabrica.

¿Democracia?

La economía conductual le dio incluso un nombre tranquilizador a esa ambición: “paternalismo libertario”. La idea parecía modesta, orientar decisiones sin prohibir opciones, empujar sin obligar. Pero cuando esa lógica se combina con plataformas, datos masivos, inteligencia artificial y capacidad estatal, deja de ser una intervención menor sobre la conducta y empieza a parecerse a otra cosa.

Por eso tal vez la palabra más precisa para nuestro tiempo no sea dictadura. Tampoco, todavía, autoritarismo en su forma clásica. El fenómeno es más sofisticado, más limpio, más eficiente. No aplasta la libertad a golpes. La rodea, la anticipa, la orienta. No necesita cancelar la democracia, le basta con tutelarla.

Democracia tutelada por algoritmos significa exactamente eso, instituciones formales intactas, autonomía ciudadana menguante. Sujetos que creen elegir libremente dentro de entornos diseñados para volver su conducta previsible, rentable y gobernable. Personas que son perfiladas mientras sienten que participan. Sienten que deciden, mientras otros organizan arteramente las condiciones en que decidirán.

La gran disputa de este siglo ya no pasa solo por el control del Estado. Pasa por el control de la infraestructura que modela la percepción, organiza la atención y define qué aparece como visible, pensable y posible. Defender la democracia ya no consiste solo en proteger el voto, la división de poderes o la libertad de prensa. También exige defender el espacio interior del juicio, el derecho a una percepción no administrada y la posibilidad de decidir sin que el entorno entero haya sido diseñado de antemano para empujarnos en una dirección.

El peligro es que un día descubramos que seguimos votando, opinando y participando en un mundo diseñado por otros.

Porque el peligro ya no es solo que nos mientan. Sino que no seamos capaces de discernir cuándo, quiénes, cómo, por qué y para qué lo hacen. Y sus consecuencias.

* Senador nacional por la provincia de Catamarca y miembro de la comisión de Medios de Comunicación y Libertad de Expresión

Seguí leyendo

Te Puede Interesar