Manipulación algorítmica y de redes sociales
En esta última entrega sobre manipulación, vamos a abordar una de las formas más recientes y perjudiciales: la algorítmica. Este concepto se refiere al conjunto de procesos mediante los cuales plataformas digitales y redes sociales seleccionan, priorizan y presentan información de manera personalizada, en función del perfil conductual, emocional y cognitivo del usuario.
A diferencia de la manipulación interpersonal o mediática tradicional, aquí no hay necesariamente un emisor humano directo: el intermediario es un sistema automatizado que aprende, predice y decide qué mostrar, cuándo y con qué intensidad.
El objetivo central no es informar ni vincular, sino maximizar variables como tiempo de permanencia, interacción, consumo o adhesión ideológica.
Uno de los conceptos fundacionales para entender este fenómeno es el de filter bubble o “burbuja de filtro”, propuesto por Eli Pariser (2011). Pariser advierte que los algoritmos tienden a mostrar contenidos alineados con preferencias previas del usuario, reduciendo progresivamente la exposición a perspectivas disonantes.
El resultado está muy lejos de ser una simple personalización inocente. Por el contrario, se trata de una edición sistemática de la realidad percibida, donde el mundo aparece filtrado según lo que confirma creencias, emociones o intereses ya existentes. Por esto no debería sorprendernos que aquellas cosas a las que le damos “me gusta” —y todos sus derivados— nos aparezcan una y otra vez.
Desde una perspectiva más amplia, Shoshana Zuboff (2019) introduce el concepto de capitalismo de la vigilancia, señalando que estas tecnologías no solo predicen comportamientos, sino que buscan moldearlos. Los datos de navegación, interacción y consumo emocional se convierten en materia prima para diseñar entornos digitales que orientan decisiones futuras. En este marco, la manipulación algorítmica deja de ser un efecto colateral y pasa a ser un modelo de negocio.
Investigaciones empíricas han mostrado que los sistemas basados en engagement (enganche) tienden a amplificar contenidos emocionalmente intensos —especialmente aquellos asociados a miedo, indignación o amenaza— porque generan más interacción sostenida (Tufekci, 2015; Brady et al., 2017). Esto no implica que haya una intención moral explícita por parte del algoritmo, pero sí se privilegia aquello que activa, polariza o captura atención, aun a costa del bienestar psicológico o de la cohesión social.
Desde la psicología social y cognitiva, autores como Cass Sunstein (2017) han advertido que estos entornos tan personalizados pueden erosionar la deliberación racional y reforzar sesgos preexistentes, generando cámaras de eco que dificultan el pensamiento crítico. En adolescentes y adultos jóvenes, estudios recientes vinculan este tipo de exposición algorítmica con mayor comparación social, aumento de ansiedad, sensación de aislamiento y distorsión del autoconcepto (Twenge et al., 2018; Keles et al., 2020).
En síntesis, la manipulación algorítmica no consiste en “mentirnos”, sino en decidir qué parte de la realidad vemos y cuál queda fuera del encuadre. No actúa sobre un mensaje puntual, sino sobre el entorno completo de información y estímulos. Y en ese punto, su impacto psicológico y social se vuelve profundo: no solo influye en lo que pensamos, sino en lo que creemos posible, frecuente o normal.
¿Cómo reconocer las “picardías” del algoritmo?
Como toda forma de manipulación, la algorítmica no opera mediante órdenes ni mensajes explícitos. No nos dice qué pensar, nos muestra qué mirar, y con eso alcanza. Por eso, uno de los primeros pasos para detectarla es abandonar la idea de que la influencia siempre es visible. En el entorno digital, la omisión pesa tanto como el mensaje.
Un primer signo frecuente es la sensación de repetición temática. El usuario empieza a notar que ciertos temas, miradas o climas emocionales aparecen una y otra vez, mientras otros desaparecen casi por completo. No porque el mundo sea así de homogéneo, sino porque el sistema aprendió qué tipo de contenido lo mantiene más tiempo activo. La diversidad informativa se reduce sin que medie una decisión consciente.
Otro indicador claro es el corrimiento emocional. El contenido que aparece nos activa. Genera enojo, ansiedad, indignación, comparación o miedo de manera sostenida. Cuando después de usar redes uno se siente más tenso, más irritado o más insuficiente que antes, conviene prestar atención. Los sistemas basados en enganche priorizan lo que moviliza, no lo que equilibra.
También es relevante observar la ilusión de elección. El usuario cree que decide libremente qué consume, pero en realidad el menú ya viene filtrado. Se muestran opciones, sí, pero dentro de un marco previamente definido por el algoritmo. Esto genera una experiencia subjetiva de autonomía que convive con una reducción objetiva del abanico de perspectivas.
Otro signo habitual es la aceleración del consumo. Scrollear sin pausa, pasar de un contenido a otro sin registro, perder noción del tiempo. Cuando la interacción se vuelve automática, el sistema está funcionando como fue diseñado: disminuyendo la reflexión y aumentando la permanencia.
Finalmente, aparece un fenómeno más sutil pero profundo: la normalización de una realidad recortada. Lo que se repite se vuelve “lo normal”, lo que no aparece parece irrelevante o inexistente. Con el tiempo, el usuario puede empezar a confundir frecuencia con importancia y viralidad con verdad.
Detectar estas señales no implica demonizar la tecnología ni desconectarse del mundo digital. Implica algo más simple y más difícil: recuperar una posición activa frente a lo que consumimos. Porque cuando el algoritmo decide sin que lo notemos, el problema no es la máquina. Es la pérdida de criterio propio.
Técnicas de manipulación algorítmica
Las formas de manipulación algorítmica pueden usar diversas técnicas. A continuación vamos a describir algunas de ellas pero debemos señalar que éstas no agotan el fenómeno. Existen otros mecanismos, combinaciones y variantes que dependen de la plataforma, del contexto cultural y del momento histórico. Sin embargo, consideramos que las que abordamos aquí son las más frecuentes y relevantes en la experiencia cotidiana de los usuarios. Son aquellas que operan de manera silenciosa y sostenida sobre la percepción, la emoción y el criterio personal. Comprender estos mecanismos puede ofrecer herramientas para reconocer cuándo el entorno digital deja de informar y empieza a influir sin que lo notemos.
Burbujas de filtro
Las burbujas de filtro se producen cuando los algoritmos seleccionan el contenido que ve un usuario en función de sus interacciones previas, mostrándole principalmente aquello con lo que ya coincide o que refuerza sus intereses, creencias o emociones habituales.
El objetivo declarado es “personalizar la experiencia”; el efecto real es reducir la exposición a miradas diferentes. Es así que empiezamos a vivir en un entorno informativo cada vez más homogéneo. Noticias, opiniones y relatos se repiten con leves variaciones, confirmando una y otra vez la misma versión de la realidad. Lo distinto, lo incómodo o lo contradictorio queda fuera del campo visual.
Un ejemplo sencillo: alguien que interactúa con contenido crítico sobre un tema social comienza a recibir casi exclusivamente publicaciones que refuerzan esa crítica. Con el tiempo, puede llegar a creer que “todo el mundo piensa así”, no porque sea cierto, sino porque el algoritmo dejó de mostrarle lo demás.
Manipulación basada en engagement
Como dijimos anteriormente, este tipo de manipulación no se centra en el contenido en sí, sino en la reacción que genera. Los algoritmos aprenden rápidamente qué despierta más respuestas emocionales —enojo, miedo, indignación, euforia— y priorizan ese material por sobre el contenido informativo o reflexivo.
El resultado es una dieta emocional intensa y desbalanceada. No se busca que el usuario entienda mejor un tema, sino que reaccione. La lógica es simple: lo que provoca emoción fuerte mantiene la atención y aumenta el tiempo de permanencia.
Un ejemplo cotidiano: dos noticias sobre el mismo hecho, una explicativa y otra redactada de forma alarmista. El sistema tenderá a mostrar la segunda, porque genera más comentarios, discusiones y compartidos, aunque aporte menos comprensión.
Edición de la realidad por comparación
Las redes sociales tienden a mostrar versiones editadas, optimizadas y fragmentarias de la vida ajena. El algoritmo amplifica este efecto priorizando imágenes, cuerpos, logros y experiencias que generan admiración o deseo, instalando un estándar irreal de normalidad.
Si bien no impone un mensaje explícito, podemos notar que construye un marco de comparación constante. El usuario no solo consume contenido: se mide a sí mismo contra él. La vida propia empieza a percibirse como insuficiente, aburrida o fallida.
Un ejemplo claro es el de adolescentes o adultos jóvenes que, tras pasar tiempo en redes, experimentan sensación de vacío o fracaso personal, aun cuando su situación objetiva no haya cambiado. Lo que cambió fue el parámetro con el que se evalúan.
Sesgos emocionales amplificados
Los algoritmos detectan con precisión qué tipo de emoción moviliza más a cada usuario y tienden a reforzarla. Si alguien reacciona con frecuencia al miedo, recibirá más contenido alarmante. Si responde al enojo, verá más confrontación. Si se engancha con la tristeza, se le ofrecerá material acorde.
Esto genera una amplificación progresiva de ciertos estados emocionales. La persona no solo siente más; siente siempre lo mismo, atrapada en un clima emocional que se retroalimenta.
Un ejemplo bastante común: alguien que atraviesa un momento de ansiedad empieza a consumir contenido relacionado con amenazas, riesgos o catástrofes. El algoritmo interpreta ese interés como preferencia y multiplica ese tipo de publicaciones, profundizando el estado inicial.
Microtargeting
El microtargeting consiste en dirigir mensajes altamente específicos a grupos o individuos definidos por sus características psicológicas, conductuales o emocionales. No todos ven lo mismo: cada usuario recibe una versión distinta del mensaje, diseñada para impactar justo donde es más vulnerable.
Esta estrategia se utiliza con frecuencia en publicidad y campañas políticas. El mismo producto, idea o candidato puede presentarse de maneras opuestas según el perfil del receptor, sin que estos mensajes sean visibles para el resto.
Un ejemplo conocido es el de campañas que muestran mensajes de miedo a personas ansiosas, promesas de control a quienes buscan seguridad o discursos de pertenencia a quienes temen quedar afuera. No se apela a la razón general, sino al punto débil particular.
¿Cómo no quedar atrapados por el algoritmo?
La manipulación algorítmica no opera porque el usuario sea ingenuo, sino porque explota mecanismos psicológicos universales: búsqueda de pertenencia, validación social, curiosidad, miedo a quedar afuera y necesidad de certeza. Los algoritmos aprenden qué activa emocionalmente a cada persona y refuerzan esos estímulos, reduciendo la exposición a miradas disonantes. Con el tiempo, esto puede generar dependencia, empobrecimiento del criterio propio y una forma de aislamiento paradójico: hiperconectados, pero cada vez más encerrados en una versión recortada del mundo.
Comprender este funcionamiento devuelve agencia. El problema no es usar redes o plataformas digitales, sino hacerlo sin conciencia de cómo moldean la atención, el deseo y la percepción de la realidad. Cuando el entorno digital define qué vemos, qué sentimos y qué creemos que “todos piensan”, la autonomía empieza a erosionarse, aunque no haya una intención explícita de control.
Como ya hemos visto la diferentes mecanismos que operan, ahora vamos a sugerir algunos tips de prevención que ayuden a no perder, o en su defecto a recuperar criterio y vínculo real:
- Reducir el impacto de estas dinámicas no implica desaparecer de lo digital, sino reequilibrar la balanza.
- Diversificar fuentes de información rompe la burbuja. Seguir medios, voces y personas con posturas distintas obliga al pensamiento a moverse y evita la ilusión de consenso permanente.
- Regular el tiempo de exposición es un acto de higiene mental. Menos horas no significan desinformación, sino más capacidad de digestión crítica.
- Observar el efecto emocional del contenido es clave: si después de consumirlo quedás más ansioso, irritado, comparándote o sintiéndote insuficiente, no es casualidad, es diseño.
- Desactivar notificaciones innecesarias y no seguir todo lo que “engancha” reduce la lógica del estímulo constante. El algoritmo empuja; poner freno también es una decisión.
- Y, sobre todo, sostener redes sociales reales. Conversaciones cara a cara, discusiones sin filtros, silencios compartidos. Ahí no hay microtargeting ni métricas de engagement. Hay matices, contradicción, humanidad.
Eso sigue siendo el mejor antídoto.
La tecnología no es el enemigo, pero tampoco es neutral. Entender cómo funciona permite usarla sin entregarle el timón. Donde hay conciencia, hay margen de elección. Y mientras exista la posibilidad de pensar, disentir y vincularse fuera de la pantalla, la manipulación nunca termina de cerrar el cerco.
Ahí está el buen pronóstico.
▼ Recursos Adicionales
Bibliografía Relevante:
Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A., & Van Bavel, J. J. (2017). Emotion shapes the diffusion of moralized content in social networks. Proceedings of the National Academy of Sciences, 114(28), 7313–7318. https://doi.org/10.1073/pnas.1618923114
Keles, B., McCrae, N., & Grealish, A. (2020). A systematic review: The influence of social media on depression, anxiety and psychological distress in adolescents. International Journal of Adolescence and Youth, 25(1), 79–93.
https://doi.org/10.1080/02673843.2019.1590851
Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin Press.
Sunstein, C. R. (2017). #Republic: Divided democracy in the age of social media. Princeton University Press.
Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13(2), 203–218.
Twenge, J. M., Joiner, T. E., Rogers, M. L., & Martin, G. N. (2018). Increases in depressive symptoms, suicide-related outcomes, and suicide rates among U.S. adolescents after 2010 and links to increased new media screen time. Clinical Psychological Science, 6(1), 3–17. https://doi.org/10.1177/2167702617723376
Zuboff, S. (2019) The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.
Únete a la comunidad de Afectos.org
Si estos contenidos te acompañan, puedes unirte a nuestra comunidad para recibir nuevos textos, reflexiones y materiales que seguimos creando cada semana.
© 2021–2026 Benicio de Seeonee —
Esta obra está protegida bajo una licencia Creative Commons Atribución–NoComercial–SinDerivadas 4.0 Internacional.
- Manipulación algorítmica y de redes sociales - abril 22, 2026
- El rey y el mendigo, de Benicio de Seeonee - abril 17, 2026
- Manipulación mediática: cómo influyen en tu mente sin que te des cuenta - abril 15, 2026

