
POR ALEJANDRO MARCÓ DEL PONT
Imagina esta escena. Son las once de la noche, estás en el sofá, el dedo se desliza mecánico por la pantalla. Llevas cuarenta minutos viendo vídeos de recetas que no cocinarás, discusiones políticas que no votarás y la sonrisa impostada de influencers que no conoces. De repente, aparece un post. Algo sobre inmigración, o sobre fútbol, o sobre lo que dijo aquel político. No lo sabes bien, pero algo dentro de ti se contrae. Escribes un comentario afilado, lo envías, esperas la réplica. Cuando levantas la vista, ha pasado otra hora. Te prometes que mañana será diferente, pero no lo será.
Lo que no ves, detrás de esa pantalla, es a un Algoritmo frotándose las manos. Tu enojo acaba de generar ingresos para alguien. Puede llamarse Elon Musk, puede llamarse Mark Zuckerberg. No importa. El Sistema ha funcionado a la perfección. No es un error. Es el Negocio.
Durante años hemos creído que las Redes Sociales son una plaza pública ruidosa pero Neutral, un lugar donde lo mejor y lo peor de la humanidad compiten en igualdad de condiciones. Nos han contado que el odio, la mentira y la polarización son efectos secundarios del éxito, accidentes lamentables en una revolución tecnológica maravillosa. Esta historia es consoladora, pero es FALSA. Como un detective que reconstruye la escena de un crimen corporativo, podemos trazar el recorrido del dinero y descubrir que el Odio no se cuela en las redes a pesar del sistema, sino gracias a él.
Este artículo es “Un manual oscuro de las redes sociales”. No un manual secreto filtrado desde Silicon Valley, sino una hoja de ruta construida a partir de tres investigaciones recientes: el Análisis sobre la Dinámica del Odio en X (antes Twitter) publicado en la Revista Heliyon (ScienceDirect), el reporte de Petter Törnberg sobre el Modelo de Negocio de la Desinformación en The Conversation, y el Experimento de la Revista Science que demostró cómo los algoritmos pueden Inducir Polarización Política en apenas Diez días. Con estas piezas, podemos armar el Rompecabezas completo.
Para entenderlo bien, empecemos por lo más simple. Una red social no es una Empresa de Tecnología. Es una Empresa de Publicidad que utiliza la Tecnología para «Vender» nuestra atención. Su producto no son las plataformas que usamos gratis, sino Nosotros Mismos, nuestro tiempo, nuestras emociones, nuestros datos. Los Algoritmos no son inteligencias neutrales que nos muestran lo que queremos ver; son Sommeliers entrenados para servir el plato que nos hace pedir más bebida, aunque nos siente mal. Si el restaurante descubre que lo picante nos mantiene en la mesa, el mozo no nos traerá agua, nos traerá más picante.
Pero esto no es una metáfora, es una Industria. Y como toda Industria, tiene su cadena de valor, sus actores, sus márgenes y sus externalidades. El Mercado Global de Publicidad Digital alcanzó en 2025 los 690 Mil Millones de Dólares. Para poner esa cifra en perspectiva: es más que el Producto Interior Bruto de países como Suiza o Turquía. Es, sobre todo, un Flujo de Dinero que no existía hace veinte años y que hoy sostiene a las Empresas más valiosas del planeta.
¿Cómo se reparte ese pastel? Las plataformas (Meta, Alphabet, ByteDance, X) se quedan con la mayor parte. Meta ganó 62.300 Millones de Dólares Netos en 2024, un 59% más que el año anterior. Alphabet, matriz de Google y YouTube, superó los 100.000 Millones. Son beneficios que no provienen de vender coches o medicinas, sino de administrar nuestra atención. Luego vienen los Intermediarios Tecnológicos, la llamada industria ad tech: Empresas Opacas que operan el Software que hace que los anuncios nos persigan por Internet. Estas compañías, muchas de ellas desconocidas para el gran público, se embolsan comisiones por cada impresión, por cada clic, por cada dato intercambiado. Y al final de la cadena, los creadores de contenido, los influencers que han aprendido que la provocación paga mejor que la moderación, y que un video incendiario puede financiar una casa en Miami.
El Manual que desplegaremos a continuación tiene tres niveles de profundidad, como las capas de una cebolla tecnológica. Primero, la capa de la vigilancia, cómo nuestros datos se convierten en petróleo. Segundo, la capa del entrenamiento, cómo los algoritmos aprenden a envenenarnos. Tercero, la capa de la monetización, cómo la ira se transforma en Dólares, Euros o Pesos, y quién se los lleva.
La primera capa es la más silenciosa, quizá por eso la hemos normalizado. Las redes no son gratis. Pagamos con algo más íntimo que el dinero. Pagamos con cada pausa del dedo sobre la pantalla, con cada vídeo que vemos hasta el final, aunque nos aburra, con cada like que delata una emoción. En 2026, la inteligencia artificial ya no necesita preguntarnos cómo nos sentimos; lo infiere de la velocidad con la que escribimos, del brillo de la pantalla a las tres de la madrugada, de si compartimos más gatos o más protestas. Es como si un vecino espía pasara veinticuatro horas asomado a nuestra ventana, tomando notas, prediciendo nuestro humor antes de que nosotros mismos lo sepamos.
Argentina tiene una Ley de Protección de Datos, la Ley Nº 25.326, que en el papel parece frágil. Pero las plataformas operan desde Delaware, Dublín o Singapur, y nuestros datos viajan por cables submarinos que ninguna normativa local alcanza a cortar. Cada vez que aceptamos las condiciones sin leer, entregamos un diario íntimo a cambio de entretenimiento. El Negocio funciona porque el trueque es invisible: no vemos el dinero salir de nuestro bolsillo, solo vemos videos. Y, sin embargo, ese trueque es la base de todo lo demás.
La segunda capa es la del entrenamiento. Los algoritmos no nacen sabiendo qué nos enfurece. Asimilan. Lo hacen a través del aprendizaje automático, una palabra sofisticada para describir un proceso casi infantil, ensayo y error a escala planetaria. Un algoritmo prueba miles de versiones de un mismo feed. Mide cuánto tiempo nos quedamos, si comentamos, si volvemos. Descubre, por ejemplo, que el contenido que llama “Ellos” contra “Nosotros” genera un 67% más de interacciones. Descubre que las imágenes manipuladas provocan más clics que las verificadas. Descubre que la irritación es adictiva.
Un experimento reciente publicado en Science lo demostró con crudeza. Un equipo de investigadores creó una extensión de navegador que alteraba el orden de los posts en X. Cuando aumentaban artificialmente la presencia de contenido con animosidad partidista, los usuarios se volvían más polarizados. Cuando reducían ese contenido, la polarización disminuía. La conclusión es incómoda porque elimina cualquier ambigüedad, el problema no es lo que los usuarios piden, sino lo que el algoritmo sirve. Si el camarero solo trae platos picantes, el comensal acabará creyendo que eso es lo único que hay en la carta.
Documentos internos de Facebook, destapados en 2021 por la denunciante Frances Haugen, revelaban que la compañía sabía perfectamente que Instagram empeoraba la salud mental de las adolescentes. También sabían que el algoritmo amplificaba el extremismo. También sabían que desactivar los mecanismos de propagación viral reducía la desinformación. Pero cada una de estas soluciones reducía el tiempo de pantalla, y el tiempo de pantalla es la materia prima de la publicidad. La decisión empresarial fue siempre la misma, optimizar para el crecimiento, asumir el daño colateral. No es Conspiración, es Contabilidad.
La tercera capa es la del Dinero. El Mercado Global de Publicidad Digital ronda ya los 690 Mil Millones de Dólares. El mecanismo es brutalmente simple. Más tiempo en la app significa más anuncios vistos, más anuncios vistos significa más dinero. Para que pases más tiempo, el algoritmo necesita mantenerte activo, comentando, compartiendo, enojándote. El odio es eficiente porque es inmediato. Una mentira escandalosa viaja más rápido que una verdad matizada porque no requiere contexto, no pide pausa, no invita a la duda. Solo pide reacción. Y cada reacción es un dato, cada dato es una predicción, cada predicción es un anuncio mejor dirigido.
El estudio portugués publicado en Heliyon aporta una pieza que completa el cuadro. Los investigadores analizaron miles de conversaciones en X y descubrieron que el discurso de odio no suele nacer dentro de las comunidades, sino que llega desde fuera. Son intrusos que irrumpen en hilos ajenos, lanzan su mensaje agresivo y desaparecen. El patrón es claro: el odio se concentra en las primeras dos horas de una conversación, cuando la visibilidad es máxima y el impacto puede ser explosivo. No es espontáneo; es táctico. Es contenido diseñado para secuestrar la atención en su momento más vulnerable.
Este hallazgo destruye la narrativa de que las redes solo reflejan la maldad humana preexistente. Lo que hacen es amplificarla selectivamente, premiarla con visibilidad, incentivarla con ingresos. Los creadores de contenido lo saben. Publicar algo moderado, veraz y matizado es la vía rápida al anonimato. Publicar algo incendiario, simplista y maniqueo es la vía rápida a la viralidad. El mercado ha establecido sus precios, y la honestidad no cotiza en bolsa.
Hubo un momento, en 2020, en que pareció que algo podría cambiar. Bajo el lema “Detener el odio por lucro”, más de mil marcas se unieron a un boicot publicitario contra Facebook. Grupos de derechos civiles señalaban directamente la complicidad de la plataforma con el racismo y la desinformación. Marcas globales como Coca-Cola, Starbucks y Unilever retiraron millones en publicidad. Mark Zuckerberg anunció cambios: etiquetas en posts problemáticos, eliminación de contenido supremacista, ajustes en los sistemas de recomendación.
El impacto financiero fue imperceptible. Facebook siguió ganando fortunas. El boicot se diluyó. Las marcas volvieron. El sistema demostró su resiliencia. No necesita que todos los anunciantes estén a bordo, solo los suficientes. Y siempre hay suficientes. Mientras la indignación colectiva dure un ciclo de noticias y el miedo a perder ventas dure para siempre, el cálculo empresarial seguirá siendo el mismo.
Lo más inquietante de este manual no es la denuncia, sino la naturalidad con la que lo hemos asumido. Nos indignamos, compartimos, debatimos, nos agotamos. Y al día siguiente repetimos. Las Redes han perfeccionado la Ingeniería de la Adicción Emocional. Saben que el miedo vende más que la esperanza, que la furia retiene más que la calma, que la simplicidad rinde más que la complejidad. Han construido imperios sobre la explotación de nuestros peores instintos, y lo han hecho con nuestro consentimiento expresado en clics.
Pero quizá lo más peligroso que han hecho las Redes no sea polarizarnos o mentirnos. Es hacernos creer que este es el único mundo posible. Que la publicidad comportamental es el único modo de financiar la comunicación digital. Que el algoritmo debe optimizar para generar like, porque no hay otra métrica disponible. Que la moderación de contenidos es un problema técnico, no una decisión política. Nos han convencido de que no hay alternativa, y esa convicción es la zanja más profunda que han cavado.
El Manual que hemos desplegado no es un ataque a la tecnología, ni una nostalgia por un pasado analógico idealizado. Es una invitación a usar estas herramientas con los ojos abiertos. La próxima vez que sientas esa oleada de enojo mientras el dedo se desliza, haz una pausa. Pregúntate: ¿esto me está informando o me está utilizando? ¿Este post existe para comunicarme algo o para provocarme una reacción? ¿Quién gana cuando yo pierdo los estribos?
Porque mientras usted se enoja, alguien en California está contando la plata. Y mientras nosotros discutimos si el problema es la izquierda o la derecha, los algoritmos siguen aprendiendo. Y mientras los Gobiernos debaten comisiones y los periódicos publican análisis y los académicos escriben papers, las acciones de Meta suben otro punto porcentual.
El Odio no es un error del sistema. Es el sistema funcionando a pleno rendimiento. La pregunta no es si las redes pueden cambiar. La pregunta es si nosotros podemos exigirlo antes de que el costo de no hacerlo sea irreversible. La próxima vez que abras la aplicación, recuerda. No eres el cliente. Eres el producto. Y el producto más rentable es aquel que no sabe que lo están vendiendo.
