Una prueba simple
Abre TikTok. Mira tu "Para ti". Ahora trata de describir qué tienen en común esos videos. No el tema superficial —eso es fácil— sino el tono emocional, el tipo de conflicto que aparece, el nivel de ironía, la velocidad del montaje, el tipo de creador que te engancha.
Probablemente no puedas articularlo completamente. Pero TikTok sí puede. Tiene 500 variables sobre tus preferencias, construidas a partir de 10,000 microacciones que hiciste sin pensar. Y es más preciso describiendo tu psicología que tú mismo.
Qué datos recopilan realmente
Cuando pensamos en "datos" que recopilan las redes sociales, solemos pensar en lo obvio: lo que publicamos, a quién seguimos, qué buscamos. Eso es el 5% del cuadro.
El otro 95% son los datos implícitos de comportamiento, que revelan mucho más sobre quién eres que lo que declaras explícitamente:
Microtiempos de atención
TikTok mide cuántos milisegundos exactos pasaste en cada punto de cada video. No solo si lo viste completo: si pausaste en el segundo 3.7, si rebobinaste entre los segundos 12 y 18, si tu ritmo de scroll decreció en ese momento.
Estos microtiempos revelan qué te captura emocionalmente antes de que proceses conscientemente la decisión. Tu atención involuntaria es más honesta que tus likes.
Patrones de sesión
A qué hora abres la app. Cuánto tiempo lleva hasta que te enganchas. Cuándo empiezas a scrollear más rápido (señal de que el contenido no está resonando). Cuándo te detienes más (el tipo de contenido que te ancla). Cómo termina cada sesión y con qué humor.
El algoritmo sabe si abres TikTok cuando estás aburrido vs. cuando estás ansioso vs. cuando estás solo —porque cada estado emocional produce un patrón de uso diferente.
La biometría pasiva
Este es el más inquietante. Los acelerómetros del teléfono registran la tensión muscular de cómo sostienes el dispositivo. La frecuencia de parpadeo (captada a través de la cámara frontal en algunos dispositivos) cambia con el nivel de atención. El ritmo de scroll correlaciona con el estado de arousal emocional.
Meta tiene una patente (2021) para inferir estados emocionales a partir de estos sensores. No requiere acceso a la cámara explícitamente: los sensores de movimiento bastan.
El modelo psicológico: qué construyen con esos datos
Con estas señales, los sistemas de recomendación construyen lo que los ingenieros de estas empresas llaman "embeddings de usuario": representaciones vectoriales de alta dimensión de tu psicología.
Lo que pueden inferir con precisión documentada (>80% de accuracy en estudios de validación interna de estas empresas, filtrados por investigadores):
Big Five de personalidad
Los cinco grandes rasgos de personalidad de la psicología (Apertura, Consciencia, Extroversión, Amabilidad, Neuroticismo) son inferibles a partir del comportamiento en redes con una precisión que rivaliza con tests de 100 preguntas administrados directamente.
Youyou et al. (2015) en PNAS demostró que con 300 likes de Facebook, un modelo de ML predice mejor la personalidad de un usuario que su propio cónyuge. Con más datos de TikTok, la precisión es aún mayor.
Estado emocional en tiempo real
Los algoritmos detectan cambios en el estado emocional del usuario durante la sesión y ajustan el contenido para mantenerlo en el nivel de arousal óptimo para el engagement. No demasiado tranquilo (se va). No demasiado perturbado (también se va). El objetivo es la zona de máximo engagement: levemente activado emocionalmente, con curiosidad sostenida, ligeramente insatisfecho para que siga buscando.
Vulnerabilidades y estados de riesgo
En 2017, un documento interno de Facebook (filtrado al Australian) describía cómo el algoritmo podía detectar cuando un adolescente se sentía "inseguro", "inútil" o "necesitado de confianza" —y cómo esa información podía usarse para servir publicidad en esos momentos de vulnerabilidad.
Facebook negó usar esta información para publicidad. Pero construir ese modelo requiere detectar esos estados. El modelo existe.
Cómo usa el algoritmo ese modelo para maximizar el engagement
Una vez construido el perfil psicológico, el algoritmo lo usa para resolver un problema de optimización: maximizar el tiempo total de sesión y la frecuencia de retorno. Las palancas principales:
Calibración del refuerzo variable
El modelo de adicción más potente conocido en psicología es el refuerzo variable: recompensas impredecibles en ratio variable. Las máquinas tragaperras lo usan. El scroll también.
El algoritmo no solo te muestra contenido relevante. Calibra la proporción de contenido muy relevante vs. mediocre para mantener la sensación de "búsqueda de recompensa" activa. Si todo fuera perfecto, el scroll perdería su componente de "quizás el siguiente sea mejor". El ratio óptimo produce el mayor tiempo de sesión.
Explotación de vulnerabilidades específicas de cada persona
Si el modelo detecta que eres susceptible a la comparación social (señal: pausas más tiempo en contenido que muestra estilos de vida aspiracionales), te servirá más contenido de ese tipo. Si eres susceptible a la indignación moral, tu feed tendrá más conflictos y outrage.
No es que el algoritmo sea malévolo. Es que está optimizando para una métrica (engagement), y la explotación de vulnerabilidades psicológicas es la solución más eficiente que ha encontrado.
El ciclo de intensificación
El algoritmo aprende con cada sesión. Si un tipo de contenido produce más engagement, sirve más de lo mismo, con ligera escalación. Usuarios que empezaron con contenido político moderado reportan feeds dominados por extremos después de meses de uso, sin haber buscado activamente ese contenido.
Este fenómeno —la radicalización algorítmica— está documentado en investigación independiente de YouTube (Ribeiro et al., 2020) y en comunicaciones internas de Facebook filtradas en los Facebook Papers (2021).
Lo que no puedes controlar consciente mente
El problema fundamental es asimétrico de información. Tú no sabes qué modelo tiene el algoritmo de ti. Él sí sabe exactamente qué modelo tiene de ti.
Cuando crees estar eligiendo conscientemente qué ver, en realidad estás ejecutando respuestas condicionadas que el algoritmo ha calibrado durante meses. La elección es real —nadie te obliga a quedarte— pero el menú de opciones y el orden de presentación están diseñados para hacer que una opción sea sustancialmente más probable que las demás.
Es la diferencia entre elegir libremente en un supermercado diseñado por psicólogos de comportamiento del consumidor. Técnicamente eliges. Pero los patrones de elección son predecibles con alta precisión.
¿Qué puedes hacer con esto?
No se trata de paranoia ni de borrar todas las apps. Se trata de entender la naturaleza real de la interacción para poder tomar decisiones más informadas.
1. Curar activamente el feed
El algoritmo aprende de tu comportamiento. Si activamente dejas de interactuar con ciertos tipos de contenido (sin hacer like, sin comentar, incluso reportando "no me interesa"), el modelo ajusta. El feed puede ser reentrenado, pero requiere esfuerzo intencional sostenido durante semanas.
2. Usar el modo "No personalizado"
TikTok, YouTube y otras plataformas tienen opciones para ver contenido no personalizado o en modo invitado. Pierdes la relevancia, pero también la explotación de vulnerabilidades específicas. Para uso informativo, puede ser preferible.
3. Conciencia del patrón de uso
Llevar un diario simple de cuándo y por qué abres las apps crea un espejo entre tu comportamiento real y tu self-image. La mayoría de usuarios subestima significativamente su tiempo de uso antes de medirlo objetivamente.
4. Herramientas de restricción técnica
Los límites de tiempo de pantalla, los modos de escala de grises, y las restricciones de apps son deliberadamente hackeables (las plataformas presionan para que las desactives). Pero crear fricción técnica adicional para el acceso sí reduce el uso impulsivo significativamente.
La lección de fondo: conocerse antes de que lo haga el algoritmo
La ironía más profunda del modelado algorítmico es esta: estas plataformas saben qué te activa emocionalmente, qué te hace sentir inferior, qué tipo de conflicto te engancha, cuándo eres más vulnerable. Y muchos usuarios no saben esas cosas sobre sí mismos con esa precisión.
El antídoto no es solo reducir el uso. Es invertir ese tiempo en el tipo de autoconocimiento que hace que el perfil algorítmico sea menos explotable: saber cuándo estás vulnerable, qué emociones te mueven, qué te hace tomar decisiones de las que te arrepientes. No para el algoritmo. Para ti.