un llamado a la “autorización de comercialización de algoritmos”


El viernes 3 de octubre en Saarbrücken (Alemania), Emmanuel Macron denunció la “ingenuidad” de Europa frente a las redes sociales, controladas por actores estadounidenses o chinos, en el mejor de los casos indiferentes al vigor de nuestras democracias, en el peor decididos a destruirlas. Su discurso terminó con una oleada a favor de una “asustar” Europeo.


¿Te despiertas tarde? Los daños a la salud, psicológicos y cognitivos ya están presentes. La pandemia digital ha llegado a una etapa muy avanzada. Casi la mitad de los jóvenes entre 15 y 29 años pasan más de tres horas al día en las redes sociales (Instituto Montaigne, 2025, PDF)y por lo tanto experimentan un mayor riesgo de síntomas depresivos. El 48% de los jóvenes entre 18 y 24 años dicen sentir los efectos nocivos de las redes sociales en su salud mental. (YouGov para Dailymotion, 2024, PDF). Cualquiera que se dedique a la educación confirmará que, año tras año, es testigo lamentable de la constante disminución de la capacidad de concentración de sus alumnos. ¿Cómo podemos sorprendernos? Desplazamiento infinito: que nos lleva una media de 141 metros al día en nuestras pantallas (OnePlus, 2019) – participa en la catástrofe cognitiva en curso.


¿Hemos visto alguna vez ratas de laboratorio más dispuestas? La tecnología digital nos permite olvidarnos de nosotros mismos, escapar de nosotros mismos en un entretenimiento permanente, consumiendo nuestro tiempo y desempoderándonos del deber que conlleva nuestra propia existencia. Ciertamente es cómodo para el individuo, pero, en realidad, éste no es libre de actuar como lo hace. Investigadores de Silicon Valley o de la sede de ByteDance (actualmente TikTok) en China no han dejado nada al azar. El algoritmo, antes anticronológico, ahora es personalizado. Se basa en nuestros gustos, nuestros intereses, y ello nos expone a contenidos que van mucho más allá de lo que producen nuestras redes de amigos. Cada dato entregado por nuestros usos se explota científicamente para definir contenidos capaces de retener al conejillo de indias el mayor tiempo posible. La dosis de dopamina se calcula, se mide con precisión, para asegurar una recompensa que siempre se retrasa para dejarnos esperando una nueva inyección.



Sin embargo, las plataformas parecen favorecer la negación para preservar sus ganancias. Sólo Mark Zuckerberg, presionado por una comisión de investigación del Senado de EE.UU. (en febrero de 2024)presentó sus disculpas personales a las víctimas -padres de niños suicidas- sin reconocer la responsabilidad de su red (Meta es propietaria de Facebook e Instagram, entre otros).


La pregunta entonces es: ¿qué pueden hacer los poderes públicos ante esta ofensiva algorítmica? si el Ley de servicios digitales (DSA) (el reglamento europeo sobre servicios digitales, adoptado en 2022) constituye un verdadero paso adelante, al obligar a las plataformas a realizar mayores “transparencia algorítmica”sigue siendo insuficiente. El análisis anual de los riesgos sistémicos generados por los algoritmos de las grandes plataformas se basa en valoraciones realizadas por las propias multinacionales. Esto plantea un alto riesgo de conflicto de intereses. Y esto, a pesar del control de la Comisión Europea limitado en gran medida por una flagrante falta de medios en términos de recursos humanos. Estas medidas son sobre todo insuficientes porque se basan en controles a posterioriy nunca aguas arriba. El peligro, a largo plazo, es simplemente sacrificar a las generaciones futuras a la pasividad de la acción pública.



Por eso pedimos que se establezca una autorización de comercialización de algoritmos (Amma), a nivel europeo y, en su defecto, a nivel francés. Para los actores digitales, se trata primero de demostrar la seguridad de sus algoritmos para la salud mental y cognitiva. Entre los criterios para evaluar la nocividad de estos últimos podrían estar: el tiempo medio de uso antes de la aparición de los primeros síntomas de consumo excesivo (trastornos de ansiedad, autodesprecio, síntomas depresivos, etc.); la visibilidad de contenidos difundidos de naturaleza violenta o sexual; la capacidad del algoritmo para controlar las reacciones dopaminérgicas (que naturalmente requiere validación clínica); estudios longitudinales sobre el bienestar de muestras experimentales representativas; o la manifestación de posibles conductas adictivas, estudiadas en función de la frecuencia de conexión o la imposibilidad de controlar el consumo. La lista no es exhaustiva y deberá completarse y corregirse en función de las capacidades técnicas, humanas y científicas disponibles. En cualquier caso, este no puede ser un precio demasiado alto a pagar dado el riesgo de dejar atrás a una generación sacrificada.


Sin cumplimiento, estos flujos algorítmicos originalmente dañinos serán exclusivamente cronológicos, restringidos a nuestras suscripciones únicamente, paginados (pongamos fin al desplazamiento infinito para limitar su influencia en nuestras vidas) y, en última instancia, desactivados. De hecho, las exigencias sanitarias y cognitivas de las autoridades públicas no pueden tolerar procesos tan agresivos y adictivos, a menos que estén ilustrados con una costosa franqueza. A nivel europeo, una autoridad como la Dirección General de Servicios Digitales (DG Digit) podría encargarse de este control a priori. Los datos serán proporcionados por las multinacionales ya procesados ​​para que sean directamente utilizables, con el objetivo de evitar costes adicionales en el control de las “cajas negras” que son los algoritmos. En Francia, Arcom (la Autoridad Reguladora de la Comunicación Audiovisual y Digital) o el Cnil (la Comisión Nacional de Tecnologías de la Información y Libertades) También podrían ser interlocutores privilegiados. No debemos ceder ante las sirenas de la impotencia. La justicia holandesa ya ha impuesto a Meta una multa de 100.000 euros por día hasta que se implemente por defecto una visualización cronológica. Depende de nosotros hacer lo mismo.



En la batalla global por la cognición, preservar a las nuevas generaciones no es una opción, sino un deber. Para que el tribunal de las generaciones futuras no nos denuncie como vilipendiadores, es imperativo que actuemos. El riesgo de una adicción generalizada bajo la influencia de este opio del siglo XXImi No hay que subestimar este siglo.

Este artículo es una columna, escrita por un autor ajeno al periódico y cuyo punto de vista no compromete a la redacción.

Deja un comentario