Meta y TikTok bajo investigación de la UE por ocultar algoritmos y no frenar contenido ilegal
La Comisión Europea ha abierto una investigación formal contra Meta (Facebook e Instagram) y TikTok por presuntas violaciones a la Ley de Servicios Digitales (DSA, por sus siglas en inglés), al considerar que ambas plataformas no cumplen con las obligaciones de transparencia y seguridad impuestas por la legislación europea.
Según las conclusiones preliminares presentadas por Bruselas, Meta y TikTok habrían restringido el acceso de investigadores independientes a datos internos clave, dificultando la verificación del cumplimiento de las normas de transparencia. Además, se señala que los sistemas de moderación de contenido de ambas plataformas no son suficientemente eficaces para prevenir la difusión de contenido ilegal, como material terrorista o de abuso sexual infantil. En el caso de Meta, se ha identificado una falta de mecanismos eficaces que permitan a los usuarios de Facebook e Instagram alertar sobre la existencia de contenido ilegal. Por su parte, TikTok habría sido acusada de no ser suficientemente transparente sobre cómo funcionan sus algoritmos que determinan el contenido que los usuarios ven en la plataforma.
La DSA, en vigor desde febrero de 2024, establece un marco legal pionero a nivel mundial para regular el funcionamiento de las grandes plataformas tecnológicas, obligándolas a prevenir la difusión de contenido ilegal, proteger a los menores y facilitar el acceso a datos para investigaciones independientes. Su incumplimiento puede acarrear multas de hasta el 6 % de los ingresos globales anuales de las compañías infractoras, lo que en el caso de Meta podría superar los 7.000 millones de euros.
Meta y TikTok disponen ahora de un plazo para responder por escrito y presentar medidas correctivas. Si las conclusiones preliminares se confirman, la Comisión Europea podría imponer sanciones ejemplares y exigir cambios inmediatos en las políticas de moderación, publicidad y transparencia algorítmica de ambas plataformas.
Esta investigación forma parte del nuevo enfoque europeo para reforzar el control sobre las grandes tecnológicas, tras años de controversias relacionadas con la desinformación, la manipulación de contenidos y la protección de menores.

