La nueva normativa europea de servicios digitales (abreviada como DSA, por sus siglas en inglés), que entró en vigor el pasado 25 de agosto y aplica inicialmente a las grandes plataformas online (en inglés Very Large Online Platforms -VLOP-), representa un cambio de paradigma en el modo de regulación de las plataformas que ofrecen esos servicios dentro de la Unión Europea.
Esto quiere decir que, a partir de la DSA, se pasa de un modelo de autorregulación de las empresas a uno en el que las autoridades judiciales o administrativas nacionales pertinentes y la Comisión Europea desempeñarán un papel central como encargados de aplicar normas más estrictas. Se mantendrá una cooperación público-privada en la gobernanza de las plataformas, pero con mayor supervisión estatal.
Por ahora, las reglas sólo se aplican a 19 de las plataformas en línea más grandes. Es decir, aquellas que cuentan con más de 45 millones de usuarios en el bloque de 27 países. Estas son: X, TikTok, Instagram, Wikipedia, Zalando, AliExpress, Amazon, la AppStore de Apple, Bing, Booking, Facebook, Google Search, Google Play, Google Maps, Google Shopping, LinkedIn, Pinterest, Snapchat y YouTube. Sin embargo, está previsto que a partir de mediados de febrero de 2024 el reglamento se aplicará a una mayor variedad de plataformas en línea, independientemente de su tamaño.
Es importante recordar que la DSA se asegura de que las grandes plataformas tengan un conjunto de normas separado a aquellas otras medianas o pequeñas, ya que tienen más recursos para hacer frente a los daños y una mayor cuota de responsabilidad. Esta medida es la que busca garantizar una mayor competencia en el mercado, por no imponer altas barreras de entrada a servicios digitales europeos más pequeños.
Estos son algunos de los puntos centrales que establece la normativa europea:
- Un entorno en línea más seguro: obliga a las plataformas a tomar medidas rápidas para abordar el contenido ilegal y evaluar anualmente los riesgos que plantea el contenido que alojan y circulan.
- Una mayor transparencia: las plataformas deben ser más transparentes sobre cómo funcionan sus algoritmos y prácticas comerciales, lo que ayudará a los consumidores a tomar decisiones más informadas.
- Mayor diligencia y transparencia en la moderación de contenidos: los consumidores podrán participar en las decisiones de moderación de contenido que tomen las empresas e impugnarlas formalmente.
- Mayores protecciones para los consumidores frente a la publicidad personalizada: prohíbe la publicidad dirigida a menores basada en la elaboración de perfiles y obliga a las plataformas a etiquetar los anuncios e informar sobre quién los pone.
- Mecanismos de reclamación y resolución de conflictos: las grandes plataformas digitales tendrán que poner a disposición de los consumidores mecanismos para presentar reclamaciones y resolver disputas.
En el marco de la entrada en vigor de la DSA, el comisario europeo de Mercado Interior, Thierry Breton, declaró: “Europa es hoy la primera jurisdicción del mundo donde las plataformas en línea ya no tienen un ‘trato de favor’ y no fijan sus propias reglas. Ahora son entidades reguladas al igual que las instituciones financieras”. Asimismo, prometió “hacer cumplir escrupulosamente la LSD”.
Por su parte, la presidenta de la Comisión Europea, Ursula von der Leyen, aseguró en su cuenta de X (ex Twitter): “Llevamos nuestros valores europeos al mundo digital. Con normas estrictas sobre transparencia y rendición de cuentas, nuestra Ley de Servicios Digitales pretende proteger a nuestros niños, sociedades y democracias”.
¿Qué podría pasar si alguna de las grandes plataformas incumple con lo que indica la DSA? Podría enfrentarse a una multa de hasta el 6% de su facturación global. Además, a los infractores reincidentes se les puede prohibir operar en el bloque europeo por completo.
Cambios en la regulación de procesos: transparencia y obligación de notificar
Uno de los puntos centrales que se le exige a las grandes plataformas es la que se sintetiza con el concepto de transparencia. ¿En qué consiste? En primer lugar, en el artículo 15, inciso 1, sobre obligaciones de transparencia informativa de los prestadores de servicios intermediarios, se indica que las empresas deben publicar “al menos una vez al año, informes claros y fácilmente comprensibles sobre cualquier actividad de moderación de contenidos que hayan realizado durante el período”. En el caso de los prestadores de plataformas en línea, en el artículo 24 se indica que, además, deben publicar en alguna sección de su sitio web, y a disposición del público, información sobre el promedio mensual de destinatarios del servicio activos en la Unión Europea. Para las grandes plataformas (VLOP), el artículo 42 indica que deberán publicar los informes al menos cada seis meses.
El artículo 26, sobre publicidad en las plataformas en línea, por su parte, indica que las empresas deberán asegurarse de que las personas usuarias tendrán la capacidad de identificar, “de manera clara, concisa e inequívoca y en tiempo real” si una información es un anuncio publicitario, quién es su promotor y cuáles son los parámetros utilizados para determinar el destinatario del anuncio.
Con respecto a la exigencia de transparencia del sistema de recomendación, uno de los temas centrales que se han puesto en discusión en los último años, el artículo 27 establece que las plataformas no solo deberán explicar con claridad cuáles son “los parámetros principales utilizados en sus sistemas de recomendación” sino también indicar en sus condiciones generales cuáles son las opciones que las personas usuarias tienen a disposición para “modificar o influir en dichos parámetros principales”.
Dentro de la exigencia por la transparencia de sus procesos y mecanismos en las tomas de decisiones, las empresas tecnológicas deberán permitir que las y los expertos del recién creado Centro Europeo para la Transparencia Algorítmica, una agencia de la UE, evalúen si sus algoritmos cumplen las distintas obligaciones establecidas por la normativa.
De acuerdo con la ley de servicios digitales, tanto los servicios de alojamiento de datos, como las plataformas en línea y las plataformas de muy gran tamaño, tienen la obligación de notificar, adoptar medidas e informar a los usuarios en los casos de actuación contra contenidos ilícitos (artículo 16) y contra usos indebidos (artículo 23).
Garantizar el derecho a apelar de las personas usuarias
Uno de los objetivos de la normativa de Servicios Digitales es que las personas usuarias de las plataformas puedan denunciar en forma más fácil una publicación, un video o un comentario que infrinja la ley o las reglas de la plataforma para que puedan ser revisados y eliminados si es necesario.
Además, la DSA incorpora la obligación de garantizar el derecho de las personas usuarias a apelar las decisiones que tomen las plataformas sobre la moderación de los contenidos que publican, en los casos en que consideren que esa moderación sea injusta.
Se trata del artículo 20, sobre el sistema interno de gestión de reclamaciones en el que indica que las plataformas deben facilitar “un sistema interno eficaz de gestión de reclamaciones, que les permita presentar las reclamaciones por vía electrónica y de forma gratuita, contra la decisión tomada por el prestador de la plataforma en línea cuando reciban una notificación o contra las siguientes decisiones adoptadas por el prestador de la plataforma en línea (…)”.
Medidas contra la recomendación algorítmica basada en perfiles
En el artículo 25, sobre el diseño y organización de interfaces en línea, se establece que las plataformas no deben diseñar, organizar ni gestionar sus interfaces de manera que engañen o manipulen a sus usuarias y usuarios ni que distorsionen u obstaculicen “la capacidad de los destinatarios de su servicio de tomar decisiones libres e informadas”.
Con respecto a la protección de los menores en línea, en su artículo 28 la ley indica que las plataformas deben establecer “medidas adecuadas y proporcionadas para garantizar un elevado nivel de privacidad, seguridad y protección” y les prohíbe presentar publicidad personalizada a los menores de edad.
De acuerdo con lo establecido en el artículo 38, una de las medidas que deberán aplicar las grandes plataformas (VLOP) es ofrecer a las personas usuarias “al menos una opción para cada uno de sus sistemas de recomendación que no se base en la elaboración de perfiles”. Diversos expertos han responsabilizado a los sistemas de recomendación algorítmica, basados en perfiles de usuario, de crear las llamadas burbujas de filtro y de impulsar a los usuarios de las redes sociales a realizar publicaciones cada vez más extremas. Es por esto que, según el artículo 34, las grandes plataformas deberán detectar, analizar y evaluar cualquier riesgo sistémico que se derive del diseño o del funcionamiento de su servicio (incluyendo a los sistemas algorítmicos) y, además, aplicar medidas de reducción de esos riesgos (artículo 35), “teniendo especialmente en cuenta las consecuencias de dichas medidas sobre los derechos fundamentales”.
El objetivo es que las personas tengan mayor poder de decisión en cuanto al modo en que ven sus feeds, es decir la información y los contenidos que se les muestra, incluyendo cómo se va a ordenar esa información (como indica el artículo 27): por ejemplo, las y los usuarios podrán elegir que los contenidos se presenten de acuerdo a un orden cronológico o, por el contrario, a lo que establezcan los algoritmos de recomendación (basado en sus datos personales, redes de contacto, perfil y sus datos de comportamiento dentro de la plataforma).
Oportunidades y desafíos para América Latina
La Unión Europea suele ser ejemplo para otras regiones o países en materia de regulación de los nuevos desafíos que presenta la implementación de las tecnologías de la información y la comunicación (TIC). Es el caso del Reglamento General de Protección de Datos (RGPD) o la Ley de Mercados Digitales.
Para aquellas regiones, como América Latina, que tienen en la agenda del debate público cómo regular a las plataformas, la Ley de Servicios Digitales puede ser un buen ejemplo para impulsar una discusión más firme. Por un lado, en lo que se refiere a la transparencia con respecto a los mecanismos de moderación de contenidos, así como en el hecho de que las personas usuarias de las grandes plataformas tengan más poder de decisión acerca de cómo acceder a la información. Otros puntos de la DSA que sirven de referencia para impulsar la discusión en la región son las medidas contra la recomendación algorítmica basada en perfiles así como una mayor privacidad y protección de los menores.
El desafío estará en lograr que la discusión se lleve adelante desde una región unida y no desde cada país en forma aislada. Desde el 25 de agosto, las personas usuarias de la Unión Europea ya comienzan a ver cambios en grandes plataformas como Meta (Instagram y Facebook), Google, TikTok e incluso Apple.