Responsabilidades y consecuencias legales de que menores accedan a plataformas con límite de edad

1 year ago 73

Las páginas webs con contenido para adultos, al igual que las redes sociales, tienen límites de edad para su acceso. En el caso de las webs de casas de apuestas, páginas con contenidos pornográficos y webs donde se puede comprar alcohol, la edad mínima es 18 años. En las redes sociales, depende de cada plataforma pero suele rondar los 13 o 14 años de edad.

Estas plataformas cuentan con distintos sistemas para controlar que los usuarios tienen la edad estipulada en cada caso; algunos son estrictos y requieren de documentación, mientras que otros son más ligeros y fáciles de saltar. Si los menores consiguen burlar estos filtros y acceder a ciertas páginas o contenidos, las webs y plataformas pueden enfrentarse a una serie de responsabilidades y consecuencias por no haber aplicado procesos restrictivos suficientes, o la responsabilidad puede recaer en los padres y tutores si ha sido el menor el que ha falseado información.

Cuando el servicio se dirige solo a mayores de edad las empresas deben fortalecer sus mecanismos de seguridad

Las páginas webs deben responder a ciertos requisitos para ser legales. Además de esas condiciones generales, la abogada experta en Derecho Digital Camino García señala a Maldita.es que cuando el servicio va dirigido de manera exclusiva a mayores de edad, y además se trata de contenidos que pueden comportar un riesgo para los menores, “la empresa responsable del servicio deberá implementar mecanismos dirigidos a garantizar que solo se traten datos de mayores de edad”. Es decir, que se bloquee y se controle de alguna manera que los menores no puedan acceder a estos contenidos.

No basta solo con incorporar mecanismos para declarar la edad, explica, sino que deben implementarse mecanismos apropiados para verificar la edad. La experta recuerda el artículo 89 de la Ley 13/2022, de 7 de julio, General de Comunicación Audiovisual, que establece las medidas para la protección de los usuarios y de los menores frente a determinados contenidos audiovisuales. El artículo dice que estas plataformas deberán “establecer sistemas de verificación de edad” para evitar que los usuarios menores de edad puedan acceder a contenidos que “puedan perjudicar el desarrollo físico, mental o moral de los menores, como la violencia gratuita o la pornografía”.

¿Quién es responsable si un menor consigue acceder a contenidos para adultos?

La experta Camino García señala que si los prestadores de este tipo de servicios no hubieran habilitado un procedimiento apropiado y eficaz de verificación de edad, “sin ninguna duda se podría denunciar a estas páginas”. García hace referencia al artículo 45 de la Ley Orgánica 8/2021 de protección integral a la infancia y la adolescencia frente a la violencia en el que se afirma que “el acceso y consumo de pornografía entre la población menor de edad, especialmente en un mundo interconectado donde los menores de edad bucean en internet desde edades cada vez más tempranas, constituye un riesgo”.

El Acuerdo de la Comisión Nacional de los Mercados y la Competencia de 16 de junio de 2022 analiza la importancia de exigir una debida diligencia a las empresas que presenten este tipo de servicios y la obligación de establecer mecanismos de verificación de edad.

García señala que las empresas “podrían librarse” de responsabilidad dependiendo de las medidas que hubieran implementado y de “la causa” que hubiera propiciado el acceso: “Por ejemplo, en el caso de que una empresa contara con mecanismos de verificación adecuados (como por ejemplo un DNI en una página de apuestas), pero aún así el menor hubiera utilizado medios para burlar estos controles (como suplantación de identidad o usurpación de perfiles de terceros), se podría alegar esta circunstancia como causa eximente o atenuante de responsabilidad”.

Juan Carlos Fernández, experto en derecho digital y abogado CEO del despacho TECNOGADOS, señala a Maldita.es que estas páginas aseguran que sus procesos de verificación de identidad “responden a los medios que están a su alcance y que cumplen con la normativa”. Las plataformas sí serían responsables, dice Fernández, cuando no implementaran las medidas de verificación requeridas o cuando detectaran a un menor en la página, bien consumiendo contenido o publicándolo, y no hicieran nada por eliminarlo.

La Agencia Española de Protección de Datos (AEPD) multó en noviembre de 2022 con 525.000 euros a la empresa asturiana Techpump Solutions, titular de cinco páginas webs porno, por vulnerar la normativa de protección de datos. El organismo consideró que existía “vaguedad, falta de concreción y de transparencia” sobre la información tratada y suministrada a los usuarios, lo que consideran “infracciones muy graves”. En la resolución, que es recurrible ante la Audiencia Nacional, la AEPD le exige a la empresa sancionada que emplee “medidas de seguridad apropiadas mediante las que se verifique la edad de los usuarios, registrados o no, que accedan a las páginas de su propiedad, garantizando que son mayores de edad”.

¿Qué responsabilidades tienen los progenitores, tutores o representantes legales?

Ahora bien, si el menor accede a alguna página falseando la documentación y su información personal, explica Fernández, el que incumple es él, ya que está accediendo a un contenido falseando su identidad. En ese caso, la responsabilidad última recaería en los padres al tratarse de un menor de edad.

El motivo es que el artículo 84 del RGPD establece que los padres, madres, tutores, curadores o representantes legales procurarán que los menores de edad hagan un uso equilibrado y responsable de los dispositivos digitales y de los servicios de la sociedad de la información a fin de garantizar el adecuado desarrollo de su personalidad y preservar su dignidad y sus derechos fundamentales.

Ante eso, Fernández resalta que los progenitores pueden gestionar “el control parental en los dispositivos de los menores” para que esas aplicaciones o páginas webs estén bloqueadas. Además, el experto hace referencia a la guía de protección del menor en internet de la Agencia Española de Protección de Datos para evitar y reducir el riesgo de que los menores accedan a contenido inapropiado.

Sin embargo, dice Camino García, esto no exime a las empresas responsables del tratamiento del cumplimiento de las obligaciones que tienen respecto a los menores.

¿Qué responsabilidad tienen las redes sociales si las usan niños y niñas menores de la edad indicada?

El experto en Derecho Digital Borja Adsuara señala a Maldita.es que ahora mismo no existe una jurisprudencia clara sobre las diferentes redes sociales: “La Ley de Servicios Digitales (DSA en Europa) dice que estas plataformas deberían verificar la edad de los usuarios, pero, de momento, se están aplicando muy pocas sanciones”.

Las aplicaciones, dice Adsuara, se “han parapetado” en que no existe una tecnología disponible para poder hacerlo: “Es difícil hacer una verificación previa, pero podrían pedirla después y cerrar o bloquear esa cuenta si no se cumple con las normas”.

El problema con las redes sociales, en referencia a la presencia de menores que no tienen la edad establecida, es que, según Adsuara, si no tienen conocimiento de que se están produciendo irregularidades, de que hay personas que son menores y no cumplen con su normativa, no son responsables. Sin embargo, si reciben una denuncia que les alerta de que hay menores, o bien que se están infringiendo las normas, están obligados a tomar medidas, como por ejemplo cerrar la cuenta, y si no las toman ya sí que incurren en responsabilidades.

Laura Davara, abogada experta en Derecho Digital, explica a Maldita.es que es “una obligación” de las redes sociales hacer los esfuerzos suficientes para que no accedan a ellas los menores que no tengan la edad requerida: “La Ley de Protección de Datos (LOPDGDD) califica como infracción grave no acreditar la realización de esfuerzos razonables para verificar la validez del consentimiento prestado por un menor de edad o por el titular de su patria potestad o tutela sobre el mismo, conforme a lo requerido por el artículo 8.2 del Reglamento (UE) 2016/679”. Miguel Vieito, maldito experto en Derecho Digital que nos ha prestado sus superpoderes, coincide: “Es responsabilidad de la app colocar controles suficientemente estrictos (consentimiento paterno y/o copia del DNI) y, en cualquier caso, actuar inmediatamente si tienen constancia de un salto de edad”.

Ya hay algún ejemplo de sanción en estos aspectos. La Autoridad de Protección de Datos irlandesa condenó a Meta, compañía dueña de la red social Instagram, al pago de una multa récord de 405 millones de euros en septiembre del 2022. Lo hizo cuando un informe del servicio de investigación europeo parlamentario (EPRS por sus siglas en inglés) constató que los controles parentales y los requisitos de autodeclaración eran “inútiles” para impedir que los jóvenes accedieran a páginas con contenidos que no se ajustaran a su edad o plataformas en las que no cumplieran los requisitos.

La sanción llegó después de que se implementaran medidas de análisis facial y de testimonio de terceros para reforzar este control. La compañía aseguró estar “decepcionada”, según el periódico El País, y aseguró tener la intención “de recurrir tanto el fallo como las multas”.

En este artículo ha colaborado con sus superpoderes el maldito Miguel Vieito, experto en Derecho Digital.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Read Entire Article