Uno de los ejes principales de actuación de las autoridades reguladoras es la protección de los menores y muy particularmente la protección de los menores en el entorno digital. Es decir, debe evitarse que los menores accedan a aquellos contenidos que puedan perjudicar su desarrollo físico, psíquico y moral
Foto cortesía de Pixabay
*** Roger Loppacher i Crehuet es Presidente del Consejo del Audiovisual de Cataluña (CAC)
En los últimos años, el sector audiovisual ha cambiado drásticamente y uno de los principales retos que tenemos todos los reguladores es adaptar esta protección del menor a la nueva realidad audiovisual, caracterizada por un cambio en el consumo audiovisual, principalmente de contenidos de plataformas de intercambio de vídeos, como YouTube, Dailymotion, Vimeo o, más recientemente, TikTok, entre otras, y para las que el concepto de responsabilidad editorial es más difuso que en la radio y la televisión.
Unas plataformas que por primera vez estarán bajo la supervisión de las autoridades reguladoras, tal y como se deberá contemplar en la nueva normativa que se establezca como transposición de la Directiva de servicios de comunicación audiovisual, que debería aprobarse, recordémoslo, no más tarde del 19 de septiembre de este año.
Un proceso legislativo que desde el Consejo del Audiovisual de Cataluña (CAC) hemos seguido muy de cerca. Y de hecho, al igual que otros reguladores, hemos empezado ya a monitorizar los contenidos difundidos en internet, especialmente en las plataformas de intercambio de vídeos.
Iniciamos nuestras actuaciones en 2015 con dos temas muy preocupantes, como son la pornografía infantil y la incitación a la violencia machista. Y hemos seguido con contenidos que, afortunadamente, están lejos de constituir el día a día de la regulación de la radio y la televisión: incitación a la anorexia, incitación a la pedofilia, incitación al suicidio, ciberacoso en el ámbito de la pareja, sexualización de contenidos infantiles. Asimismo, se han llevado a cabo actuaciones en materia de desinformación sobre el tratamiento del cáncer o sobre publicidad encubierta.
Es cierto que las plataformas de intercambio de vídeos alojan multitud de contenidos interesantes para la sociedad en los ámbitos de la información, la cultura, el ocio y el entretenimiento o la educación. Cabe recordar que cada minuto se suben 400 horas de vídeo y se visionan más de 1.000 millones de horas al día en la plataforma más popular, YouTube. Y también es cierto que en los últimos tiempos, estas plataformas están haciendo un notable esfuerzo para retirar contenidos ilícitos o perjudiciales.
Les pongo un ejemplo práctico: la última actuación del CAC en relación con las plataformas se produjo al inicio del confinamiento, el 25 de marzo, cuando denunciamos, con el asesoramiento del Colegio de Médicos de Barcelona, la presencia en YouTube de vídeos que promocionaban tratamientos no científicos para curar la COVID-19. La respuesta de YouTube fue inmediata, tal y como ha pasado en las últimas denuncias del CAC, y retiró la práctica totalidad de los vídeos en menos de veinticuatro horas.
Creemos que ésta es la senda a seguir. Aun así, creemos que queda un largo camino por recorrer y que las plataformas deberían adoptar más medidas para garantizar que no alojan contenidos ilícitos o perjudiciales, y los reguladores deberían tener mayor capacidad para supervisarlos y, en su caso, ordenar la retirada de contenidos que claramente infringen la normativa.
Según la nueva directiva, el prestador de plataformas de intercambio de vídeos deberá adoptar las medidas necesarias para proteger a los menores de los programas, vídeos y comunicaciones comerciales que puedan perjudicar su desarrollo físico, mental o moral.
Asimismo, las plataformas tendrán la obligación de informar claramente a los usuarios cuando los programas y vídeos generados por los usuarios contengan publicidad. Las plataformas estarán obligadas también a establecer y operar sistemas de verificación de edad y de control parental.
Por otra parte, un tema que también preocupa es la gestión que puedan hacer las plataformas de los datos de los menores. Cabe señalar que las investigaciones realizadas muestran una gran presencia de niños y niñas menores de 13 años en estas plataformas, que precisamente es la definición que corresponde a child en Estados Unidos. Gracias a ello, estas plataformas se comercializan como un destino top para niños; cuando hacen la presentación a los productores y a las marcas, hacen gala de su capacidad de llegar a niños y niñas de entre 6 y 11 años.
Y es precisamente aquí donde reside una parte importante del problema. Porque, naturalmente, el modelo de negocio de las plataformas está basado fundamentalmente en la publicidad, una publicidad orientada a partir del comportamiento de los usuarios, es a decir, una publicidad “targetizada”. Las plataformas recogen una gran cantidad de información sobre el comportamiento de los usuarios y monetizan dichos conocimientos buscando el perfil de cada usuario, y puede predecir en tiempo real qué tipo de contenido es más atractivo y qué tipo de anuncio será más persuasivo.
Ahora bien, hay que tener en cuenta que, según la legislación norteamericana -la Children Online Privacy Protect Act (COPPA)-, está prohibido recoger datos de los menores de 13 años sin el consentimiento de sus padres. Una regulación que provocó que la Federal Trade Commission (FTC) multase recientemente con 170 millones de dólares a YouTube.
Esto es especialmente relevante de cara al futuro de la publicidad dirigida a niños. La resolución de la FTC requiere a la plataforma a establecer un sistema por el que los propietarios de los canales tengan que identificar claramente los contenidos que van dirigidos a menores. La resolución obliga también a que se obtenga un verdadero consentimiento de los padres antes de poder recoger información personal de los menores.
El fin de esta práctica perniciosa es una buena noticia, porque se aplicará de forma global y no sólo en Estados Unidos. Pero faltan por definir otros aspectos que tendrán una importancia capital, como, por ejemplo, la doctrina que poco a poco va emergiendo por la que los canales de las plataformas, los titulares de los canales -algunos de ellos con visualizaciones millonarias-, deben ser también responsables de los contenidos. Y, por lo tanto, deben tener responsabilidad editorial.
En definitiva, la transposición de la Directiva, las diferentes regulaciones que se puedan establecer desde los diferentes territorios, así como el Reglamento sobre protección de datos, serán la piedra angular en la regulación del nuevo espacio comunicativo. Una regulación que deberá asentarse, como no puede ser de otra manera, en el respeto a la libertad de expresión, pero también en la responsabilidad y el respeto a los derechos fundamentales de las personas, especialmente de los menores.
En este escenario, estoy convencido de que los reguladores audiovisuales podemos desempeñar un papel proactivo en el ámbito digital que añada garantías de que se respetan los derechos y las libertades con la misma exigencia que se aplica a los medios tradicionales.
Deja tu comentario