OPINIÓN

TikTok requiere una regulación que resguarde la libertad de expresión

Nuevas generaciones, nuevas tecnologías, ¿viejos derechos?

Durante una protesta del movimiento Black Lives Matter, una manifestante utilizó su smartphone para transmitir en vivo, a través de la red social TikTok, el avance de la policía sobre la marcha. Para evitar que se registraran y difundieran eventuales abusos, uno de los oficiales reprodujo desde su celular una canción protegida por el derecho de autor sabiendo que la plataforma automáticamente identificaría el contenido y daría de baja el video. Germán Stalker y María Carolina Herrera Rubio, investigadores afiliados al Centro de Propiedad Intelectual e Innovación (CPINN) de UdeSA, retoman este caso en un artículo publicado por el Centro de Estudios en Tecnología y Sociedad (CETyS), para analizar si el sistema de notificación y retirada de contenidos de TikTok es eficiente en el contexto actual o, por el contrario, favorece la protección del derecho de autor en detrimento de la libertad de expresión y de acceso a la información. “Para que la participación plural y la libre expresión de ideas sea real debe haber un abordaje jurídico coherente sobre la jerarquía de los derechos en pugna”, sostienen los investigadores.

Para evitar infracciones por piratería en Internet, TikTok incorporó la Digital Millennium Copyright Act (DMCA), que busca generar un balance entre sus intereses y los de los titulares de derechos. Los autores del trabajo observan que “bajo el paraguas del sistema del DMCA, el proveedor garantiza su inmunidad dando de baja un contenido en forma automática sin que de por medio exista una orden judicial”. Esta disposición no exige que las plataformas examinen la validez de las peticiones antes de quitar el contenido violatorio, sino que proceden inmediatamente. De este modo, las compañías titulares de derechos pueden exigir la cancelación de contenidos que consideran inconvenientes. Esto ocurre ya que muchas startups tienen la libertad de salir al mercado sin ningún control por parte de un ente regulador previo. “Con otros desarrollos tecnológicos, siempre hay una fase de prueba. Pero, con las redes sociales y la inteligencia artificial no existe ese testeo previo, sino que se van ajustando con su consumo. Debe existir un marco ético previo a su lanzamiento que anticipe las posibles implicancias sobre los derechos humanos”, destacan los investigadores del CPINN.

Stalker y Herrera Rubio proponen que los mecanismos automáticos que moderan el contenido en las plataformas digitales deben construirse teniendo en cuenta los valores de lo que el jurista Jack M. Balkin denominó “cultura democrática”. Además, consideran necesario incluir nuevas limitaciones a la ley autoral en entornos digitales y revisar el impacto de los regímenes de inmunidad de los intermediarios en el mercado de Internet. Finalmente, los usuarios deben asociarse para exigir transparencia de parte de los otros actores del sistema. “Ser ciudadano digital es reivindicar ese espacio. La mejor manera de generar una cultura democrática y responsabilidad en los entes corporativos y gobiernos es continuar participando activamente en redes sociales, continuar el diálogo”, concluye Herrera Rubio.

Fuente: UdeSA


Sin Comentarios

Escribí un comentario
Todavía no hay comentarios! Vos podés ser el primero en comentar este post!

Escribí un comentario

Tu e-mail no será publicado.
Los campos obligatorios están marcados con*


+ 1 = 10