|
|
|||
| 13-03-2025 | Por uso sin autorización de obras | |||
| Editores y autores franceses demandaron a Meta por violaci贸n de derechos con IA | |||
|
|||
Autores y editores franceses demandaron judicialmente este mi茅rcoles a Meta por violaci贸n de los derechos de autor a trav茅s del uso de sus obras para entrenar a su modelo de Inteligencia Artificial (IA) generativa.
El gigante tecnol贸gico estadounidense utiliza "de forma masiva obras protegidas por derechos, y sin autorizaci贸n de sus autores y editores", denunciaron en un comunicado conjunto el Sindicato Nacional de la Edici贸n (SNE), la Sociedad de Gentes de Letras (SGL) y el Sindicato Nacional de Autores y Compositores (SNAC).
El presidente del SNE, Vincent Montagne, se帽al贸 que han constatado "la presencia de numerosas obras publicadas por miembros del Sindicato Nacional de la Edici贸n entre los corpus de datos utilizados por Meta".
El objetivo de la demanda ante el Tribunal Judicial de Par铆s es proteger al sector "de los peligros de la IA, que saquea sus obras y el patrimonio cultural para entrenarse y producir 'libros falsos' que entran en competencia con los aut茅nticos libros de autor", afirm贸 el presidente del SNAC, Fran莽ois Peyrony.
Las tres organizaciones indicaron que esta acci贸n legal 鈥渟e inscribe en un contexto de regulaci贸n a nivel europeo鈥, ya que el reglamento sobre inteligencia artificial (鈥楢I Act鈥) insiste en la 鈥渘ecesidad鈥 de que los creadores de soluciones con esta tecnolog铆a respeten los derechos de autor y garanticen la transparencia de las fuentes utilizada para desarrollar sus modelos.
Seg煤n Ley de Inteligencia Artificial de la Uni贸n Europea, los sistemas de IA generativa deben cumplir con la legislaci贸n de derechos de autor del bloque de 27 naciones y ser transparentes sobre el material que utilizaron para el entrenamiento.
Dicha normativa divide las aplicaciones de Inteligencia Artificial en tres tipos de riesgo. Primero, se proh铆ben las aplicaciones y sistemas que presenten un riesgo inaceptable, como los sistemas de evaluaci贸n social controlados por el gobierno, semejantes a los utilizados en China. En segundo lugar, las aplicaciones con un alto riesgo, como una herramienta que revisa curr铆culums y clasifica a los candidatos, deben cumplir con requisitos legales determinados.
Finalmente, las aplicaciones que no est谩n espec铆ficamente prohibidas o clasificadas como de alto riesgo, en su mayor铆a, no tienen regulaciones. NA
|