“Recentemente, várias plataformas online dominantes introduziram novos recursos de inteligência artificial generativa que respondem às consultas dos usuários resumindo, ou, em alguns casos, simplesmente regurgitando conteúdo online de outras fontes ou plataformas”, afirma a carta. “A introdução desses novos recursos de inteligência artificial generativa ameaça ainda mais a capacidade de jornalistas e outros criadores de conteúdo de receber compensação por seu trabalho vital.”
Os legisladores observaram que os resultados de busca tradicionais levam os usuários aos sites dos editores, enquanto os resumos gerados por IA mantêm os usuários na plataforma de busca “onde apenas essa plataforma pode lucrar com a atenção do usuário por meio de publicidade e coleta de dados.”
Esses produtos também têm consequências competitivas significativas que distorcem os mercados de conteúdo. Quando um recurso de inteligência artificial generativa responde diretamente a uma consulta, muitas vezes força o criador de conteúdo – cujo conteúdo foi relegado a uma posição inferior na interface do usuário – a competir com o conteúdo gerado a partir de seu próprio trabalho.
O fato de a IA poder estar coletando informações de sites de notícias e, em seguida, nem mesmo direcionar os usuários para a fonte original, poderia ser uma forma de “conduta excludente ou um método de competição injusto em violação das leis antitruste”, concluíram os legisladores. (Além de ser uma potencial violação das leis de direitos autorais, mas essa é outra batalha legal completamente diferente.)
Os legisladores já propuseram alguns projetos de lei destinados a proteger artistas, jornalistas e outros do uso não autorizado de inteligência artificial generativa. Em julho, três senadores apresentaram o COPIED Act para combater e monitorar o aumento de conteúdo de IA e deepfakes. Mais tarde no mesmo mês, um grupo de senadores apresentou o NO FAKES Act, uma lei que tornaria ilegal fazer recriações digitais da voz ou semelhança de uma pessoa sem seu consentimento.
A IA representa um risco particularmente grande para o jornalismo, tanto local quanto global, ao remover as fontes de receita que permitem reportagens originais e investigativas. O New York Times, por exemplo, citou casos em que o ChatGPT forneceu aos usuários “trechos quase literais” de artigos com paywall. A OpenAI admitiu recentemente que é impossível treinar IA generativa sem materiais protegidos por direitos autorais.
Redação Confraria Tech
Referências:
US senators urge regulators to probe potential AI antitrust violations