Desde que o ChatGPT se tornou um sucesso instantâneo, há cerca de dois anos, as empresas de tecnologia de todo o mundo apressaram-se a lançar produtos de IA, enquanto o público ainda está maravilhado com o potencial aparentemente radical da IA para melhorar as suas vidas quotidianas.
Mas, ao mesmo tempo, governos de todo o mundo alertaram que pode ser difícil prever a rapidez com que a popularização da IA poderá prejudicar a sociedade. Novas utilizações podem surgir repentinamente e deslocar trabalhadores, alimentar a desinformação, sufocar a concorrência ou ameaçar a segurança nacional – e estes são apenas alguns dos danos potenciais óbvios.
À medida que os governos se esforçam para estabelecer sistemas para detetar aplicações prejudiciais (de preferência antes da implementação dos modelos de IA), alguns dos primeiros processos judiciais sobre o ChatGPT mostram como é difícil para o público abrir um modelo de IA e encontrar provas de danos depois de lançado. para a natureza Aparentemente, essa tarefa só se torna mais difícil devido a uma indústria de IA cada vez mais sedenta de proteger os modelos dos concorrentes para maximizar os lucros das capacidades emergentes.
Quanto menos o público souber, mais difícil e dispendioso será responsabilizar as empresas pelas emissões irresponsáveis de IA.
Neste outono, a OpenAI, fabricante do ChatGPT, foi até acusada de tentar lucrar com a descoberta, tentando cobrar preços de varejo dos litigantes para inspecionar modelos de IA que supostamente causaram danos.
Em uma ação movida pelo The New York Times sobre questões de direitos autorais, a OpenAI sugeriu o mesmo modelo de protocolo de inspeção usado em uma ação semelhante movida por autores de livros.
Sob esse protocolo, o NYT poderia contratar um especialista para revisar materiais técnicos altamente confidenciais da OpenAI “em um computador seguro em uma sala segura sem acesso à Internet ou acesso à rede para outros computadores em um local seguro” que a OpenAI escolher. Neste domínio fechado, o especialista teria tempo limitado e consultas limitadas para tentar fazer com que o modelo de IA confessasse o que está dentro.
O NYT aparentemente tinha poucas preocupações sobre o processo de inspeção real, mas se opôs ao protocolo planejado da OpenAI que limitava o número de consultas que seu especialista poderia fazer através de uma interface de programação de aplicativos a US$ 15.000 em créditos de varejo. Assim que os litigantes atingiram esse limite, a OpenAI sugeriu que as partes dividissem os custos das investigações restantes, cobrando do NYT e dos co-autores metade dos preços de varejo para concluir o restante da descoberta.
Em setembro, o NYT disse ao tribunal que as partes haviam chegado a um “impasse” em relação a este protocolo, alegando que “a OpenAI procura ocultar sua violação declarando um ‘gasto’ impróprio, mas não quantificado”. De acordo com o NYT, os demandantes precisam de US$ 800.000 em créditos de varejo para buscar as evidências de que precisam para provar seu caso, mas supostamente não há como isso custar tanto à OpenAI.
“A OpenAI recusou-se a indicar quais seriam os seus custos reais e, em vez disso, concentra-se indevidamente no que cobra aos seus clientes pelos serviços de retalho como parte do seu negócio (com fins lucrativos)”, afirmou o NYT num processo judicial.
Em sua defesa, a OpenAI disse que estabelecer o limite inicial é necessário para reduzir a carga sobre a OpenAI e evitar uma expedição de pesca do NYT. O criador do ChatGPT alegou que os demandantes “estão solicitando centenas de milhares de dólares em créditos para executar um número arbitrário e infundado (e provavelmente desnecessário) de pesquisas nos modelos da OpenAI, tudo às custas da OpenAI”.
A forma como este debate judicial é resolvido pode ter implicações em casos futuros em que o público procure inspecionar modelos que causam alegados danos. Parece provável que, se um tribunal concordar que a OpenAI pode cobrar preços de varejo pela inspeção de modelos, isso poderá dissuadir ações judiciais de qualquer demandante que não possa pagar um especialista em IA ou preços comerciais pela inspeção de modelos.
Lucas Hansen, cofundador da CivAI, uma empresa que busca melhorar a conscientização pública sobre o que a IA realmente pode fazer, disse a Ars que provavelmente muitas inspeções podem ser feitas em modelos públicos. Mas os modelos públicos são frequentemente ajustados, talvez censurando certas consultas e tornando mais difícil encontrar informações sobre quais modelos foram treinados, que é o objetivo do processo do NYT. Ao obter acesso API aos modelos originais, os litigantes poderiam achar mais fácil encontrar evidências para provar os alegados danos.
Não está claro exatamente quanto custa à OpenAI fornecer esse nível de acesso. Hansen disse a Ars que os custos de treinamento e experimentação de modelos “ofuscam” o custo de execução de modelos para fornecer soluções de capacidade total. Os desenvolvedores notaram em fóruns que os custos das consultas de API aumentam rapidamente, com um deles alegando que o preço do OpenAI está “matando a motivação para trabalhar com APIs”.
Os advogados do NYT e da OpenAI se recusaram a comentar o litígio em andamento.
Obstáculos dos EUA aos testes de segurança de IA
É claro que a OpenAI não é a única empresa de IA que enfrenta ações judiciais por produtos populares. Artistas processaram fabricantes de imagens por supostamente ameaçarem seus meios de subsistência, e vários chatbots foram acusados de difamação. Outros danos emergentes incluem exemplos altamente visíveis, como falsificações explícitas de IA, que prejudicam toda a gente, desde celebridades como Taylor Swift a estudantes do ensino secundário, bem como danos não relatados, como software de recursos humanos alegadamente tendencioso.
Uma recente sondagem Gallup sugere que os americanos confiam mais do que nunca na IA, mas ainda têm duas vezes mais probabilidades de acreditar que a IA faz “mais mal do que bem” do que que os benefícios compensam os danos. A CivAI de Hansen cria demonstrações e software interativo para campanhas educacionais que ajudam o público a compreender em primeira mão os perigos reais da IA. Ele disse a Ars que, embora seja difícil para quem está de fora confiar em um estudo de “alguma organização aleatória que faz um trabalho realmente técnico” para expor os danos, o CivAI fornece uma maneira controlada para as pessoas verem por si mesmas como isso pode ser feito no uso indevido dos sistemas de IA.
“É mais fácil para as pessoas confiarem nos resultados porque elas próprias podem fazer isso”, disse Hansen a Ars.
Hansen também aconselha os decisores políticos que enfrentam os riscos da IA. Em fevereiro, a CivAI juntou-se ao Artificial Intelligence Security Institute Consortium, um grupo que inclui empresas Fortune 500, agências governamentais, organizações sem fins lucrativos e equipes de pesquisa acadêmica que ajudam a aconselhar o US AI Security Institute USA (AISI). Mas até agora, disse Hansen, a CivAI não tem estado muito ativa nesse consórcio além de agendar uma palestra para compartilhar demonstrações.
Supõe-se que o AISI proteja os EUA de modelos arriscados de IA, realizando testes de segurança para detectar danos antes que os modelos sejam implantados. Os testes devem “abordar os riscos para os direitos humanos, os direitos civis e as liberdades civis, tais como os relacionados com a privacidade, a discriminação e o preconceito, a liberdade de expressão e a segurança de indivíduos e grupos”, disse o presidente Joe Biden num memorando de segurança nacional passado. ano. mês, insistindo que os testes de segurança eram essenciais para apoiar a inovação incomparável da IA.
“Para que os Estados Unidos se beneficiem ao máximo da IA, os americanos devem saber quando podem confiar nos sistemas para operar de forma segura e confiável”, disse Biden.
Mas os testes de segurança AISI são voluntários e, embora empresas como a OpenAI e a Anthropic tenham concordado em realizar testes voluntários, nem todas as empresas o fizeram. Hansen está preocupado com o facto de a AISI não ter recursos ou orçamento suficientes para atingir os seus objectivos globais de salvaguardar os Estados Unidos dos danos incalculáveis da IA.
“O AI Safety Institute previu que eles precisarão de cerca de US$ 50 milhões em financiamento, e isso foi antes do memorando de Segurança Interna, e não parece que eles vão conseguir isso”, disse Hansen a Ars.
Biden tinha US$ 50 milhões orçados para AISI em 2025, mas Donald Trump ameaçou desmantelar o plano de segurança de IA de Biden ao assumir o cargo.
O AISI provavelmente nunca iria receber financiamento suficiente para detectar e impedir todos os danos da IA, mas com o seu futuro incerto, mesmo os testes de segurança limitados que os Estados Unidos tinham planeado poderiam ser paralisados numa altura em que a IA da indústria AISI continua a avançar. a toda velocidade.
Isso poderia deixar o público em grande parte à mercê dos testes de segurança interna das empresas de IA. Com modelos de ponta de grandes empresas que provavelmente permanecerão sob o microscópio da sociedade, a OpenAI prometeu aumentar os investimentos em testes de segurança e ajudar a estabelecer padrões de segurança líderes do setor.
De acordo com a OpenAI, esse esforço inclui tornar os modelos mais seguros ao longo do tempo, com menor probabilidade de produzir resultados prejudiciais, mesmo com jailbreak. Mas a OpenAI tem muito trabalho a fazer nessa área, já que Hansen disse a Ars que tem um “jailbreak padrão” para a versão mais popular da OpenAI, ChatGPT, “que quase sempre funciona” para produzir resultados prejudiciais.
A AISI não respondeu ao pedido de comentários da Ars.
O NYT “não terminou” de inspecionar os modelos OpenAI
Para o público, que muitas vezes se torna cobaia quando a IA age de forma imprevisível, os riscos permanecem, uma vez que o caso do NYT sugere que os custos de combate às empresas de IA podem aumentar, enquanto os reveses técnicos podem atrasar as resoluções. Na semana passada, uma apresentação da OpenAI mostrou que as tentativas do NYT de inspecionar dados de pré-treinamento em um “ambiente muito, muito rigidamente controlado”, como o recomendado para inspeção de modelos, foram supostamente continuamente interrompidas.
“O processo não correu bem e eles estão encontrando uma série de obstáculos e obstruções à sua revisão”, disse o documento judicial que delineia a posição do NYT. “Esses problemas técnicos sérios e repetidos tornaram impossível realizar uma pesquisa eficaz e eficiente nos conjuntos de dados de treinamento da OpenAI para determinar a extensão total da violação da OpenAI. Somente na primeira semana da inspeção, os demandantes experimentaram quase uma dúzia de interrupções no ambiente de inspeção, resultando em muitas horas em que os demandantes do News não tiveram acesso a conjuntos de dados de treinamento ou a capacidade de realizar buscas contínuas.”
A OpenAI também foi acusada de se recusar a instalar o software necessário aos litigantes e de encerrar aleatoriamente as pesquisas em andamento. Frustrado depois de mais de 27 dias de inspeção de dados e “nem perto de terminar”, o NYT continua a pressionar o tribunal para ordenar que a OpenAI forneça os dados. Em resposta, a OpenAI disse que as preocupações dos demandantes foram “resolvidas” ou que as discussões ainda estavam “em andamento”, sugerindo que não havia necessidade de intervenção do tribunal.
Até agora, o NYT afirma ter encontrado milhões de empregos de demandantes nos dados de pré-treinamento do ChatGPT, mas não foi capaz de confirmar a extensão total da suposta violação devido a dificuldades técnicas. Enquanto isso, os custos continuam a acumular-se em todas as direções.
“Embora ele os exija Antes que o News continue a arcar com o fardo e as despesas de examinar conjuntos de dados de treinamento, suas solicitações em relação ao ambiente de inspeção seriam significativamente reduzidas se a OpenAI admitisse que treinou seus modelos em todos, ou na grande maioria, dos dados protegidos por direitos autorais dos demandantes do News. . conteúdo”, diz o arquivo do tribunal.