Você pode fazer isso

Na segunda-feira, o Openai lançou uma nova família de modelos de IA, o GPT-4.1, que a empresa disse que superou alguns de seus modelos existentes em determinados testes, principalmente os benchmarks para programação. No entanto, o GPT-4.1 não enviou com o relatório de segurança que normalmente acompanha os lançamentos do modelo do OpenAI, conhecido como modelo ou cartão do sistema.

Na terça-feira de manhã, o Openai ainda não havia publicado um relatório de segurança para o GPT-4.1-e parece que não planeja. Em comunicado ao TechCrunch, o porta-voz do OpenAI, Shaokyi Amdo, disse que “o GPT-4.1 não é um modelo de fronteira, portanto, não haverá um cartão de sistema separado lançado para ele”.

É bastante padrão para a AI Labs divulgar relatórios de segurança mostrando os tipos de testes que eles conduziram internamente e com parceiros de terceiros para avaliar a segurança de modelos específicos. Ocasionalmente, esses relatórios revelam informações desagradáveis, como um modelo tende a enganar seres humanos ou são perigosamente persuasivos. Em geral, a comunidade de IA percebe esses relatórios como esforços de boa fé dos laboratórios de IA para apoiar pesquisas independentes e equipes vermelhas.

Mas, nos últimos meses, os principais laboratórios de IA parecem ter reduzido seus padrões de relatórios, provocando reação dos pesquisadores de segurança. Alguns, como o Google, arrastaram os pés nos relatórios de segurança, enquanto outros publicaram relatórios que faltavam nos detalhes usuais.

O recente histórico do OpenAI também não é excepcional. Em dezembro, a empresa atraiu críticas por divulgar um relatório de segurança contendo resultados de referência para um modelo diferente da versão que implantou na produção. No mês passado, o OpenAI lançou um modelo, pesquisa profunda, semanas antes da publicação do cartão do sistema para esse modelo.

Steven Adler, ex -pesquisador de segurança do Openai, observou ao TechCrunch que os relatórios de segurança não são obrigados por qualquer lei ou regulamento – eles são voluntários. No entanto, o Openai assumiu vários compromissos com os governos para aumentar a transparência em torno de seus modelos. Antes da cúpula de segurança da IA ​​do Reino Unido em 2023, o OpenAI em um post de blog chamado System Cards “uma parte essencial” de sua abordagem à responsabilidade. E antes da Cúpula de Ação de Paris AI em 2025, o Openai disse que os cartões do sistema fornecem informações valiosas sobre os riscos de um modelo.

“Os cartões do sistema são a principal ferramenta do setor de IA para transparência e para descrever quais testes de segurança foram feitos”, disse Adler ao TechCrunch em um email. “As normas e compromissos de transparência de hoje são voluntários, por isso cabe a cada empresa de IA decidir se ou quando lançar um cartão do sistema para um determinado modelo”.

O GPT-4.1 está enviando um cartão de sistema no momento em que os funcionários atuais e ex-funcionários estão levantando preocupações sobre as práticas de segurança do OpenAI. Na semana passada, Adler e outros 11 funcionários ex-empreendimentos entraram com um resumo da amicus proposto no caso de Elon Musk contra o Openai, argumentando que um Openai com fins lucrativos pode cortar os cantos do trabalho de segurança. O Financial Times relatou recentemente que o fabricante de chatgpt, estimulado por pressões competitivas, reduziu a quantidade de tempo e recursos que aloca para os testadores de segurança.

Embora o GPT-4.1 não seja o modelo de IA com maior desempenho na lista do OpenAI, ele obtém ganhos substanciais nos departamentos de eficiência e latência. Thomas Woodside, co-fundador e analista de políticas do Project Secure AI, disse ao TechCrunch que as melhorias de desempenho tornam um relatório de segurança ainda mais crítico. Quanto mais sofisticado o modelo, maior o risco que ele poderia representar, disse ele.

Muitos laboratórios de IA reprimiram os esforços para codificar os requisitos de relatórios de segurança em lei. Por exemplo, o Openai se opôs ao SB 1047 da Califórnia, o que exigiria que muitos desenvolvedores de IA auditassem e publicassem avaliações de segurança sobre modelos que eles tornam público.

Veja também