Na quinta -feira, semanas após o lançamento de seu modelo de IA mais poderoso até agora, o Gemini 2.5 Pro, o Google publicou um relatório técnico mostrando os resultados de suas avaliações de segurança interna. No entanto, o relatório é leve sobre os detalhes, dizem os especialistas, dificultando a determinação de quais riscos o modelo pode representar.
Os relatórios técnicos fornecem informações úteis – e pouco lisonjeiras, às vezes – de que as empresas nem sempre anunciam amplamente sobre sua IA. Em geral, a comunidade de IA vê esses relatórios como esforços de boa fé para apoiar as avaliações independentes de pesquisa e segurança.
O Google adota uma abordagem diferente de relatórios de segurança de alguns de seus rivais de IA, publicando relatórios técnicos apenas quando considera um modelo para se formar no estágio “experimental”. A empresa também não inclui descobertas de todas as suas avaliações de “capacidade perigosa” nesses artigos; Ele se reserva para uma auditoria separada.
No entanto, vários especialistas que TechCrunch conversaram ainda ficaram decepcionados com a escassez do relatório Gemini 2.5 Pro, no entanto, o que eles observaram não mencionam a estrutura de segurança de fronteira (FSF) do Google. O Google introduziu o FSF no ano passado no que descreveu como um esforço para identificar futuros recursos de IA que podem causar “danos graves”.
“Este (relatório) é muito escasso, contém informações mínimas e saiu semanas depois que o modelo já foi disponibilizado ao público”, disse Peter Wildford, co-fundador do Instituto de Política e Estratégia de IA, à TechCrunch. “É impossível verificar se o Google está cumprindo seus compromissos públicos e, portanto, impossível avaliar a segurança de seus modelos”.
Thomas Woodside, co-fundador do Projeto Seguro da IA, disse que, embora esteja feliz que o Google tenha lançado um relatório do Gemini 2.5 Pro, ele não está convencido do compromisso da empresa em fornecer avaliações de segurança suplementares oportunas. Woodside apontou que a última vez que o Google publicou os resultados de testes de capacidade perigosa foi em junho de 2024 – para um modelo anunciado em fevereiro no mesmo ano.
Não inspirando muita confiança, o Google não disponibilizou um relatório para o Gemini 2.5 Flash, um modelo menor e mais eficiente que a empresa anunciou na semana passada. Um porta -voz disse ao TechCrunch que um relatório do Flash está “chegando em breve”.
“Espero que seja uma promessa do Google para começar a publicar atualizações mais frequentes”, disse Woodside ao TechCrunch. “Essas atualizações devem incluir os resultados das avaliações para modelos que ainda não foram implantados publicamente, pois esses modelos também podem representar riscos sérios”.
O Google pode ter sido um dos primeiros laboratórios de IA a propor relatórios padronizados para modelos, mas não é o único que foi acusado de subdeliver a transparência ultimamente. A Meta divulgou uma avaliação de segurança de maneira semelhante de seus novos modelos abertos LLAMA 4, e o OpenAI optou por não publicar nenhum relatório para sua série GPT-4.1.
Pendurado na cabeça do Google é garantia que a gigante da tecnologia fez aos reguladores para manter um alto padrão de testes e relatórios de segurança de IA. Dois anos atrás, o Google disse ao governo dos EUA que publicaria relatórios de segurança para todos os modelos públicos de IA “significativos” “dentro do escopo”. A empresa seguiu essa promessa com compromissos semelhantes com outros países, comprometendo -se a “fornecer transparência pública” em torno dos produtos de IA.
Kevin Bankston, consultor sênior de governança de IA no Centro de Democracia e Tecnologia, chamado de tendência de esporádica e vaga, relata uma “corrida para o fundo” na segurança da IA.
“Combinados com relatórios de que laboratórios concorrentes como o OpenAI rasparam seu tempo de teste de segurança antes do lançamento de meses para dias, essa escassa documentação para o principal modelo de IA do Google conta uma história preocupante de uma corrida para o fundo da segurança e transparência da IA, à medida que as empresas apressam seus modelos para o mercado”, disse ele ao TechCrunch.
O Google disse nas declarações de que, embora não seja detalhado em seus relatórios técnicos, realiza testes de segurança e “equipes vermelhas adversárias” para modelos antes do lançamento.