Bitget App
Trade smarter
Comprar criptomoedasMercadosTradingFuturosBotsEarnCopy
Anthropic revela estrutura de transparência de IA focada em segurança pública e desenvolvimento responsável de IA

Anthropic revela estrutura de transparência de IA focada em segurança pública e desenvolvimento responsável de IA

MPOSTMPOST2025/07/09 07:05
Por:MPOST

Em Breve A Anthropic lançou uma estrutura de transparência flexível voltada para os maiores desenvolvedores de IA de ponta, propondo padrões de divulgação e protocolos de segurança para dar suporte ao desenvolvimento de IA responsável, seguro e responsável em meio ao rápido avanço tecnológico.

Organização de pesquisa de IA focada em segurança e alinhamento, Antrópico lançou uma estrutura de transparência direcionada, destinada à aplicação em nível federal, estadual ou internacional. Esta estrutura foi projetada especificamente para os sistemas de IA mais avançados e seus desenvolvedores, introduzindo defiexpectativas de divulgação relacionadas aos protocolos de segurança.

A organização enfatiza que uma maior transparência no desenvolvimento de IA de ponta é necessária para proteger a segurança pública e garantir a responsabilização entre os desenvolvedores de tecnologias de IA de alta capacidade. Dado o ritmo acelerado do avanço, a Anthropic observa que, embora o estabelecimento mais amplo de padrões de segurança e mecanismos de avaliação por governos, academia e indústria possa levar tempo, medidas provisórias são necessárias para apoiar o desenvolvimento seguro e responsável de sistemas de IA robustos.

A estrutura é intencionalmente não prescritiva, refletindo a compreensão de que a pesquisa em IA está evoluindo rapidamente. Qualquer estratégia regulatória, segundo a organização, deve permanecer adaptável e não obstruir o progresso em áreas como pesquisa médica, eficiência dos serviços públicos ou segurança nacional. A Anthropic também alerta que regulamentações excessivamente rígidas podem prejudicar a inovação, especialmente porque as técnicas de avaliação atuais frequentemente se tornam obsoletas em um curto espaço de tempo devido às constantes mudanças tecnológicas.

Estabelecendo Padrões para Transparência em IA: Foco nos Maiores Desenvolvedores de Modelos e Estruturas de Desenvolvimento Seguras

Antrópico apresentou um conjunto de princípios fundamentais destinados a orientar o desenvolvimento de políticas de transparência em IA. Esses padrões propostos são especificamente adaptados para aplicação aos maiores desenvolvedores de modelos de IA de ponta —defimensurado por meio de critérios como recursos computacionais, desempenho de avaliação, investimento em P&D e receita anual — em vez de abranger todo o setor de IA. Essa abordagem visa garantir que desenvolvedores e startups menores, cujos modelos são menos propensos a representar riscos catastróficos ou à segurança nacional, não estejam sujeitos ao mesmo nível de ônus regulatório. Exemplos de limites sugeridos incluem receita anual em torno de US$ 100 milhões ou P&D e despesas de capital próximas a US$ 1 bilhão, embora esses valores estejam sujeitos a refinamento e devam ser revisados ​​periodicamente à medida que o setor evolui.

Outro elemento fundamental da estrutura proposta é a exigência de que os desenvolvedores aplicáveis ​​mantenham uma Estrutura de Desenvolvimento Segura. Essa estrutura interna delinearia os procedimentos para identificar e mitigar riscos associados a modelos avançados de IA, incluindo ameaças relacionadas ao uso indevido de produtos químicos, biológicos, radiológicos e nucleares, bem como riscos decorrentes do desalinhamento de modelos autônomos. Considerando que essas estruturas ainda estão em desenvolvimento, incentiva-se a flexibilidade na implementação.

A Anthropic recomenda ainda que a Estrutura de Desenvolvimento Seguro de cada desenvolvedor seja disponibilizada publicamente, com as devidas redações para conteúdo sensível, por meio de um site público gerenciado pela empresa. Essa transparência permitiria que partes interessadas externas — incluindo pesquisadores, governos e a sociedade civil — acompanhassem a implementação dos modelos de IA. Espera-se que as empresas autocertifiquem sua adesão à estrutura divulgada.

Além disso, os desenvolvedores devem publicar um cartão de sistema ou documentação equivalente que descreva os procedimentos de teste, os resultados da avaliação e quaisquer medidas de mitigação aplicadas. Essas informações, sujeitas a revisão caso a segurança do público ou do modelo possa ser comprometida, devem ser compartilhadas no momento da implantação do modelo e atualizadas após quaisquer alterações no modelo.

Para apoiar a fiscalização, a Anthropic propõe uma disposição legal que torna ilegal que uma construtora deturpe intencionalmente sua conformidade com a estrutura. Essa medida visa ativar as proteções existentes para denunciantes e garantir que os recursos legais sejam direcionados aos casos de descumprimento deliberado.

De modo geral, a organização defende que qualquer política de transparência em IA deve começar com um conjunto mínimo de padrões adaptáveis. Dada a natureza evolutiva da pesquisa sobre segurança em IA, a estrutura deve ser projetada para evoluir em resposta a novos insights e às melhores práticas emergentes desenvolvidas pela indústria, governo e partes interessadas acadêmicas.

Este modelo de transparência proposto destaca as melhores práticas relacionadas à segurança no setor e estabelece uma base para o treinamento responsável de modelos avançados de IA. Visa garantir que os desenvolvedores cumpram os padrões mínimos de responsabilização, permitindo, ao mesmo tempo, que o público e os formuladores de políticas identifiquem as distinções entre abordagens de desenvolvimento responsáveis ​​e negligentes. O conceito de uma Estrutura de Desenvolvimento Seguro, conforme descrito, é comparável às políticas já utilizadas por organizações como Anthropic, Google DeepMind, OpenAI, e Microsoft, todas as quais adotaram estratégias semelhantes ao implantar modelos de fronteira.

Incorporar na lei a exigência de divulgações do Secure Development Framework ajudaria a formalizar essas práticas do setor sem torná-las excessivamente rígidas. Também garantiria que tais medidas de transparência — atualmente voluntárias — permaneçam em vigor ao longo do tempo, especialmente à medida que as capacidades de IA continuam a avançar.

0

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.

PoolX: Bloqueie e ganhe
Pelo menos 12% de APR. Quanto mais bloquear, mais pode ganhar.
Bloquear agora!