As incertezas sobre a evolução da IA ganham cada vez mais espaço na agenda global, e a governança da IA tornou-se um ponto nevrálgico nas relações entre o Departamento de Guerra dos EUA, antigo Departamento de Defesa, e a empresa de IA Anthropic. O governo americano designou os modelos da Anthropic como um risco para a cadeia de suprimentos – uma classificação normalmente reservada a empresas de países considerados adversários ou competidores, como a Huawei da China. A medida impede que contratantes federais utilizem os modelos da empresa e sinaliza possíveis restrições importantes às suas atividades futuras. ”Quem não está conosco, está contra nós”.
O motivo está nas regras de governança da IA: a Anthropic buscava salvaguardas contra o uso de seus modelos para vigilância em massa de cidadãos americanos e para sistemas de armas autônomas. Independentemente do que se pense sobre as capacidades atuais da IA, há pouca dúvida de que o controle dessa tecnologia terá implicações profundas para a democracia, os negócios, a comunicação e a privacidade. A designação da empresa como risco sinaliza que o controle sobre tecnologias de IA deve ficar nas mãos do governo dos EUA – no entendimento deste -, e não da indústria.
(…)