Inteligência Artificial

Casa Branca define regras para uso seguro de Inteligência Artificial

Ações incluem indicação de líderes de IA, transparência no uso da tecnologia e implementação de medidas de proteção

28 MAR 2024 • POR Redação MyCryptoChannel • 18h55
Foto: Reprodução (Aaron Kittredge/ Pexels)

A inteligência artificial (IA) é uma ferramenta com enorme potencial, mas também carrega riscos que precisam ser estudados. Pensando nisso, a Casa Branca lançou sua primeira política abrangente para gerenciar os perigos da IA no governo federal. 

O memorando divulgado nesta quinta-feira (28) exige que as agências federais tomem medidas concretas para aumentar a transparência e a responsabilidade no uso da IA. Em 60 dias, todas as agências deverão: nomear um oficial-chefe de IA, divulgar o uso de IA e integrar medidas de proteção. 

A vice-presidente Kamala Harris reforçou a importância da responsabilidade coletiva na adoção da IA: "Acredito que todos os líderes de governos, sociedade civil e setor privado têm um dever moral, ético e social de garantir que a inteligência artificial seja adotada e avançada de forma a proteger o público de possíveis danos, ao mesmo tempo em que garante que todos possam desfrutar de seus benefícios plenos”. 

A regulamentação é uma iniciativa do Escritório de Administração e Orçamento (OMB). O memorando prevê exceções para casos específicos, como o uso de IA pelo Departamento de Defesa. Nesses casos, a divulgação pública poderia comprometer a segurança nacional.Salvaguardas para a inteligência artificial: protegendo os direitos da população 

As agências governamentais têm até 1º de dezembro para estabelecer salvaguardas específicas para aplicações de inteligência artificial (IA) que possam afetar os direitos dos cidadãos. As agências que não conseguirem implementar as salvaguardas dentro do prazo estabelecido terão que interromper o uso do sistema de IA.