sábado, 27 de julho, 2024

Inteligência Artificial

A+ A-

Cofundador da Ethereum, defende uso de IA para verificação de código e detecção de bugs na rede

Vitalik Buterin demonstra otimismo em relação ao potencial da Inteligência Artificial, apesar de preocupações anteriores

segunda, 19 de fevereiro, 2024 - 11:58

Redação MyCryptoChannel

Vitalik Buterin, cofundador da Ethereum, destacou a necessidade de aplicar inteligência artificial (IA) para a verificação formal de código e detecção de bugs, consideradas as maiores fragilidades da plataforma.  

“No momento, o maior risco técnico do Ethereum provavelmente são os bugs no código, e qualquer coisa que pudesse mudar significativamente o jogo seria incrível”, disse ele em um tweet publicado no domingo (18).  

Embora Buterin defenda a aplicação da IA para a segurança do Ethereum, ele já expressou preocupações sobre o potencial da tecnologia para se tornar uma ameaça à humanidade. Em um blog publicado em novembro de 2023, ele alertou para o risco de uma IA superinteligente se voltar contra os humanos, levando à extinção da espécie. 

“Mas uma IA superinteligente, se decidir virar-se contra nós, pode muito bem não deixar sobreviventes e acabar com a humanidade para sempre. Mesmo Marte pode não ser seguro”, falou Buterin na época.  

Apesar das preocupações anteriores, Buterin demonstra otimismo em relação ao potencial da IA para contribuir para o desenvolvimento do Ethereum. Em um texto publicado em janeiro de 2024, ele afirmou que a IA pode se tornar um "jogador no jogo" nos mercados de criptomoedas.  

 

Inteligência Artificial

Comissão da Inteligência Artificial no Senado ganha mais tempo para análise de regulamentação

Pacheco anunciou prorrogação de 60 dias da CTIA

quinta, 18 de julho, 2024 - 16:36

Redação MyCryptoChannel

Continue Lendo...

O presidente do Senado, Rodrigo Pacheco, prorrogou por mais 60 dias o funcionamento da Comissão Temporária Interna sobre Inteligência Artificial (CTIA). A medida, tomada na última quarta-feira (17), procura garantir que o colegiado tenha tempo suficiente para concluir a análise de projetos que visam regulamentar o uso da tecnologia no país. 

Criada em agosto de 2023, a CTIA tem como principal objetivo analisar o Projeto de Lei (PL) 2.338/2023, de autoria do próprio Pacheco, que propõe a criação do Marco Legal da Inteligência Artificial no Brasil.  

O projeto, que já passou por uma comissão de juristas e foi debatido na comissão especial, busca estabelecer princípios éticos para o desenvolvimento e uso da IA, além de criar mecanismos de governança e responsabilização. 

O projeto tem gerado debates entre a necessidade de uma regulamentação, o setor privado defende que regras muitas rígidas podem regredir o avanço da tecnologia.  Segundo alguns críticos, o substitutivo do PL teria incluído ferramentas para o governo controlar as plataformas digitais, o que seria um retrocesso à liberdade de expressão. 

“É muito importante que o Senado se decida sobre, nesse projeto que foi muito trabalhado pela comissão de juristas e foi exaustivamente debatido na comissão especial”, disse Pacheco. “Por isso, esse requerimento da Presidência, em substituição ao requerimento feito pelo senador Carlos Viana para que tenhamos esse prazo menos dilatado para conclusão da comissão especial”.  

 

 

Inteligência Artificial

Inteligência Artificial no Brasil: regulamentação será votada no Senado nesta terça-feira (9)

Proposta terá três níveis de regulamentação de acordo com risco para sociedade

terça, 09 de julho, 2024 - 14:29

Redação MyCryptoChannel

Continue Lendo...

A Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado Federal pode votar nesta terça-feira (9) o relatório sobre a regulamentação da inteligência artificial (IA) no Brasil. A proposta, caso aprovada, deve chegar ao plenário da Casa Legislativa com três níveis de regulamentação.  

Esses níveis serão definidos a partir do risco à sociedade. Elaborado pelo senador Eduardo Gomes (PL-TO), o texto de 12 capítulos visa garantir o desenvolvimento e uso responsável da IA no Brasil.  

Para determinar o nível de risco, os sistemas de IA passarão por uma avaliação preliminar realizada pelos próprios desenvolvedores, fornecedores ou operadores. A proposta também estabelece um Conselho de Cooperação Regulatória e Inteligência Artificial, responsável por zelar pela proteção do trabalho e da segurança pública. 

Os níveis de regulamentação são: 

  • Risco excessivo: Proibido. Abrange, por exemplo, o uso de armas autônomas e reconhecimento facial em massa em espaços públicos sem autorização prévia. 
  • Alto risco: Controle Rigoroso. Inclui veículos autônomos, sistemas de diagnóstico médico e IA na aplicação da lei. 
  • Baixo risco: Regulamentação Geral. Aplica-se à maioria das aplicações de IA, como chatbots e sistemas de recomendação. 

O relatório garante uma série de direitos para os cidadãos, como a explicação e revisão humana de decisões em casos que impactem a vida das pessoas. A IA também deve ser utilizada de forma a garantir a segurança e a privacidade dos dados pessoais.