sábado, 27 de julho, 2024

Inteligência Artificial

A+ A-

Elon Musk ameaça banir Apple em suas empresas por integração com ChatGPT

Apple anunciou recurso de integração com inteligência artificial durante a Worldwide Developers Conference

terça, 11 de junho, 2024 - 18:52

Redação MyCryptoChannel

O Elon Musk ameaçou na segunda-feira (11) banir dispositivos da Apple em suas empresas caso a empresa integre o ChatGPT da OpenAI em seus sistemas operacionais. A decisão, segundo Musk, seria uma "violação de segurança inaceitável".  

Em um post no X, no antigo Twiiter, Musk afirmou que a integração da OpenAI nos sistemas da Apple representaria um risco à segurança dos dados dos usuários. "Se a Apple integrar a OpenAI no nível do sistema operacional, então os dispositivos Apple serão proibidos nas minhas empresas", declarou o CEO da Tesla e SpaceX. 

As críticas de Musk se estendem à própria tecnologia da OpenAI. O bilionário questionou a capacidade da Apple de "proteger sua privacidade" ao utilizar uma ferramenta de terceiros que, segundo ele, a empresa não compreende totalmente. "Eles estão vendendo você por nada", disparou. 

A polêmica surge após ao anúncio da Apple durante a Worldwide Developers Conference (WWDC) 2024, na qual a empresa revelou a "Apple Intelligence". Trata-se de um conjunto de novos recursos de inteligência artificial (IA) generativa que serão lançados para o iOS 18, iPadOS 18 e macOS Sequoia no final de 2024. 

Um dos recursos mais notáveis é a integração com o ChatGPT da OpenAI. O assistente de voz da Apple, Siri, poderá transmitir perguntas dos usuários para o ChatGPT quando necessário. A Apple garante que os usuários serão consultados antes do envio de qualquer dado e que a Siri apresentará a resposta diretamente. 

 

Inteligência Artificial

Comissão da Inteligência Artificial no Senado ganha mais tempo para análise de regulamentação

Pacheco anunciou prorrogação de 60 dias da CTIA

quinta, 18 de julho, 2024 - 16:36

Redação MyCryptoChannel

Continue Lendo...

O presidente do Senado, Rodrigo Pacheco, prorrogou por mais 60 dias o funcionamento da Comissão Temporária Interna sobre Inteligência Artificial (CTIA). A medida, tomada na última quarta-feira (17), procura garantir que o colegiado tenha tempo suficiente para concluir a análise de projetos que visam regulamentar o uso da tecnologia no país. 

Criada em agosto de 2023, a CTIA tem como principal objetivo analisar o Projeto de Lei (PL) 2.338/2023, de autoria do próprio Pacheco, que propõe a criação do Marco Legal da Inteligência Artificial no Brasil.  

O projeto, que já passou por uma comissão de juristas e foi debatido na comissão especial, busca estabelecer princípios éticos para o desenvolvimento e uso da IA, além de criar mecanismos de governança e responsabilização. 

O projeto tem gerado debates entre a necessidade de uma regulamentação, o setor privado defende que regras muitas rígidas podem regredir o avanço da tecnologia.  Segundo alguns críticos, o substitutivo do PL teria incluído ferramentas para o governo controlar as plataformas digitais, o que seria um retrocesso à liberdade de expressão. 

“É muito importante que o Senado se decida sobre, nesse projeto que foi muito trabalhado pela comissão de juristas e foi exaustivamente debatido na comissão especial”, disse Pacheco. “Por isso, esse requerimento da Presidência, em substituição ao requerimento feito pelo senador Carlos Viana para que tenhamos esse prazo menos dilatado para conclusão da comissão especial”.  

 

 

Inteligência Artificial

Inteligência Artificial no Brasil: regulamentação será votada no Senado nesta terça-feira (9)

Proposta terá três níveis de regulamentação de acordo com risco para sociedade

terça, 09 de julho, 2024 - 14:29

Redação MyCryptoChannel

Continue Lendo...

A Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado Federal pode votar nesta terça-feira (9) o relatório sobre a regulamentação da inteligência artificial (IA) no Brasil. A proposta, caso aprovada, deve chegar ao plenário da Casa Legislativa com três níveis de regulamentação.  

Esses níveis serão definidos a partir do risco à sociedade. Elaborado pelo senador Eduardo Gomes (PL-TO), o texto de 12 capítulos visa garantir o desenvolvimento e uso responsável da IA no Brasil.  

Para determinar o nível de risco, os sistemas de IA passarão por uma avaliação preliminar realizada pelos próprios desenvolvedores, fornecedores ou operadores. A proposta também estabelece um Conselho de Cooperação Regulatória e Inteligência Artificial, responsável por zelar pela proteção do trabalho e da segurança pública. 

Os níveis de regulamentação são: 

  • Risco excessivo: Proibido. Abrange, por exemplo, o uso de armas autônomas e reconhecimento facial em massa em espaços públicos sem autorização prévia. 
  • Alto risco: Controle Rigoroso. Inclui veículos autônomos, sistemas de diagnóstico médico e IA na aplicação da lei. 
  • Baixo risco: Regulamentação Geral. Aplica-se à maioria das aplicações de IA, como chatbots e sistemas de recomendação. 

O relatório garante uma série de direitos para os cidadãos, como a explicação e revisão humana de decisões em casos que impactem a vida das pessoas. A IA também deve ser utilizada de forma a garantir a segurança e a privacidade dos dados pessoais.