Notícia | IA com Direitos | Plataformas e Mercados Digitais
EUA adotam novas diretrizes para IA
- Impactos e objetivos
As novas diretrizes advém de uma ordem executiva (instrumento similar a uma medida provisória) assinada pela presidência americana e impõe uma série de compromissos para proteger os estadunidenses dos riscos potenciais trazidos pela inteligência artificial cuja relevância tem só aumentado desde o início de 2023. O documento é a ação mais profunda do governo estadunidense em relação à regulação destas tecnologias.
A ordem executiva impactará empresas que desenvolvem ferramentas de IA, como Microsoft, Amazon e Alphabet, e precisarão atender ao conteúdo da ordem executiva que está organizada em 8 objetivos principais:
- Criar novos padrões para a segurança e proteção da IA;
- Proteger a privacidade;
- Promover a equidade e os direitos civis;
- Defender consumidores e estudantes;
- Apoiar trabalhadores;
- Promover a inovação e a concorrência;
- Promover a liderança dos EUA em tecnologias de IA;
- Garantir o uso governamental, responsável e eficaz da tecnologia.
Confira abaixo alguns destaques importantes da normativa americana.
2 Destaques das novas diretrizes
- Padrões de segurança para utilização da IA
De acordo com o relatório, a administração Biden está tomando medidas abrangentes para garantir a segurança e a confiabilidade de sistemas de IA à medida que suas capacidades se expandem. Algumas das exigências são:
- Exigir que os desenvolvedores dos sistemas de IA mais avançados compartilhem os resultados dos testes de segurança e outras informações críticas com o governo dos EUA.
- Desenvolver padrões, ferramentas e testes para garantir que os sistemas de IA sejam seguros, seguros e confiáveis.
- Proteger contra os riscos do uso de IA para a engenharia de materiais biológicos perigosos.
- Proteger cidadãos estadunidenses contra fraudes e golpes que se valem de IA, estabelecendo padrões e melhores práticas para detectar conteúdo gerado por IA e autenticar conteúdo oficial.
- Estabelecer um programa avançado de cibersegurança para desenvolver ferramentas de IA capazes de encontrar e corrigir vulnerabilidades em softwares críticos, aproveitando o potencial transformador das capacidades de IA para tornar as redes mais seguras.
- Preocupações com a privacidade dos cidadãos.
De acordo com o anúncio da ordem executiva. Existe a recomendação para que o Congresso aprove uma legislação para a proteção da privacidade de dados de todos os americanos, especialmente as crianças. Outras medidas da ordem executiva são:
- Proteger a privacidade dos estadunidenses ao priorizar o apoio federal para acelerar o desenvolvimento e uso de tecnologias de preservação de privacidade (privacy-enhancing technologies – PET’s).
- Reforçar o investimento em pesquisa e em tecnologias de preservação de privacidade (PET’s), como ferramentas criptográficas.
- Avaliar como os agentes coletam e utilizam informações comercialmente disponíveis com base em IA.
- Desenvolver diretrizes para que as agências federais avaliem a eficácia das técnicas de preservação de privacidade, incluindo aquelas usadas em sistemas de IA.
- Promoção da equidade e dos direitos civis.
De acordo com o documento, a discriminação algorítimica é uma grande preocupação do governo, principalmente a que está relacionada à situações que envolvem a justiça criminal, moradia e saúde. Para combater esses problemas, a ordem executiva estabelece a seguinte medida:
- Fornecer orientações claras para proprietários, programas de benefícios federais e contratantes federais para impedir que algoritmos de IA sejam usados para agravar a discriminação.
- Abordar a discriminação algorítmica de forma a melhorar a investigação e compreensão das violações dos direitos civis relacionadas à IA.
- Garantir a equidade em todo o sistema de justiça criminal, desenvolvendo as melhores práticas para o uso da IA na determinação de sentenças, por exemplo.
- Auxílio aos trabalhadores.
Para o governo estadunidense, a inteligência artificial pode transformar empregos em termos de aumento da produtividade. Contudo, isso também acarreta riscos, como na vigilância de trabalhadores no local de trabalho, por exemplo.
Para auxiliar os trabalhadores diante das mudanças provocadas pela IA, a ordem executiva determina algumas medidas:
- Desenvolver princípios e melhores práticas para mitigar os danos e maximizar os benefícios da IA para os trabalhadores,
- Elaborar um relatório sobre os impactos potenciais da IA no mercado de trabalho e estudar e identificar opções para fortalecer o apoio federal aos trabalhadores enfrentando interrupções no mercado de trabalho, incluindo aquelas causadas pela IA.
3 IA é uma preocupação Global
- Desafio generativo
As medidas adotadas pelos Estados Unidos acerca da IA são parte de um retrato mais amplo da legislação de IA. O tema ganhou mais relevância ainda em 2023 a partir da popularização das IA’s generativas, que mostraram novas possibilidades de aplicação e riscos que ainda estão sendo conhecidos.
Um dos resultados deste impacto já pode ser visto no AI act aprovado este ano pela União Europeia. Recentemente a classificação de alto risco de todos os sistemas de IA sob a aplicação da lei foi revista, adicionando uma camada de classificação para garantir que soluções de IA de risco mínimo não sejam incluídas no regime mais rigoroso mesmo em modelos de IA de propósito geral como o ChatGPT. Na versão anterior da lei, todas as IAs de propósito geral eram consideradas de “alto risco,” o que as submetia a requisitos legais rigorosos, como transparência, rastreabilidade e supervisão humana.
No Brasil o projeto de lei de IA (PL 2338/23) está em tramitação no Senado Federal e ainda passará oficialmente pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) que já iniciou os trabalhos com o projeto de lei. Um dos desafios da Comissão é criar uma legislação que venha a conciliar a privacidade dos cidadãos e o desenvolvimento destas novas tecnologias, principalmente considerando o contexto atual das IA’s generativas.
- Venha discutir conosco!
Nesse novo cenário de desafio internacional de governança de IA, discutir de forma global e participativa é central para definirmos o futuro da regulação da IA. Não é sem razão que a edição deste da Data Privacy Global Conference (DPGC) escolheu justamente pautar a inteligência artificial como assunto prioritário.
A DPGC é a maior conferência do Sul Global e um dos principais eventos multissetoriais sobre dados do país. Dessa vez queremos te convidar para discutir conosco nos dias 27 e 28 de novembro de 2023.
O futuro da inteligência artificial está na Data Privacy Global Conference, inscreva-se!
Até a próxima!
DataPrivacyBr Research | Conteúdo sob licenciamento CC BY-SA 4.0