Resumo da regulamentação de IA da União Europeia
Criamos um resumo para que você não precise ler as 167 páginas da nova regulamentação de inteligência artificial.
Se você só tem usado o ChatGPT sem nenhum tipo de preocupação porque aqui é o Brasil, fique sabendo que a regulamentação que está rolando na União Européia pode impactar como você usa ou cria ferramentas dessa categoria.
O que é o Ato de IA da União Européia?
A União Europeia deu um passo importante e sem precedentes com a aprovação do seu Ato de IA, a primeira legislação do mundo sobre Inteligência Artificial. Talvez possamos considerar essa ação como uma espécie de "LGPD para a Inteligência Artificial", se você lembrar da recente regulamentação de proteção de dados. Este ato traz novos conceitos legais - no sentido jurídico da palavra mesmo - para a IA e estabelece uma série de regras para suas práticas, juntamente com a ênfase no desenvolvimento de uma IA confiável.
Ao adotar essa regulamentação, o Parlamento Europeu estabeleceu limites para o desenvolvimento e implantação de sistemas de IA, especialmente em cenários de risco limitado e alto risco, que abordaremos mais adiante. Assim como o LGPD, que levou alguns anos para ser efetivamente implementado, o Ato de IA ainda passará por negociações finais entre as várias instituições da UE antes que tenhamos uma linha do tempo concreta para sua aplicação.
Se você é um desenvolvedor de produtos de IA, provavelmente prefere investir seu tempo no desenvolvimento do produto do que em entender e cumprir regulamentos, certo? Por isso, como eu sou empreendedor como você, resumi te dar essa colher de chá resumida. Mergulhamos profundamente no Ato de IA - sim, todas as 167 páginas - e vamos destacar os pontos principais para observar à medida que você se prepara para introduzir seu primeiro produto de IA no mercado.
Nesta edição, vamos abordar os principais pontos da legislação, incluindo:
definições, princípios gerais e práticas proibidas,
sistemas de IA de propósito geral,
classificação de IA de alto risco,
obrigações para com a IA de alto risco,
obrigações de transparência, governança e aplicação.
Portanto, pegue sua xícara de café, prepare-se para algum conhecimento legal intensivo e vamos prosseguir juntos nesta jornada de compreensão do Ato de IA.
Definições, princípios gerais e práticas proibidas
Antes de mais nada, é importante entender as duas formas como a União Européia escolheu definir aquilo que se está regulando. Os termos 'modelos básicos' e 'sistemas de IA de propósito geral' (GPAI na sigla em inglês) foram definidos para que uma regulamentação mais rígida seja aplicada aos primeiros. Ambos os termos abrangem tanto a tecnologia de código fechado quanto de código aberto.
(1c) 'foundation model' means an AI model that is trained on broad data at scale, is designed for the generality of output, and can be adapted to a wide range of distinctive tasks
(1d) 'general-purpose AI system' means an AI system that can be used in and adapted to a wide range of applications for which it was not intentionally and specifically designed
A diferença entre os dois conceitos se concentra especificamente nos dados de treinamento (modelos básicos são treinados com 'dados amplos em escala') e na adaptabilidade. Os sistemas de IA generativos se enquadram na categoria de modelos básicos - por incrível que possa parecer, pois eles fazem muita coisa -, o que significa que os provedores desses modelos terão que cumprir obrigações adicionais de transparência, que abordaremos mais adiante.
O texto também inclui um conjunto de princípios gerais e práticas banidas que os desenvolvedores de modelos básicos e GPAI - e até os usuários - devem cumprir. A linguagem adotada no Artigo 4 expande as definições para incluir princípios gerais para o chamado 'desenvolvimento de IA confiável'. O espírito é que todos os operadores (desenvolvedores e usuários) se esforcem ao máximo para desenvolver modelos básicos e sistemas GPAI 'confiáveis'.
Envolvido pelo espírito humanístico europeu, a versão mais recente da legislação inclui uma lista de práticas estritamente proibidas no desenvolvimento de IA, por exemplo: o desenvolvimento de sistemas de identificação biométrica para uso em certas situações (como sequestros ou ataques terroristas), categorização biométrica, policiamento preditivo e uso do software de reconhecimento de emoções na aplicação da lei ou na gestão de fronteiras.
Obrigações baseadas em faixas de risco
O conjunto de exigências legais está diretamente ligado ao tipo de aplicativo que você está desenvolvendo e se você está desenvolvendo um sistema de IA de propósito geral (GPAI), um modelo básico ou um IA generativa.
Essa abordagem separa os sistemas de IA em diferentes "categorias de risco" que variam de mínimo ou sem risco até risco inaceitável. Ainda existe uma categoria de ‘risco limitado’ para sistemas de IA que têm obrigações de transparência específicas:
Os sistemas de IA de risco mínimo ou sem, como filtros de spam e IA dentro de jogos de vídeo, serão permitidos sem restrições;
Os sistemas de IA de risco limitado, como geradores de imagem/texto, estão sujeitos a obrigações adicionais de transparência;
Os sistemas de IA de alto risco, como os de recrutamento, dispositivos médicos e sistemas de recomendação usados por plataformas de mídias sociais, serão permitidos mas estão sujeitos ao cumprimento das exigências de IA e avaliações de conformidade;
E por último, os sistemas de risco inaceitável, são proibidos, como uso de reconhecimento de emoções e biométricos que possam ser utilizados em barreiras de países ou ataques terroristas.
Por isso, é interessante se familiarizar com a classificação do risco do seu sistema de IA para navegar essas novas regulamentações.
O que impacta desenvolvedores e negócios?
A grande maioria dos sistemas de IA não serão de alto risco, que não carregam obrigações obrigatórias, então as regras e obrigações para desenvolvedores de GPAI estão principalmente em torno dos sistemas de alto risco. Mesmo assim, o Ato de IA prevê a criação de "códigos de conduta" para incentivar os desenvolvedores de sistemas de IA que não são de alto risco a aplicar voluntariamente os requisitos obrigatórios.
Desenvolvedores construindo GPAIs de alto risco precisarão obedecer a um conjunto de regras, incluindo uma avaliação de conformidade ex-ante, juntamente com outros requisitos extensos, como gerenciamento de risco, testes, robustez técnica, dados de treinamento adequados, etc. Esses requisitos são enumerados nos Artigos 8 a 15 do Ato. Em particular, o Artigo 10, que trata de dados e governança de dados, é de vital importância para os desenvolvedores.
O Ato de IA também exige que os provedores de GPAI suportem ativamente os operadores na cadeia de produção a alcançar a conformidade, compartilhando todas as informações e documentações necessárias, e ressalta que o operador downstream será responsável se utilizar qualquer sistema de GPAI em um contexto de alta IA de risco. Resumindo, mesmo que você somente esteja usando chatGPT via API, mas sua empresa opera em um ambiente de alto risco, você será responsável, e não o provedor.
O que é uma categoria de alto risco?
As regulamentações consideram sistemas de alto risco como aqueles que representam ameaças significativas à saúde, segurança ou aos direitos fundamentais das pessoas. Para esses produtos de IA, são necessárias avaliações de conformidade obrigatórias. Um sistema é considerado de alto risco se satisfizer as seguintes condições:
O sistema de IA é destinado a ser usado como um componente de segurança de um produto, ou em si mesmo;
O produto cujo componente de segurança é o sistema de IA, ou o próprio sistema de IA como produto, precisa passar por uma avaliação de conformidade de terceiros - tipo quando algo vai ser aprovado pela Anvisa -, para que seja colocado no mercado.
Existe um Anexo II na legislação que contém uma lista de todas as normas que sinalizam a regulamentação de coisas como dispositivos médicos, maquinário pesado, segurança de brinquedos, etc.
Além disso, o texto prevê que os sistemas de IA usados nas seguintes áreas são sempre considerados de alto risco (Anexo III):
1. Identificação biométrica e categorização de pessoas naturais
2. Gerenciamento e operação de infraestrutura crítica
3. Educação e treinamento profissional
4. Emprego, gestão de trabalhadores e acesso ao autoemprego
5. Acesso a serviços privados essenciais e serviços e benefícios públicos
6. Aplicamento da lei
7. Gestão de migração, asilo e controle de fronteiras
8. Administração da justiça e processos democráticos
Controle e aplicação da lei
Ainda existem muitas incertezas sobre como o Ato de IA será implementado, já que muitas definições e obrigações legais permanecem vagas, levantando questões sobre como será a efetivação da lei na prática. Por exemplo, o que significa "dados amplos em escala" na definição do modelo básico? Essa definição pode ter interpretações diferentes para empresas como o Facebook IA Research (FAIR) em comparação com laboratórios de pesquisa menores e startups recém-emergentes.
Muito do debate em curso envolve os poderes limitados do que seria o “ministério de AI” proposto, que será responsável por fornecer orientações e coordenar investigações conjuntas. Enquanto isso, cabe à Comissão Europeia resolver disputas entre autoridades nacionais a respeito de sistemas de IA perigosos, o que complica a determinação de quem terá a última palavra no policiamento e garantia do cumprimento das obrigações.
Contudo, algo está claro: as multas por não conformidade podem ser pesadas - chegando até €30 milhões ou 6% do total de faturamento anual global, dependendo da severidade da infração. Chama paizinho!!!
Não sei nem o que falar, só sentir
Bom, o final dessa análise é definido por cada pessoa. Tem gente que é favor, tem gente que é conta e tem gente que nem sabe de nada do que tá acontecendo - exemplo aquele seu amigo que não tá aqui na assinatura, porque tu falou que ia mandar o link da newsletter e esqueceu.
O que eu queria deixar claro com esse artigo é que não é porque a lei está sendo criada na Europa que isso não vai ter impacto em você. E, muita vezes, aquilo que acontece lá fora, copiamos aqui no Brasil alguns meses depois, então ir se preparando pode ser bom.
Acontecendo no Mundo
Dando seguimento na linha de trabalhos que estão por um fio, agora aparentemente matemáticos precisam se preparar para transformar IAs na sua melhor companheira, porque elas tem se saído melhor em encontrar saídas para os dilemas matemáticos.
A cura a uma esquina de distância
Essa é a história de como a Insilico Medicine conseguiu criar uma nova cura para uma doença pulmonar com 1/3 do tempo, 1/10 do custo e entrando nas fases de teste clínico em apenas dois anos. Tudo por causa do Dr. AI.
Varejo gastando 400% a mais com AI antes de 2025
Essa pelo menos é a promessa de grandes varejistas lá fora. O objetivo é colocar todo esse dinheiro na rua antes de 2025 com um retorno de mais de $113 bilhões em eficiência operacional gerada. Vai ter muita AI e robô tendo que suar a camisa para entregar a meta.
O VingadorGPT enrolador de telemarketing
Esses caras criaram um ChatGPT treinado para atender ligações de telemarketing e ficar enrolando com o vendedor na linha durante horas. E ainda duvidam que a IA não será usada para o bem da humanidade.
Empresa da Semana
Acabou a trabalheira de ficar vendo vídeos inteiros. Com essa ferramenta é só colar a URL do vídeo na internet que ele já transforma em texto e depois ainda permite navegar no vídeo pelo texto indexado.