O relatório final do senador Eduardo Gomes sobre a regulamentação da IA no País foi aprovado nesta quinta-feira, 5 de dezembro, na Comissão Temporária sobre Inteligência Artificial. O texto foi encaminhado ao plenário do Senado, onde deve ser colocado em votação na próxima semana. O relatório recebeu 198 propostas de emenda, sendo 84 delas acatadas total ou parcialmente pelo relator antes da sessão.
Na Sessão Deliberativa Extraordinária, o texto foi encaminhado à publicação e foram aprovados os REQ nºs 13 e 14/2024-CTIA, de urgência para a matéria. Após a sessão, foram propostas mais 21 emendas (chegando a 224 emendas), tendo um cenário desafiador contra o tempo para analisar e incluí-las antes da votação. Há grande probabilidade de o texto final ser aprovado pelo Senado. No entanto, ainda teremos mais uma etapa, que é o debate na Câmara dos Deputados, ficando, provavelmente, para 2025.
Pontos de destaque da sessão CTIA de 05/12/2024:
No relatório, a definição de classificação de risco terá uma regulamentação posterior. A fiscalização caberá ao Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que terá a coordenação da Autoridade Nacional de Proteção de Dados (ANPD). Essas mudanças para excluir “exigências excessivas” na classificação dos riscos foram necessárias para harmonizar a necessidade de garantir o desenvolvimento da inovação com as salvaguardas de proteção de direitos humanos. Isso favorece as big techs. Mas foram juntadas emendas, inclusive a 224 ainda tratando disso.
A IA deverá seguir princípios, como a proteção de grupos vulneráveis e da democracia e a integridade da informação disponibilizada pela ferramenta. Também deverão ser adotados mecanismos contra discriminação e ferramentas de supervisão humana.
Atendendo à necessidade de cumprir com princípio de transparência e combater fraudes, os sistemas de inteligência artificial deverão ser identificados com um símbolo. Essa medida servirá para que usuários saibam que estão interagindo com uma ferramenta inumana.
Caráter facultativo da avaliação preliminar dos sistemas de IA, estabelecido pelo relator a partir de emenda da senadora Mara Gabrill. De acordo com a nova redação do texto, a avaliação preliminar só será obrigatória para os sistemas generativos e de propósito geral. Para os demais casos, ela será facultativa, mas será considerada uma medida de boa prática, podendo resultar em benefícios para os agentes, como prioridade em avaliações de conformidade.
Eduardo Gomes manteve um dos pontos que gerou divergência nos debates: a proteção dos direitos dos criadores de conteúdo e obras artísticas. Este é um dos temas mais polêmicos. O texto do relatório estabelece que conteúdos protegidos por direitos autorais poderão ser utilizados em processos de mineração de textos para o desenvolvimento do sistema de IA por instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e organizações educacionais. No entanto, o material precisa ser obtido de forma legítima e sem fins comerciais e o objetivo principal da atividade não pode ser a reprodução, exibição ou disseminação da obra usada e a utilização deve limitar-se ao necessário para alcançar a finalidade proposta, e os titulares dos direitos não tenham seus interesses econômicos prejudicados injustificadamente. O desafio aqui é conseguir gerar aprendizagem de máquina para que os modelos alcancem estabilidade e maior taxa de assertividade, evitando alucinação e viés.
As regras a respeito da moderação de conteúdos publicados ou produzidos por meio da IA somente poderão ser definidas por meio de “legislação específica”.
Em caso de incidente, os responsáveis pela IA deverão comunicar ao SIA. O prazo e os canais de comunicação serão definidos posteriormente, depois de uma eventual sanção do PL. Está mantida a indicação para a ANPD ser a autoridade reguladora da IA (arts. 45 e 74), no prazo de dois anos.
Os cidadãos terão assegurados os direitos a explicação e a revisão humana das decisões que tiverem impacto jurídico relevante. E no caso de uso de sistemas que façam identificação biométrica, deverá haver a garantia de proteção contra discriminação direta, indireta, ilegal ou abusiva.
Empresas de IA poderão se associar para criar uma espécie de agência privada para a autorregulação do sistema. A autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como: compartilhamento de experiências sobre o uso de inteligência artificial; definição contextual de estruturas de governança; atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado.
O relator acatou emenda do senador Fabiano Contarato para incluir, entre as diretrizes protetivas do trabalho e dos trabalhadores, o fomento ao desenvolvimento de programas de treinamento e capacitação contínua, promovendo a valorização e o aprimoramento profissional.
Os senadores Randolfe Rodrigues e Rogério Carvalho fizeram requerimento de urgência para o PL 2338/2023.
Por Patrícia Peck Pinheiro, CEO e sócia-fundadora do Peck Advogados.
Sobre Peck Advogados
Fundado pela doutrinadora jurídica Patrícia Peck, pioneira no Direito Digital brasileiro, há 20 anos, Peck Advogados assessora entidades dos setores privado e público em questões jurídicas inerentes à regulação da inovação, segurança e privacidade de dados, proteção de marcas, resolução de disputas, governança corporativa, cidadania digital, compliance, estruturação de negócios e mais. Patrícia Peck é autora do livro Direito Digital, citado por magistrados para embasar decisões judiciais em todo o Brasil. Nos últimos anos, as menções à obra de Patrícia Peck dispararam no Poder Judiciário, conforme mostra
pesquisa de Peck Advogados. Clique no link abaixo e saiba mais:
https://conteudo.peckadv.com.br/pesquisa-teses-e-doutrina
assessoria de imprensa | LETS Marketing
Camila Vichoski | camila.vichoski@letsmarketing.com.br
Willian Fernandes | willian.fernandes@letsmarketing.com.br
Yasmin Brandão | yasmin.brandao@letsmarketing.com.br