O senador Eduardo Gomes (PL-TO) apresentou nesta quarta-feira (24) seu relatório preliminar sobre a regulação da Inteligência Artificial (IA) no Brasil.
Assista o vídeo disponibilizado pela Tv Senado:
Eduardo é o relator da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), presidida pelo senador Carlos Viana (Podemos-MG). Segundo o senador, a proposta está em sintonia com regulamentos já existentes na União Europeia, nos Estados Unidos e no Reino Unido, entre outros.
— A regulação da IA não é urgente, como alguns querem pontuar. Urgente é a proteção dos direitos do cidadão. Podemos assumir riscos, mas não podemos tolerar injustiças. E o Congresso não vai se omitir quanto à regulação de tecnologias que podem trazer prejuízos ao cidadão — afirmou Eduardo.
Em seu relatório, o senador apresenta um texto alternativo (substitutivo) que mescla vários projetos de lei em tramitação no Senado, em especial o PL 2.338/2023, do senador Rodrigo Pacheco (PSD-MG), presidente do Senado e do Congresso Nacional, e o PL 21/2020 — já aprovado na Câmara — de autoria do deputado Eduardo Bismarck (PDT-CE). O projeto de Pacheco é fruto do trabalho de uma comissão de juristas criada por ele em 2022.
O senador Eduardo disse que sua proposta é preliminar e que está aberta a debates e sugestões. Para ele, a regulação da IA precisa mirar a proteção dos direitos e garantias fundamentais sem prejudicar a inovação e o desenvolvimento do país.
— A IA é promessa de desenvolvimento e de competitividade, mas tem que ser sustentável e seu uso, responsável.
Ele explicou que o substitutivo prioriza a inovação e o desenvolvimento econômico inclusivos e apresenta diretrizes para investimento público em pesquisa e educação sustentáveis.
— Não existe inovação, ainda mais no Brasil, sem proteger a música, as artes, enfim, o jeito criativo brasileiro. Por isso, avançamos neste ponto. As propostas anteriores eram muito tímidas para a proteção do artista, do compositor, do jornalismo, enfim, do que é o humano na inteligência artificial. (…) Trazemos deveres para que não haja mais fake news, ódio e violência que desgastam a nossa democracia, preservando especialmente a integridade da informação.
O texto substitutivo do senador propõe uma lei para tratar “sobre o desenvolvimento, fomento, uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana”.
Apresenta normas gerais para regular “concepção, desenvolvimento, implementação, utilização, adoção e governança responsável de sistemas de inteligência artificial no Brasil, com o objetivo de proteger os direitos fundamentais, estimular a inovação responsável e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento econômico, científico e tecnológico”.
O substitutivo estabelece que o Brasil terá um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado por autoridade a ser designada pelo Poder Executivo. O senador sugere que esta autoridade seja a já existente Autoridade Nacional de Proteção de Dados Pessoais (ANPD), que teria de ser aperfeiçoada e ampliada para o propósito. Essa regulação seria feita em harmonia com os demais órgãos reguladores brasileiros, como o Banco Central, Cade e as agências reguladoras Anatel, Anvisa, ANS e outros.
Em seu art. 4º, o substitutivo define dezenas de elementos relativos à regulação da IA, como ciclo de vida, modelos fundacionais, IA generativa, desenvolvedor de sistema de IA, fornecedor, aplicador, agentes de IA, discriminação direta e indireta, mineração de textos e dados, avaliação de impacto algorítmico, conteúdos sintéticos derivados, integridade informacional e outros.
O ‘sistema de inteligência artificial’ é definido como “sistema baseado em máquina que, com graus diferentes de autonomia e para objetivos explícitos ou implícitos, infere, a partir de um conjunto de dados ou informações que recebe, como gerar resultados, em especial, previsão, recomendação ou decisão que possa influenciar o ambiente virtual ou real”.
A proposta prevê avaliação preliminar de riscos antes da introdução de sistema de IA no mercado. Haverá também obrigatoriedade de ‘avaliação de impacto algorítmico’ em determinados casos. Também estabelece regras para o uso de ‘sistemas de armas autônomas’, letais ou não, que deverão garantir o ‘controle humano significativo’ e respeitar as regras do Direito Internacional Humanitário e do Direito Internacional dos Direitos Humanos.
O uso de sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público, será proibido, salvo em situações que envolvam autorização judicial para instrução em processo criminal; busca de vítimas ou de pessoas desaparecidas; investigação e repressão de flagrantes de crimes com pena máxima de reclusão superior a dois anos; e recaptura de fugitivos, cumprimento de mandados de prisão e de medidas restritivas ordenadas pelo Poder Judiciário.
O texto apresentado por Eduardo também trata do fomento à inovação sustentável; proteção ao trabalho e aos trabalhadores; direitos autorais e demais direitos da personalidade conexos; formação e capacitação.
O senador Carlos Viana afirmou que a regulação da IA precisa garantir direitos como privacidade, combate ao preconceito e a todo tipo de discriminação, mas que também dê liberdade aos desenvolvedores para pesquisarem e inovarem na área em prol do desenvolvimento científico e econômico do Brasil. Ele disse que o relatório preliminar ficará à disposição de toda a sociedade e aberto a novas sugestões e aperfeiçoamentos.
Também participaram da reunião os senadores Astronauta Marcos Pontes (PL-SP) e Alessandro Vieira (MDB-SE), o ministro de Relações Institucionais, Alexandre Padilha, e os deputados federais Orlando Silva (PCdoB-SP), Eduardo Bismarck e Luise Canziani (PSD-PR), relatora do PL 21/2020 na Câmara.
Pontes opinou que a regulação deve proteger o cidadão sem prejudicar a pesquisa e a competitividade nacionais no setor. Ele elogiou a proposta por trazer pontos como as responsabilidades de desenvolvedores, operadores e usuários e análise de riscos.
Outras determinações do substitutivo
A lei não se aplicará a sistema de IA:
- usado por um indivíduo para fim particular não econômico
- desenvolvido e utilizado exclusivamente para defesa nacional
- atividades de testagem, desenvolvimento e pesquisa que não sejam colocados em circulação no mercado
- padrões e formatos abertos e livres, com exceção daqueles considerados de alto risco
Fundamentos da IA no Brasil:
- centralidade da pessoa humana;
- respeito aos direitos humanos e aos valores democráticos;
- livre desenvolvimento da personalidade e liberdade de expressão;
- proteção ao meio ambiente e ao desenvolvimento ecologicamente equilibrado;
- igualdade, não discriminação, pluralidade e diversidade;
- direitos sociais, em especial a valorização do trabalho humano;
- desenvolvimento econômico, científico e tecnológico e inovação;
- livre iniciativa, livre concorrência e defesa do consumidor;
- privacidade, proteção de dados pessoais e autodeterminação informativa;
- promoção da pesquisa e do desenvolvimento;
- acesso à informação e à disseminação de dados, de forma aberta e estruturada;
- proteção de direitos culturais e a promoção dos bens artísticos e históricos;
- educação e conscientização sobre os sistemas de inteligência artificial;
- proteção de grupos vulneráveis, em especial de idosos, de pessoas com deficiência e, com absoluta prioridade, de crianças e adolescentes, reconhecendo a vulnerabilidade agravada;
- integridade da informação mediante a proteção e a promoção da confiabilidade, precisão e consistência das informações;
- fortalecimento do processo democrático, pluralismo político e enfrentamento da desinformação e dos discursos que promovam o ódio ou a violência;
- proteção de direitos de propriedade intelectual;
- garantia da segurança da informação e segurança cibernética.
Princípios da IA no Brasil:
- crescimento inclusivo, desenvolvimento sustentável e bem-estar, incluindo a proteção do trabalho e do trabalhador;
- autodeterminação e liberdade de decisão e de escolha;
- supervisão humana efetiva no ciclo de vida da IA;
- não discriminação ilícita e abusiva;
- justiça, equidade e inclusão;
- transparência e explicabilidade, observado o segredo comercial e industrial;
- devida diligência e auditabilidade ao longo de todo o ciclo de vida do sistema de IA;
- confiabilidade e robustez do sistema de IA;
- proteção dos direitos e garantias fundamentais, incluindo o devido processo legal, contestabilidade e contraditório;
- prestação de contas, responsabilização e reparação integral de danos;
- prevenção, precaução e mitigação de riscos e danos;
- não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas do sistema de IA;
- desenvolvimento e uso ético e responsável da IA;
- governança transparente, participativa e orientada à proteção de direitos fundamentais individuais, sociais e econômicos;
- promoção da interoperabilidade de IA para permitir acesso mais amplo e inovação colaborativa;
- possibilidade e condição de utilização de sistemas e tecnologias com segurança e autonomia por pessoa com deficiência, garantida a plena acessibilidade à informação e à comunicação; e
- conformidade com a legislação aplicável.
Direitos das pessoas e grupos afetados pela IA:
- direito à informação prévia quanto às suas interações com sistemas de inteligência artificial, de forma acessível e de fácil compreensão, inclusive sobre caráter automatizado da interação;
- direito à privacidade e à proteção de dados pessoais;
- direito à determinação e à participação humana em decisões de sistemas de IA, levando-se em conta o contexto e o estado da arte do desenvolvimento tecnológico;
- direito à não discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos.
Proibição da implementação e uso de sistemas de IA:
- que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir a pessoa a se comportar de forma prejudicial ou perigosa à saúde ou segurança própria ou de terceiros;
- que explorem quaisquer vulnerabilidades, tais como as associadas à idade, situação socioeconômica ou deficiência física ou mental, de modo a induzi-las a se comportar de forma prejudicial à saúde ou segurança própria ou de terceiros;
- pelo poder público, para avaliar, classificar ou ranquear as pessoas, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional;
- que possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual infantil;
- que avaliem os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência;
- sistemas de armas autônomas que não permitam controle humano significativo, cujos efeitos sejam imprevisíveis ou indiscriminados ou cujo uso implique violação do Direito Internacional Humanitário.
Sanções a infrações à lei da IA:
- advertência;
- multa simples, limitada, no total a R$ 50 milhões de reais por infração, sendo, no caso de pessoa jurídica de direito privado, de até 2% de seu faturamento, de seu grupo ou conglomerado no Brasil no seu último exercício, excluídos os tributos;
- publicização da infração;
- proibição ou restrição para participar de regime de sandbox regulatório, por até cinco anos;
- suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA; e
- proibição de tratamento de determinadas bases de dados.
Fonte: Agência Senado – https://www12.senado.leg.br/noticias/materias/2024/04/24/ia-relator-apresenta-proposta-alinhada-com-regulamentos-da-europa-e-dos-eua