Frameworks de Governança de Inteligência Artificial

Conteúdo abaixo

Frameworks de governança de IA são conjuntos de diretrizes, princípios e práticas estabelecidos para orientar o uso ético, seguro, transparente e responsável da inteligência artificial (IA). Os frameworks geralmente são desenvolvidos por entidades técnicas/acadêmicas nacionais ou internacionais e precisam ser adequados à legislação de cada país. Essas ferramentas e métricas são projetadas para ajudar os agentes de IA a desenvolver e usar sistemas de IA confiáveis que respeitem os direitos humanos e sigam determinados princípios.

Esses frameworks geralmente abordam várias áreas-chave, vejamos:

🔑Transparência: Promovem a transparência no desenvolvimento e uso da IA, exigindo que os sistemas de IA sejam explicáveis e compreensíveis. Isso envolve documentar o processo de tomada de decisão dos modelos de IA e fornecer informações claras sobre como eles operam.

🔑Justiça e equidade: Procuram garantir que os sistemas de IA sejam justos e imparciais, evitando discriminação e existência de vieses. Isso envolve a adoção de práticas que minimizem a introdução de preconceitos nos algoritmos e modelos, bem como a realização de avaliações de impacto social.

🔑Privacidade e proteção de dados: Enfatizam a proteção da privacidade e dos dados pessoais nas aplicações de IA. Isso inclui o cumprimento de leis e regulamentos de proteção de dados, o armazenamento e tratamento seguro das informações e a obtenção de consentimento adequado dos indivíduos envolvidos.

🔑Responsabilidade: Estabelecem responsabilidades claras para as partes envolvidas no ciclo de vida da IA, desde o desenvolvimento até a implementação e monitoramento contínuo. Isso inclui a atribuição de responsabilidades, a prestação de contas e a consideração de impactos sociais, ambientais e éticos.

🔑Segurança: Colocam ênfase na segurança cibernética e na proteção contra possíveis vulnerabilidades e ataques maliciosos em sistemas de IA. Isso envolve práticas de segurança robustas, testes adequados e mitigação de riscos potenciais.

Dentre os diversos frameworks existentes, alguns deles são voltados para contextos e áreas específicas. A OECD traz algumas ferramentas voltadas para governança:

📚 Justifai: Justifai é uma plataforma de IA que permite aos usuários criar soluções de IA confiáveis de forma rápida, econômica e com riscos mínimos de conformidade.

📚 BigCode OpenRAIL-M License Agreement Procedural: Contrato de licença para IA responsável. Este contrato foi projetado especificamente para compartilhar modelos de aprendizado de máquina sem royalties, ao mesmo tempo em que estabelece restrições de uso específicas que promovem o uso responsável do modelo.

📚 Fairly AI Oversight and Risk Management Platform: A plataforma da Fairly permite que especialistas em tecnologia e políticas se conectem e colaborem, preenchendo a lacuna de supervisão de IA de forma transparente, facilitando a aplicação de políticas e controles em todo o ciclo de vida do modelo.

📚 Ethical AI Governance Framework: Propõe uma abordagem que incorpora ferramentas para facilitar o desenvolvimento ético e responsável da IA, com base no Regulamento da UE sobre Inteligência Artificial (‘AI Act’)

📚 Trail: Rastreia e agrega todas as informações técnicas relevantes, como métricas e parâmetros de desenvolvimento de IA, e as torna acessíveis em diferentes formatos de saída de acordo com as partes interessadas.

📚 The AI Ethics Playbook: Ferramenta para ajudar as organizações a considerar como projetar, desenvolver e implantar sistemas de inteligência artificial (IA) de forma ética.

A Organização para a Cooperação e Desenvolvimento Econômico mapeou diversas desses frameworks e ferramentas no seguinte link https://oecd.ai/en/catalogue/tools. Ao total há 576 ferramentas mapeadas pela OECD e podem ser filtradas pelas categorias abordagem (técnica, educacional, procedimental), tipo de ferramenta (auditoria, documentação,  frameworks de governança, gerenciamento de riscos, entre outros), país de origem, entidade que criou, etapa do ciclo de vida (planejamento, construção, operação, etc), grupo que pode ser aplicado (setor privado, público, academia, etc), setor que pode ser aplicado (finanças, educação, saúde, indústria, et) e tipo de tecnologia (ia generativa, previsão, chatbots, reconhecimento/detecção de objetos, entre outros).

 

AI Act: Regulamentação da Inteligência Artificial na União Europeia
Anterior AI Act: Regulamentação da Inteligência Artificial na União Europeia
O que é inteligência artificial responsável ?
Próximo O que é inteligência artificial responsável ?
Publicações relacionadas

Leave a Comment:

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *