A OECD desenvolveu um monitor de incidentes de IA (AIM) para fornecer evidências em tempo real.
Os impactos negativos da tecnologia, em específico da inteligência artificial, podem afetar indivíduos, empresas e a sociedade no geral. Os impactos iminentes podem variar desde níveis insignificantes até níveis inaceitáveis, e neste último nível deveria até ser avaliado se a tecnologia deveria mesmo existir. Dentre os diversos impactos e que geram grande preocupação, está a violação de direitos fundamentais. Parte dos impactos negativos são causados por erros durante a construção do software, por erros esperados do modelo matemático ou ainda por incidentes de segurança da informação. Em junho deste ano, este site já publicou um post sobre tipos de ataques a sistemas de inteligência artificial, veja aqui.
A OECD publicou um relatório para caracterização do que se entende por um incidente de inteligência artificial, vejamos:
A definição de incidente de IA muitas vezes tem como ponto de partida o conceito de “dano”. Este termo está presente na maioria das definições de incidentes de normas técnicas e regulamentações. Uma vez que o dano é claramente estabelecido em termos de definição, categorias e dimensões, é possível identificar os incidentes que levam a ele, os riscos que podem se materializar e como tratá-los. As definições de incidentes frequentemente se concentram em possíveis danos, danos reais ou ambos. Um sistema de classificação de incidentes de IA requer definições claras das dimensões de dano potencial e real, incluindo tipos de dano, alcance e níveis de gravidade. Facilitar a identificação e classificação de danos, bem como determinar respostas apropriadas, é fundamental para o sucesso de qualquer relatório de incidentes. A categoria de dano potencial é frequentemente expressa como o risco ou probabilidade de que o dano ou prejuízo realmente ocorra. O risco é uma função tanto da probabilidade de um evento ocorrer quanto da gravidade das consequências que resultariam. Diferentes estruturas de incidentes adotam definições diversas de dano potencial e risco, relacionadas à probabilidade de causar danos, à gravidade dos danos potenciais que podem causar e à natureza e origem dos riscos.
Alguns exemplos desses problemas incluem algoritmos que incorporam viés e discriminam com base em gênero, raça ou condição socioeconômica. Outros manipulam indivíduos ao influenciar suas escolhas de crenças ou votos. Além disso, há casos em que empregos são substituídos por IA, resultando em desemprego e impacto negativo no mercado de trabalho. Com dados limitados disponíveis, os relatos de incidentes envolvendo IA estão crescendo rapidamente, muitos dos quais não são amplamente divulgados pela mídia. Ainda, quando divulgados estes incidentes, geralmente são relatados de forma irregular e sem um método consistente.
É crucial identificar e documentar esses incidentes sem comprometer os resultados positivos da tecnologia. A falta de abordagem responsável e ágil para enfrentar esses riscos pode ampliar a desconfiança e afetar as democracias.
A partir destes problemas e necessidade de padronização e levantamento de estatísticas sobre as ocorrências, a OECD desenvolveu um monitor de incidentes de IA (AIM) para fornecer evidências em tempo real.
O AIM utiliza uma plataforma de monitoramento de notícias para rastrear incidentes de IA. Ele automatiza a detecção de incidentes e categoriza esses eventos de acordo com vários critérios, como setor, país, gravidade, tipo de dano, entre outros.
A longo prazo, espera-se que o AIM evolua para um monitor global de incidentes de IA, ajudando a padronizar relatórios e evitar a repetição de problemas conhecidos em diferentes jurisdições, contribuindo para uma IA mais confiável e segura globalmente.