O que é inteligência artificial responsável ?

Responsabilidade e Ética na Inteligência Artificial
Conteúdo abaixo

A Inteligência Artificial (IA) trouxe avanços notáveis em diversas áreas, mas também suscitou preocupações em relação à falta de transparência e compreensão das decisões tomadas pelos sistemas. Uma das maneiras de reduzir as preocupações é desenvolver sistemas de IA de forma responsável.

Responsible AI is thus about being responsible for the power that AI brings (DIGNUM, 2019, p. 2).

Segundo Virginia Dignum (2019, p. 47-49) é necessária uma abordagem responsável da IA, ou seja, não garantir apenas que os sistemas sejam desenvolvidos de maneira correta, mas também que sejam desenvolvidos por uma boa causa. A IA responsável é mais do que definir algumas questões éticas ou o desenvolvimento de alguns recursos adicionais em sistemas de IA, mas também ponderar suas consequências que podem ter implicações éticas e danosas. 

Os processos pelos quais os sistemas são desenvolvidos envolvem uma longa lista de decisões tomadas pela equipe que desenvolve o sistema (analista de requisitos, desenvolvedores, partes interessadas, entre outros), algumas delas podem ser de natureza ética. Normalmente, muitas opções e decisões diferentes são tomadas durante o processo de concepção e desenvolvimento e, em muitos casos, não há uma escolha “certa” e única a ser tomada.

Essas decisões não podem ser feitas apenas por aqueles que projetam os sistemas, nem por aqueles que os fabricam ou usam, mas requerem consciência social e discussão. Neste sentido, o PL 2338/23 traz  a necessidade de audiências públicas em alguns casos:

Art. 21. Adicionalmente às medidas de governança estabelecidas neste capítulo, órgãos e entidades do poder público da União, Estados, Distrito Federal e Municípios, ao contratar, desenvolver ou utilizar sistemas de inteligência artificial considerados de alto risco, adotarão as seguintes medidas:
I – realização de consulta e audiência públicas prévias sobre a utilização planejada dos sistemas de inteligência artificial, com informações sobre os dados a serem utilizados, a lógica geral de funcionamento e resultados de testes realizados; (…)

Determinar quais decisões um sistema de IA pode tomar e decidir como desenvolver tais sistemas são decisões baseadas na ética que exigem uma abordagem responsável. Acima de tudo, isso significa que essas escolhas e decisões devem ser explicitamente relatadas e abertas para auditoria, principalmente em casos que possam violar direitos fundamentais. O sucesso da IA não é mais apenas uma questão de lucro financeiro, mas como ela se conecta diretamente ao bem-estar humano. Colocar o bem-estar humano no centro do desenvolvimento fornece não apenas uma receita segura para a inovação, mas também uma meta realista e meios concretos para medir o impacto da IA. 

Virginia Dignum defende uma abordagem abrangente, que envolve a consideração dos impactos sociais, ambientais e econômicos da IA em todas as fases do seu desenvolvimento e implementação, vemos estas preocupações externadas nos fundamentos e princípios estabelecidos na legislação dos países que já regularam e buscam regulamentar a IA (ver PL 2338/23 do Brasil).

Art. 2º O desenvolvimento, a implementação e o uso de sistemas
de inteligência artificial no Brasil têm como fundamentos:
I – a centralidade da pessoa humana;
II – o respeito aos direitos humanos e aos valores democráticos;
III – o livre desenvolvimento da personalidade;
IV – a proteção ao meio ambiente e o desenvolvimento sustentável;
V – a igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas;
VI – o desenvolvimento tecnológico e a inovação;
VII – a livre iniciativa, a livre concorrência e a defesa do consumidor
VIII – a privacidade, a proteção de dados e a autodeterminação informativa;
IX – a promoção da pesquisa e do desenvolvimento com a finalidade de estimular a inovação nos setores produtivos e no poder público; e
X – o acesso à informação e à educação, e a conscientização sobre os sistemas de inteligência artificial e suas aplicações

Este texto foi baseado no PL 2338/23 e no livro Responsible Artificial Intelligence de Virginia Dignum.

Virginia Dignum é uma pesquisadora e professora de Ciência da Computação da Universidade de Umeå, na Suécia. Com um extenso background acadêmico e experiência prática, Dignum tornou-se uma especialista em ética e governança da IA. Suas contribuições na área incluem pesquisas sobre transparência, responsabilidade e tomada de decisões em sistemas de IA.

Frameworks de Governança de Inteligência Artificial
Anterior Frameworks de Governança de Inteligência Artificial
Cursos online sobre Inteligência Artificial
Próximo Cursos online sobre Inteligência Artificial
Publicações relacionadas

Leave a Comment:

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *