A Inteligência Artificial (IA) trouxe avanços notáveis em diversas áreas, mas também suscitou preocupações em relação à falta de transparência e compreensão das decisões tomadas pelos sistemas. Uma das maneiras de reduzir as preocupações é desenvolver sistemas de IA de forma responsável.
Responsible AI is thus about being responsible for the power that AI brings (DIGNUM, 2019, p. 2).
Segundo Virginia Dignum (2019, p. 47-49) é necessária uma abordagem responsável da IA, ou seja, não garantir apenas que os sistemas sejam desenvolvidos de maneira correta, mas também que sejam desenvolvidos por uma boa causa. A IA responsável é mais do que definir algumas questões éticas ou o desenvolvimento de alguns recursos adicionais em sistemas de IA, mas também ponderar suas consequências que podem ter implicações éticas e danosas.
Os processos pelos quais os sistemas são desenvolvidos envolvem uma longa lista de decisões tomadas pela equipe que desenvolve o sistema (analista de requisitos, desenvolvedores, partes interessadas, entre outros), algumas delas podem ser de natureza ética. Normalmente, muitas opções e decisões diferentes são tomadas durante o processo de concepção e desenvolvimento e, em muitos casos, não há uma escolha “certa” e única a ser tomada.
Essas decisões não podem ser feitas apenas por aqueles que projetam os sistemas, nem por aqueles que os fabricam ou usam, mas requerem consciência social e discussão. Neste sentido, o PL 2338/23 traz a necessidade de audiências públicas em alguns casos:
Art. 21. Adicionalmente às medidas de governança estabelecidas neste capítulo, órgãos e entidades do poder público da União, Estados, Distrito Federal e Municípios, ao contratar, desenvolver ou utilizar sistemas de inteligência artificial considerados de alto risco, adotarão as seguintes medidas:
I – realização de consulta e audiência públicas prévias sobre a utilização planejada dos sistemas de inteligência artificial, com informações sobre os dados a serem utilizados, a lógica geral de funcionamento e resultados de testes realizados; (…)
Determinar quais decisões um sistema de IA pode tomar e decidir como desenvolver tais sistemas são decisões baseadas na ética que exigem uma abordagem responsável. Acima de tudo, isso significa que essas escolhas e decisões devem ser explicitamente relatadas e abertas para auditoria, principalmente em casos que possam violar direitos fundamentais. O sucesso da IA não é mais apenas uma questão de lucro financeiro, mas como ela se conecta diretamente ao bem-estar humano. Colocar o bem-estar humano no centro do desenvolvimento fornece não apenas uma receita segura para a inovação, mas também uma meta realista e meios concretos para medir o impacto da IA.
Virginia Dignum defende uma abordagem abrangente, que envolve a consideração dos impactos sociais, ambientais e econômicos da IA em todas as fases do seu desenvolvimento e implementação, vemos estas preocupações externadas nos fundamentos e princípios estabelecidos na legislação dos países que já regularam e buscam regulamentar a IA (ver PL 2338/23 do Brasil).
Art. 2º O desenvolvimento, a implementação e o uso de sistemas
de inteligência artificial no Brasil têm como fundamentos:
I – a centralidade da pessoa humana;
II – o respeito aos direitos humanos e aos valores democráticos;
III – o livre desenvolvimento da personalidade;
IV – a proteção ao meio ambiente e o desenvolvimento sustentável;
V – a igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas;
VI – o desenvolvimento tecnológico e a inovação;
VII – a livre iniciativa, a livre concorrência e a defesa do consumidor
VIII – a privacidade, a proteção de dados e a autodeterminação informativa;
IX – a promoção da pesquisa e do desenvolvimento com a finalidade de estimular a inovação nos setores produtivos e no poder público; e
X – o acesso à informação e à educação, e a conscientização sobre os sistemas de inteligência artificial e suas aplicações
Este texto foi baseado no PL 2338/23 e no livro Responsible Artificial Intelligence de Virginia Dignum.
Virginia Dignum é uma pesquisadora e professora de Ciência da Computação da Universidade de Umeå, na Suécia. Com um extenso background acadêmico e experiência prática, Dignum tornou-se uma especialista em ética e governança da IA. Suas contribuições na área incluem pesquisas sobre transparência, responsabilidade e tomada de decisões em sistemas de IA.