O Google lançou hoje o “Google’s Secure AI Framework” (SAIF), esta iniciativa foi inspirada nas melhores práticas de segurança da informação e incorpora riscos específicos dos sistemas de IA. Dentre os riscos específicos de sistemas de IA tratados pelo framework estão roubo do modelo , envenenamento de dados de treinamento , injeção de entradas maliciosas por meio de prompt injection e extração de informações confidenciais nos dados de treinamento.
Para tratar os riscos, o framework do google estabelece 6 princípios.
Aplicar o conhecimento de segurança da informação para os sistemas de IA: Na área de segurança da informação há diversas recomendações nacionais e internacionais que indicam boas práticas para tratar o tema. O tema é tão relevante que também faz parte das normas de proteção de dados. O framework do Google defende que estas medidas devem ser aplicadas e adaptadas para as vulnerabilidades que os sistemas de IA podem possuir.
Riscos da IA como riscos também da empresa: O monitoramento é fundamental na detecção e resposta aos incidentes cibernéticos relacionados à IA. A ação imediata para tratar incidentes é fundamental.
Automatização de defesas para acompanhar as ameaças novas e existentes: Uso das técnicas de inteligência artificial também no campo da segurança da informação pra detecção de vulnerabilidades e incidentes de segurança da informação.
Consistência da estrutura e organização: Medidas técnicas de segurança entre as diversas estruturas da empresa devem estar em harmonia, desde o gerenciamento dos servidores até o desenvolvimento e monitoramento do software.
Controles para mitigação de riscos: Estabelecer medidas técnicas de como os softwares serão corrigidos após incidentes e feedbacks do usuário. Também é necessário definir medidas de melhoria no conjunto de dados de treinamento, ajustes dos modelo e incorporar mais segurança.
Considerar riscos dos sistemas de IA nos processos de negócios: Considerar artefatos que devem ser gerados para cada sistema de IA com o intuito de subsidiar a avaliação de riscos do negócio.
Dados estes princípios, o Google também auxiliou a criar a NIST AI Risk Management Framework e ainda em construção a ISO/IEC 42001 AI Management System Standard.
O lançamento do SAIF do Google e as contribuições nas normas técnicas representam um avanço no desenvolvimento da IA Responsável, destacando a importância da segurança da informação.