Google’s Secure AI Framework

Iniciativa foi inspirada nas melhores práticas de segurança da informação e incorpora riscos específicos dos sistemas de IA.
Conteúdo abaixo

O Google lançou hoje o “Google’s Secure AI Framework” (SAIF), esta iniciativa foi inspirada nas melhores práticas de segurança da informação e incorpora riscos específicos dos sistemas de IA. Dentre os riscos específicos de sistemas de IA tratados pelo framework estão roubo do modelo , envenenamento de dados de treinamento , injeção de entradas maliciosas por meio de prompt injection e extração de informações confidenciais nos dados de treinamento.


Para tratar os riscos, o framework do google estabelece 6 princípios.

Aplicar o conhecimento de segurança da informação para os sistemas de IA: Na área de segurança da informação há diversas recomendações nacionais e internacionais que indicam boas práticas para tratar o tema. O tema é tão relevante que também faz parte das normas de proteção de dados. O framework do Google defende que estas medidas devem ser aplicadas e adaptadas para as vulnerabilidades que os sistemas de IA podem possuir.

Riscos da IA como riscos também da empresa: O monitoramento é fundamental na detecção e resposta aos incidentes cibernéticos relacionados à IA. A ação imediata para tratar incidentes é fundamental.

Automatização de defesas para acompanhar as ameaças novas e existentes: Uso das técnicas de inteligência artificial também no campo da segurança da informação pra detecção de vulnerabilidades e incidentes de segurança da informação.

Consistência da estrutura e organização: Medidas técnicas de segurança entre as diversas estruturas da empresa devem estar em harmonia, desde o gerenciamento dos servidores até o desenvolvimento e monitoramento do software.

Controles para mitigação de riscos: Estabelecer medidas técnicas de como os softwares serão corrigidos após incidentes e feedbacks do usuário. Também é necessário definir medidas de melhoria no conjunto de dados de treinamento, ajustes dos modelo e incorporar mais segurança.

Considerar riscos dos sistemas de IA nos processos de negócios: Considerar artefatos que devem ser gerados para cada sistema de IA com o intuito de subsidiar a avaliação de riscos do negócio.

Dados estes princípios, o Google também auxiliou a criar a NIST AI Risk Management Framework e ainda em construção a ISO/IEC 42001 AI Management System Standard.

O lançamento do SAIF do Google e as contribuições nas normas técnicas representam um avanço no desenvolvimento da IA Responsável, destacando a importância da segurança da informação.

ver noticia

Cursos online sobre Inteligência Artificial
Anterior Cursos online sobre Inteligência Artificial
Normas técnicas que tratam de Inteligência Artificial
Próximo Normas técnicas que tratam de Inteligência Artificial
Publicações relacionadas

Leave a Comment:

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *