O blog da AWS

Melhores práticas de segurança em projetos de IA generativa

Escrito por Vanessa Rodrigues Fernandes, arquiteta de soluções do setor público na AWS.

A Inteligência Artificial Generativa (Generative AI) é um subcampo do Aprendizado de Máquina (Machine Learning) e está sendo amplamente adotada desde pequenas empresas a grandes corporações. Essa tecnologia pode ser implementada tanto para solucionar desafios complexos quanto para otimizar tarefas simples do cotidiano, além de inúmeros outros casos de uso como Chatbots, geração de campanhas de marketinganálise de suporte ao cliente, criação de conteúdo, conversão de imagem para texto, melhorar a produtividade dos desenvolvedores, etc. Essa versatilidade demonstra o enorme potencial da IA Generativa para criar e impulsionar o valor econômico nas organizações de forma exponencial.

Setores diversos estão aproveitando os benefícios dessa abordagem, devido à sua capacidade de gerar conteúdo, otimizar processos e impulsionar inovações, resultando em ganhos de produtividade e vantagens competitivas para as empresas que a adotam.

Quando se inicia um projeto envolvendo inteligência artificial generativa, surgem questionamentos relacionados à segurança, privacidade e conformidade à medida que as aplicações são desenvolvidas. Compreender e abordar as vulnerabilidades, ameaças e riscos dos grandes modelos de linguagem (LLM) durante as fases iniciais ajuda as equipes a focarem nos benefícios econômicos e ganhos de produtividade que a IA generativa pode proporcionar. A segurança deve ser implementada desde a concepção do projeto, auxiliando a responder perguntas como: Quem poderá utilizar essa ferramenta e de que forma? Como as perguntas e respostas serão entregues e limitadas? Como evitar conteúdos ou palavras indesejadas? Como garantir que a aplicação está respondendo adequadamente? Como se prevenir de ataques de pessoas mal-intencionadas? E como monitorar o sistema de forma apropriada?

Estar ciente destes riscos promove a transparência e a confiança nas aplicações de IA generativa, incentiva uma maior observabilidade, ajuda a cumprir os requisitos de conformidade e facilita a tomada de decisões informadas pelos líderes.

Segundo uma pesquisa recente entre a AWS e a IBM, somente 24% dos projetos atuais de IA generativa estão sendo protegidos. O estudo revelou uma tendência preocupante de executivos priorizarem a inovação em detrimento da segurança (70%), apesar de também afirmarem que a IA segura e confiável é essencial para o sucesso dos negócios (82%). De acordo com esse cenário, vamos explorar algumas das melhores práticas de segurança para projetos em IA generativa.

1. Criar um escopo bem definido

Como em qualquer esforço de segurança, é fundamental compreender o escopo do que precisa ser protegido. Dependendo do seu caso de uso, você pode optar por um serviço gerenciado, onde o provedor assume mais responsabilidades pelo gerenciamento do serviço e do modelo, ou pode criar seu próprio serviço e modelo personalizados.

Na AWS, a segurança é a principal prioridade, e acreditamos que fornecer a ferramenta certa para cada trabalho é essencial. Por exemplo, você pode utilizar o Amazon Bedrock, um serviço sem servidor e orientado por API, com modelos fundacionais (FMs), pré-treinados e exclusivos como o Amazon Titan e fornecidos por parceiros como AI21 Labs, Anthropic, Cohere, Meta, stability.ai. Outra opção é o Amazon SageMaker JumpStart, que oferece flexibilidade adicional simplificando a utilização de ferramentas de machine learning (ML) e aprendizado de máquina, fornecendo soluções prontamente implementáveis e modelos previamente treinados, acelerando sua jornada de IA com segurança. Você também pode criar e treinar seus próprios modelos no Amazon SageMaker. Talvez você planeje usar um aplicativo de IA generativa para consumidores, por meio de uma interface web ou API, como um chatbot, ou recursos de IA generativa incorporados a um aplicativo comercial corporativo adquirido por sua organização. Cada uma dessas ofertas de serviços possui diferentes modelos de infraestrutura, software, acesso e dados, resultando em diferentes considerações de segurança. Para estabelecer consistência, agrupamos essas ofertas em categorizações lógicas, chamadas de escopos.

Para simplificar seus esforços de definição de escopo de segurança, criamos uma matriz que resume as principais disciplinas de segurança que você deve considerar, dependendo da solução de IA generativa selecionada. Chamamos isso de Matriz de escopo de segurança de IA generativa, mostrada na Figura 1.

Figura 1: Matriz de escopo de segurança de IA generativa

Sua organização está avançando com uma solução de IA generativa. Como líder de segurança, você deve primeiro compreender o escopo do que está protegendo. A AWS categorizou diferentes ofertas de IA generativa em 5 escopos, que vão desde simplesmente consumir um aplicativo público de IA (Escopo 1) até construir seu próprio modelo autotreinado do zero (Escopo 5). Este escopo determina seu nível de propriedade e controle sobre o modelo e os dados de IA e para ajudar a proteger cada um de forma adequada, a AWS criou uma matriz que mapeia as principais disciplinas de segurança, como governança, questões jurídicas/privacidade, gerenciamento de riscos, controles e resiliência.

O escopo em que você se enquadra determinará quais dessas disciplinas de segurança precisam de priorização. Para âmbitos mais genéricos, como 1 e 2, onde é apenas um consumidor, convém concentrar-se em considerações de governança, jurídicas e de privacidade com base nos termos de serviço do fornecedor. Para escopos mais elevados de 3 a 5, onde você está criando aplicativos, a implementação de modelagem de ameaças para riscos exclusivos de IA, como injeção de prompt, torna-se crítica, bem como a adaptação de gerenciamento de identidade/acesso e práticas de resiliência para arquiteturas de IA generativas. Em todos os escopos, você precisará estender suas estruturas de segurança existentes para levar em conta as nuances dos modelos generativos de IA e dos fluxos de dados.

Para mais detalhes acesse o blog: Securing generative AI: An introduction to the Generative AI Security Scoping Matrix.

2. Definir os controles de autenticação e autorização

Independente de qual escopo seu projeto se encaixar, é fundamental definir os controles de acesso. Várias camadas de proteção deverão ser criadas, dependendo do layout da sua aplicação.

Lembrando que ao utilizar os serviços da AWS como o Amazon Bedrock, Amazon SageMaker:

  • Os dados do cliente não são usados para melhorar nenhum dos modelos fundacionais de outros clientes e não são compartilhados com outros fornecedores de modelos de fundação.
  • Todos os dados do modelo do cliente (solicitações, respostas, modelos ajustados) são isolados por cliente e permanecem na região da AWS onde foram criados.
  • Os dados do cliente são sempre criptografado em trânsito com um mínimo de TLS1.2 e AES-256 criptografado em repouso usando chaves de criptografia de dados gerenciadas pelo AWS KMS.
  • Integração com o AWS Identity and Access Management Service (IAM) para gerenciar o acesso à inferência, permitir/negar acesso a modelos específicos, habilitar o acesso ao AWS Management Console, etc.
  • Modelos ajustados (personalizados) são criptografados e armazenados usando o AWS Customer Manager Keys KMS (CMKs).
  • Somente você tem acesso aos seus modelos personalizados.

Utilize o AWS Identity and Access Manangement (IAM) para criar regras de acesso ao LLM, use sempre o princípio do menor privilégio.

Utilize o  Amazon Verified Permissions, um serviço escalável de gerenciamento de permissões e autorização refinado para os aplicativos que você cria. Usando o Cedar, uma linguagem de política de código aberto expressiva e analisável, desenvolvedores e administradores podem definir controles de acesso baseados em políticas usando funções e atributos para um controle de acesso mais granular e sensível ao contexto.

Para segredos, o serviço AWS Secrets Manager, os gerencia e te ajuda a proteger o acesso a aplicativos, serviços e recursos de TI. O serviço permite alternar, gerenciar e recuperar facilmente credenciais de banco de dados, chaves de API e outros segredos durante seu ciclo de vida.

Veja abaixo um exemplo de fluxo de autenticação:

Figura 2: Fluxo de autenticação em um aplicativo

No cenário acima temos os seguintes passos:

  1. O agente recebe uma solicitação do Web App.
  2. O agente orquestra o processo.
  3. O agente recebe a resposta do modelo e envia para o Web App.

Veja um exemplo de regra no IAM:

Figura 3: Exemplo de função no IAM

Na maioria dos casos, esta não será a mesma política. A Política na parte superior serve para controlar as ações do plano de controle fornecidas aos administradores ou CI/CD que implantam o aplicativo. A instrução na parte inferior é para as ações do plano de dados geralmente fornecidas aos aplicativos/usuários que usam o agente.

Efetue também restrições através de:

  • Service control policies (SCPs):
    • Para permitir acesso a modelos específicos para fins de inferência.
    • Para bloquear o acesso à criação e configuração da base de conhecimento.
  • Funções dos Agentes:
    • Política baseada em identidade da função de serviço do Agente Bedrock para invocar o modelo básico.
    • Política baseada em identidade da função de serviço do agente Bedrock para obter o arquivo de esquema OpenAPI.
    • Política baseada em identidade da função de serviço do Agente Bedrock para acessar a chave KMS usada para criptografar o arquivo de esquema.
    • Política de confiança da função de serviço do Bedrock Agent.

Alguns exemplos de políticas baseadas em identidade para o Amazon Bedrock.

3. Criar termos de uso da ferramenta

As aplicações de IA generativa para os consumidores podem representar riscos à medida que as organizações perdem o controle sobre os dados, pelo que as estratégias de governança devem abordar políticas de utilização aceitável e monitoramento dos fornecedores. Os aplicativos empresariais permitem termos contratuais, mas exigem a devida diligência em relação aos fluxos de dados, reutilização e residência. Aqueles que criam aplicativos de IA devem validar os resultados, obter orientação legal sobre propriedade e observar mudanças nas políticas do fornecedor.

Ao desenvolver aplicativos de IA, ajuste e valide regularmente os modelos. Selecione cuidadosamente os dados para treinamento e ajuste-os para evitar herdar classificações de risco. Para modelos auto treinados, assuma as responsabilidades do fornecedor pelo uso e armazenamento de dados. As regulamentações de IA estão evoluindo, portanto, monitore seu ambiente regulatório e esteja pronto para dinamizar, se necessário.

Os principais temas regulamentares incluem a minimização da coleta de dados, a transparência na divulgação da utilização e dos resultados da IA, a supervisão humana de decisões automatizadas, avaliações de segurança e classificação dos sistemas de IA por níveis de risco. Contrate aconselhamento jurídico antecipadamente para avaliar os regulamentos e a documentação necessária sobre fonte de dados, desenvolvimento de modelos e explicabilidade. Aborde proativamente a transparência, o viés, o uso indevido e a segurança para demonstrar conformidade.

Segue um exemplo de politica de uso:

Figura 4: Exemplo de politica de utilização aceitável.

4. Utilizar o Guardrails do Amazon Bedrock

Guardrails fornece uma camada adicional de proteção avaliando entradas e respostas com base em políticas de casos de uso, permitindo a criação de várias grades de proteção personalizadas para serem aplicados em modelos de linguagem e modelos ajustados. Ele permite definir tópicos fora dos limites para detectar e bloquear conteúdo restrito, oferece filtros de conteúdo para bloquear linguagem prejudicial como ódio, palavrões e violência, detecta informações confidenciais como PII para rejeição ou mascaramento e permite configurar listas de palavras personalizadas para bloquear termos inadequados. Os principais benefícios são o controle granular sobre as interações de IA, garantindo segurança, conformidade com políticas e relevância comercial.

Figura 5: Fluxo do guardrails

Filtros de conteúdo — Ajuste a intensidade do filtro para bloquear solicitações de entrada ou modelar respostas contendo conteúdo prejudicial.

Tópicos negados — Defina um conjunto de tópicos que não são desejáveis no contexto do seu aplicativo. Esses tópicos serão bloqueados se detectados nas consultas dos usuários ou nas respostas do modelo.

Filtros de palavras — Configure filtros para bloquear palavras, frases e palavrões indesejados. Essas palavras podem incluir termos ofensivos, nomes de concorrentes, etc.

Filtros de informações confidenciais — Bloqueie ou mascare informações confidenciais, como informações de identificação pessoal (PII) ou regex personalizado nas entradas do usuário e nas respostas do modelo.

Fundamentação – Adicione verificação de fundamentação contextual para validar se as respostas do modelo são baseadas na fonte de referência e relevantes para a consulta do usuário para filtrar a alucinação.

Você pode personalizar a grade de proteção definindo políticas para conteúdo proibido nas entradas do usuário ou nas respostas do modelo, bem como definindo mensagens de violação personalizadas; criar várias versões para iterar em diferentes configurações usando a janela de teste, quando estiver satisfeito com as políticas, crie uma versão para usar com os modelos fundacionais compatíveis especificando a ID e a versão da grade de proteção durante a inferência. Para avaliação seletiva em aplicativos de conversação ou geração aumentada de recuperação (RAG), você pode marcar somente as partes de entrada do usuário do prompt a serem avaliadas pelo guardrail usando tags, ignorando outro contexto. Use o Contextual grounding check para filtrar respostas de IA não fundamentadas ou irrelevantes com base em limiares a fim de evitar alucinações do modelo.

5. Se proteger adequadamente de ataques abordados no TOP 10 OWASP / Mitre Atlas

O projeto OWASP Top 10 for LLMs fornece uma lista das 10 vulnerabilidades mais críticas frequentemente vistas em aplicativos LLM, destacando seu impacto potencial, facilidade de exploração e prevalência em softwares, enquanto o ATLAS é uma base de dados global de táticas e técnicas adversárias contra sistemas de IA baseada em observações de ataques reais.

Figura 6: Comparação entre os projetos Mitre Atlas e OWASP Top 10 for LLMs.

Veja abaixo a classificação das 10 vulnerabilidades mais críticas, segundo o OWASP, bem como algumas formas de mitigação:

LLM01: Injeção de Prompt 

Manipulando LLMs por meio de entradas elaboradas pode levar a acesso não autorizado, violação de dados e comprometimento de tomada de decisão.

Mitigação: Validar entradas, limitar caracteres, monitorar saídas.

LLM02: Tratamento de saída inseguro

Negligenciar a validação das saídas do LLM pode levar a explorações de segurança, incluindo execução de código que compromete sistemas e expõe dados.

Mitigação: Validar, sanitizar e filtrar saídas antes do uso.

LLM03: Envenenamento de dados de treinamento

Dados de treinamento adulterados podem prejudicar modelos LLM levando a respostas que podem comprometer segurança, precisão ou comportamento ético.

Mitigação: Auditar e validar dados de treinamento. Usar fontes confiáveis.

LLM04: Negação de serviço ao Modelo

Sobrecarregar LLMs com operações exigentes em recursos pode causar interrupções no serviço e aumento de custos.

Mitigação: Limites de recursos, escalonamento elástico, detecção de anomalias.

LLM05: Vulnerabilidades da cadeia de suprimentos

Dependendo de componentes, serviços ou conjuntos de dados comprometidos, prejudicam a integridade do sistema, causando violações de dados e falhas do sistema.

Mitigação: Auditar dependências de software e dados. Usar fontes confiáveis.

LLM06: Divulgação de informações confidenciais

Falha em proteger contra divulgação de informações confidenciais nas saídas LLM pode resultar em consequências legais ou perda de vantagem competitiva.

Mitigação: Anonimizar dados confidenciais. Filtrar saídas.

LLM07: Design de plug-in inseguro

Plugins LLM processando entradas não confiáveis e com controle de acesso insuficiente correm o risco de explorações severas como execução remota de código.

Mitigação: Validar entradas, autenticação, autorização e sandboxing.

LLM08: Autonomia excessiva

Conceder autonomia irrestrita a LLMs para tomar medidas pode levar a consequências não intencionais, comprometendo a confiabilidade, privacidade e confiança.

Mitigação: Supervisão humana, validação de ações, limites operacionais.

LLM09: Excesso de confiança

Deixar de avaliar criticamente as saídas LLM pode levar à tomada de decisão comprometida, vulnerabilidades de segurança e responsabilidades legais.

Mitigação: Validação humana das saídas, monitoramento, auditorias, treinamento dos usuários.

LLM10: Roubo de modelo

Acesso não autorizado a modelos de linguagem proprietários em grande escala corre o risco de furto, vantagem competitiva e disseminação de informações confidenciais.

Mitigação: Controle de acesso, criptografia, marca d’água digital.

A Matriz ATLAS abaixo mostra a progressão das tácticas utilizadas nos ataques como colunas da esquerda para a direita, com as técnicas ML pertencentes a cada tática abaixo. & indica uma adaptação do ATT&CK (diretriz para classificar e descrever ataques cibernéticos e invasões).

Figura 7: Matriz ATLAS. Fonte: https://atlas.mitre.org/

6. Utilizar serviços de segurança complementares

Ao criarmos um projeto de IA generativa, dificilmente o isolaremos de nosso ambiente computacional, visto que geralmente possuem inúmeras integrações a outros sistemas, exatamente para termos personificação. Pois bem, se não podemos isolar, devemos proteger todas as camadas adequadamente utilizando uma estratégia de segurança de defesa em profundidade para proteger suas contas, cargas de trabalho, dados e ativos da AWS. Essa estratégia visa a garantir que, se um controle de segurança for comprometido ou falhar, existem camadas adicionais para ajudar a isolar ameaças e prevenir, detetar, responder e recuperar de eventos de segurança. Você pode usar uma combinação de estratégias, incluindo serviços e soluções da AWS, em cada camada para melhorar a segurança e a resiliência de suas cargas de trabalho de IA generativas.

Figura 8: Proteção com múltiplas camadas de controle de segurança

Muitos clientes da AWS alinham-se com estruturas padrão do setor, como a Estrutura de Segurança Cibernética do NIST. Essa estrutura ajuda organizações a alinhar suas defesas de segurança em pilares como Identificar, Proteger, Detectar, Responder e Recuperar. Ela pode ser mapeada para serviços de segurança da AWS e de terceiros para validar a cobertura e políticas para eventos de segurança.

Figura 9: Defesa em profundidade com serviços AWS em camadas.

Uma estratégia de segurança abrangente deve começar protegendo contas e organização. Em seguida, adicione recursos de segurança aprimorados. A AWS possui mais de 30 serviços integrados de segurança, identidade e conformidade que podem ser utilizados em conjunto com serviços de IA/ML para ajudar a proteger cargas de trabalho, contas e organização contra ameaças como o OWASP Top 10.

  1. Implemente uma política de privilégios mínimos usando serviços como o IAM Access Analyzer para pesquisar contas, funções e recursos excessivamente permissivos e restringir o acesso usando credenciais de curto prazo.
  2. Garanta que todos os dados em repouso sejam criptografados com o AWS KMS, inclusive considerando o uso de CMKs, e que todos os dados e modelos tenham controle de versão e backup usando o Amazon S3 Object Versioning e o Amazon S3 Object Lock.
  3. Proteja todos os dados em trânsito entre os serviços usando o AWS Certificate Manager e/ou a CA privada da AWS e mantenha-os em VPCs usando o AWS PrivateLink.
  4. Defina regras rígidas de entrada e saída de dados para se proteger contra manipulação e exfiltração usando VPCs com políticas do AWS Network Firewall. Considere inserir o AWS Web Application Firewall (AWS WAF) na frente para proteger aplicativos e APIs da web contra bots maliciosos, ataques de injeção de SQL, scripts entre sites (XSS) e invasões de contas com controle de fraudes.
  5. Use o registro em log com o AWS CloudTrail, Amazon VPC Flow Logs e Amazon EKS Audit Logs para fornecer uma análise forense de cada transação disponível para serviços como o Amazon Detective.
  6. Automatize a descoberta e o gerenciamento de vulnerabilidades para instâncias do Amazon EC2, imagens de contêineres e funções do AWS Lambda usando o Amazon Inspector.
  7. Proteja seus dados e modelos contra atividades suspeitas usando detecção de anomalias, machine learning (ML), modelagem comportamental e feeds de inteligência de ameaças do Amazon GuardDuty e habilite recursos adicionais, como proteção EKS, proteção S3, proteção RDS, proteção contra malware, proteção Lambda, caso utilize esses serviços.
  8. Centralize e automatize suas verificações de segurança usando o AWS Security Hub para detectar desvios das melhores práticas de segurança, acelerar a investigação e automatizar a remediação de descobertas de segurança com manuais.
  9. Considere implementar uma arquitetura de confiança zero na AWS para refinar ainda mais os controles de autenticação e autorização para o que usuários humanos ou processos de máquina a máquina podem acessar mediante solicitação.
  10. Utilize o Amazon Security Lake para centralizar automaticamente os dados de segurança de ambientes da AWS, provedores de SaaS, fontes locais e na nuvem em um data lake criado especificamente e armazenado em sua conta. Com o Security Lake, você pode obter uma compreensão mais abrangente dos dados de segurança em toda a organização.
  11. Descubra dados confidenciais por meio de machine learning e correspondência de padrões, proporcionando visibilidade dos riscos à segurança dos dados através do serviço de segurança Amazon Macie.

Depois que seu ambiente de carga de trabalho de IA generativa estiver protegido, você poderá adicionar recursos específicos de IA/ML, como o Amazon SageMaker Data Wrangler para identificar possíveis vieses durante a preparação de dados e o Amazon SageMaker Clarify para detectar vieses em dados e modelos de ML. Você também pode usar o Amazon SageMaker Model Monitor para avaliar a qualidade dos modelos de ML do SageMaker em produção e notificar quando houver desvios na qualidade dos dados, na qualidade do modelo e na alocação de recursos. Esses serviços de IA/ML da AWS, trabalhando em conjunto com os serviços de segurança da AWS, podem ajudar você a identificar possíveis fontes de vieses e a proteger contra a adulteração maliciosa de dados.

7. Manter logs e realizar auditorias recorrentes

É importante monitorar e manter logs de sistemas de AI generativa por vários motivos:

  • Responsabilidade e transparência: manter logs permite auditoria e responsabilização caso algo inesperado ou problemático aconteça. Isso aumenta a confiança no sistema.
  • Melhoria contínua: analisar logs permite entender como o sistema está funcionando na prática e identificar possíveis problemas ou vieses. Isso permite melhorar e aperfeiçoar o sistema com o tempo.
  • Segurança: logs podem ajudar a detectar tentativas de ataques, falsificações ou outros problemas que comprometam a integridade do sistema.
  • Conformidade legal: em alguns casos, leis de privacidade ou outras regulamentações podem exigir a manutenção de registros de atividades de sistemas de AI. Os logs ajudam a estar em conformidade.
  • Pesquisa: Os dados coletados nos logs permitem conduzir pesquisas para entender melhor o comportamento e as capacidades do modelo de AI, o que permite avanços científicos.

Portanto, monitoramento e logs são elementos críticos para garantir AI responsável e segura.

Você pode monitorar o Amazon Bedrock com o Amazon CloudWatch que permite coletar métricas em tempo real, visualizá-las graficamente e definir alarmes para notificações ou ações com base em limites especificados. Você também pode optar pelo Amazon EventBridge que permite monitorar eventos de mudança de status do Amazon Bedrock e automatizar ações em resposta, fornecendo notificações e atualizações em tempo real, sem a necessidade de invocar diretamente a API, reduzindo a sobrecarga e os limites de taxa.

Há ainda a possibilidade de utilizar o registro em log de invocação do modelo que permite coletar logs detalhados das entradas, saídas e metadados de todas as invocações de modelo usados no Amazon Bedrock, em sua conta AWS, enviando-os para o CloudWatch Logs ou S3 na mesma região, este recurso está desabilitado por padrão.

Você também pode auditar cargas de trabalho de IA generativa com o AWS CloudTrail, que rastreia atividades de usuários e APIs, incluindo cargas de trabalho de IA generativa, permitindo análise centralizada por meio do AWS CloudTrail Lake, um data lake gerenciado para armazenamento e consulta de eventos usando linguagem semelhante a SQL.

8. Construir IA generativa responsável

A segurança é uma responsabilidade compartilhada entre a AWS e os clientes da AWS. Todos os princípios do modelo de responsabilidade compartilhada da AWS são aplicáveis a soluções de IA generativa. Atualize sua compreensão do modelo de responsabilidade compartilhada da AWS conforme ele se aplica à infraestrutura, aos serviços e aos dados ao criar soluções LLM.

Juntamente com a utilização generalizada e a escala crescente da IA, vem o reconhecimento de que todos devemos construir de forma responsável. Na AWS, acreditamos que a IA responsável abrange uma série de dimensões principais, incluindo:

Imparcialidade: Consideração dos impactos em diferentes grupos de partes interessadas.

Explicabilidade: Compreensão e avaliação de resultados do sistema:

  • Usar o Amazon SageMaker Debugger para obter insights sobre o que o modelo aprendeu.
  • Documentar as entradas, pré-processamento e saídas de dados.

Privacidade: Obtenção, uso e proteção de dados e modelos da forma adequada.

Segurança: Prevenção da saída prejudicial do sistema e do uso indevido.

  • Fazer segurança em profundidade com VPCs e grupos de segurança.
  • Usar o AWS Shield para mitigar DDoS.
  • Use o AWS WAF para controle antibot/ ratelimit.
  • Integre o Amazon GuardDuty para monitoramento contínuo de ameaças.

Controlabilidade: Existência de mecanismos para monitorar e orientar o comportamento do sistema de IA.

Veracidade e robustez: Obtenção de saídas corretas do sistema, mesmo com entradas inesperadas ou adversárias.

  • Fazer testes de estresse e simulações de cenários adversos.
  • Usar conjuntos de dados sintéticos para treinamento.
  • Use o AWS X-Ray para depurar e analisar o comportamento do sistema sob carga para identificar gargalos ou pontos de falha.

Governança: Permissão para que as partes interessadas façam escolhas informadas sobre seu envolvimento com um sistema de IA.

  • Documentar processos e obter aprovações antes de lançamentos.
  • Fazer revisões éticas regulares.
  • Use o AWS Lake Formation para definir políticas de acesso e segurança de dados.
  • Utilize o AWS Control Tower para estabelecer uma linha de base de governança em vários ambientes da AWS.

Transparência: Incorporação das práticas recomendadas na cadeia de suprimentos de IA, incluindo fornecedores e implantadores.

Nosso compromisso em desenvolver IA e ML de forma responsável é parte integrante da forma como construímos nossos serviços, interagimos com os clientes e impulsionamos a inovação. Também estamos comprometidos em fornecer aos clientes ferramentas e recursos para desenvolver e usar IA/ML de maneira responsável, desde capacitar os criadores de ML com um ambiente de desenvolvimento totalmente gerenciado até ajudar os clientes a incorporar serviços de IA em casos de uso de negócios comuns.

Conclusão

A adoção da Inteligência Artificial Generativa pelas organizações oferece enormes benefícios em termos de produtividade, inovação e vantagem competitiva. No entanto, é fundamental que essa tecnologia revolucionária seja implementada com sólidas práticas de segurança desde o início. Definir claramente o escopo, estabelecer políticas de uso, implementar controles rigorosos de autenticação/autorização e mitigação de ameaças, bem como utilizar camadas adicionais de serviços de segurança, são medidas essenciais para proteger dados, sistemas e usuários finais.

Além disso, é indispensável adotar uma abordagem de desenvolvimento de IA responsável, que contemple aspectos como imparcialidade, explicabilidade, privacidade, segurança, controlabilidade, veracidade, robustez, governança e transparência. Somente por meio de um planejamento criterioso e da aplicação de práticas recomendadas, as empresas poderão usufruir plenamente do potencial transformador da IA Generativa, gerando valor duradouro com confiabilidade e conformidade.

A AWS disponibiliza uma vasta gama de serviços e recursos para auxiliar nesse percurso, provendo meios para mitigar riscos, estabelecer governança, proteger dados e garantir o desenvolvimento ético e responsável. À medida que aumentam os investimentos em IA Generativa, torna-se imperativo adotar uma cultura sólida de segurança e responsabilidade, para que essa tecnologia disruptiva beneficie a sociedade como um todo.

Sobre a autora

Vanessa Rodrigues Fernandes é Arquiteta de soluções do setor público na AWS. Com formação técnica em Redes de Computadores pela UFRGS, graduação em Segurança da Informação pela Universidade do Vale do Rio dos Sinos (RS) e Pós Graduação em Gestão Estratégica em TI pela PUCRS. Com mais de 20 anos de experiência na área de infraestrutura, redes, segurança da informação, trabalhou em diferentes nichos de mercado, ajudando empresas a suportar e construir soluções tecnológicas e estratégicas para seus negócios. É apaixonada por tecnologia, segurança da informação, inteligência artificial e viagens.