A IA generativa está transformando muitas indústrias, mas as empresas com frequência lutam para criar e implantar ferramentas de IA seguras e confiáveis à medida que a tecnologia evolui. Os líderes se preocupam com o risco de a IA gerar informações incorretas ou prejudiciais, vazar dados confidenciais, ser sequestrada por agentes maliciosos ou violar leis de privacidade — e muitas vezes estão mal preparados para lidar com os riscos.
“As organizações se preocupam com a segurança e a qualidade junto com o desempenho de suas aplicações de IA”, diz Sarah Bird, diretora de produto de IA Responsável na Microsoft. “Mas muitas delas não entendem o que precisam fazer para tornar sua IA confiável ou não têm as ferramentas para isso”.
Para preencher essa lacuna, a Microsoft fornece ferramentas e serviços que ajudam os desenvolvedores a construir e lançar sistemas de IA confiáveis, ou IA construída com segurança, proteção e privacidade em mente. As ferramentas ajudaram muitas organizações a lançar tecnologias em ambientes complexos e altamente regulamentados, desde um assistente de IA que resume registros médicos de pacientes até um chatbot de IA que oferece orientação fiscal aos clientes.
A abordagem está ajudando os desenvolvedores a trabalharem de maneira mais eficiente, afirma Mehrnoosh Sameki, gerente de produto principal de IA Responsável na Microsoft. “É muito fácil chegar à primeira versão de uma aplicação de IA generativa, mas as pessoas desaceleram drasticamente antes de ela entrar em operação porque têm medo de que a aplicação possa expô-las ao risco ou não sabem se estão cumprindo as regulamentações e requisitos”, pondera. “Essas ferramentas aceleram a implantação e trazem tranquilidade durante o processo de teste e proteção da aplicação”.
As ferramentas fazem parte de um método holístico que a Microsoft oferece para construir IA de maneira responsável, refinado pela expertise em identificar, medir, gerenciar e monitorar riscos em seus próprios produtos — e garantindo que cada etapa seja concluída. Quando a IA generativa surgiu pela primeira vez, a empresa reuniu especialistas em segurança, proteção, justiça e outras áreas para identificar riscos fundamentais e compartilhar documentação, algo que ainda fazem hoje à medida que a tecnologia muda. A empresa então desenvolveu uma abordagem minuciosa para mitigar riscos e ferramentas para colocá-la em prática.
A abordagem reflete o trabalho de um AI Red Team que identifica riscos emergentes como alucinações e ataques de prompt, pesquisadores que estudam deepfakes, especialistas em mensuração que desenvolveram um sistema para avaliar IA e engenheiros que constroem e refinam barreiras de segurança. As ferramentas incluem a estrutura de código aberto PyRIT para Red Teams identificarem riscos, avaliações automatizadas no Azure AI Foundry para medir e monitorar continuamente os riscos e o Azure AI Content Safety para detectar e bloquear entradas e saídas prejudiciais.
A Microsoft também publica boas práticas para escolher o modelo certo para uma aplicação, escrever mensagens do sistema e projetar experiências de usuário como parte da construção de um sistema robusto de segurança de IA. “Usamos uma abordagem de defesa em profundidade com várias camadas protegendo contra diferentes tipos de riscos, e estamos fornecendo todas as peças para que as pessoas façam esse trabalho por conta própria”, compartilha Sarah.
Para uma empresa de preparação de impostos que construiu um chatbot de orientação, a capacidade de corrigir alucinações de IA foi particularmente importante para fornecer informações precisas, sinaliza Sameki. A empresa também tornou seu chatbot mais seguro, protegido e privado com filtros que bloqueiam ataques de prompt, conteúdo prejudicial e informações pessoalmente identificáveis.
Ela revela que a organização de saúde que criou o assistente de sumarização estava especialmente interessada em ferramentas para melhorar a precisão e criar um filtro personalizado para garantir que os resumos não omitissem informações importantes.
“Muitas de nossas ferramentas ajudam como instrumentos de depuração para que eles possam entender como melhorar suas aplicações”, menciona Sameki Sameki. “Ambas as empresas foram capazes de implantar mais rapidamente e com muito mais confiança”.
A Microsoft também está ajudando as organizações a melhorarem sua governança de IA, um sistema de rastreamento e compartilhamento de detalhes importantes sobre o desenvolvimento, implantação e operação de uma aplicação ou modelo. Disponível em prévia privada no Azure AI Foundry, os AI Reports darão às organizações uma plataforma unificada para colaborar; documentar percepções de avaliações, riscos potenciais e mitigações; e cumprir um número crescente de regulamentações de IA.
“É difícil saber se todas as peças estão funcionando se você não tiver a governança certa em vigor”, acrescenta Sarah Bird. “Estamos garantindo que os sistemas de IA da Microsoft estejam em conformidade e compartilhando boas práticas, ferramentas e tecnologias que ajudam os clientes em sua jornada de conformidade”.
O trabalho faz parte do objetivo da Microsoft de ajudar as pessoas a fazerem mais com IA e compartilhar aprendizagens que tornam o trabalho mais fácil para todos.
“Tornar nossos próprios sistemas de IA confiáveis é fundamental no que fazemos, e queremos capacitar os clientes a fazerem o mesmo”, finaliza Sarah.