Você já ouviu falar em AI TRiSM?

2022 nos trouxe um presente: a popularização Inteligência Artificial. Acessar o portal do Chat GPT para fazer perguntas sobre amenidades e até títulos de times de futebol se tornaram um trend e os prints dos resultados popularam todas as redes sociais e nossos grupos de WhatsApp.

Por trás disso vinha uma revolução a uma velocidade impressionante. Os mecanismos de IA Generativa estão nos ajudando no trabalho, sendo incorporados em aplicativos que facilitam o nosso dia a dia e cada vez mais temos adquirido o hábito de usar GenAI.

Segundo o Gartner, até 2028, 20% da nossa carga de trabalho contará com a ajuda de IA e isso influenciará diretamente 40% da economia. Mas como nem tudo são flores, alguns cuidados precisam ser tomados desde já para que aquilo que veio para ajudar não nos prejudique.

Neste contexto surgiu um modelo, ou framework, chamado AI TRiSM (Artificial Intelligence for Trust, Responsability, and Sustainability by Multidisciplinary Integration) que propõe uma abordagem de governança em Inteligência Artificial assegurando proativamente que a compatibilidade, segurança, precisão e a imparcialidade sejam garantidas.

Vamos entender um pouco mais sobre esse framework?

Por que AI TRiSM?

Desde o Chat GPT, os modelos de IA Generativa estão disponíveis aos montes na internet. Como eles são treinados a partir de dados e informações que eles tem acesso, em modelos onde não há uma verificação da integridade do que ele usa como base, decisões equivocadas podem ser tomadas.

E aí mora o primeiro perigo de se usar GenAI: achar que é a solução para os seus problemas, receber uma resposta errada e seguir adiante com ela, gerando um problema ainda maior.

Além do erro, a resposta também pode ter um viés incorreto ou por falta de informação não analisar o contexto completo. Portanto, colocar algumas tarefas no automático e abdicar da participação humana pode causar prejuízos importantes para uma organização.

Outro risco é o uso indiscriminado de GenAI. Com a facilidade de acesso a esses modelos online, certamente já ouvimos falar de alguém que usou algum deles para tentar resolver uma questão do seu negócio ou da organização onde trabalha. Muito provavelmente nessa troca de mensagens, escreveram informações ou subiram arquivos sensíveis nos modelos para suportar a análise. Foi neste ponto que algo confidencial passou a fazer parte de um modelo público de GenAI.

Os pilares do AI TRiSM?

Segundo o Gartner, são quatro os pilares deste Framework:

  • Explicabilidade/Modelo de monitoramento: o ponto aqui é transparência. Para entender a decisão por trás de um modelo de AI, este precisa ser capaz de explicar como chegou a uma determinada resposta. Assim mitigamos possíveis erros. O Monitoramento pode ser capaz de detectar as anomalias geradas e deve ser implantado em etapas-chave do processo.

  • ModelOps: não foge muito do framework usado em siglas similares. Ele é responsável por gerenciar o ciclo de vida de produtos que se utilizem de GenAI. Desde sua criação, lançamento e operação abrangendo não só o modelo em si mas também toda a infraestrutura que suporta o funcionamento dele.

  • Segurança dos aplicativos de IA: se você pensou em um ataque que gere indisponibilidade em um aplicativo, você está certo. Esta preocupação também deve existir aqui. Mas em GenAI existem novos tipos de ataques que podem causar outros danos ao aplicativo e seus usuários. Imagine só inserir dados falsos, maliciosos ou errados em um modelo de GenAI. Treinados com essas informações ele pode chegar a resultados ruins.

  • Privacidade: ter cuidado com que informações alimentamos modelos é essencial aqui para obedecer às regras de proteção e privacidade de dados (Oi LGPD!). Agora existe um cuidado que às vezes não percebemos. Quando adotamos modelos de GenAI de terceiros em nossos negócios, não sabemos se ele foi alimentado com dados de outras pessoas e organizações, trazendo para nós este risco.

Pilares AI TRiSM – Fonte: Gartner

 

Governança e segurança: as palavras de ordem em AI!

Pode parecer clichê o título acima, mas ele segue sendo tão importante quanto em outras abordagens. Adotar um framework como o AI TRiSM de maneira gradual, como sugere o Gartner, que criou essa abordagem, pode evitar problemas no futuro.

Analisar os riscos, documentar todos os processos, monitorar os aplicativos, processos e rotinas e zelar pela transparência devem ser alguns dos passos a serem seguidos.

Mas o meu destaque fica com capacitação! Desde a pessoa que desenvolve, passando por que opera e terminando do outro lado em quem usa esses aplicativos, os investimentos em conscientização dos impactos e riscos de uso e decisões equivocadas podem prevenir uma quantidade enorme de problemas no futuro.

Da mesma maneira que muitos de nós fazemos treinamentos anuais de ética, transparência e segurança da informação, é uma tendência que passemos também por capacitações em uso responsável de IA.

Me diz aí nos comentários: já tinha ouvido falar de AI TRiSM?

Sou Mauro Periquito, Engenheiro de Telecomunicações e Diretor Especialista de Prática na Kyndryl, onde desenvolvo e gerencio projetos de transformação digital para indústria, utilities, mineração, agronegócio e operadoras de telecomunicações. Em minha trajetória profissional tenho como propósito traduzir as necessidades dos clientes em soluções customizadas.

Também atuo em outras frentes como mentor, palestrante, conselheiro consultivo e escrevo diariamente no LinkedIn sobre gestão de pessoas, carreira, inovação e tecnologia, com a missão de trazer uma visão descomplicada sobre a tecnologia. Fui eleito no final de 2022 como LinkedIn Top Voice de Tecnologia & Inovação.

Durante minha carreira trabalhei em multinacionais no Brasil, países da América Latina, Espanha, Porto Rico, Emirados Árabes Unidos e Qatar. Em meu tempo livre, sou um grande entusiasta do ciclismo em seus diversos modos, incluindo o cicloturismo.

Artigos relacionados:

Biografia