Analistas destacam importância da transparência, confiança e segurança no uso de Inteligência Artificial
O Gartner, líder mundial em pesquisa e aconselhamento para empresas, prevê que até 2026 as companhias que implementarem transparência, confiança e segurança no uso de Inteligência Artificial (IA) verão os seus modelos de tecnologia alcançarem uma melhoria de 50% em termos de adoção, conquista de objetivos de negócios e aceitação de quem os utilizam. Gartner também prevê que até 2028, as máquinas baseadas em IA serão responsáveis por 20% da força de trabalho global e 40% de toda a produtividade econômica. O Gartner define AI TRiSM como uma diretriz que dá suporte à governança, confiabilidade, imparcialidade, segurança, solidez, eficácia e privacidade ao modelo de Inteligência Artificial.
Para Mark Horvath, vice-presidente e analista do Gartner, os diretores de segurança da informação (CISOs) não podem permitir que a Inteligência Artificial controle suas empresas. A Inteligência Artificial exige novas formas de gestão de confiança, risco e segurança (TRiSM) que os controles convencionais não oferecem. O analista destaca que os CISOs precisam defender o AI TRiSM para melhorar os resultados de tecnologia, aumentar a velocidade do modelo de Inteligência Artificial até a produção e permitir uma melhor governança ou racionalizando o portfólio de modelos de Inteligência Artificial. “Assim, pode-se eliminar até 80% de informações falsas e ilegítimas”, alerta Horvath.
A Inteligência Artificial não só representa riscos consideráveis para os dados, uma vez que conjuntos de informações sensíveis são frequentemente utilizadas para treinar modelos de tecnologia, como também a precisão dos resultados dos próprios modelos e a qualidade dos conjuntos de dados podem variar ao longo do tempo, o que pode causar consequências adversas.
A implementação de AI TRiSM permite que as empresas entendam o que seus modelos de Inteligência Artificial estão fazendo, até que ponto eles se alinham com as intenções originais, além de indicar o que pode ser esperado em termos de desempenho e de valor comercial.
O Gartner alerta que as empresas correm o risco de implementarem centenas ou milhares de modelos de IA que os próprios líderes de TI não serão capazes de explicar ou de interpretar. Para os analistas, as empresas que não forem capazes de gerenciar os riscos associados à Inteligência Artificial (IA) estão muito mais propensas a obterem violações e resultados negativos. Os modelos de IA podem não funcionar como planejando, ocorrendo falhas de segurança e de privacidade, além de danos aos indivíduos, perdas financeiras e de reputação. A IA que é executada indevidamente também pode levar companhias a tomarem más decisões de negócios.
AI TRiSM é um “esporte de equipe”: “AI TRiSM não pode ser liderada por uma única unidade de negócios porque exige educação e colaboração entre equipes”, afirma Jeremy D’Hoinne, vice-presidente e analista do Gartner. Para ele, os CISOs devem ter uma compreensão clara de suas responsabilidades com a Inteligência Artificial dentro das equipes que podem incluir funcionários de TI, de times jurídicos, de conformidade e de análise de dados. “Sem um programa AI TRiSM robusto, os modelos de Inteligência Artificial podem funcionar contra o negócio, introduzindo riscos inesperados, o que causa resultados adversos do modelo, violações de privacidade, danos substanciais à reputação e outras consequências negativas”, afirma o analista.
Prioridades no gerenciamento de risco de Inteligência Artificial: Já que a Inteligência Artificial pode ser vista como qualquer outra aplicação, é possível que os CISOs precisem recalibrar as expectativas dentro e fora de suas equipes. Uma vez definidas as expectativas, esses líderes e seus times precisam tomar cinco ações de gestão de riscos de Inteligência Artificial:
1. Capturar a extensão da exposição, inventariar a Inteligência Artificial utilizada na empresa e garantir o nível certo de explicabilidade;
2. Conscientizar as equipes de sua empresa e liderar uma campanha formal de educação sobre os riscos da Inteligência Artificial;
3. Apoiar a confiabilidade, fiabilidade e segurança dos modelos, incorporando a gestão de riscos em suas operações;
4. Eliminar a exposição de dados internos e partilhados de Inteligência Artificial por meio da adoção de programas de proteção e privacidade de dados;
5. Adotar medidas específicas de segurança de Inteligência Artificial para proteger de eventuais ataques, garantir resistência e resiliência.