No controle da IA

0
4
Frank Meylan
Frank Meylan
O estudo “Controlando a Inteligência Artificial” da KPMG elencou os principais pilares para a implementação de uma ferramenta de inteligência artificial confiável. De acordo com a pesquisa, integridade do algoritmo, resiliência, explicabilidade, ética e responsabilidade são as âncoras de confiança para a aquisição e implantação desse tipo de recurso de forma eficiente. Segundo os pontos de confiabilidade elencados pela publicação, para garantir a segurança da tecnologia é necessário, principalmente, o monitoramento contínuo dos algoritmos.
De acordo com um dos pilares elencados no estudo, a explicabilidade, compreender os motivos pelos quais um modelo de IA fez uma previsão e ser capaz de explicá-los são essenciais para confiar no sistema. No que diz respeito à ética e responsabilidade, a pesquisa apontou que a utilização de ferramentas para monitoramento contínuo e governança são iniciativas fundamentais para ajudar a garantir modelos treinados e algoritmos justos. Já no item sobre integridade do algoritmo, durante as inspeções de monitoramento do recurso é importante assegurar de que não há alterações que possam comprometer o objetivo ou a intenção original da tecnologia. Por fim, no item sobre resiliência, o estudo mostrou que o principal o objetivo destes processos é garantir que todos os componentes utilizados na IA estejam adequadamente protegidos.
Para o sócio de Inteligência Artificial e Cognitivo da KPMG no Brasil, Frank Meylan, a utilização das âncoras de confiança na implementação e monitoramento da Inteligência Artificial em uma empresa é importante para garantir confiança e transparência. “Esses pilares ajudam a impulsionar a melhor adoção da IA em todas as organizações, e na sociedade em geral, e ainda podem evitar prejuízos futuros. O custo de se introduzir uma ferramenta de inteligência artificial errada vai além de questões financeiras como perda de receita e multas por problemas de conformidade. Essa falha pode afetar até a reputação da empresa, a marca e trazer preocupações éticas. Para evitar isso, é preciso definir e seguir padrões de confiança e segurança que garantam a qualidade da tecnologia implementada”, analisa.