As discussões sobre inteligência artificial (IA) há muito tempo evoluíram de entender a tecnologia apenas como promissora e benéfica em todos os casos. Com essa maturidade, é possível compreender que há também riscos com um uso despreparado da tecnologia.
Por isso, é importante falar em IA responsável, uma IA que considera a relevância do contexto ao redor e suas implicações enquanto tecnologia. Ou seja, uma vez que há autonomia para os computadores, é preciso desenvolver e instituir responsabilidade também.
O grande desafio é: como programar isso? Como garantir responsabilidade e compromisso ético em um sistema artificial? Tentaremos aprofundar o assunto neste conteúdo.
O que é IA responsável?
A IA responsável é um conceito que representa uma mudança de paradigma na forma de enxergar a IA. Em vez de apenas pensar no desempenho de um modelo, os profissionais devem pensar também no compromisso ético e nas implicações desses sistemas em um contexto real, prático.
Ou seja, é entender a IA e seus impactos para as pessoas e para as empresas, impactos reais e poderosos para gerar benefícios e malefícios. O ideal é amplificar os benefícios e estar ciente dos possíveis riscos.
Afinal, é só lembrar o que representa um sistema de inteligência artificial: uma forma de computação mais autônoma, independente, evoluída. Em outras palavras, é uma forma de ensinar as máquinas a tomar decisões de forma mais consciente.
Diante disso, há uma discussão: caso a decisão tomada venha a prejudicar os seres humanos, o que fazer? Quem vai ser responsável por isso? A empresa que desenvolveu o modelo?
Um dos princípios quando analisamos essa questão é a segurança. Modelos de IA precisam cada vez mais de dados, muitos deles dados pessoais e sensíveis. Então, é preciso reforçar o cuidado para que esses dados não sejam interceptados por mal-intencionados.
Afinal, o custo de um problema envolvendo a segurança é muito grande e pode prejudicar também a reputação da companhia envolvida.
Outro ponto é o viés dos modelos. Modelos falhos podem levar a decisões enviesadas, problemáticas, que custam bastante para a empresa e para a sociedade. Hoje, temos cada vez mais a participação de sistemas automáticos decidindo coisas importantes, como quem deve ser selecionado em um programa de entrevista de emprego.
Nesse caso, o modelo deve ser imparcial, justo e equilibrado. Caso o sistema carregue consigo preconceitos ou elementos de base já problemáticos, pode levar a decisões excludentes e pouco justas.
O grande desafio nesse sentido é reforçar o processo de treinamento, escolhendo melhor os dados e aplicando medidas adequadas para limpeza e tratamento. É preciso entender melhor o contexto, o nicho e as nuances do que se trata.
Muitos cientistas de dados apenas focam em desempenho e na parte puramente estatística do processo. Assim, a falta de conhecimento de negócios torna o modelo estéril, pouco eficiente e dinâmico.
A IA responsável traz um foco maior em atender a esse dinamismo, para que a IA entenda bem a sua necessidade e a responsabilidade que precisa ter.
Desenvolver uma IA responsável é assumir um compromisso com quem será impactado por aqueles sistemas. Então, é tentar sempre obter o melhor resultado.
Outros fatores são a clareza e a transparência acerca de como os sistemas são construídos. O ideal é evitar a tal da “caixa-preta” e tentar trabalhar com um pouco mais de luz sobre os processos.
Como funciona a IA responsável
Vamos comentar agora sobre como funciona esse conceito, detalhando seus princípios.
Transparência
A clareza sobre como funciona uma IA deve ser estendida a todos os que precisam dessa informação, como os impactados. É preciso que todos entendam como os modelos funcionam e como tomam decisões. Isso facilita até mesmo a conformidade com as leis e evita problemas em casos judiciais.
Os modelos não podem seguir padrões incompreensíveis e lógicas muito difíceis. O ideal é conseguir explicar como eles operam e o que fazem de maneira muito clara e precisa.
Inclusão
Os modelos de IA precisam ser inclusivos by design. Ou seja, desde a concepção e o treinamento os dados já devem ser selecionados com qualidade para refletir a diversidade em uma análise, de modo que seja possível obter insights e decisões justas e inclusivas.
Portanto, é preciso garantir que os dados utilizados para treinar os modelos de IA sejam representativos de toda a população. Isso inclui dados de diferentes gêneros, raças, idades, localizações geográficas e contextos socioeconômicos.
Sustentabilidade
É preciso construir uma noção de IA ética e reflexiva, que pensa como os seres humanos. Este é o ideal: desenvolver a capacidade de tomar decisões com base em valores morais. Um dos pontos nesse sentido é a sustentabilidade.
Diante disso, os sistemas já nascem com foco em serem sustentáveis, fortes, resistentes e devidamente capazes de proteger o meio ambiente. Isso inclui a eficiência energética, o uso de energia renovável e o desenvolvimento de hardware ecoamigável e reciclável.
Algoritmos devem ser projetados para ser eficientes em termos de consumo de recursos – e as práticas de desenvolvimento devem considerar o impacto ambiental em todas as fases, desde a extração de matérias-primas até a disposição final. Além disso, projetos de IA podem ser direcionados para resolver problemas ambientais, como monitoramento climático e otimização da agricultura sustentável.
Segurança
Também é preciso ter um cuidado extra com a segurança de proteção de dados. Como já se falou, a segurança é uma das necessidades de uma IA moderna, pensada para otimizar os resultados.
É preciso contar com clareza e foco em segurança em todos os estágios do desenvolvimento de um modelo, principalmente no trato com os dados, pois isso deve atender a demandas específicas das leis.
Diversas legislações, como a Lei Geral de Proteção de Dados (LGPD) no Brasil e o Regulamento Geral sobre a Proteção de Dados (GDPR) na União Europeia, impõem requisitos rigorosos sobre a coleta, armazenamento e uso de dados pessoais.
Alocação dos trabalhadores
Outro ponto da IA responsável é a forma de pensar a alocação dos funcionários depois que suas tarefas forem automatizadas. O ideal é tentar encontrar ocupações que façam sentido para as pessoas, tendo em vista que novos cargos devem ser criados.
A adoção de uma IA deve ser feita aos poucos, buscando o mínimo de impacto no ambiente. Assim, é possível pensar em como evoluir os colaboradores para cooperar com todo o processo.
As empresas também devem investir em programas de requalificação para ajudar os trabalhadores a adquirir novas habilidades que sejam relevantes para os empregos emergentes na era da IA. Isso pode incluir treinamento em novas tecnologias, habilidades digitais e competências específicas do setor.
Governança
Também entram nessa conta os princípios e mecanismos de governança. Visam a garantir o monitoramento constante e preciso de todas as operações para evitar falhas e diminuir seus impactos. O ideal é ter consciência dos possíveis erros e já trabalhar para saná-los.
A governança constitui uma plataforma de controle confiável, que seja eficaz para tratar problemas envolvendo a IA. Também estipula uma forma de identificar e denunciar erros, de modo que a companhia continue melhorando.
Exemplos de práticas de IA Responsável
- Auditorias de IA: Realizar auditorias periódicas dos sistemas de IA para identificar e corrigir vieses e garantir conformidade com normas éticas.
- Educação e capacitação: Treinar desenvolvedores e usuários de IA sobre princípios éticos e práticas responsáveis.
- Desenvolvimento de diretrizes: Criação de diretrizes e frameworks para orientar o desenvolvimento e uso ético de IA, como os princípios de IA da OCDE e as diretrizes da União Europeia para uma IA confiável.
Como foi falado, a IA responsável consiste em uso ético da inteligência artificial, pensando em seus impactos e nos seus impactados. Nesse sentido, inclui o cuidado com a transparência, com a governança, com a segurança, com a imparcialidade e muito mais.
Estes esforços visam a garantir uma IA consciente e sempre produtiva, que também preza pela confiança. A tendência é que isso continue a nortear os projetos de IA no futuro, por isso as empresas precisam se adaptar e continuar estudando sobre o tema.