Inteligência artificial: fazê-la funcionar tornando-a responsável

A inteligência artificial (IA) está em toda parte. Está no seu telefone. Está na sua TV, no seu carro, segue você enquanto você navega na web, em seus aplicativos bancários e até mesmo na sua geladeira. A IA aprova seus empréstimos, define fiança para prisioneiros e avalia se você está em risco de contrair uma doença. Nossos comportamentos, preferências e decisões cotidianas são influenciados pela IA, muitas vezes sem nosso conhecimento consciente. De várias maneiras, a IA participa de vários aspectos de nossa vida diária usando aprendizado de máquina invisível, aprendizado profundo, análise preditiva, processamento de linguagem natural e descoberta inteligente de dados com a intenção de tornar o mundo um lugar melhor. Mas isso está tornando o mundo um lugar melhor?

Há muitos casos de IA desonesta com resultados alarmantes. Portanto, sociedades, governos e empresas estão levantando questões sobre os desafios éticos levantados pela IA. E eles deveriam. Confiar cegamente em qualquer coisa que tome decisões que mudem vidas em nome de humanos é imprudente. O que precisamos é de uma IA que faça sua mágica equilibrando o poder da discriminação. Ele deve assimilar nuances social e eticamente aceitáveis para entrar discretamente na sociedade. Para conseguir isso, precisamos de uma IA responsável.

As armadilhas do puro “pensamento de máquina” e a necessidade de uma IA responsável

A IA responsável tem definições variadas. Todos eles visam alcançar o mesmo resultado: decisões de máquinas transparentes, justas, confiáveis, seguras, interpretáveis, explicáveis e responsáveis. O objetivo é garantir que as máquinas imitem a inteligência humana. Nesse contexto, vale a pena seguir as palavras do psicólogo cognitivo e cientista da computação Geoffrey Hinton, conhecido por seu trabalho pioneiro no treinamento de redes neurais de várias camadas, que uma vez disse: “Sempre estive convencido de que a única maneira de fazer a inteligência artificial funcionar é fazer os cálculos de forma semelhante ao cérebro humano”.

Hinton estava certo. O “pensamento” mecânico tem várias armadilhas, como provaram exemplos da vida real. Alguns anos atrás, a Amazon teve que abandonar sua ferramenta de recrutamento baseada em IA1 porque não estava classificando os candidatos usando uma abordagem neutra em termos de gênero. A IA de recrutamento da Amazon foi tendenciosa, levando a um aumento prejudicial na diferença de gênero na força de trabalho da empresa. No Reino Unido, o Ministério do Interior teve que abandonar seu algoritmo baseado em IA2 porque tinha um preconceito racista contra os solicitantes de visto.

A Microsoft derrubou Tay às pressas.3, seu chatbot baseado em IA, porque o núcleo de PNL e aprendizado de máquina de Tay o transformou em um neonazista tóxico e louco por sexo poucas horas após o lançamento. O Apple Card usou um algoritmo que concedia menores subsídios de crédito às mulheres, apesar das boas classificações de crédito. O algoritmo teve que ser abandonado. Na origem desses contratempos estavam conjuntos de dados precários e, em última análise, modelos inexplicáveis que reforçaram o aprendizado.

Sem dúvida, essas são consequências inaceitáveis do uso da IA. Mas eles nos forçam a responder à pergunta: “Usamos a IA para substituir a humanidade ou injetar humanidade na tecnologia?” Como diz Amit Ray, especialista em meditação da atenção plena para liderança e gerenciamento corporativos, “À medida que mais e mais IA está entrando no mundo, mais e mais inteligência emocional deve entrar na liderança”. Alguns líderes em tecnologia estão mostrando o caminho. O Google recusou um projeto de empréstimo de dinheiro movido a IA. Também bloqueou novos recursos de IA que analisam emoções, temendo a insensibilidade cultural. A Microsoft restringiu o software que imita vozes. E a IBM desativou um sistema avançado de reconhecimento facial. Essas organizações não estão rejeitando a IA. Em vez disso, eles estão usando sua experiência com a IA como uma oportunidade para remediar e fazer com que a IA sirva à humanidade.

O surgimento inevitável de estruturas regulatórias e de governança em torno da IA

Há outros esforços sendo feitos para melhorar a qualidade dos resultados da IA. Para “aproveitar o potencial transformador da IA acelerando a adoção de sistemas de IA confiáveis, transparentes e inclusivos em todo o mundo”, o Fórum Econômico Mundial lançou a Global AI Action Alliance.4 (GAIA). O GAIA tenta preencher a lacuna resultante da falta geral de regulamentações governamentais centralizadas. É certo que a União Europeia (UE) está corrigindo essa aberração de forma independente, tendo proposto uma estrutura regulatória abrangente para a IA5. Em outro desenvolvimento relacionado à IA, o governo chinês estabeleceu regras recentemente (versão em inglês aqui)6 exigindo que as empresas de tecnologia compartilhem seus dados com o governo. O governo planeja usar uma camada de IA sobre os dados para tomar decisões que moldarão e impactarão a vida pública. Será interessante ver como os governos trabalham com empresas privadas para aproveitar os dados e implantar a IA.

Enquanto isso, o GAIA do WEF ajudará as diretorias corporativas e os comitês de ética das organizações, desenvolvendo “protocolos de governança interoperáveis acordados coletivamente para o desenvolvimento e uso de tecnologias de IA”. Esse é um requisito urgente. Embora o financiamento para tecnologias de IA tenha atingido um pico7 de $20 bilhões no segundo trimestre de 2021, a educação e a conscientização sobre os desafios em torno da IA não acompanharam o ritmo. Os sistemas de IA atuais são uma caixa preta. Não há certificações, os sistemas são opacos e há pouca governança publicamente verificável. Os sistemas alimentados por IA precisam ser rigorosamente regulamentados, assim como os sistemas militares, medicamentos e vacinas, alimentos, aeronaves e veículos, no interesse da segurança pública.

Por trás desses desafios está o verdadeiro problema: o conhecimento e a experiência em torno da IA responsável e da governança de dados necessária são limitados a algumas organizações tecnológicas. Mas um número cada vez maior de organizações que desejam aproveitar a IA está percebendo que podem evitar as armadilhas da adoção da IA (e não atrasar a adoção) fazendo parcerias com especialistas em tecnologia.

Usando um parceiro de tecnologia, sem perder o ônibus da IA — e evitando as armadilhas da IA

Recentemente, a Marlabs trabalhou com uma grande universidade norte-americana para ajudar a prever a admissão e a matrícula em seu programa de MBA. O objetivo era encontrar os candidatos certos que provavelmente também se inscreverão no programa usando inteligência. Começamos com mais de 400 atributos para cada candidato, reconhecendo que atributos como “gênero”, “raça/etnia” e “renda” nos dados históricos usados para treinar os algoritmos poderiam levar a preconceitos. Analisamos dados históricos e treinamos modelos em dados modificados e enriquecidos para garantir representação e classificação justa para todas as categorias de candidatos. O resultado foi uma admissão e matrícula equilibradas de candidatos a partir de uma perspectiva de diversidade.

Recentemente, a Marlabs usou dados de POS baseados em ML que combinam com o Dicionário de Itens para uma das 10 principais empresas de pesquisa de mercado que reúne dados semanalmente de mais de 1500 varejistas. Isso foi feito para corrigir problemas de qualidade de dados que levaram à inteligência incorreta e a um volume inaceitável de erros na correspondência de resultados. A solução Marlabs combinou inteligência humana com modelos de ML para injetar contexto e interpretação de modelos lexicais. A Marlabs apresentou uma correspondência de 95% e uma grande redução nos erros.

A equipe de inovação em tecnologia profunda da Marlabs está atualmente explorando abordagens que usam a IA para tornar a IA responsável — aproveitando os mesmos algoritmos de ML para detectar preconceitos e outras anomalias em conjuntos de dados e fontes de dados, antes de disponibilizá-la para sistemas de IA de tomada de decisão prontos para produção.

As organizações continuarão a usar quantidades cada vez maiores de IA para melhorar os resultados. A tecnologia combaterá as ameaças à segurança cibernética, administrará fábricas, melhorará os cuidados médicos, evitará acidentes industriais, comporá músicas, preverá incêndios florestais, resgatará vítimas de desastres naturais e nos ajudará a entender melhor o mundo e o universo. Isso abrirá as portas para um futuro mais seguro, confortável e agradável. Mas a IA é uma faca de dois gumes. Isso pode ajudar a desbloquear um futuro melhor se o aperfeiçoarmos para ser responsável. Se falharmos, isso corroerá nossa confiança nas agências que usam a IA sem pensar.

Fontes:

  1. Amazon descarta ferramenta secreta de recrutamento de IA que mostrava preconceito contra mulheres | Reuters
  2. Ministério do Interior eliminará o “algoritmo racista” para requerentes de visto para o Reino Unido | Imigração e asilo | The Guardian
  3. O sexbot neonazista da Microsoft foi uma ótima lição para fabricantes de assistentes de IA | MIT Technology Review
  4. Aliança Global de Ação em IA | Fórum Econômico Mundial (weforum.org)
  5. Quadro regulamentar da IA | Moldar o futuro digital da Europa (europa.eu)
  6. O Comitê Central do Partido Comunista da China e o Conselho de Estado emitiram o “Esboço de implementação para a construção de um governo governado por lei (2021-2025)” — Xinhua English.news.cn (www-gov-cn.translate.goog)
  7. AI in Numbers Q2'21: tendências de financiamento, saídas e atividades corporativas — CB Insights Research