Revista Exame

Um coach para a IA: método de ensino pode ajudar tecnologia a alcançar mais eficiência

O treinamento de uma inteligência artificial é a chave para o resultado que ela entrega: quanto mais bem instruída, mais eficiente e assertiva será a ferramenta

O poder da IA: durante evento em Hamburgo, na Alemanha,  o desenvolvedor de software Onyx Ashanti demonstra  a capacidade de gerar sons através do movimento  de um exoesqueleto programado por ele  (Axel Heimken/Picture Alliance/Getty Images)

O poder da IA: durante evento em Hamburgo, na Alemanha, o desenvolvedor de software Onyx Ashanti demonstra a capacidade de gerar sons através do movimento de um exoesqueleto programado por ele (Axel Heimken/Picture Alliance/Getty Images)

Publicado em 5 de outubro de 2023 às 06h00.

Quando falamos do que uma inteligência artificial é capaz de fazer, existe um horizonte de possibilidades ainda desconhecido. O que se sabe, no entanto, é que as habilidades de qualquer IA, seja qual for o seu propósito, dependem de como ela é treinada.

De forma geral, o objetivo da inteligência artificial é criar máquinas que atuem com o mesmo grau de capacidade cognitiva de humanos (ou até superá-lo). Mas seu processo de aprendizagem é bem diferente do nosso.

“Ela opera estritamente com base em padrões estatísticos e matemáticos, enquanto os humanos aprendem pela experiência, intuição, compreensão do contexto e aplicação de princípios abstratos”, diz o diretor-presidente da Associação Brasileira de Inteligência Artificial (Abria), Valter Wolf.

Tecnicamente, as IAs aprendem fazendo o que os especialistas chamam de mapeamento entre entradas e saí­das. Quando dizemos que 2 + 1 = 3, por exemplo, as entradas são 2 e 1, e a saída é 3. “Com base em grandes quantidades de dados, as IAs memorizam como gerar saídas corretas correspondentes às entradas”, explica Tiago Tavares, professor do curso de ciência da computação do Insper.

O treinamento funciona minimizando o erro nesse mapeamento, num esquema parecido com a brincadeira de “quente” e “frio”. Por exemplo: ao apresentar o problema de 2 + 1, talvez a IA respondesse 4, aí o treinamento informaria: “Não; é um pouco menos”, e assim por diante.

Com as regras aprendidas, por meio de algoritmos de aprendizado de máquina (treinados com supervisão ou não), a inteligência artificial identifica padrões nos dados e generaliza esse aprendizado para fazer previsões — ou extrapola o conhecimento para tomar decisões em situações novas.

Data center da Meta, na Irlanda: uso da IA para fiscalizar outra IA pode ajudar a identificar possíveis preconceitos durante aplicações (Niall Carson/PA Images/Getty Images)

Quantidade sim, qualidade também

Todo esse processo de “coaching” é influenciado, principalmente, por uma combinação entre a qualidade e a quantidade dos dados usados para alimentar a IA.

“Dados de baixa qualidade — textos com preconceito, por exemplo — levam a gerar saídas que emulam esse mesmo preconceito. Dados em baixa quantidade podem não ser suficientes para ela aprender algo de fato; então o sistema simplesmente não funciona ou começa a soltar informações aleatórias”, esclarece Tavares.

Mas não são só os dados. Outros aspectos também interferem no resultado, como os algoritmos utilizados, a capacidade computacional, o tempo de treinamento e a expertise dos engenheiros que configuram o sistema. A escolha desses fatores pode impactar significativamente o desempenho da IA.

Por isso, o “ensino” envolve uma equipe multidisciplinar de profissionais, incluindo engenheiros de machine learning, cientistas de dados, engenheiros de software e outros especialistas, que trabalham juntos para alimentar e treinar a IA.

Status: aprovada

Até o robô estar pronto para uso, o treinamento envolve várias etapas. Segundo o presidente da Abria, são três as principais:

1) Coleta e preparação de dados

Conjuntos de informações relevantes para o treinamento são reunidos e preparados.

2) Treinamento do modelo

Os parâmetros são ajustados interativamente para minimizar o erro na previsão ou classificação.

3) Avaliação e teste

O modelo é avaliado usando um conjunto de dados de teste novos.

A inteligência artificial é considerada bem treinada e, portanto, pronta para ser aplicada em soluções do cotidiano de pessoas e empresas quando demonstra um desempenho consistente e preciso em tarefas específicas, validado por meio de testes rigorosos.

“No contexto do treinamento supervisionado, é quando ela apresenta a capacidade de fazer previsões ou de tomar decisões precisas e consistentes diante de dados não vistos durante o treinamento”, detalha Wolf.

Por isso, é comum os desenvolvedores de sistemas de IA separarem parte dos dados só para essa etapa de avaliação do desempenho.

Um indicador de que a IA está aprovada é ela apresentar uma performance com precisão acima de 95%. Porém Tavares, do Insper, adverte que esse limite depende muito do business case: “Em aplicações críticas, como as de medicina, é preciso ter uma taxa de erros muito baixa. Em outras, como determinar o comportamento de personagens em jogos, os erros são menos problemáticos”.

IA perfeita não existirá

Ainda que haja avanços tecnológicos e metodológicos contínuos para aperfeiçoar as IAs, vale salientar que, por mais avançada que seja, os especialistas avisam ser improvável que tenhamos algum dia uma inteligência artificial perfeita, que nunca cometa erros.

“O futuro da IA provavelmente envolverá melhorias na compreensão de contexto, maior eficiência e aplicação em uma variedade de domínios, mas sempre acompanhadas da necessidade de supervisionar e garantir a responsabilidade ética em seu uso”, prevê o presidente da Abria.


Parcial, imparcial, ou vice-versa

Ao mesmo tempo que os modelos de IA podem incorporar preconceitos sociais e multiplicar seus efeitos, em muitos casos a tecnologia pode fazer o oposto: evitar preconceitos, reduzindo a interpretação subjetiva de dados, tão comum nos seres humanos.

Afinal, os algoritmos consideram apenas as variáveis que tornam suas previsões mais precisas, com base em dados de treinamento. Nada mais. Sem influências subjetivas, o que colabora para que a tomada de decisão seja mais imparcial. Isso pode reduzir disparidades em processos seletivos, por exemplo, ou em decisões judiciais.


O olhar humano continua insubstituível

Mesmo com um bom treinamento e diversos testes, no uso prático da ferramenta a inteligência pode errar, porque tem limitações: ela age apenas com base nos algoritmos e nos dados com os quais é alimentada.

“Quando a IA solta uma frase muito errada significa que, estatisticamente, aquela frase é a continuação mais provável para as interações que o usuário estava tendo até aquele momento”, justifica Tavares.

É preciso estar ciente de que as IAs são treinadas em bancos de dados muito grandes e incapazes de distinguir realidade de ficção, por exemplo, ou de emitir frases com base no senso crítico. “Elas podem se equivocar, principalmente, em tarefas que exigem compreensão profunda do contexto, raciocínio causal, empatia e julgamento ético. Podem ainda ser suscetíveis a vieses presentes nos dados de treinamento”, ressalta Wolf, da Abria.

Isso reforça a posição da IA como assistente para o ser humano, não como substituta: o julgamento humano ainda é imprescindível para garantir que a tomada de decisão apoiada pela tecnologia seja imparcial. Continua sendo indispensável alguém com senso crítico para checar as respostas, orientar o sistema e endireitar rumos, especialmente quando se trata de tarefas e temas mais complexos.


Valter Wolf, da Associação Brasileira de Inteligência Artificial: enquanto a IA se restringe a padrões estatísticos, humanos aprendem por meio de experiências, intuição e compreensão de contextos (Divulgação/Divulgação)

Treinar, monitorar, corrigir

O desafio de identificar e ajustar comportamentos tendenciosos tem sido um tema bastante discutido, e os especialistas são unânimes em dizer que não há estratégia imediata e única: na verdade, tornar a IA mais imparcial requer um trabalho cuidadoso e contínuo.

Evitar que sistemas perpetuem preconceitos — ou criem outros por conta própria — pode implicar a melhoria da qualidade dos dados de treinamento, o ajuste de algoritmos, a diversificação das equipes de desenvolvimento (em raça, cultura, gênero, idade etc.) e a implementação de revisões éticas e auditorias de IA.

Um exemplo de iniciativa nesse âmbito é o Facet, uma ferramenta de avaliação de modelos de visão computacional lançada pela Meta recentemente. Uma espécie de IA para fiscalizar outra IA, o recurso ajuda pesquisadores e profissionais na identificação de possíveis preconceitos em aplicações de inteligência artificial que interpretam imagens que mostram pessoas.

Facet: lançada pela Meta, ferramenta ajuda a detectar lacunas em IAs que analisam humanos em fotos (Divulgação/Divulgação)

Trata-se de um conjunto de dados composto de 32.000 fotos, contendo 50.000 pessoas, etiquetadas por analistas humanos com características como ocupações, atividades, atributos demográficos e físicos, possibilitando a análise profunda de vieses contra essas categorias. Um exemplo: será que os modelos classificam melhor pessoas como skatistas quando possuem atributos típicos masculinos? São respostas assim que a Facet pode ajudar a encontrar.

Paralelamente à redução de vieses, as empresas devem ter outros cuidados, que envolvem ser transparentes sobre como suas IAs operam e coletam dados, considerar a proteção da propriedade intelectual ao compartilhar modelos e dados e ter políticas claras de privacidade e segurança de dados, essenciais para garantir a confiança dos usuários.


Acompanhe tudo sobre:exame-ceo

Mais de Revista Exame

Cocriação: a conexão entre o humano e a IA

Passado o boom do ChatGPT, o que esperar agora da IA?

O carro pode se tornar o seu mais novo meio de entretenimento

Assistentes de IA personalizáveis ajudam a melhorar a experiência do cliente

Mais na Exame