Revista Exame

A responsabilidade corporativa na era da inteligência artificial

A inteligência artificial turbinou a economia e trouxe apelos à regulamentação. Mas como garantir que ela corrija problemas sem criar impasses imprevisíveis?

Líderes da tecnologia na Casa Branca: compromisso de desenvolver uma IA ética e pelo bem da humanidade. (Andrew Caballero-Reynolds/Getty Images)

Líderes da tecnologia na Casa Branca: compromisso de desenvolver uma IA ética e pelo bem da humanidade. (Andrew Caballero-Reynolds/Getty Images)

Maria Eitel
Maria Eitel

Articulista

Publicado em 5 de outubro de 2023 às 06h00.

No ano passado, eclodiu uma cacofonia de conversas sobre inteligência artificial. Dependendo de quem você ouve, a IA está nos levando para um novo e brilhante mundo de infinitas possibilidades ou nos impulsionando em direção a uma sombria distopia. Chame-os de cenários da Barbie e do Oppenheimer — tão atraentes e diferentes quanto os sucessos de bilheteria de Hollywood do verão. Mas há uma conversa que está recebendo muito pouca atenção: a da responsabilidade corporativa.

Juntei-me à Nike como sua primeira vice-presidente de responsabilidade corporativa em 1998, aterrissando mesmo no meio da maior crise corporativa da era da hiperglobalização: a icônica empresa de esportes e ­fitness tornou-se o rosto da exploração laboral nos países em desenvolvimento. Ao lidar com essa crise e ao estabelecer a responsabilidade corporativa para a Nike, aprendemos lições arduamente adquiridas, que agora podem ajudar a orientar os nossos esforços para navegar na revolução da IA.

Hoje, há uma diferença fundamental. Ocorrendo no final da década de 1990, o drama da Nike se desenrolou de forma relativamente lenta. Quando se trata de IA, entretanto, não podemos nos dar o luxo de ter tempo. Nesta época no ano passado, a maioria das pessoas não tinha ouvido falar de IA generativa. A tecnologia entrou na nossa consciência coletiva como um raio no final de 2022, e temos tentado entendê-la de lá para cá.

Do jeito que está, as empresas de IA generativa não têm barreiras de proteção impostas externamente. Isso torna todos nós cobaias. Não há nada de normal nisso. Se a Boeing ou a Airbus introduzissem um avião que prometesse ser mais barato e mais rápido, mas que fosse potencialmente muito perigoso, não aceitaría­mos o risco. Uma empresa farmacêutica que lançasse um produto não testado, embora alertasse que poderia ser tóxico, seria considerada criminalmente responsável pela doença ou morte que causasse. Por que, então, é aceitável que empresas de tecnologia tragam ao mercado produtos de IA que elas próprias alertam que representam risco de extinção?

Mesmo antes de a IA generativa entrar em cena, as big techs e a economia da atenção enfrentavam crescentes críticas pelos seus efeitos nocivos. Produtos como Snapchat, Instagram e TikTok são projetados para desencadear picos de dopamina no cérebro, tornando-os tão viciantes quanto o cigarro. Surgiu um consenso científico de que os meios de comunicação digitais estão prejudicando a saúde mental dos usuários — especialmente das crianças.

A IA turbinou a economia da atenção e desencadeou um novo conjunto de riscos, cujo escopo está longe de ser claro. E, embora os apelos à regulamentação sejam cada vez mais ruidosos, quando partem das próprias pessoas por detrás da tecnologia, aparecem em grande parte como campanhas de relações públicas e táticas corporativas de impasse. Afinal, os reguladores e os governos não compreendem totalmente como funcionam os produtos com base em IA ou os riscos que criam, apenas as empresas.

É responsabilidade da empresa garantir que ela não cause danos intencionalmente e corrigir quaisquer problemas que criar. É função do governo responsabilizar as empresas. Mas a responsabilização tende a surgir depois do fato — tarde demais para uma tecnologia como a IA.

Se os proprietários da Purdue Pharma, a família Sackler, tivessem agido de forma responsável quando perceberam o perigo que o OxyContin representava, tomando medidas para impedir que o medicamento fosse prescrito em excesso, a crise dos opiáceos que assolou os Estados Unidos nos últimos anos poderia ter sido evitada. Quando o governo se envolveu, inúmeras vidas tinham sido perdidas; e comunidades, arruinadas. Nenhuma ação judicial ou multa poderá desfazer isso.

Quando se trata de IA, as empresas podem e precisam fazer melhor. Mas devem agir rapidamente, antes que as ferramentas baseadas na IA estejam tão enraizadas nas atividades diá­rias que os seus perigos sejam normalizados e tudo o que libertam não possa ser contido.

Na Nike, foi uma combinação de pressão externa e compromisso interno de fazer a coisa certa que levou a uma fundamental revisão do seu modelo de negócios. A nascente indústria da IA está claramente sentindo pressão externa: em 21 de julho, a Casa Branca garantiu compromissos voluntários de sete grandes empresas de IA para desenvolver produtos seguros e confiáveis, em linha com o Plano para uma Declaração de Direitos da IA que foi introduzido no ano passado. Mas vagas diretrizes voluntárias deixam demasiada margem para manobra.

O nosso futuro coletivo depende agora de as empresas — na privacidade de suas salas de administração, reuniões executivas e sessões estratégicas a portas fechadas — decidirem fazer o que é certo. As empresas precisam de um direcionamento claro que possam sempre consultar à medida que buscarem inovação. O Google acertou em seus primeiros dias, quando seu credo corporativo era “Não causar mal”. Nenhuma empresa deveria prejudicar conscientemente as pessoas na busca pelo lucro.

O desafio da IA precisa ser tratado como qualquer outra corrida corporativa. Exigir que as empresas se comprometam com um plano de ação em 90 dias é razoável e realista. Sem desculpas. Prazos perdidos deveriam resultar em pesadas multas. O plano não tem de ser perfeito — e provavelmente terá de ser adaptado à medida que continuarmos a aprender — mas é essencial comprometer-se com ele.

As big techs devem estar tão comprometidas com a proteção dos humanos quanto com a maximização dos lucros. Se a única linha de chegada for o resultado final, estaremos todos em apuros.


Acompanhe tudo sobre:exame-ceoInteligência artificialEmpresas

Mais de Revista Exame

Cocriação: a conexão entre o humano e a IA

Passado o boom do ChatGPT, o que esperar agora da IA?

O carro pode se tornar o seu mais novo meio de entretenimento

Assistentes de IA personalizáveis ajudam a melhorar a experiência do cliente

Mais na Exame