Revista Exame

Tecnologia e Big Tech: o desafio da regulamentação da IA e a busca por princípios interoperabilidade

As big techs seguem preocupando as autoridades antitruste. e, com a IA no horizonte, será necessário que a política faça mais pelas sociedades em transformação tecnológica

Mark Zuckerberg, CEO da Meta: corrida para entregar a IA mais poderosa  (Anadolu Agency/Getty Images)

Mark Zuckerberg, CEO da Meta: corrida para entregar a IA mais poderosa (Anadolu Agency/Getty Images)

Diane Coyle
Diane Coyle

Articulista

Publicado em 5 de outubro de 2023 às 06h00.

A inteligência artificial está se movendo com rapidez. As pessoas estão usando serviços de IA generativa e grandes modelos de linguagem (large language models — LLMs) para construir novos serviços e executar tarefas que já existem, e a própria tecnologia subjacente tem avançado depressa.

Como nota o economista ganhador do Nobel ­Michael Spence, essa onda de adoção pode render ganhos significativos de produtividade, após quase duas décadas de crescimento apagado. Todo dia traz um novo anúncio, como o mais recente do Google, dizendo que sua IA está ajudando a American Airlines a reduzir seus rastros em 54%, reduzindo a pegada climática de cada voo.

Mas nem todas as notícias são boas. Do jeito que as coisas estão, é mais provável que a IA ajude as empresas de big tech a cimentar seu domínio. São elas as únicas com os recursos para desenvolver e manter os modelos de IA mais poderosos, e elas já vêm se movendo rapidamente para combinar LLMs com seus serviços existentes. Esses avanços chegam num momento em que autoridades antitruste do mundo todo já se preocupam cada vez mais com o poder de mercado das empresas de tecnologia.

Sem dúvida, alguns comentaristas — inclusive um engenheiro do Google, num comunicado interno — argumentam que esse medo é exagerado, devido à presença de LLMs de código aberto que, tecnicamente, permitem a qualquer um competir no mercado. Contudo, mesmo que haja um florescimento de novos entrantes menores, a predominância da big tech ainda parece segura.

Tecnologia e Regulamentação da IA

Um artigo recente comparando modelos de código aberto aos serviços de interface de programação de aplicativos (application programming interface — API) de IA que as empresas de big tech estão oferecendo a terceiros concluiu que estes últimos têm um desempenho muito melhor na maioria dos critérios.

Talvez isso mude. Mas, por enquanto, o desempenho dos principais LLMs continuará melhorando a cada investimento ampliado, e eles podem estar se aproximando de pontos de virada em que serão capazes de demonstrar habilidades novas e inesperadas. Bolsos grandes fazem a diferença.

Considerando-se o poder absoluto das big ­techs em vários países, não é de admirar que legisladores estejam lutando para bolar respostas fortes, eficazes e coerentes. Em algumas jurisdições, legisladores e lideranças do setor já estão travados em disputas políticas.

Por exemplo, a Meta (Facebook) bloqueou recentemente links de notícias vindos do Canadá em resposta à exigência do governo canadense de que as plataformas compensem os veículos de comunicação. Briga semelhante aconteceu antes na Austrália, onde o governo anunciou novos planos de multar plataformas online por cumplicidade na disseminação da desinformação.

No Reino Unido, uma “lei da segurança online” bastante criticada está levando algumas empresas de tecnologia a ameaçar sair completamente do mercado. E, nos Estados Unidos, o Congresso vem considerando intervenções pró-competição, como a proposta da Lei de Mercados Abertos, e novas autoridades antitruste ativistas dentro do governo Biden entraram com várias ações contra Google, Amazon, Meta e Apple.

Contudo, embora alguns formuladores de políticas tenham conhecimento profundo de IA, sua experiência tende a ser restrita, e a maioria dos outros tomadores de decisões simplesmente não entende do assunto bem o bastante para formular políticas sensatas.

Por causa dessa base de conhecimento relativamente baixa e da inevitável assimetria de informação entre reguladores e regulados, é provável que as respostas políticas a problemas específicos continuem inadequadas, fortemente influenciadas por ­lobby ou altamente contestadas.

Assim sendo, o que fazer? Talvez a melhor opção seja buscar uma política mais baseada em princípios. Abordagem assim já ganhou força no contexto de problemas como a desinformação e a trollagem, temas que muitos especialistas e defensores acreditam que as empresas de big tech devem ter um dever geral de cuidar (o que significa uma orientação-padrão no sentido de promover cautela e redução de danos).

Em alguns países, princípios semelhantes já se aplicam a emissoras de notícias, que são obrigadas a buscar precisão e manter a imparcialidade. Embora a fiscalização nesses domínios possa ser desafiadora, o resultado é que já temos uma base legal para obter comportamento menos danoso em termos sociais dos provedores de tecnologia.

Quando se trata de competição e domínio de mercado, a regulamentação das empresas de telecomunicações oferece um modelo útil com seu princípio da interoperabilidade.

Pessoas com prestadores de serviços concorrentes ainda podem ligar umas para as outras porque as empresas de telecom são todas obrigadas a aderir a padrões técnicos e acordos de reciprocidade comuns. O mesmo vale para caixas eletrônicos: você pode pagar uma taxa, mas consegue sacar dinheiro de qualquer banco em uma máquina.

No caso de plataformas digitais, a falta de interoperabilidade foi estabelecida em linhas gerais na origem, como um meio de bloquear os usuários e criar “fossos”. Por isso é que discussões políticas sobre melhorar o acesso aos dados e garantir acesso a APIs previsíveis têm falhado em obter progresso.

Mas não há razão técnica para que alguma interoperabilidade não possa ser projetada de volta. Afinal, as empresas de big tech não parecem ter muita dificuldade em integrar os novos serviços que adquirem quando assumem a concorrência.

No caso dos LLMs, a interoperabilidade provavelmente não pode ser aplicada em nível dos modelos em si, uma vez que nem mesmo seus criadores entendem seu funcionamento interno. No entanto, ela pode e deve valer para as interações entre LLMs e outros serviços, como plataformas em nuvem.

Se eu assinasse o Microsoft 365, por exemplo, eu ainda deveria poder usar o PaLM2 do Google, em vez de ser forçado a também usar a extensão Copilot ou GPT-4 da Microsoft.

Esse princípio foi estabelecido na decisão antitruste histórica de 2001 contra a inclusão do Internet Explorer pela Microsoft, e de novo no veredito de 2007 contra a inclusão do ­Windows Media Player.

Um compromisso firme de aplicar os mesmos princípios aos LLMs seria um grande avanço no sentido de impedir concentração de mercado ainda maior. Se a IA vai cumprir sua promessa para a sociedade, ela precisa ser amplamente acessível a todos e sujeita às melhorias que vêm com a concorrência livre e justa.

Acompanhe tudo sobre:exame-ceo

Mais de Revista Exame

Cocriação: a conexão entre o humano e a IA

Passado o boom do ChatGPT, o que esperar agora da IA?

O carro pode se tornar o seu mais novo meio de entretenimento

Assistentes de IA personalizáveis ajudam a melhorar a experiência do cliente

Mais na Exame