Opinión
julio 2023

Chat GPT e a última milha do humanismo

Disponible en español

Nos últimos meses, assistimos a uma avalanche de notícias, comemorações e alarmes sobre o potencial da inteligência artificial em geral e do Chat GPT em particular. Mas tanto os flashes deslumbrantes como os temores apocalípticos parecem ter desviado a discussão das principais perguntas: que tipo de tecnologia é o Chat GPT? Que transformações ele pode causar na economia e no mundo do trabalho? O que acontece com propriedade das entradas e saídas? Quem são seus proprietários? Até que ponto ele desafia os humanos?

<p><strong>El Chat GPT y la última milla del humanismo</strong></p>

Definir o GPT, pensar o trabalho humano?

GPT é a sigla de «Generative Pre-Trained Transformer», um tipo de modelo de inteligência artificial que foi treinado com grandes quantidades de dados para gerar texto ou linguagem natural de maneira autônoma. Ele «aprende» com os dados e descobre padrões e relações entre eles, prestando atenção ao contexto e ao significado. A partir disso, gera textos de acordo com o que lhe é pedido: não copia, cria. A particularidade é que esses modelos não realizam «uma» atividade humana, mas todas que sejam concebíveis e que envolvam linguagens, texto ou escrita – seja responder a uma pergunta, traduzir um texto, escrever uma música ou programar em qualquer idioma. Além disso, com base no GPT podem ser desenvolvidas peças de softwares que envolvam outras capacidades e executem outras tarefas, o que estende as capacidades dessa inteligência artificial às áreas mais remotas da atividade humana. Isso é o que potencialmente a torna uma «tecnologia de propósito geral». Essa é uma das razões pelas quais o desenvolvimento do Chat GPT 4, baseado integralmente nessa tecnologia, fez soar os alarmes sobre os empregos que poderiam se perder em suas mãos, ou melhor, em suas linhas de código.

Entre os que tentaram analisar o fenômeno – e os alarmes que ele acarreta –, está um grupo de pesquisadores da Cornell University. Numa análise publicada recentemente, Tyna Eloundou, Sam Manning, Pamela Mishkin e Daniel Rock não apenas tentam estimar o impacto que o Chat GPT 4 pode ter no mercado de trabalho, como também procuram definir essa tecnologia por suas implicações.

Nesse sentido, os autores argumentam que as tecnologias GPT são transversais a toda a sociedade e que o seu potencial impacta todos os setores. Segundo esse grupo de acadêmicos, as tecnologias GPT podem se transformar em parte da infraestrutura crítica da sociedade, como aconteceu com a máquina a vapor, a imprensa, a eletricidade e a internet. Na mesma linha, mas em 2019, Nick Dyer-Witheford, Atle Mikkola Kjøsen e James Steinhoff publicaram Inhuman Power: Artificial Intelligence and the Future of Capitalism. Eles argumentam que estava chegando uma nova etapa do modo de produção capitalista dominado pela inteligência artificial, que se tornaria a infraestrutura crítica do capitalismo digital.

Esse tipo de exploração sobre o impacto da inteligência artificial no mundo do trabalho não é exatamente novo. Em 2013, os economistas de Oxford Carl Benedikt Frey e Michael Osborne escreveram um famoso artigo abordando essa questão, que ainda hoje levanta polêmicas. Segundo os economistas, 57% dos postos de trabalho nos Estados Unidos corriam alto risco de serem automatizados pela inteligência artificial. Dez anos depois, a previsão parece não ter se realizado, mas naquela época o pânico se espalhou. O historiador Yuval Harari usou as estimativas para ilustrar as transformações catastróficas que estavam por vir em seu best-seller Homo Deus. Com base nessa metodologia, em seu relatório «Dividendos digitais», o Banco Mundial estimou que um país como a Argentina tinha 60% dos empregos em risco de automação. Níveis semelhantes foram estimados para o restante da América Latina. Outros pesquisadores, no entanto, dissentiram: Melanie Arntz, Terry Gregory e Ulrich Zierahn, da Organização para a Cooperação e o Desenvolvimento Econômico (OCDE), argumentaram que as ocupações não são «automatizáveis», embora as tarefas que as compõem sejam: segundo eles, 9% dos empregos tinham alto risco de automação. Erik Brynjolfsson, Tom Mitchell e Daniel Rock encontraram muitas ocupações nas quais a inteligência artificial poderia realizar algumas tarefas, mas nenhuma em que pudesse realizar 100% delas. Portanto, os empregos não seriam necessariamente perdidos, mas sim reconfigurados. David Autor, uma eminência nos estudos sobre o trabalho, afirmou que ao longo da história a automação criou mais empregos do que destruiu: ao aumentar a produtividade, aumentam a renda e o investimento e, finalmente, o emprego.
O problema era, portanto, quais tipos de empregos seriam perdidos e quais seriam criados. E aqui havia certo consenso entre os especialistas: a automação industrial ataca os trabalhos rotineiros de natureza física ou manual, chamados de «colarinho azul». A automação pela inteligência artificial faria o mesmo, mas com trabalhos rotineiros cognitivos ou de «colarinho branco». O resultado seria uma perda líquida de empregos «rotineiros», que normalmente correspondem a empregos qualificados e salários médios. Paralelamente, cresceriam também os trabalhos «não rotineiros» e difíceis de automatizar, tanto os manuais precários – com baixas qualificações e baixos salários – como os altamente qualificados e com salários elevados. Em suma, haveria uma verdadeira polarização laboral. De um lado, enfermeiras, pedreiros, entregadores e pessoas que fazem «bico»; de outro, gerentes, programadores, intelectuais e artistas. No meio, um abismo de fábricas e escritórios extintos.

Um estudo específico

Qual é então o diferencial que o trabalho analítico realizado pelo grupo de pesquisadores da Cornell University oferece agora? Em primeiro lugar, que os autores não estão se perguntando sobre um conjunto difuso de tecnologias de inteligência artificial, mas sobre um específico: o Chat GPT. Em seguida, eles estabelecem três cenários que podem ser reduzidos a dois: no mínimo, apenas o Chat GPT; no máximo, o Chat GPT juntamente com os softwares complementares (que incluem processamento e geração de imagens e texto). Por outro lado, os pesquisadores não medem o «risco de automação» de empregos ou ocupações, mas sim o grau de exposição das tarefas à inteligência artificial generativa. A exposição é definida com base em se um GPT, como o Chat GPT, poderia realizar essa tarefa ao menos em 50% com resultados indistinguíveis dos de um ser humano. O fato de várias tarefas de uma ocupação serem expostas à inteligência artificial não significa que a ocupação será automatizada: pode de fato ser, mas também pode ser «aumentada» (cenário em que a ocupação se torna mais complexa: o GPT auxilia nas tarefas simples, enquanto o humano aprofunda as complexas) ou reconfigurada (as tarefas mudam, mas a ocupação sobrevive ou se transforma em uma nova ocupação). Por fim, os pesquisadores não classificam os empregos e ocupações em rotineiros e não rotineiros, mas conforme o nível salarial, as habilidades exigidas e a escolaridade necessária para o cargo. Última novidade: os autores «aumentam» seu próprio trabalho usando o Chat GPT 4, que, além de ser objeto de pesquisa, é sujeito pesquisador: classifica dados, estabelece critérios para determinar a exposição das tarefas à inteligência artificial, cria tabelas e colabora na redação dos resultados e conclusões. Os números que os autores obtêm podem ser impactantes ou não, dependendo de quem os lê: 80% da força de trabalho dos EUA tem pelo menos 10% de suas tarefas expostas, enquanto 20% têm pelo menos 50% de suas tarefas expostas.

No entanto, o elemento crucial acontece em outro lugar: ao contrário da bibliografia precedente, os autores concluem que os trabalhos mais expostos à inteligência artificial generativa são aqueles que havíamos chamado de «cognitivos não rotineiros». Empregos de alta renda e elevadas barreiras de entrada – programadores, professores, intelectuais e artistas, entre outros – caem na guilhotina do GPT. Existe também uma fortíssima correlação entre digitalização e exposição à inteligência artificial, o que é totalmente lógico: quando os pesquisadores realizam as estimativas por setor de atividade, as mais expostas são as indústrias da informação, incluindo o desenvolvimento de software.

Algumas pessoas poderiam ficar tentadas a esboçar um sorriso sarcástico: o GPT vem pela mão de esnobes, hipsters e geeks. Mas há uma dimensão trágica incluída: no mar de desconcerto de nossa região, muitos jovens latino-americanos, em grande parte de origem popular, têm apostado em cheio na tábua de salvação da programação. O mesmo têm feito os formuladores de políticas públicas. É preciso considerar esses resultados com cautela, embora eles sugiram que poderia ser um salva-vidas de chumbo.

Poderia-se, certamente, argumentar que o Chat GPT tem vieses, comete erros e, às vezes, mente descaradamente. Mas isso não é nada diferente do acontece com a generalidade dos seres humanos. Afinal de contas, para o Chat GPT nada humano é alheio. Em todo caso, o GPT expõe as limitações do já malogrado orgulho humanista: não há atividade, muito menos trabalho, inerentemente humana.

Artistas automatizados e dados proletarizados

Dias atrás, os artistas Drake e The Weeknd lançaram a música «Heart on My Sleeve», que alcançou 15 milhões de visualizações no TikTok e mais de 20 milhões no Twitter. A canção, que apareceu em todas as redes sociais e plataformas musicais, foi atribuída a um trabalho entre os dois artistas. Mas acabou sendo fake. Um usuário pediu ao Chat GPT que compusesse uma música colaborativa entre os dois artistas. Depois a entregou a outra inteligência artificial generativa, que colocou som e vídeo. A canção imitava os músicos, mas era uma composição feita pela inteligência artificial.

O Universal Music Group ameaçou processar todas as plataformas que a reproduzissem: em poucas horas, a canção foi eliminada da web. Em seu comunicado, a gravadora argumentou que «treinar a inteligência artificial generativa usando a música de nossos artistas representa uma violação de nossos acordos e uma violação de direitos autorais». Ao mesmo tempo, afirmou que «plataformas como Spotify e YouTube têm a responsabilidade legal e ética de evitar o uso de seus serviços de uma forma que prejudique os artistas».

Aqui aparecem várias tensões do capitalismo digital e sua estrutura de propriedade intelectual. Os artistas podem ser automatizados, e o Chat GPT pode tornar a música no estilo de Drake & The Weekend indistinguível deles aos ouvidos do público. Conseguiu fazê-lo porque foi treinado, entre bilhões de outros dados, com as músicas desses artistas. A quem deveria pertencer a obra resultante? À OpenAI e à Microsoft? Ao Chat GPT? À gravadora detentora dos direitos autorais dos artistas? Aos artistas? A quem fez login no prompt de instrução no chat? Ao domínio público? Não parece haver uma resposta clara para isso.

É relativamente simples ver as tensões que o Chat GPT provoca em relação aos direitos de propriedade e autoria nas saídas do modelo, nas «obras» que ele gera. Mas a mesma atenção deveria ser dada às entradas, aos dados de treinamento: para treinar os GPT são utilizadas quantidades titânicas de dados disponíveis na internet. O que acontece com os detentores desses dados? Quem são? Eles deveriam poder decidir se seus dados podem ser usados nesses processos? Deveriam ser compensados? De que maneira?

Há mais de uma década, Mariano Zukerfeld chamou esses dados abertos disponíveis na internet de «conhecimentos duplamente livres»: livres para serem usados e livres de recompensas. Durante o auge da web 2.0, os gigantes digitais que moldaram o capitalismo de plataformas construíram seus impérios explorando esses «conhecimentos duplamente livres»: Facebook e Google são dois exemplos claros, mas não os únicos. Agora esses conhecimentos «duplamente livres» são apropriados e explorados pela OpenAI como feedlot para alimentar inteligências artificiais generativas. 

No mundo da programação, um caso especial é o do GitHub Copilot. O GitHub é o maior repositório colaborativo para desenvolvedores de software da web, onde são hospedados milhares de projetos e milhões de linhas de código dos usuários. Em 2018, o GitHub foi adquirido pela Microsoft e, pouco tempo depois, as linhas de código carregadas por centenas de milhares de programadores começaram a ser usadas para treinar o GitHub Copilot: um projeto conjunto da OpenAI e do GitHub para criar inteligência artificial generativa que auxilie os programadores sugerindo linhas de código segundo o contexto e a linguagem utilizados. O Copilot é baseado no GPT 3 e foi lançado no mercado em 2021. Embora não «automatize» totalmente o desenvolvimento de software, ele simplifica o trabalho de forma significativa: segundo relatos de empresas que o implementam, alguns meses de preparação são suficientes para formar um desenvolvedor júnior que possa programar com a ajuda do Copilot, o que reduz a classificação necessária para conseguir empregos e pressiona os salários para baixo. Os próprios programadores que contribuíram com seus códigos acabam sendo afetados pelo resultado.

Mas vejamos outro exemplo. O Estado argentino financia o sistema científico público que, seguindo as boas práticas internacionais, tem uma política de dados abertos. Todos os resultados de PD&I públicos encontram-se em repositórios abertos. Estes são usados, entre outras coisas, para treinar o Chat GPT. Deveríamos ter uma regulação que os proteja ou que imponha condições? Quais compensações seriam adequadas? Quem obtém os benefícios das inteligências artificiais generativas?

Por fim, resta indagar sobre a caixa-preta que faz a mediação entre as entradas e as saídas: o próprio algoritmo que deveria ser o foco das até agora inexistentes regulações.

Inteligência artificial capitalista

Uma pergunta ficou faltando: quem são os donos dessa tecnologia? O primeiro GPT foi lançado em 2018 pela OpenAI, a mesma empresa que lançou o GPT 3 e o Chat GPT 3 e 4. Mesma empresa? Bem, não exatamente. A OpenAI foi fundada em 2015, entre outras pessoas, por Elon Musk e Sam Altman como uma organização sem fins lucrativos para pesquisa de inteligência artificial, com o objetivo de promover e desenvolver inteligência artificial amigável e aberta que beneficiasse a humanidade. Em 2019 foi criada a divisão OpenAI LP, uma organização com fins lucrativos «limitada». Poucos meses depois, ela se associou à Microsoft, anunciando um pacote de investimentos de 1 bilhão de dólares na companhia e o licenciamento comercial de suas tecnologias. Após o lançamento do Chat GPT em 2022, a OpenAI recebeu um novo financiamento de 10 bilhões de dólares por parte da Microsoft. Assim, a estrutura de propriedade da OpenAI ficou com 49% de ações para a Microsoft, uma porcentagem idêntica para outros investidores e 2% para a organização matriz sem fins lucrativos, a OpenAI. A Microsoft se reserva 75% dos lucros da OpenAI até recuperar seu investimento e, depois disso, obteria 49% deles. Além disso, obtém as licenças de uso exclusivo de todos os produtos.

A filosofia da técnica tem ensinado que a tecnologia nunca é neutra: há valores nela envolvidos. Segundo Nick Dyer-Witheford, Atle Mikkola Kjøsen e James Steinhoff, a inteligência artificial é o produto não apenas de uma lógica tecnológica, mas também da lógica de produzir mais-valia. Ela surgiu e se desenvolveu numa ordem socioeconômica que recompensa aqueles que possuem os meios para automatizar o trabalho, acelerar as vendas, aumentar os lucros e intensificar o controle. E isso está em seu DNA.

No final das contas, e apesar de sua maquiagem, a OpenAI não é uma empresa sem fins lucrativos nem «aberta»: todos os seus produtos são da Microsoft com licenças exclusivas. A única coisa «aberta» em seu modelo de negócios são os dados de treinamento, aos quais não reconhece nenhuma propriedade. A lógica da mais-valia é, afinal, a sua lógica. E com a guerra armamentista que está se desencadeando na indústria da inteligência artificial, essa lógica só pode aumentar.

Quem acelera?

No Manifesto comunista, Karl Marx deslumbrava-se com a fenomenal liberação das forças produtivas possibilitada pelo capitalismo, ao mesmo tempo em que se aterrorizava com o movimento autônomo e impessoal que esse mesmo modo de produção lhes conferia. Esse traço acompanhou toda a sua obra: o capital era uma força imparável que impulsionava uma revolução contínua nas condições de produção por meio de desenvolvimentos tecnológicos. Ao mesmo tempo, Marx descreveu a forma como, sob o capital, esse desenvolvimento subsumia o trabalho vivo e o transformava num apêndice das máquinas. Em qualquer caso, Marx considerava em última instância que somente através dos frutos da ciência e da tecnologia a humanidade poderia se emancipar do capital.

Desde então, a esquerda tem oscilado entre posições paradoxais em relação às tecnologias, particularmente àquelas que têm potencial para substituir o trabalho humano. Enquanto alguns as combatem no afã romântico de deter sua marcha, outros pressionam para acelerá-las e aumentar a velocidade do trem da história.

Nem o decrescimento nem nenhuma de suas tribos vizinhas são, a rigor, uma via factível: tentar deter a marcha da inteligência artificial ou de qualquer outra tecnologia parece uma tentativa vazia. Ao mesmo tempo, porém, é possível reconhecer que as formulações aceleracionistas de Nick Srnicek e Alex Williams não parecem estar envelhecendo bem. Se acelerarmos, pode ser que, ao sair do túnel, a inteligência artificial não leve à emancipação humana em relação ao capitalismo, mas sim, pelo contrário, como sugeriu Nick Land, à emancipação do capital em relação ao gênero humano. Pisar ou não pisar no acelerador já não parece ser uma decisão humana.

As inteligências artificiais generativas parecem estar assediando a última milha do humanismo, seus últimos refúgios. Talvez neste ponto residam suas consequências mais profundas e radicais: nada é, por direito próprio, um atributo exclusivamente humano, uma «coisa em si» humana.

Nota do autor: agradeço aos membros da equipe e-tcs, da qual faço parte, em cujos debates se desenvolveram as principais ideias expressas neste artigo. Naturalmente, eles não são responsáveis pelas opiniões aqui manifestadas.

Tradução: Eduardo Szklarz


En este artículo


Newsletter

Suscribase al newsletter