Siga a AEPET
logotipo_aepet
Guglielmo Carchedi
Guglielmo Carchedi
Guglielmo Carchedi é pesquisador sênior do Departamento de Economia e Econometria da Universidade de Amsterdã. Seus livros anteriores incluem Frontiers of Political Economy e Marx and Non-Equilibrium Economics.

ChatGPT, valor e conhecimento

Distinção entre “produção objetiva” (a produção de coisas objetivas) e “produção mental” (a produção de conhecimento).

Publicado em 05/06/2023
Compartilhe:

Em um comentário na postagem do blog de Michael Roberts sobre inteligência artificial (IA) e as novas máquinas de aprendizado de idiomas (LLMs), o autor e comentarista Jack Rasmus levantou algumas questões pertinentes, que me senti obrigado a abordar.

Jack disse: “a análise de Marx sobre maquinário e sua visão de que maquinário é valor de trabalho congelado que é passado para a mercadoria à medida que se deprecia se aplica completamente a máquinas baseadas em software de IA que têm a capacidade crescente de automanter e atualizar seu próprio código sem intervenção do trabalho humano – ou seja, não depreciar?”

Minha resposta à pergunta legítima de Jack pressupõe o desenvolvimento de uma epistemologia marxista (uma teoria do conhecimento), uma área de pesquisa que permaneceu relativamente inexplorada e subdesenvolvida.

Receba os destaques do dia por e-mail

Cadastre-se no AEPET Direto para receber os principais conteúdos publicados em nosso site.
Ao clicar em “Cadastrar” você aceita receber nossos e-mails e concorda com a nossa política de privacidade.

Na minha opinião, uma das principais características de uma abordagem marxista é fazer uma distinção entre “produção objetiva” (a produção de coisas objetivas) e “produção mental” (a produção de conhecimento). Mais importante, o conhecimento deve ser visto como material, não como imaterial, nem como um reflexo da realidade material. Isso nos permite distinguir entre meios objetivos de produção (MP) e MP mental; ambos são materiais. Marx concentrou-se principalmente, mas não exclusivamente, no primeiro. No entanto, há em suas obras muitas dicas de como devemos entender o conhecimento.

Uma máquina é um MP objetivo; o conhecimento nele incorporado (ou desincorporado) é um MP mental. Então AI (incluindo ChatGPT) deve ser visto como MP mental. A meu ver, dado que o conhecimento é material, as MP mentais são tão materiais quanto as MP objetivas. Portanto, MP mentais têm valor e produzem mais-valia se forem o resultado do trabalho mental humano realizado para o capital. Portanto, a IA envolve trabalho humano. Só que é trabalho mental.

Como o MP objetivo, o MP mental aumenta a produtividade e reduz o trabalho. Seu valor pode ser medido em horas de trabalho. A produtividade do MP mental pode ser medida, por exemplo, pelo número de vezes que o ChatGPT é vendido ou baixado ou aplicado a processos de trabalho mental. Como o MP objetivo, seu valor aumenta à medida que melhorias (mais conhecimento) são adicionados a eles (pelo trabalho humano) e diminui devido ao desgaste. Portanto, o MP mental (AI) não apenas se deprecia, mas também o faz em um ritmo muito rápido. Esta é a depreciação devido à competição tecnológica (obsolescência), ao invés da depreciação física. E, como o MP objetivo, sua produtividade afetará a redistribuição da mais-valia. Na medida em que modelos mais novos de ChatGPT substituem os mais antigos, devido aos diferenciais de produtividade e seus efeitos na redistribuição da mais-valia (teoria dos preços de Marx), os modelos mais antigos perdem valor para os mais novos e produtivos.

Jack pergunta: “Essa capacidade é baseada no trabalho humano ou não? Se não, o que significa um “não” para o conceito-chave de Marx da composição orgânica do capital e, por sua vez, para o seu (MR e meu – GC) frequentemente declarado endosso à hipótese da queda da taxa de lucro?

Minha resposta acima foi que essa "capacidade" não é apenas baseada no trabalho humano (mental), mas é trabalho humano. A partir dessa perspectiva, não há problema com o conceito de Marx da composição orgânica do capital (C). Como a IA e, portanto, o ChatGPT são novas formas de conhecimento, de MP mental, o numerador de C é a soma do MP objetivo mais o MP mental. O denominador é a soma do capital variável gasto em ambos os setores. Assim, a taxa de lucro é a mais-valia gerada em ambos os setores dividida por (a) a soma do PM em ambos os setores mais (b) o capital variável gasto também em ambos os setores. Assim, a lei da queda tendencial da taxa de lucro é inalterada pelo MP mental, ao contrário da sugestão de Jack.

Para entender melhor os pontos acima, precisamos descompactar e desenvolver a teoria implícita do conhecimento de Marx. É o que fazem os parágrafos seguintes, ainda que numa versão extremamente sucinta.

Considere os primeiros computadores clássicos. Eles transformam o conhecimento com base na lógica formal, ou lógica booleana ou álgebra, o que exclui a possibilidade de a mesma afirmação ser verdadeira e falsa ao mesmo tempo. A lógica formal e, portanto, os computadores excluem as contradições. Se pudessem percebê-los, seriam erros lógicos. O mesmo se aplica aos computadores quânticos.

Em outras palavras, a lógica formal explica processos de trabalho mental pré-determinados (onde o resultado do processo é conhecido de antemão e, portanto, não contraditório ao conhecimento que entra nesse processo de trabalho), mas exclui processos de trabalho mental abertos (onde o resultado emerge como algo novo, ainda não conhecido). Um processo aberto se baseia em um estoque de conhecimento potencial e sem forma, que tem uma natureza contraditória por causa da natureza contraditória dos elementos nele sedimentados. Diferente da lógica formal, a lógica aberta é baseada em contradições, incluindo a contradição entre os aspectos potenciais e realizados do conhecimento. Esta é a fonte das contradições entre os aspectos da realidade, incluindo elementos de conhecimento.

Voltando ao exemplo acima, para processos de trabalho mental abertos, A=A e também A¹A. Não há contradição aqui. A=A porque A como uma entidade realizada é igual a si mesma por definição; mas A¹A porque o A realizado pode ser contraditório ao A potencial. Essa é a natureza da mudança, algo que a lógica formal não pode explicar.

Isso vale também para a Inteligência Artificial (IA). Como os computadores, a IA funciona com base na lógica formal. Por exemplo, quando questionado se A=A e também ao mesmo tempo pode ser A ¹ A, o Chat GPT responde negativamente. Uma vez que funciona com base na lógica formal, a IA carece do reservatório de conhecimento potencial do qual extrair mais conhecimento. Não pode conceber as contradições porque não pode conceber o potencial. Essas contradições são o húmus do pensamento criativo, ou seja, da geração de conhecimento novo, ainda desconhecido. A IA só pode recombinar, selecionar e duplicar formas de conhecimento realizadas. Em tarefas como visão, reconhecimento de imagens, raciocínio, compreensão de leitura e jogos, eles podem ter um desempenho muito melhor do que os humanos. Mas eles não podem gerar novos conhecimentos.
Considere o reconhecimento facial, uma técnica que compara a fotografia de um indivíduo com um banco de dados de rostos conhecidos para encontrar uma correspondência. O banco de dados consiste em vários rostos conhecidos. Encontrar uma correspondência seleciona um rosto já realizado, ou seja, já conhecido. Não há geração de novos conhecimentos (novas faces). O reconhecimento facial pode encontrar uma correspondência muito mais rapidamente do que um ser humano. Torna o trabalho humano mais produtivo. Mas seleção não é criação. A seleção é um processo mental pré-determinado; a criação é um processo mental aberto.

Tome outro exemplo. O ChatGPT parece emular a escrita criativa humana. Na verdade, não. Obtém seu conhecimento de grandes quantidades de dados de texto (os objetos da produção mental). Os textos são divididos em pedaços menores, frases, palavras ou sílabas, os chamados tokens. Quando o ChatGPT escreve uma peça, ele não escolhe o próximo token de acordo com a lógica do argumento (como os humanos fazem). Em vez disso, ele escolhe o token mais provável. O resultado escrito é uma cadeia de fichas montadas com base na combinação estatisticamente mais provável. Esta é uma seleção e recombinação de elementos de conhecimento já realizados, não a criação de um novo conhecimento.

Como Chomsky et al. (2023) colocou: “A IA pega grandes quantidades de dados, procura padrões neles e se torna cada vez mais proficiente na geração de resultados estatisticamente prováveis - como linguagem e pensamento aparentemente semelhantes aos humanos … [ChatGPT] apenas resume os argumentos padrão na literatura ”.

Pode acontecer que o ChatGPT produza um texto que nunca foi pensado por humanos. Mas isso ainda seria um resumo e retrabalho de dados já conhecidos. Nenhuma escrita criativa poderia emergir disso porque um novo conhecimento realizado pode emergir apenas das contradições inerentes ao conhecimento potencial.

Morozov (2023) fornece um exemplo relevante: “A obra de arte de 1917 de Marcel Duchamp, Fonte. Antes da peça de Duchamp, um mictório era apenas um mictório. Mas, com uma mudança de perspectiva, Duchamp a transformou em obra de arte. Quando questionado sobre o que o porta-garrafas de Duchamp, a pá de neve e o mictório tinham em comum, Chat GPT respondeu corretamente que são objetos do cotidiano que Duchamp transformou em arte. Mas quando questionado sobre qual dos objetos de hoje Duchamp poderia transformar em arte, sugeriu smartphones, patinetes eletrônicos e máscaras faciais. Não há nenhum indício de qualquer “inteligência” genuína aqui. É uma máquina estatística bem gerida, mas previsível”.

Marx fornece a estrutura teórica adequada para a compreensão do conhecimento. Os seres humanos, além de serem indivíduos concretos únicos, são também portadores de relações sociais, como indivíduos abstratos. Como indivíduos abstratos, ‘humanos’ é uma designação geral que apaga as diferenças entre os indivíduos, todos eles com diferentes interesses e visões de mundo. Mesmo que as máquinas (computadores) pudessem pensar, elas não poderiam pensar como seres humanos determinados por classes com diferentes concepções determinadas por classes sobre o que é verdadeiro e falso, certo ou errado. Acreditar que os computadores são capazes do pensamento humano não é apenas errado; é também uma ideologia pró-capital porque isso significa ser cego ao conteúdo de classe do conhecimento armazenado na força de trabalho e, portanto, às contradições inerentes à geração de conhecimento.

Para saber mais sobre a teoria marxista do conhecimento e sua relação com a lei do valor de Marx, consulte meu artigo recente, The Ontology and Social Dimension of Knowledge: The Internet Quanta Time, International Critical Thought, 2022 e nosso livro, Capitalism in the 21st century, capítulo cinco.

Fonte(s) / Referência(s):

guest
0 Comentários
Feedbacks Inline
Ver todos os comentários

Gostou do conteúdo?

Clique aqui para receber matérias e artigos da AEPET em primeira mão pelo Telegram.

Mais artigos de Guglielmo Carchedi
Nenhum artigo encontrado

Receba os destaques do dia por e-mail

Cadastre-se no AEPET Direto para receber os principais conteúdos publicados em nosso site.

Ao clicar em “Cadastrar” você aceita receber nossos e-mails e concorda com a nossa política de privacidade.

0
Gostaríamos de saber a sua opinião... Comente!x