PENSATA | Christian Schwartz
30/03/2022 - 14:36

Fantasmas, robôs, escrita automática

Por que as máquinas seriam melhores do que nós na seleção — de preferência não só criativa, mas também ética — de conteúdos, se são os humanos a alimentá-las do bom e do ruim, do bonito e do feio?

 

(Alerta: a data real de publicação deste texto é 2022, mas os leitores estão convidados a imaginar, enquanto leem, que vivem num futuro em que a Escrita Automática entrou nos currículos de literatura das escolas e das graduações universitárias.)

Como todo mundo sabe, humanos e máquinas são igualmente competentes para escrever. Na verdade, não fosse pelo selo de certificação usual no início deste artigo, você poderia até pensar que um humano o escreveu! Mas quando tudo isso começou? Quando as máquinas começaram a escrever como humanos? E quando os humanos decidiram que era hora de dividir a tarefa com as máquinas?

Ao se tornar possível automatizar um aspecto da cultura, isso também tende a nos alertar para uma automaticidade que sempre existiu ali. Assim pode ser com os algoritmos da linguagem, da cultura em geral, da justiça, e daí por diante. Também funciona para o nosso autômato interior. Afinal, você é um ser humano e muitas vezes faz as coisas “automaticamente”, sem nem pensar. Nem percebe que tirou o casaco.

A terceira década do século XXI é hoje amplamente reconhecida como um ponto de virada na história da geração automática de textos. O rápido crescimento em escala dos então chamados “Large Language Models” (LLMs) levou a avanços aparentemente significativos na automação de tarefas que até então eram consideradas difíceis, ou em alguns casos impossíveis, para as máquinas.

Na época, a terminologia preferida pelos cientistas que trabalhavam no processamento e na geração automática de linguagem natural refletia os vieses cognitivistas e antropomórficos que há muito tinham sido incorporados por algumas vertentes da ciência da computação. Naquele tempo, uma explicação típica sobre o funcionamento de um LLM para o público não especializado se concentraria na função da “rede neural” — uma técnica de programação de computadores que, dizia-se, era semelhante à organização dos neurônios no cérebro.

A mania das “mídias sociais”, naquele início de século 21, também desempenhou um papel significativo por meio da mercantilização e da redução a “pontos de dados” de muitas formas de fala e interação que antes raramente eram capturadas e armazenadas em mídia eletrônica.

O que a mistificação acerca das “redes neurais” vista no começo do século 21 teve de incomum, porém, foi a forte tendência entre os cientistas de atribuir poderes de mediação aos dispositivos ou ao próprio processo tecnológico a ponto de essas suposições soarem quase ingênuas.

Os cientistas manifestavam a esperança de que mais pesquisas pudessem levá-los a desenvolver “bom senso” nas máquinas, o que permitiria evitar “erros bobos” (como afirmar que o fogo continua aceso debaixo d'água, ou que um lápis é mais pesado que uma torradeira). Alguns se inquietavam também com tendências preocupantes das máquinas de repetir coisas desagradáveis que os sistemas haviam “absorvido”: linguagem racista, misoginia, insultos homofóbicos.

Esse desejo desesperado de que os LLMs “amadurecessem” e se transformassem em substitutos matemáticos para seres humanos adultos, capazes de escolher o tom e o registro apropriados para conversar com estranhos, era curioso, pois se descobriu que o antropomorfismo que sustentava a ideia de “rede neural” era, em muitos sentidos, angustiantemente superficial. Teria sido viável uma compreensão mais “humanitária” dos limites e potencialidades desses dispositivos se seus criadores os tratassem como bebês ou crianças pequenas, refletindo sobre as metáforas de “aprender”, “ensinar” e “formar”, e desenvolvendo, também para os autômatos, currículos adequados que controlassem sua exposição aos efeitos nocivos de testemunhar violência, injustiça e desigualdade?

Mas, ao contrário, na corrida para acumular os maiores e mais convenientes repositórios de dados, aqueles cientistas foram amontoando tudo o que encontravam, esperando que os sistemas tivessem “discernimento” para separar o ruim do bom, o bonito do feio.

A reinserção dessas máquinas de calcular labirínticas no domínio de instituições anteriores dedicadas a selecionar, peneirar e preservar o conhecimento ajudou a pavimentar o caminho para o consenso de que o processo de abstração é interpretativo. Era preciso abandonar, enfim, a ideia de que as próprias máquinas realizariam essa tarefa. Não, a seleção definitiva se dava pelas interações entre humanos cuja linguagem alimentava o sistema e humanos que liam o que dele resultava. O fato de que, assim como um livro, o sistema conseguia de alguma forma captar as vozes de gente distante no espaço e no tempo reforçava a afinidade básica dessas duas tecnologias da palavra.

Fomos lembrados de que essas máquinas, como as bibliotecas fictícias de Borges, contêm, nas profundezas de suas prateleiras, todas as combinações possíveis. Nós, os bibliotecários, somos os únicos capazes de escolha.

 

*

 

Voltemos a 2022.

Até este ponto, o texto que você lê — como grande parte do que hoje se publica, ao menos nas áreas menos criativas da escrita, digamos — foi produzido num esforço híbrido homem-máquina (mais sobre isso adiante). A ideia original, e demasiado humana, de projetar o ponto de vista narrativo no futuro, olhando “para trás” (nosso presente, na verdade), saiu de algumas das melhores cabeças atualmente dedicadas a pensar as possibilidades da geração automática de textos — inclusive criativos, quiçá até literários.

No livreto Ghosts, Robots, Automatic Writing [fantasmas, robôs, escrita automática], um grupo de pesquisa formado no Centro de Humanidades Digitais da Universidade de Cambridge, na Inglaterra, faz um tour pelo mundo etéreo da automatização da escrita: sua história, suas perspectivas — e, a sério, desenvolve guias para análise crítica de textos “escritos” por máquinas e avaliação desses híbridos textuais em exames seletivos do futuro (vestibulares, por exemplo). Termina apresentando um experimento no qual uma pequena história é contada e recontada pelo, digamos, “fantasma na máquina”.

O que talvez soe como um exercício fútil, e francamente algo lunático, de entusiastas um pouco entusiasmados demais por sua área de expertise é, na verdade, um ensaio original — híbrido, ele próprio, de ficção especulativa, artigo acadêmico e divulgação para público geral — sobre coisas que já fazem parte no dia a dia de quem escreve. E mais importante: sobre decisões nessa área que, como em tudo aquilo que envolve o quase-monopólio das Big Techs suspeitas de sempre, Google à frente, talvez não sejam as mais sensatas. Por que as máquinas seriam melhores do que nós na seleção — de preferência não só criativa, mas também ética — de conteúdos, se são os humanos a alimentá-las do bom e do ruim, do bonito e do feio? As escolhas quem faz, enfatizam os pesquisadores, somos nós. No excuses.

Isso não deveria nos impedir de reconhecer que os avanços do presente, mesmo quando vistos daquele hipotético futuro do início deste texto, são impressionantes — conforme já defendi anteriormente aqui mesmo no Cândido.

Eis a prova definitiva — e a revelação final: a primeira parte deste artigo é, com alguns retoques, uma tradução automática de uns poucos parágrafos (de um total de cerca de quarenta páginas) do livreto produzido pelos pesquisadores de Cambridge.

A peça acabada cuja leitura você agora conclui, porém, é de autoria do “bibliotecário de Borges” que aqui digita as linhas finais. De todas as combinações possíveis nas profundezas de labirínticas prateleiras, é o resultado das escolhas deste que, por fim, assina o texto.

Parodiando Asimov: eu, autor.

 

 

Christian Schwarz nasceu e vive em Curitiba. Estudou língua e literatura francesas na Universidade Paris IV (Sorbonne), na França, e cursou pós-graduação em literatura na University of Central England (UCE), em Birmingham, etapa de sua formação concluída na UFPR com um mestrado em Estudos Literários. Traduziu autores como Jonathan Coe, Nick Hornby, Hanif Kureishi, Graham Greene, Philip Roth, Jeffrey Eugenides e F. Scott Fitzgerald.