GENERATIVA 14 2018). Com efeito, isso significa que a maior parte das ferramentas de IA tenderão a privilegiar visões de mundo estadunidenses, ou pelo menos dos países hegemônicos ocidentais. Para a academia, isso tem impactos de privilegiar a visão científica desses centros de pesquisa, frequentemente apresentando uma lógica quantitativista, baseada em experimentos ou quasi-experimentos. Isso pode trazer dificuldades a certos grupos, como pesquisadores qualitativos e/ou das Ciências Humanas tradicionais, só para citar alguns (Sampaio et al., 2024b; Unesco, 2024). A segunda questão é que as Big Techs, para oferecer esse serviço “gratuitamente” ou a preços acessíveis, aproveitam as interações com humanos para treinamento de seus modelos. Isto significa que, em maior ou menor medida, os dados disponibilizados e as interações com pesquisadores se tornarão parte do sistema. Essa preocupação é notoriamente mais complicada quando estamos falando de pesquisas de ponta, com dados inéditos, alimentando a lógica de um “colonialismo de dados” (Cassino, Souza, Silveira, 2021; Oliveira, Neves, 2023). Além disso, há uma preocupação com pesquisas que contêm dados sensíveis, a exemplo de certos tipos de entrevista em profundidade ou grupos focais (Resnik, Hosseini, 2024; Sampaio et al., 2024b; Unesco, 2024; União Europeia, 2024), e até mesmo estudos científicos em desenvolvimento. A terceira questão a ser observada é o viés (bias) presente nos bancos de dados e nos algoritmos. Em outras palavras, se os dados primordiais para o treinamento de tais modelos vieram da Internet, então isso significa que problemas gerais da sociedade serão refletidos na forma como esses modelos irão reagir. Dito de outra forma, os grupos subrepresentados, excluídos e marginalizados, a exemplo de mulheres, negros, povos indígenas, LGBTQIAPN+, entre outros, que não possuem representação adequada na Internet, também passarão por uma nova marginalização nos Grandes Modelos de Linguagem. Ao contrário do hype7 geralmente propagado de serem uma “tecnologia disruptiva”, na prática, as IAs Generativas tendem a agir para manter o status quo, reforçar dinâmicas e estruturas de poder existentes e agravar o problema para tais grupos (Dwivedi et al., 2023, Kaufman, 2022; Silva, 2022; Unesco, 2024). A quarta questão é que tais modelos geralmente 7. Significa entusiasmo exagerado, o termo é uma concentração de hipérbole, figura de linguagem utilizada para denotar ênfase e exagero. 8. André Lemos (2024) busca complexificar a questão, evidenciando que podemos definir em “erros, falhas e perturbações digitais”, que frequentemente são inerentes aos objetos. Aqui, optamos pela simplificação e usaremos alucinação ou confabulações. dão uma resposta ao pedido (prompt) original, mesmo que não haja dados suficientes para um retorno verdadeiro. Ou seja, tais modelos podem errar ou “mentir”, inventando fatos e mesmo referências bibliográficas inexistentes! Denominado de “confabulação” ou “alucinação”8, o fenômeno ocorre por uma raridade estatística, quando a IA tenta imitar um humano, sem ter treinamento suficiente, e por terem como foco a performance, velocidade da resposta em detrimento da melhora na taxa de acerto, inventando respostas (Alkaissi, McFarlane, 2023; Ray, 2023; Sohail et al., 2023; Lemos, 2024; União Europeia, 2024). Neste ponto, cabe uma consideração: a IA Generativa tem como característica a capacidade de transformar textos em forma de narrativa, extraindo-os de fontes possivelmente confiáveis, usando fatos possivelmente verídicos, aplicando teorias possivelmente verdadeiras e visualizando- os através das lentes de uma possível análise crítica (Cope, Kalantzis, 2023, p. 843, tradução nossa). Como a citação direta trata de preservar com a repetição do termo “possível”, um texto generativo é, sobretudo, resultado de um cálculo probabilístico. Assim, em maior ou menor medida, atende a uma realidade socialmente estabelecida, mas não necessariamente representa uma verdade empírica. Considerando esses quatro aspectos e o potencial da IA Generativa para diversas etapas do fazer científico, muitos acadêmicos vêm buscando testar tais ferramentas e verificar as suas habilidades e utilidades para o cotidiano científico (Cong-Lem et al., 2024; Rodrigues et al., 2024; Sampaio et al., 2024b; Hassan et al., 2024; Khan et al., 2024). Tal experimentação, entretanto, vem acompanhada por uma discussão presente em boa parte da ciência a respeito de seu uso ético e responsável (Franco et al., 2023; Soares et al., 2023; Santaella, 2023; Resnik, Hosseini, 2024; Stahl, Eke, 2023; Chetwynd, 2024), incluindo a preocupação com a produção acelerada de materiais acadêmicos de baixa qualidade ou mesmo plagiada apenas para pontuação de currículos, alimentando ainda mais o fenômeno do produtivismo acadêmico (Cotton et al., 2023; Curtis, 2023; Velez, Rister, 2024). Diversos periódicos, associações científicas, editoras, universidades e mesmo órgãos multilaterais, como