Slide 14
Slide 14 text
DIRETRIZES PARA O USO ÉTICO E RESPONSÁVEL DA INTELIGÊNCIA ARTIFICIAL GENERATIVA
14
2018). Com efeito, isso significa que a maior parte
das ferramentas de IA tenderão a privilegiar visões
de mundo estadunidenses, ou pelo menos dos
países hegemônicos ocidentais. Para a academia,
isso tem impactos de privilegiar a visão científica
desses centros de pesquisa, frequentemente
apresentando uma lógica quantitativista, baseada
em experimentos ou quasi-experimentos. Isso
pode trazer dificuldades a certos grupos, como
pesquisadores qualitativos e/ou das Ciências
Humanas tradicionais, só para citar alguns (Sampaio
et al., 2024b; Unesco, 2024).
A segunda questão é que as Big Techs, para oferecer
esse serviço “gratuitamente” ou a preços acessíveis,
aproveitam as interações com humanos para
treinamento de seus modelos. Isto significa que, em
maior ou menor medida, os dados disponibilizados
e as interações com pesquisadores se tornarão parte
do sistema. Essa preocupação é notoriamente mais
complicada quando estamos falando de pesquisas
de ponta, com dados inéditos, alimentando a lógica
de um “colonialismo de dados” (Cassino, Souza,
Silveira, 2021; Oliveira, Neves, 2023). Além disso, há
uma preocupação com pesquisas que contêm dados
sensíveis, a exemplo de certos tipos de entrevista
em profundidade ou grupos focais (Resnik, Hosseini,
2024; Sampaio et al., 2024b; Unesco, 2024; União
Europeia, 2024), e até mesmo estudos científicos
em desenvolvimento.
A terceira questão a ser observada é o viés (bias)
presente nos bancos de dados e nos algoritmos.
Em outras palavras, se os dados primordiais para
o treinamento de tais modelos vieram da Internet,
então isso significa que problemas gerais da
sociedade serão refletidos na forma como esses
modelos irão reagir. Dito de outra forma, os grupos
subrepresentados, excluídos e marginalizados, a
exemplo de mulheres, negros, povos indígenas,
LGBTQIAPN+, entre outros, que não possuem
representação adequada na Internet, também
passarão por uma nova marginalização nos Grandes
Modelos de Linguagem. Ao contrário do hype7
geralmente propagado de serem uma “tecnologia
disruptiva”, na prática, as IAs Generativas tendem a
agir para manter o status quo, reforçar dinâmicas e
estruturas de poder existentes e agravar o problema
para tais grupos (Dwivedi et al., 2023, Kaufman,
2022; Silva, 2022; Unesco, 2024).
A quarta questão é que tais modelos geralmente
7. Significa entusiasmo exagerado, o termo é uma concentração de hipérbole, figura de linguagem utilizada para denotar ênfase e
exagero.
8. André Lemos (2024) busca complexificar a questão, evidenciando que podemos definir em “erros, falhas e perturbações digitais”,
que frequentemente são inerentes aos objetos. Aqui, optamos pela simplificação e usaremos alucinação ou confabulações.
dão uma resposta ao pedido (prompt) original,
mesmo que não haja dados suficientes para um
retorno verdadeiro. Ou seja, tais modelos podem
errar ou “mentir”, inventando fatos e mesmo
referências bibliográficas inexistentes! Denominado
de “confabulação” ou “alucinação”8, o fenômeno
ocorre por uma raridade estatística, quando a IA
tenta imitar um humano, sem ter treinamento
suficiente, e por terem como foco a performance,
velocidade da resposta em detrimento da melhora
na taxa de acerto, inventando respostas (Alkaissi,
McFarlane, 2023; Ray, 2023; Sohail et al., 2023;
Lemos, 2024; União Europeia, 2024).
Neste ponto, cabe uma consideração: a IA
Generativa tem como característica a capacidade de
transformar textos em forma de narrativa,
extraindo-os de fontes possivelmente confiáveis,
usando fatos possivelmente verídicos, aplicando
teorias possivelmente verdadeiras e visualizando-
os através das lentes de uma possível análise
crítica (Cope, Kalantzis, 2023, p. 843, tradução
nossa).
Como a citação direta trata de preservar com a
repetição do termo “possível”, um texto generativo
é, sobretudo, resultado de um cálculo probabilístico.
Assim, em maior ou menor medida, atende a
uma realidade socialmente estabelecida, mas não
necessariamente representa uma verdade empírica.
Considerando esses quatro aspectos e o potencial
da IA Generativa para diversas etapas do fazer
científico, muitos acadêmicos vêm buscando testar
tais ferramentas e verificar as suas habilidades e
utilidades para o cotidiano científico (Cong-Lem
et al., 2024; Rodrigues et al., 2024; Sampaio et al.,
2024b; Hassan et al., 2024; Khan et al., 2024). Tal
experimentação, entretanto, vem acompanhada
por uma discussão presente em boa parte da
ciência a respeito de seu uso ético e responsável
(Franco et al., 2023; Soares et al., 2023; Santaella,
2023; Resnik, Hosseini, 2024; Stahl, Eke, 2023;
Chetwynd, 2024), incluindo a preocupação com a
produção acelerada de materiais acadêmicos de
baixa qualidade ou mesmo plagiada apenas para
pontuação de currículos, alimentando ainda mais
o fenômeno do produtivismo acadêmico (Cotton et
al., 2023; Curtis, 2023; Velez, Rister, 2024).
Diversos periódicos, associações científicas, editoras,
universidades e mesmo órgãos multilaterais, como