A inteligência artificial e seus possíveis usos na redação acadêmica

Lynn Alves*

As discussões em torno da Inteligência Artificial Generativas (IAG), vêm crescendo, principalmente a partir da divulgação do ChatGPT 3,0 pela OpenAI, em novembro de 2022, com a liberação de acesso gratuito a esta tecnologia.

As áreas de educação, saúde, administração, computação se posicionaram de distintas formas para o potencial deste artefato sociotécnico que produz textos considerando as informações inseridas no seu banco de dados até setembro de 2021. Para além das IAG’s que produzem textos, também começamos a ter informações e interação como Dall-E, Mjourney, Blue Yellow, entre outras, que produzem imagens.

Esse cenário alvissareiro provocou discussões e questionamentos sobre a propriedade intelectual e autoria, considerando que tanto IAG que produz textos quanto as criam imagens, se apropriam de dados já existentes e criados por humanos.

Outro ponto de debate, refere-se as questões relacionadas com a privacidade e segurança de dados, que no caso específico do ChatGPT 4,0 teve registro de vazamento e banimento na Itália, por exemplo.

Todas as questões pontuadas acima, são relevantes e precisam ser discutidas e aprofundadas, mas nesse artigo, vamos destacar as tensões que envolvem a produção da escrita acadêmica, mediada pelas IAG’s. Escolas em Nova York, no início de 2023, por exemplo, proibiram o uso do ChatGPT, preocupados como uso dessa IA, pelos estudantes para realizar provas e trabalhos escolares; a preocupação com o plágio foi outro ponto que tensionou a interação com este artefato tecnológico em distintos espaços de produção e difusão de conhecimento.

A produção de vários livros em rápido curto de tempo, falando sobre o ChatGPT e/ou outros temas, bem como, a produção de artigos científicos, indicando esta tecnologia como coautor, gerou também um grande desconforto, para as editoreas que publicam os resultados de pesquisa, a exemplo da Springer Nature, que proibiu a indicação do ChatGPT como coautor.

Para esta editora que é responsável por mais de 2900 revistas científicas, as preocupações éticas e de autoria são fundantes para garantir a qualidade e credibilidade da produção científica. Portanto, tais trabalhos, não devem se sustentar na mediação da inteligência artificial, seja para estruturar o texto e/ou como fonte de pesquisa.

A Associação de Psicologia Americana (APA), inclusive divulgou como citar a inclusão do ChatGPT nas publicações durante o crescimento do debate. A credibilidade dos dados gerados pela IAG, precisa ser relativizada, considerando que tais tecnologias, quando não encontram informações no banco de dados nos quais foram treinados “alucinam” (McAdoo, 2023).

Para Beiguelman “quando o sistema dá uma resposta que não corresponde à realidade e podem ser causadas por diferentes fatores, como erros na programação do modelo, dados de treinamento incorretos ou incompletos, ou limitações nos algoritmos de aprendizado usados” (BEIGUELMAN, 2023, p. 3), caracteriza o que vem sendo denominado pelos cientistas da computação, como “alucinação”.

Na minha interação com o ChatGPT para explorar o seu potencial, pude evidenciar muitos “erros”, por exemplo, a IAG criava textos e referências, que não existiam. Fatos como esse, evidenciam a fragilidade e credibilidade dos textos apresentados, exigindo que o usuário, conheça o tema, a fim de verificar a coerência das informações apresentadas. Um pesquisador ou estudante inexperiente pode se apropriar indevidamente dessas informações, gerando não apenas um problema de plágio, mas equívocos teóricos e metodológicos que podem comprometer a produção de conhecimento.

Mas o que fazer diante deste contexto? Simplesmente adotar uma postura maniqueísta de bem ou mal em relação ao avanço tecnológico e o potencial destes artefatos? Ou tentar compreender esse fenômeno dentro de um contexto, no qual o processo de avanço tecnológico da história, da própria inteligência artificial, não tem retorno.

Assim, depois oito meses de muita polêmica, que vem diminuindo nos distintos cenários, nosso desafio ao interagir com a IAG, é atuar como curadores, atentos, críticos, éticos, dialogando com o texto produzido, não como uma fonte única, mas como uma trilha para apontar busca sistematizadas, com credibilidade e em publicações qualificadas.

A discussão em torno da temática aqui apresentada, insere-se em um contexto maior que é da plataformização e dataficação da sociedade, portanto, é fundamental compreender a IAG, dentro das questões apontas acima, mas também as relacionadas com a privacidade e segurança dos dados, com o racismo algorítmico, com os bias ideológicos que estão presentes nas informações apontadas como verdades.

* Bolsista de Produtividade Desenvolvimento Tecnológico e Extensão Inovadora do CNPq – Nível 1D, doutora em Educação pela Universidade Federal da Bahia (UFBA). O Pós-Doutorado foi na área de Jogos eletrônicos e aprendizagem pela Universidade de Turim, na Itália. É docente e pesquisadora do Instituto de Humanidades, Artes e Ciência (IHAC), da Universidade Federal da Bahia (UFBA), professora permanente do Programa de Pós-graduação em Ensino, Filosofia e História da Ciência (PPGEFHC) da UFBA e coordenadora da Rede de Pesquisa Comunidades Virtuais – UFBA.

Referências:

BEIGUELMAN, Giselle (2023). Máquinas companheiras. Morel: São Paulo, núm. 7, pág. 76-86, 2023. Disponible en URL: https://repositorio.usp.br/item/003128325

MCADOO, Timoteo (7 de abril de 2023). How to cite ChatGPT. Disponible en URL: https://apastyle.apa.org/blog/how-to-cite-chatgpt

Compartir este contenido
Facebook
Twitter
LinkedIn
WhatsApp
Email