Inteligencia artificial y sus posibles usos en la escritura académica

Lynn Alves*

Las discusiones en torno a la Inteligencia Artificial Generativas – IAG han ido creciendo, principalmente desde el lanzamiento de ChatGPT 3.0 por parte de OpenAI, en noviembre de 2022, con la liberación del acceso gratuito a esta tecnología.

Las áreas de educación, salud, administración, computación se posicionaron de diferentes maneras ante el potencial de este artefacto sociotécnico que produce textos considerando la información ingresada en su base de datos hasta septiembre de 2021. Además de los IAG’s que producen textos, también empezamos a tener información e interacción como Dall-E, Mjourney, Blue Yellow, entre otros, que producen imágenes.

Este prometedor escenario provocó discusiones y cuestionamientos sobre propiedad intelectual y autoría, considerando que tanto IAG, que produce textos como crea imágenes, se apropian de datos existentes creados por humanos.

Otro punto de debate se refiere a cuestiones relacionadas con la privacidad y la seguridad de datos, que en el caso concreto de ChatGPT 4.0 tuvo registro de fuga de información y prohibición en Italia, por ejemplo.

Todas las cuestiones destacadas anteriormente son relevantes y necesitan ser discutidas y profundizadas, pero en este artículo resaltaremos las tensiones que involucran la producción de escritura académica, mediada por los IAG’s. Las escuelas de Nueva York, a principios de 2023, por ejemplo, prohibieron el uso de ChatGPT, preocupadas por el uso de esta IA por parte de los estudiantes para realizar pruebas y trabajos escolares; la preocupación por el plagio fue otro punto que tensó la interacción con este artefacto tecnológico en diferentes espacios de producción y difusión del conocimiento.

La producción de varios libros en un corto período de tiempo, hablando sobre ChatGPT y/u otros temas, así como la producción de artículos científicos, señalando a esta tecnología como coautora, también generó gran malestar para las editoriales que publican los resultados de las investigaciones; cómo Springer Nature, que prohibió la indicación de ChatGPT como coautor.

Para esta editorial, responsable de más de 2.900 revistas científicas, las preocupaciones éticas y de autoría son fundamentales para garantizar la calidad y la credibilidad de la producción científica. Por lo tanto, dichos trabajos no deben contar con la mediación de la inteligencia artificial, ya sea para estructurar el texto y/o como fuente de investigación.

La Asociación Americana de Psicología (APA), incluso reveló cómo mencionar la inclusión de ChatGPT en publicaciones durante el crecimiento del debate. Es necesario poner en perspectiva la credibilidad de los datos generados por IAG, considerando que dichas tecnologías, cuando no encuentran información en la base de datos en la que fueron entrenadas, “alucinan” (McAdoo, 2023).

Para Beiguelman “cuando el sistema da una respuesta que no se corresponde con la realidad y puede ser causada por diferentes factores, como errores en la programación del modelo, datos de entrenamiento incorrectos o incompletos, o limitaciones en los algoritmos de aprendizaje utilizados” (BEIGUELMAN, 2023, p. 3), caracteriza lo que los científicos de la computación han denominado “alucinación”.

En mi interacción con ChatGPT para explorar su potencial, pude resaltar muchos “errores”, por ejemplo, la IAG creó textos y referencias que no existían. Hechos como este resaltan la fragilidad y credibilidad de los textos presentados, exigiendo que el usuario conozca el tema para verificar la coherencia de la información presentada. Un investigador o estudiante inexperto puede apropiarse inadecuadamente de esta información, generando no sólo un problema de plagio, sino errores teóricos y metodológicos que pueden comprometer la producción de conocimiento.

Pero ¿qué hacer en este contexto? ¿Simplemente adoptar una postura maniquea del bien o del mal en relación con el avance tecnológico y el potencial de estos artefactos? O intentar entender este fenómeno en un contexto en el que el proceso de avance tecnológico de la historia, de la propia inteligencia artificial, no tiene retorno.

Así, después de ocho meses de mucha controversia, que ha ido disminuyendo en distintos escenarios, nuestro desafío al interactuar con la IAG, es actuar como curadores, atentos, críticos, éticos, dialogando con el texto producido, no como una única fuente, sino como un sendero para señalar búsquedas sistemáticas, con credibilidad y en publicaciones calificadas.

La discusión en torno al tema aquí presentado se inscribe en un contexto más amplio de plataformatización y datificación de la sociedad, por lo tanto, es fundamental comprender la IAG, dentro de las cuestiones destacadas anteriormente, pero también aquellas relacionadas con la privacidad y la seguridad de los datos, con el racismo algorítmico, identificando como verdad los sesgos ideológicos que están presentes en la información.

*  Beca de Productividad, Desarrollo Tecnológico y Extensión Innovadora del CNPq – Nivel 1D, Doctorado en Educación por la Universidad Federal de Bahía (UFBA). El Postdoctorado fue en el área de Juegos y aprendizaje electrónicos en la Universidad de Turín, en Italia. Es profesora e investigadora del Instituto de Humanidades, Artes y Ciencias (IHAC) de la Universidad Federal de Bahía (UFBA), profesora permanente del Programa de Postgrado en Enseñanza, Filosofía e Historia de las Ciencias (PPGEFHC) de la UFBA y coordinadora de la Red de Investigación en Comunidades Virtuales – UFBA.

Referencias:

BEIGUELMAN, Giselle (2023). Máquinas complementarias. Morel: São Paulo, núm. 7, pág. 76-86, 2023. Disponible en URL: https://repositorio.usp.br/item/003128325

MCADOO, Timoteo (7 de abril de 2023). How to cite ChatGPT. Disponible en URL: https://apastyle.apa.org/blog/how-to-cite-chatgpt 

Compartir este contenido
Facebook
Twitter
LinkedIn
WhatsApp
Email