Scientia et Technica Año XXVIII, Vol. 28, No. 03, julio-septiembre de 2023. Universidad Tecnológica de Pereira. ISSN 0122-1701 y ISSN-e: 2344-7214
del uso garantiza que los lectores puedan discernir ampliamente cómo se compuso algunos apartes del contenido
de la investigación y de esta forma puedan evaluar su fiabilidad y credibilidad.
El sesgo es otro desafío crítico que surge cuando se utilizan algoritmos de IA para escribir artículos científicos
[6,7]. Como ya se consideró en anteriores editoriales de esta misma revista, es claro saber que algunos generadores
de texto como CHATGPT introducen sesgos debido a la fuente de aprendizaje y consulta utilizados en su
entrenamiento, por lo que los autores deben buscar e implementar las medidas necesarias para mitigarlos [5,8].
Por lo tanto, la revisión y la corrección humana desempeñan aún un papel inevitable e irremplazable a la hora de
identificar y corregir los posibles sesgos, garantizando la objetividad y la imparcialidad en la presentación de la
información científica.
El plagio es un asunto importante en la redacción académica, y su complejidad aumenta con el uso de la IA. Los
autores deben verificar y corregir cualquier plagio detectado en los textos generados por la IA, de allí que es
necesario usar siempre herramientas robustas que reconozcan coincidencias con otras fuentes. El hecho de no
identificar plagio no elimina la responsabilidad de realizar la citación respectiva de la fuente. La originalidad y la
atribución adecuada son pilares esenciales para mantener la integridad y respetar la propiedad intelectual en la
investigación científica.
La veracidad es fundamental para el avance del conocimiento. Por lo tanto, es necesario evaluar y verificar la
precisión y confiabilidad de la información generada por la IA al escribir textos científicos. Esto implica basar el
contenido en fuentes confiables y garantizar que las afirmaciones estén respaldadas por pruebas adecuadas. En
muchos casos, como las AI usan modelos estadísticos de probabilidad, pueden “alucinar” al relacionar texto con
debida coherencia y cohesión o generar referencias inexistentes, sin ser hechos realmente factuales.
El uso de la IA en la redacción de artículos científicos puede implicar datos personales y sensibles, lo que puede
afectar la confidencialidad y la protección de los datos. Más allá de hecho ya conocido que implica el obtener y
el utilizar datos logrados de forma ética y legal, se deben implementar medidas de seguridad y privacidad para
protegerlos durante la generación de los textos por la IA. Si se entregan datos sensibles para la generación de un
informe, la IA no discrimina los datos que corresponden a la privacidad. Adicionalmente, es muy probable que
la inteligencia artificial guarde parte de la información para mejorar su entrenamiento. Este es otro tema sensible
en el cual las compañías que proporcionan las herramientas de inteligencia no son completamente claras.
La revista Scientia et Technica considera adecuado el uso responsable y ético de las herramientas de inteligencia
artificial generadoras de texto e imágenes para acelerar la publicación de trabajos resultados de investigación. No
obstante, en todos los casos considera obligatorio que la herramienta sea un asistente manteniendo siempre el
“pilotaje” bajo la supervisión y la responsabilidad de los autores humanos.
Apartes de esta editorial fueron asistidos mediante el uso de herramientas de inteligencia artificial para la
sugerencia del título inicial, la organización de las ideas y algunas tareas de la revisión bibliográfica. El autor de
esta editorial no recomienda el uso de ninguna IA especifica, pero reconoce la mayor robustez de algunas para
tareas puntuales, por lo que se considera necesario recurrir a la evaluación objetiva posterior de varios modelos
antes hacerlo.
Referencias:
[1]
J. Homolak. "Opportunities and risks of ChatGPT in medicine, science, and academic publishing: a modern Promethean
d
ile
mma
"
.
F
e
b
.
202
3.
DO
I
:
10
.
3325
/
c
mj.2023.64.1
[2]
A. Corsello and A. Santangelo. "May Artificial Intelligence Influence Future Pediatric Research?—the Case of ChatGPT".
Apr. 2023. DOI: 10.3390/children10040757