Scientia et Technica Año XXVIII, Vol. 28, No. 03, julio-septiembre de 2023. Universidad Tecnológica de Pereira. ISSN 0122-1701 y ISSN-e: 2344-7214
105
DOI: https://doi.org/10.22517/23447214.25467
Editorial
Dilemas éticos en la utilización de Inteligencia
Artificial para la redacción de artículos científicos
El uso de inteligencia artificial (IA) en la escritura de artículos
científicos ha abierto nuevas posibilidades y oportunidades para
los investigadores que requiere publicar sus resultados de
manera oportuna. Los sistemas basados en IA pueden ayudar a
mejorar la eficiencia y productividad, permitiendo generar
contenido de calidad a un ritmo más rápido [1]. Por otro lado,
algunos argumentan que el uso de IA en la escritura de artículos
científicos puede resultar en un deterioro de las habilidades de
escritura de los investigadores. Si se depende en gran medida de
la IA para generar contenido, existe el riesgo que los
investigadores pierdan habilidades relacionadas con la
elaboración significativa y sustancial de sus objetos de estudio
[2]. Esto podría obstaculizar la creatividad y las habilidades de
pensamiento crítico necesarias para realizar investigaciones
rigurosas. Las implicaciones éticas que rodean el uso de la
inteligencia artificial en la redacción de artículos científicos son
de suma importancia y deben considerarse cuidadosamente.
Esta editorial resalta algunas consideraciones éticas básicas que
rodean el uso de la inteligencia artificial en la redacción de
artículos científicos y la responsabilidad que tienen los autores
en su adecuado uso. Para lograrlo, se resaltarán algunos aspectos
a mencionar:
La transparencia es un principio fundamental cuando se utiliza
la IA para generar textos o imágenes científicas. Los
investigadores, autores del artículo, deben notificar a los lectores
si el contenido ha sido apoyado por herramientas de inteligencia
artificial sin comprometer esto la autoría del trabajo cuya
responsabilidad sólo recae sobre las personas o entes jurídicos
que firman en el envío [3,4]. En ningún caso, a juicio del comité
editorial de la revista Scientia et Technica, considera que
herramientas de inteligencia generadoras de texto como
CHATGPT, BARD o BING son coautores [5]. La notificación
Scientia et Technica Año XXVIII, Vol. 28, No. 03, julio-septiembre de 2023. Universidad Tecnológica de Pereira. ISSN 0122-1701 y ISSN-e: 2344-7214
106
del uso garantiza que los lectores puedan discernir ampliamente cómo se compuso algunos apartes del contenido
de la investigación y de esta forma puedan evaluar su fiabilidad y credibilidad.
El sesgo es otro desafío crítico que surge cuando se utilizan algoritmos de IA para escribir artículos científicos
[6,7]. Como ya se consideró en anteriores editoriales de esta misma revista, es claro saber que algunos generadores
de texto como CHATGPT introducen sesgos debido a la fuente de aprendizaje y consulta utilizados en su
entrenamiento, por lo que los autores deben buscar e implementar las medidas necesarias para mitigarlos [5,8].
Por lo tanto, la revisión y la corrección humana desempeñan aún un papel inevitable e irremplazable a la hora de
identificar y corregir los posibles sesgos, garantizando la objetividad y la imparcialidad en la presentación de la
información científica.
El plagio es un asunto importante en la redacción académica, y su complejidad aumenta con el uso de la IA. Los
autores deben verificar y corregir cualquier plagio detectado en los textos generados por la IA, de allí que es
necesario usar siempre herramientas robustas que reconozcan coincidencias con otras fuentes. El hecho de no
identificar plagio no elimina la responsabilidad de realizar la citación respectiva de la fuente. La originalidad y la
atribución adecuada son pilares esenciales para mantener la integridad y respetar la propiedad intelectual en la
investigación científica.
La veracidad es fundamental para el avance del conocimiento. Por lo tanto, es necesario evaluar y verificar la
precisión y confiabilidad de la información generada por la IA al escribir textos científicos. Esto implica basar el
contenido en fuentes confiables y garantizar que las afirmaciones estén respaldadas por pruebas adecuadas. En
muchos casos, como las AI usan modelos estadísticos de probabilidad, pueden “alucinar” al relacionar texto con
debida coherencia y cohesión o generar referencias inexistentes, sin ser hechos realmente factuales.
El uso de la IA en la redacción de artículos científicos puede implicar datos personales y sensibles, lo que puede
afectar la confidencialidad y la protección de los datos. Más allá de hecho ya conocido que implica el obtener y
el utilizar datos logrados de forma ética y legal, se deben implementar medidas de seguridad y privacidad para
protegerlos durante la generación de los textos por la IA. Si se entregan datos sensibles para la generación de un
informe, la IA no discrimina los datos que corresponden a la privacidad. Adicionalmente, es muy probable que
la inteligencia artificial guarde parte de la información para mejorar su entrenamiento. Este es otro tema sensible
en el cual las compañías que proporcionan las herramientas de inteligencia no son completamente claras.
La revista Scientia et Technica considera adecuado el uso responsable y ético de las herramientas de inteligencia
artificial generadoras de texto e imágenes para acelerar la publicación de trabajos resultados de investigación. No
obstante, en todos los casos considera obligatorio que la herramienta sea un asistente manteniendo siempre el
“pilotaje” bajo la supervisión y la responsabilidad de los autores humanos.
Apartes de esta editorial fueron asistidos mediante el uso de herramientas de inteligencia artificial para la
sugerencia del título inicial, la organización de las ideas y algunas tareas de la revisión bibliográfica. El autor de
esta editorial no recomienda el uso de ninguna IA especifica, pero reconoce la mayor robustez de algunas para
tareas puntuales, por lo que se considera necesario recurrir a la evaluación objetiva posterior de varios modelos
antes hacerlo.
Referencias:
[1]
J. Homolak. "Opportunities and risks of ChatGPT in medicine, science, and academic publishing: a modern Promethean
d
ile
mma
"
.
F
e
b
.
202
3.
DO
I
:
10
.
3325
/
c
mj.2023.64.1
[2]
A. Corsello and A. Santangelo. "May Artificial Intelligence Influence Future Pediatric Research?—the Case of ChatGPT".
Apr. 2023. DOI: 10.3390/children10040757
Scientia et Technica Año XXVIII, Vol. 28, No. 03, julio-septiembre de 2023. Universidad Tecnológica de Pereira. ISSN 0122-1701 y ISSN-e: 2344-7214
107
[3]
C. Stokel-Walker, “CHATGPT listed as author on research papers: Many scientists disapprove,” Nature News, 18-
Jan-2023
.
[
Onlin
e
]
.
Availa
b
le
:
h
tt
p
s
:/
/
www
.
n
a
tur
e
.com/
a
r
ticl
es
/
d
41586-023-00107-
z
.
[
Accesse
d
:
13-
Mar
-2023
]
.
[4]
M. Salvagno, F. S. Taccone, and A. G. Gerli, “Can artificial intelligence help for scientific writing? -critical care,” BioMed
C
e
n
tra
l,
08-
Mar
-2023
.
[
Onlin
e
]
.
Availa
b
le
:
h
tt
p
s
:/
/
cc
foru
m.b
i
o
me
d
ce
n
tra
l.com/
a
r
ticl
es
/
10.1186
/
s13054-023-04380-
2#:~:text=During%20the%20writing%20process%2C%20ChatGPT,and%20describe%20data%20analysis%20techniques.
[Accessed: 13-Mar-2023].
[5]
J. A. . Cortes-Osorio, «Explorando el potencial de ChatGPT en la escritura científica: ventajas, desafíos y precauciones», Sci.
tech, vol. 28, n.º 01, pp. 3–5, mar. 2023. DOI: 10.22517/23447214.25303
[6]
D. R. Yoder-Himes et al.. "Racial, skin tone, and sex disparities in automated proctoring software". Sep. 2022. DOI:
10.3389/feduc.2022.881449
[7]
L. D. Angelis et al.. "ChatGPT and the rise of large language models: the new AI-driven infodemic threat in public health".
Frontiers in Public Health. vol. 11. Apr. 2023. DOI: 10.3389/fpubh.2023.1166120.
[8]
J. A. . Cortes Osorio, «ChatGPT y el Sesgo en las Citas Científicas», Sci. tech, vol. 28, n.º 02, pp. 55–57, jun. 2023. DOI:
h
tt
p
s
:/
/
d
o
i.
o
r
g/
10.2251
7/
2344721
4.25393
Autores
PhD. Jimmy Alexander Cortes Osorio
Docente Titular Departamento de Física
Editor jefe -Revista Scientia et Technica
Grupo Investigación Robótica Aplicada Línea:
Computer Vision and Machine Learning
Investigador Senior reconocido por
MINCIENCIA
Universidad Tecnológica de Pereira
ORCID: https://orcid.org/0000-0002-0413-807X