Prisma ODS Revista Científica Multidisciplinar
Volumen 5, mero 2 - o 2026
Página | 1
PORTADA
(Elaborada por la revista)
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, mero 2 - o 2026
Página | 462
Evaluación del Uso de Inteligencia Artificial Generativa en
Estudiantes de Educación Media Superior: Diseño y Validación
de un Instrumento
Evaluation of the Use of Generative Artificial Intelligence in Upper Secondary
Students: Design and Validation of an Instrument
Isidro Amaro Rodríguez
iamaro@itdurango.edu.mx
https://orcid.org/0000-0001-7502-2894
Universidad Juárez del Estado de Durango/ECyTE
Durango México
Selene Soria Pérez
selene.soria@ujed.mx
https://orcid.org/0009-0007-8213-1133
Universidad Juárez del Estado de Durango/ECyTE
Durango México
Aurora Gurrola Rodríguez
aurora.gurrola@ujed.mx
https://orcid.org/0009-0003-7985-3814
Universidad Juárez del Estado de Durango/ECyTE
Durango México
Luis Alejandro Torres Monreal
luisalejandro.torres@ujed.mx
https://orcid.org/0009-0004-2137-3057
Universidad Juárez del Estado de Durango/ECyTE
Durango México
Artículo recibido: 04/04/2026
Aceptado para publicación: 08/05/2026
Conflictos de Intereses: Ninguno que declarar
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 463
RESUMEN
El presente estudio tuvo como objetivo diseñar y validar un instrumento para evaluar el
uso, la percepción y el impacto de la inteligencia artificial generativa en estudiantes de
educación media superior, ante la falta de herramientas integrales en este nivel educativo. La
investigación se realizó con una muestra censal de 357 estudiantes de bachillerato, con edades
entre 14 y 19 años, pertenecientes a una institución de la Universidad Juárez del Estado de
Durango. El proceso metodológico incluyó validación de contenido mediante el coeficiente V
de Aiken, prueba piloto, análisis factorial exploratorio y confirmatorio, así como evaluación de
la confiabilidad a través del alfa de Cronbach. Los resultados evidenciaron una estructura final
de seis dimensiones y 26 ítems, con adecuados índices de ajuste (CFI = 0.91; TLI = 0.90;
RMSEA = 0.055) y niveles de consistencia interna de aceptables a buenos (α = 0.69–0.82). Se
concluye que el instrumento presenta validez y confiabilidad adecuadas, constituyéndose como
una herramienta pertinente para el diagnóstico educativo, la toma de decisiones institucionales
y futuras investigaciones sobre inteligencia artificial generativa en educación media superior.
Palabras clave: inteligencia artificial generativa, educación media superior, validación
de instrumento, competencias digitales, tecnología educativa
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 464
ABSTRACT
The aim of this study was to design and validate an instrument to assess the use,
perception, and impact of generative artificial intelligence among upper secondary education
students, addressing the lack of comprehensive tools at this educational level. The study was
conducted with a census sample of 357 high school students, aged 14 to 19, from an institution
of the Juárez University of the State of Durango. The methodological process included content
validation using Aiken’s V coefficient, a pilot test, exploratory and confirmatory factor
analyses, and reliability assessment through Cronbach’s alpha. The results revealed a final
structure consisting of six dimensions and 26 items, with adequate fit indices (CFI = 0.91; TLI
= 0.90; RMSEA = 0.055) and acceptable to good levels of internal consistency (α = 0.690.82).
It is concluded that the instrument demonstrates adequate validity and reliability, constituting
a relevant tool for educational diagnosis, institutional decision-making, and future research on
generative artificial intelligence in upper secondary education.
Keywords: generative artificial intelligence, upper secondary education, instrument
validation, digital competencies, educational technology
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 465
INTRODUCCIÓN
La inteligencia artificial generativa (IAGen) se ha consolidado como una de las innovaciones
tecnológicas más disruptivas en el ámbito educativo contemporáneo, particularmente a partir
de la expansión de modelos de lenguaje de gran escala como ChatGPT. Estas herramientas han
transformado significativamente los procesos de enseñanza y aprendizaje, al facilitar nuevas
formas de acceso al conocimiento, generación de contenido académico y apoyo en la resolución
de problemas complejos.
Diversos estudios han documentado el potencial de la inteligencia artificial para favorecer el
aprendizaje personalizado, la autonomía del estudiante y la mejora del rendimiento académico
(Kasneci et al., 2023; Dwivedi et al., 2023). Asimismo, se ha destacado su capacidad para
proporcionar retroalimentación inmediata y apoyar procesos de autorregulación del
aprendizaje en entornos digitales (Rudolph et al., 2023). En este sentido, la IAGen se posiciona
como una herramienta con alto potencial pedagógico dentro de los ecosistemas educativos
digitales.
En términos conceptuales, la inteligencia artificial generativa puede definirse como un
conjunto de sistemas basados en modelos de aprendizaje profundo capaces de producir
contenido original como texto, imágenes o código a partir de grandes volúmenes de datos
(Bommasani et al., 2021). En el ámbito educativo, estas herramientas han comenzado a
utilizarse como apoyo en la resolución de problemas, la redacción académica y el aprendizaje
autónomo, ampliando las posibilidades de interacción y construcción del conocimiento
(Zawacki-Richter et al., 2019; Dwivedi et al., 2023; Chen et al., 2020).
No obstante, su incorporación también plantea desafíos relevantes. Investigaciones recientes
advierten sobre riesgos asociados como la dependencia tecnológica, la disminución del
pensamiento crítico, el plagio académico y la generación de información inexacta o sesgada
(Bender et al., 2021; Cotton et al., 2023; Selwyn, 2022). Estos riesgos subrayan la necesidad
de integrar la inteligencia artificial en educación bajo enfoques éticos, críticos y
pedagógicamente fundamentados (UNESCO, 2023).
El aprovechamiento efectivo de la IAGen no depende únicamente del acceso a la tecnología,
sino también del desarrollo de competencias digitales y de alfabetización en inteligencia
artificial. Estas competencias incluyen la capacidad de evaluar críticamente la información
generada, comprender las limitaciones de los sistemas y utilizar estas herramientas de manera
responsable (Long & Magerko, 2020; Redecker, 2017; Holmes et al., 2019). En consecuencia,
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 466
el uso de la inteligencia artificial en educación debe analizarse desde una perspectiva integral
que considere tanto sus beneficios como sus riesgos y condiciones de implementación.
Desde una perspectiva metodológica, el estudio de fenómenos educativos emergentes como la
inteligencia artificial generativa requiere el desarrollo de instrumentos de medición válidos y
confiables que permitan su análisis empírico. La validación de instrumentos en investigación
educativa implica la evaluación de la validez de contenido, la estructura factorial y la
consistencia interna, comúnmente mediante técnicas como el análisis factorial exploratorio y
confirmatorio (Hair et al., 2019; Kline, 2016). En este sentido, el uso combinado de AFE y
AFC permite identificar y confirmar la estructura de los constructos, garantizando la solidez
psicométrica de las escalas desarrolladas.
A pesar del creciente interés en este campo, la evidencia empírica en educación media superior
sigue siendo limitada, particularmente en el contexto iberoamericano. La mayoría de los
estudios se han centrado en educación superior, dejando un vacío en niveles educativos previos
donde el impacto formativo puede ser significativo. Asimismo, se observa una carencia de
instrumentos psicométricamente validados que evalúen de manera integral el uso, la percepción
y el impacto de la inteligencia artificial generativa en estudiantes de este nivel educativo.
En este contexto, el presente estudio tiene como objetivo diseñar y validar un instrumento para
medir el uso, la percepción y el impacto de la inteligencia artificial generativa en estudiantes
de educación media superior, contribuyendo al desarrollo de herramientas de evaluación que
permitan comprender este fenómeno de manera más precisa, sistemática y fundamentada.
METODOLOGÍA
Diseño de la investigación
El estudio se desarrolló bajo un enfoque cuantitativo, con un diseño no experimental, de corte
transversal y de tipo instrumental, orientado a la construcción y validación psicométrica de un
cuestionario. Este tipo de diseño resulta pertinente cuando el objetivo es desarrollar y evaluar
instrumentos de medición en contextos educativos, permitiendo analizar sus propiedades de
validez y confiabilidad sin manipular variables.
Participantes
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 467
La muestra estuvo conformada por 357 estudiantes de educación media superior pertenecientes
a una institución de bachillerato de la Universidad Juárez del Estado de Durango. Se utilizó un
muestreo no probabilístico de tipo censal, considerando la totalidad de la matrícula disponible
al momento de la recolección de datos.
La distribución por sexo fue de 124 hombres (34.7%) y 233 mujeres (65.3%). En cuanto al
semestre académico, participaron 141 estudiantes de segundo semestre (39.5%), 100 de cuarto
semestre (28.0%) y 116 de sexto semestre (32.5%).
Respecto a la edad, las frecuencias fueron: 14 años (0.3%), 15 años (27.5%), 16 años (28.0%),
17 años (31.4%), 18 años (12.0%) y 19 años (0.8%).
El tamaño de la muestra se considera adecuado para análisis factorial, al superar las
recomendaciones de entre 5 y 10 participantes por ítem (Hair et al., 2019).
Instrumento
El instrumento fue diseñado ad hoc para evaluar el uso, la percepción y el impacto de la
inteligencia artificial generativa en estudiantes de educación media superior. La versión inicial
estuvo compuesta por 42 ítems distribuidos en siete dimensiones teóricas, construidas a partir
de la revisión de literatura.
Se utilizó una escala tipo Likert de 5 puntos (1 = totalmente en desacuerdo a 5 = totalmente de
acuerdo). Tras el proceso de validación, se obtuvo una versión final de 26 ítems organizados
en seis dimensiones.
Procedimiento
El proceso de construcción y validación del instrumento se desarrolló en las siguientes etapas:
1. Diseño del instrumento: basado en la revisión de la literatura sobre inteligencia artificial
en educación y competencias digitales.
2. Validación de contenido: realizada mediante juicio de expertos, empleando el
coeficiente V de Aiken para evaluar la relevancia, claridad y pertinencia de los ítems.
3. Prueba piloto: aplicada a un grupo reducido de estudiantes, con el fin de evaluar la
comprensión de los ítems y la consistencia preliminar del instrumento.
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 468
4. Análisis factorial exploratorio (AFE): utilizado para identificar la estructura subyacente
del instrumento.
5. Análisis factorial confirmatorio (AFC): realizado para verificar la estructura factorial
obtenida.
6. Evaluación de la confiabilidad: llevada a cabo mediante el coeficiente alfa de Cronbach.
Análisis de datos
El análisis de datos se realizó en dos fases.
En primer lugar, se llevó a cabo un análisis factorial exploratorio (AFE) utilizando el método
de extracción de componentes principales con rotación varimax, con el objetivo de identificar
la estructura dimensional del instrumento.
La adecuación de los datos para el análisis factorial se evaluó mediante el índice Kaiser-Meyer-
Olkin (KMO) y la prueba de esfericidad de Bartlett. Se consideraron valores de KMO
superiores a 0.80 como indicativos de adecuación muestral, y un valor significativo (p < 0.05)
en la prueba de Bartlett como evidencia de correlación entre los ítems.
Para la retención de factores se consideraron los siguientes criterios:
Valores propios (eigenvalues) mayores a 1
Análisis del gráfico de sedimentación (scree plot)
Coherencia teórica
La depuración de ítems se basó en:
Cargas factoriales inferiores a 0.40
Presencia de cargas cruzadas
Consistencia conceptual
En una segunda fase, se realizó un análisis factorial confirmatorio (AFC) mediante el estimador
DWLS (Diagonally Weighted Least Squares), recomendado para datos ordinales provenientes
de escalas tipo Likert (Kline, 2016).
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 469
La evaluación del modelo se realizó mediante los siguientes índices de ajuste:
Comparative Fit Index (CFI ≥ 0.90)
Tucker-Lewis Index (TLI ≥ 0.90)
Root Mean Square Error of Approximation (RMSEA ≤ 0.06)
El análisis estadístico se llevó a cabo utilizando el lenguaje de programación Python, con apoyo
de las bibliotecas pandas y numpy para la manipulación de datos, y semopy para el análisis
factorial y el modelado de ecuaciones estructurales.
Consideraciones éticas
La participación en el estudio fue voluntaria y anónima. Se garantizó la confidencialidad de la
información recopilada, así como su uso exclusivo con fines académicos y de investigación.
Asimismo, se obtuvo el consentimiento informado de los participantes, en concordancia con
los principios éticos que rigen la investigación educativa.
RESULTADOS
Validez de constructo
El análisis factorial exploratorio evidenc una estructura de seis factores, con cargas
factoriales superiores a 0.50, lo que indica una adecuada asociación entre los ítems y sus
dimensiones teóricas.
Posteriormente, el análisis factorial confirmatorio permitió corroborar la estructura del
instrumento, mostrando índices de ajuste adecuados.
Tabla 1. Índices de ajuste del modelo de análisis factorial confirmatorio (AFC)
ÍNDICE
VALOR
CRITERIO
INTERPRETACIÓN
CFI
0.91
≥ 0.90
Buen ajuste
TLI
0.90
≥ 0.90
Aceptable
RMSEA
0.055
≤ 0.06
Muy buen ajuste
Fuente: Elaboración propia.
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 470
Figura 1. Modelo factorial confirmatorio del instrumento de 26 ítems
Fuente: Elaboración propia.
Nota: Todos los pesos estandarizados son significativos (p< 0.001)
Confiabilidad
La consistencia interna del instrumento fue evaluada mediante el coeficiente alfa de Cronbach.
Los resultados mostraron valores entre 0.69 y 0.816, indicando niveles de confiabilidad de
aceptables a buenos.
Tabla 2. Confiabilidad por dimensión
DIMENSIÓN
ALFA DE CRONBACH
UIA
0.797
IMP
0.809
RIE
0.796
DIN
0.690
POL
0.816
FOR
0.801
Fuente: Elaboración propia.
Estructura del instrumento final
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 471
Como resultado del proceso de validación, se obtuvo una versión final compuesta por 26 ítems
distribuidos en seis dimensiones. La reducción de ítems permitió mejorar la parsimonia del
instrumento sin afectar sus propiedades psicométricas.
Tabla 3. Cargas factoriales del instrumento final
ÍTEM
CARGA FACTORIAL
UIA1
0.637
UIA2
0.614
UIA3
0.643
UIA5
0.692
UIA6
0.606
IMP2
0.642
IMP3
0.714
IMP4
0.630
IMP5
0.648
RIE1
0.638
RIE2
0.885
RIE4
0.757
RIE6
0.494
DIN4
0.592
DIN5
0.624
DIN6
0.667
POL1
0.712
POL2
0.657
POL4
0.611
POL5
0.669
POL6
0.626
FOR1
0.569
FOR2
0.548
FOR4
0.660
FOR5
0.582
FOR6
0.680
Fuente: Elaboración propia.
Nota: Se reportan cargas factoriales estandarizadas. Todas las cargas fueron significativas (p
< .001). Se consideraron adecuadas aquellas superiores a 0.40.
DISCUSIÓN
Los resultados del presente estudio confirman la validez y confiabilidad del instrumento
diseñado para evaluar el uso, la percepción y el impacto de la inteligencia artificial generativa
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 472
en estudiantes de educación media superior. Los índices de ajuste obtenidos en el análisis
factorial confirmatorio (CFI = 0.91; TLI = 0.90; RMSEA = 0.055) evidencian una adecuada
correspondencia entre el modelo teórico propuesto y los datos empíricos, lo cual es consistente
con los criterios establecidos en la literatura psicométrica (Kline, 2016; Hair et al., 2019).
En relación con estudios previos, los resultados coinciden con investigaciones que destacan el
papel creciente de la inteligencia artificial generativa como herramienta de apoyo en los
procesos de aprendizaje, particularmente en el desarrollo de habilidades de autorregulación,
resolución de problemas y generación de contenido académico (Kasneci et al., 2023; Dwivedi
et al., 2023). Asimismo, la inclusión de dimensiones relacionadas con riesgos y desafíos se
alinea con trabajos que advierten sobre los efectos potenciales de estas tecnologías en la
integridad académica y el pensamiento crítico (Bender et al., 2021; Cotton et al., 2023; Selwyn,
2022).
Uno de los principales aportes del presente estudio radica en el desarrollo de un instrumento
parsimonioso, compuesto por 26 ítems, que integra de manera simultánea dimensiones clave
del fenómeno, como uso, impacto, riesgos, diagnóstico institucional y formación docente. A
diferencia de otros instrumentos reportados en la literatura, que tienden a enfocarse en variables
aisladas o presentan estructuras extensas, la propuesta desarrollada en este estudio facilita su
aplicación en contextos educativos reales sin comprometer la calidad psicométrica, lo cual
resulta especialmente relevante en el nivel medio superior.
Por otra parte, los resultados evidencian que los estudiantes no solo utilizan la inteligencia
artificial generativa como herramienta de apoyo académico, sino que también muestran una
conciencia crítica respecto a sus riesgos, lo que sugiere una percepción equilibrada del
fenómeno. Este hallazgo coincide con estudios recientes que reportan actitudes ambivalentes
hacia la inteligencia artificial en contextos educativos, caracterizadas por la coexistencia de
beneficios percibidos y preocupaciones éticas (Rudolph et al., 2023).
Desde una perspectiva institucional, los hallazgos subrayan la necesidad de desarrollar políticas
educativas claras y estrategias de formación docente orientadas al uso responsable, ético y
pedagógicamente fundamentado de la inteligencia artificial generativa. En este sentido, los
resultados del estudio respaldan las recomendaciones de organismos internacionales como la
UNESCO (2023), que enfatizan la importancia de regular e integrar estas tecnologías en los
sistemas educativos.
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 473
No obstante, el estudio presenta algunas limitaciones que deben ser consideradas. En primer
lugar, la muestra se restringe a una sola institución educativa, lo que limita la generalización
de los resultados a otros contextos. En segundo lugar, el uso de datos autoinformados puede
introducir sesgos asociados a la percepción de los participantes. Finalmente, el diseño
transversal del estudio impide analizar la evolución del uso de la inteligencia artificial
generativa a lo largo del tiempo.
En este sentido, futuras investigaciones podrían explorar la invariancia factorial del
instrumento en diferentes contextos educativos, así como su aplicación en estudios
longitudinales que permitan analizar cambios en el uso y percepción de la inteligencia artificial
generativa. Asimismo, se sugiere ampliar el instrumento hacia otras poblaciones, como
docentes o estudiantes de diferentes niveles educativos, con el fin de fortalecer su validez
externa.
CONCLUSIÓN
El presente estudio permitió diseñar y validar un instrumento psicométricamente sólido para
evaluar el uso, la percepción y el impacto de la inteligencia artificial generativa en estudiantes
de educación media superior. Los resultados obtenidos respaldan la validez de constructo y la
consistencia interna del instrumento, evidenciando que constituye una herramienta adecuada
para el análisis de este fenómeno en contextos educativos.
Uno de los principales aportes de la investigación radica en la construcción de un instrumento
parsimonioso y multidimensional, capaz de integrar tanto los beneficios como los riesgos
asociados al uso de la inteligencia artificial generativa. Esta característica resulta especialmente
relevante en un contexto educativo donde la adopción de estas tecnologías avanza de manera
acelerada, pero aún carece de mecanismos sistemáticos de evaluación.
Desde una perspectiva práctica, el instrumento desarrollado puede ser utilizado por
instituciones educativas para realizar diagnósticos sobre el uso de la inteligencia artificial,
identificar áreas de oportunidad y diseñar estrategias de intervención orientadas a su
integración pedagógica. Asimismo, puede servir como base para la formulación de políticas
educativas que promuevan un uso ético, crítico y responsable de estas herramientas.
En el ámbito de la investigación, el instrumento abre la posibilidad de desarrollar estudios
comparativos, longitudinales y de validación en distintos contextos educativos, lo que
contribuirá a fortalecer la comprensión del impacto de la inteligencia artificial generativa en
los procesos de enseñanza y aprendizaje.
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 474
No obstante, el estudio presenta limitaciones que deben ser consideradas. La muestra se
restringe a una sola institución educativa, lo que limita la generalización de los resultados.
Asimismo, el uso de medidas de autoinforme puede introducir sesgos en las respuestas de los
participantes.
En futuras investigaciones se recomienda evaluar la invariancia factorial del instrumento, así
como su aplicación en diferentes niveles educativos y contextos socioculturales. De igual
manera, resulta pertinente explorar su relación con variables como el rendimiento académico,
las competencias digitales y el pensamiento crítico.
En conclusión, el instrumento propuesto constituye una herramienta válida y confiable que
contribuye al estudio de la inteligencia artificial generativa en educación media superior,
aportando evidencia empírica relevante para la toma de decisiones educativas y el desarrollo
de investigaciones futuras en este campo emergente.
REFERENCIAS
Aiken, L. R. (1985). Three coefficients for analyzing the reliability and validity of ratings.
Educational and Psychological Measurement, 45(1), 131142.
https://doi.org/10.1177/0013164485451012
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of
stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM
Conference on Fairness, Accountability, and Transparency (pp. 610623). Association
for Computing Machinery. https://doi.org/10.1145/3442188.3445922
Bommasani, R., Hudson, D. A., Adeli, E., et al. (2021). On the opportunities and risks of
foundation models. arXiv preprint. https://doi.org/10.48550/arXiv.2108.07258
Chen, L., Chen, P., & Lin, Z. (2020). Artificial intelligence in education: A review. IEEE
Access, 8, 7526475278. https://doi.org/10.1109/ACCESS.2020.2988510
Cotton, D. R. E., Cotton, P. A., & Shipway, J. R. (2023). Chatting and cheating: Ensuring
academic integrity in the era of ChatGPT. Innovations in Education and Teaching
International. https://doi.org/10.1080/14703297.2023.2190148
Dwivedi, Y. K., Kshetri, N., Hughes, L., Slade, E. L., Jeyaraj, A., Kar, A. K., Baabdullah, A.
M., Koohang, A., Raghavan, V., Ahuja, M., et al. (2023). “So what if ChatGPT wrote
it?” Multidisciplinary perspectives on opportunities, challenges and implications of
generative conversational AI. International Journal of Information Management, 71,
102642. https://doi.org/10.1016/j.ijinfomgt.2023.102642
Prisma ODS Revista Científica Multidisciplinar
Volumen 5, Número 2 - Año 2026
Página | 475
Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2019). Multivariate data analysis
(8th ed.). Cengage.
Holmes, W., Bialik, M., & Fadel, C. (2019). Artificial Intelligence in Education: Promises and
Implications for Teaching and Learning. Center for Curriculum Redesign.
Kasneci, E., Sessler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., ... &
Kasneci, G. (2023). ChatGPT for good? On opportunities and challenges of large
language models for education. Nature Machine Intelligence, 5(4), 375384.
https://doi.org/10.1038/s42256-023-00645-1
Kline, R. B. (2016). Principles and practice of structural equation modeling (4th ed.). The
Guilford Press.
Long, D., & Magerko, B. (2020). What is AI literacy? Competencies and design considerations.
Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems.
https://doi.org/10.1145/3313831.3376727
Redecker, C. (2017). European framework for the digital competence of educators:
DigCompEdu. Publications Office of the European Union.
Rudolph, J., Tan, S., & Tan, S. (2023). ChatGPT: Bullshit spewer or the end of traditional
assessments in higher education? Journal of Applied Learning & Teaching, 6(1).
https://doi.org/10.37074/jalt.2023.6.1.9
Selwyn, N. (2022). The future of AI and education: Some cautionary notes. European Journal
of Education, 57(4), 620631. https://doi.org/10.1111/ejed.12532
UNESCO. (2023). Guidance for generative AI in education and research. UNESCO.
Zawacki-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of
research on artificial intelligence applications in higher education. International
Journal of Educational Technology in Higher Education, 16(1), 127.
https://doi.org/10.1186/s41239-019-0171-0
© Los autores. Este artículo se publica en Prisma ODS bajo la Licencia Creative Commons Atribución 4.0
Internacional (CC BY 4.0). Esto permite el uso, distribución y reproducción en cualquier medio, incluidos fines
comerciales, siempre que se otorgue la atribución adecuada a los autores y a la fuente original.
: https://doi.org/10.65011/prismaods.v5.i2.227
Cómo citar este artículo (APA 7ª edición):
Amaro Rodríguez, I. ., Soria Pérez, S. ., Gurrola Rodríguez, A. ., & Torres Monreal, L. A. .
(2026). Evaluación del Uso de Inteligencia Artificial Generativa en Estudiantes de Educación
Media Superior: Diseño y Validación de un Instrumento. Prisma ODS: Revista
Multidisciplinaria Sobre Desarrollo Sostenible, 5(2), 462-
475. https://doi.org/10.65011/prismaods.v5.i2.227