Traducido del inglés al español - www.onlinedoctranslator.com Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Listas de contenidos disponibles enCiencia directa Computadoras y Educación: Inteligencia Artificial Página de inicio de la revista:www.sciencedirect.com/journal/computers-and-education-artificialintelligence Percepciones divergentes sobre la inteligencia artificial en la educación superior: Comparación de las valoraciones de los estudiantes y del público sobre los riesgos y los daños de la predicción del rendimiento académico en Alemania Marco Lünich∗, Birte Keller, Frank Marcinkowski Departamento de Ciencias Sociales, Universidad Heinrich-Heine de Düsseldorf, Alemania ABSTRACTO La integración de la inteligencia artificial (IA) en la educación superior, en particular a través de la predicción del rendi miento académico (APP), promete mejores resultados educativos. Sin embargo, al mismo tiempo plantea inquietudes sobre la privacidad de los datos, posibles sesgos e implicaciones sociotécnicas más amplias. Nuestro estudio, centrado en Alemania (un actor fundamental en la configuración de las políticas de IA de la Uni ón Europea), busca comprender las percepciones predominantes de la APP entre los estudiantes y el público en general. Los hallazgos iniciales de una gran encuesta estandarizada en línea sugieren una divergencia en las percepciones: si bien los estudiantes, en comparación con la población general, no atribuyen un mayor riesgo a la APP en una evaluación de riesgo general, sí perciben mayores daños sociales y, en particular, individuales de la APP. Los factores que i nfluyen en estas percepciones de daños incluyen la confianza en la IA y las experiencias personales con la discriminación. Los estudiantes enfatizan además la importancia de preservar su autonomía al otorgar un alto valor al intercambio de datos autodeterminado y explicar su APP individual. Reconocer estas perc epciones variadas es crucial para los educadores, los formuladores de políticas y las instituciones de educación superior a medida que navegan por el intrincado panorama ético de la I A en la educación. Esta comprensión puede brindar información para diseñar estrategias que aborden tanto los beneficios potenciales como las preocupaciones asociadas con las herramientas educativas impulsadas por IA. 1. Introducción El reciente aumento del interés y los efectos revolucionarios previstos de las tecnologías de Inteligencia Artificial (IA) en diversas áreas de la vida social hanTambién se han planteado preguntas sobre cómo la IA afectará a la educación superior. Muchas aplicaciones de IA ya están permeando sutilmente la educación superior, trayendo consigo una serie de oportunidades, desafíos y cuestiones éticas. Una aplicación notable de la IA en este contexto es la predicción del rendimiento académico (APP) basada en el aprendizaje automático. APP se refiere al uso de aplicaciones de IA para predecir el rendimiento académico de un estudiante en función de varios factores para los que hay datos digitales disponibles de los estudiantes. El objetivo de la APP es entonces identificar posibles desafíos y oportunidades para el éxito académico de los estudiantes individuales, permitiendo así a los educadores e instituciones personalizar el aprendizaje para mejorar la participación de los estudiantes y los resultados educativos generales. Muchas instituciones de educación superior (IES) ya están aprovechando el potencial de la APP (Ahmed y Khan, 2000).2019;Arnold y Pistilli,2012; Kemper y otros,2020). Sin embargo, la implementación de APP también tiene sus problemas. Existen preocupaciones con respecto a la privacidad de los datos, la transparencia de los algoritmos de IA utilizados y la posibilidad de sesgos discriminatorios e injusticias en las predicciones y el proceso administrativo resultante que conducen a toda una gama de problemas sociales de la tecnología (Keller et al.,2022;Smuha,2022). Como resultado, el riesgo de una dependencia excesiva *Autor correspondiente. El estudio de las predicciones automatizadas imperfectas plantea importantes cuestiones sociales, éticas y prácticas que los responsables de la toma de decisiones políticas y administrativas en la educación superior deben considerar cuidadosamente y que requieren un análisis científico para fundamentar la toma de decisiones. Al igual que con cualquier implementación de tecnología, especialmente dentro del sector público, es crucial comprender y considerar cómo los diferentes grupos de partes interesadas perciben la implementación de la tecnología y los problemas sociales resultantes, centrándose en los actores sociales directamente afectados. En el contexto de la IA en la educación (AIEd), por ejemplo, los estudiantes están sujetos a sistemas sociotécnicos de administración y, en consecuencia, están subordinados al funcionamiento y, especialmente, al mal funcionamiento de los sistemas informáticos basados en datos (Fazelpour y Danks, 2008).2021;Slade y Prinsloo,2013). Sus puntos de vista sobre la implementación de una tecnología en particular pueden brindar perspectivas únicas sobre los beneficios percibidos de la APP y, más importante aún, los daños individuales y sociales. Estos conocimientos pueden ayudar a dar forma al desarrollo de la APP de maneras que satisfagan mejor sus necesidades e inquietudes (Keller et al.,2022; Whitelock–Wainwright y otros,2019). Como argumentamos, no tener en cuenta la opinión pública y las preocupaciones de los estudiantes puede dar lugar a protestas públicas (Edwards,2021) o incluso puede conducir a la salida de estudiantes de la IES (Marcinkowski et al.,2020). Es necesario que los responsables de las políticas y los administradores de la educación superior consideren las demandas y preferencias de los estudiantes. Sin embargo, los estudiantes son sólo uno de los grupos demográficos relevantes. Direcciones de correo electrónico:marco.luenich@hhu.de (M. Lünich),birte.keller@hhu.de (B. Keller),Frank Marcinkowski, Hhu.de (F. Marcinkowski). https://doi.org/10.1016/j.caeai.2024.100305 Recibido el 18 de agosto de 2023; Recibido en forma revisada el 19 de agosto de 2024; Aceptado el 18 de septiembre de 2024 Disponible en línea el 30 de septiembre de 2024 2666-920X/© 2024 El autor(es). Publicado por Elsevier Ltd. Este es un artículo de acceso abierto bajo la licencia CC BY (http://creativecommons.org/licenses/by/4.0/). M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 alemana. Si bien los estudiantes, en comparación con la población general, no atribuyen un mayor riesgo a la APP en una evaluación de riesgo general por un lado, sí perciben mayores daños sociales y, en particular, individuales de la APP en una evaluación más específica por otro lado. La confianza en la IA mitiga las percepciones de daño. Por el contrario, las experiencias personales de discriminación tienden a intensificar las percepciones de daños sufridos individualmente. Por lo tanto, este estudio de encuesta proporciona información detallada sobre las percepciones de los estudiantes alemanes y, en contraste, la población alemana en general hacia la IA, la IAIEd.y APP. Comprender las percepciones divergentes puede ayudar a los educadores, las instituciones de educación superior y los responsables de las políticas a abordar los problemas sociales y los dilemas éticos asociados con la implementación de la IA sociotécnica en la educación superior. cuyas percepciones de la APP deben ser consideradas durante la implementación de la APP. La población en general, como votantes, también puede influir significativamente en las decisiones relacionadas con la política y la implementación de la tecnología. Sus perspectivas sobre la AIEd, que pueden diferir enormemente de las de los estudiantes, pueden tener implicaciones sociales de largo alcance. Las diferencias en la evaluación de la APP y las diferentes preferencias para su uso pueden deberse a la probabilidad de que un individuo se vea afectado negativamente, lo que refleja un efecto de "No en mi patio trasero" (Wu et al.,2014). Una posible divergencia de percepcionesLos conflictos y los intereses entre los estudiantes y el público en general pueden plantear un conflicto social considerable y pueden desafiar la implementación efectiva de la IA en el sector público. Los conflictos correspondientes podrían surgir, por ejemplo, en el debate sobre diferentes preferencias políticas (Bobrytska et al.,2024;Sun y otros,2019) o una asignación adecuada de recursos (Lünich & Kieslich,2022), ya que el desarrollo de la IA y su uso requieren recursos considerables. Los conflictos también pueden surgir debido a desequilibrios de poder (Kalluri,2020;Weinberg,2022), ya que la población en general influye considerablemente en los resultados electorales y las decisiones políticas posteriores, incluso si no se ven directamente afectadas por la decisión. En conclusión, si bien la IA y las aplicaciones móviles prometen mejorar la educación superior, también conllevan importantes impactos sociales potenciales y conflictos resultantes sobre la implementación de la tecnología que deben considerarse y analizarse cuidadosamente. En respuesta al llamado a una mayor investigación sobre la IA centrada en el ser humano y en línea con el enfoque de “sociedad en el circuito” solicitado por Rahwan (2018), llevamos a cabo un estudio exploratorio estandarizado de encuesta a gran escala para evaluar y explicar las percepciones y evaluaciones de APP entre los estudiantes, así como entre la población en general de Alemania. Por lo tanto, cuando nos referimos a la población en general de Alemania en lo sucesivo, nos referimos a la población representativa excluyendo a los estudiantes para comparar empíricamente las percepciones de los estudiantes con las de los no estudiantes en el sentido del resto de la población. El enfoque en Alemania es más que meramente incidental. Como país líder dentro de la Unión Europea (UE), Alemania desempeña un papel fundamental en la configuración de las políticas de la UE (Daehnhardt,2011) y visualiza el uso de la IA y sus consecuencias de formas normativas específicas (Bareis y Katzenbach,2021;Köstler y Ossewaarde,2022). Se podría argumentar que la Ley de IA de la UE recientemente desarrollada, que enfatiza fuertemente el concepto de "IA confiable", puede al menos reflejar una estrecha coordinación con los intereses políticos alemanes. Esta Ley de IA subraya el compromiso con el desarrollo de IA socialmente responsable, lo que hace que la opinión del público alemán para un mayor desarrollo e implementación de políticas tecnológicas sea particularmente relevante. En consecuencia, las aplicaciones y aplicaciones de IA específicas se consideran de "alto riesgo" según la Ley de IA de la UE (Comisión Europea,2021;Smuha,2022). Con esto en mente, el objetivo de la encuesta fue medir cómo los estudiantes y no estudiantes de la población general perciben estas tecnologías e identificar y explicar cualquier divergencia en las percepciones entre ellos. En consecuencia, a través de la encuesta estandarizada, recopilamos datos sobre la aprobación de los encuestados de las aplicaciones de IA en varios sectores sociales y sus percepciones de riesgo y daño con respecto a las APP. Con énfasis en la confiabilidad estipulada de los sistemas de IA, luego exploramos cómo las preocupaciones de privacidad de los estudiantes, su discriminación experimentada individualmente y su confianza en la IA y su IES influyen en las percepciones de daño. Finalmente, exploramos la evaluación de los estudiantes de diferentes formas prospectivas de implementación de APP. En general, los resultados de la encuesta sugieren que las percepciones de la IA difieren entre los estudiantes y la población 2 (2020) reveló que el Computadoras 66% de Glos encuestados perciben alto nivel y Educación: Inteligencia Artificialun 7 (2024) de riesgo en la toma100305 de decisiones de IA. Se ha demostrado que esta percepción influye en la adopción de IA (Chatterjee y Bhattacharjee,2020). Una situación similar surge con respecto al análisis del aprendizaje, como se refleja en un estudio de Tsai et al. (2021), donde los estudiantes y el personal universitario expresan ciertas aprensiones. Destacan los riesgos potenciales de una distribución desequilibrada del poder que la AIEd podría magnificar. Sus preocupaciones abarcan un posible trato desigual, violaciones de la autonomía personal, efectos sobre el bienestar general y un posible uso indebido de la AIEd. Estos hallazgos indican obstáculos considerables para el desarrollo positivo M. Lünich, B. Keller y F. Marcinkowski Por lo tanto, en última instancia, analizamos las implicaciones de nuestra investigación para los responsables de las políticas de educación superior, los administradores y la sociedad. 2. Usos, problemas e incógnitas de la predicción del rendimiento académico 2.1. Predicción del rendimiento académico y sus usos en la educación superior Cuando se trata de AIEd y Learning Analytics, su implementación sociotécnica a menudo se asocia con esperanzas de mejorar los resultados educativos, reducir las cargas administrativas y brindar un apoyo más individualizado y equitativo a los estudiantes, especialmente a aquellos que a menudo están en desventaja en su vida diaria y académica (Attaran et al.,2018; Martínez Neda et al.,2021Se espera que estos sistemas ayuden a los estudiantes, profesores y administradores en su trabajo educativo y administrativo dentro de las IES (Chiu et al.,2023). Uno de los sistemas de IA más utilizados en el sector educativo es el análisis predictivo (Zawacki-Richter et al.,2019), que, basándose en los datos de los estudiantes, puede predecir el rendimiento de los estudiantes.calificaciones en exámenes o módulos específicos (Alyahyan y Düştegör,2020; Costa-Mendes et al.,2021), o incluso la probabilidad de que completen con éxito sus estudios o su potencial de abandonarlos, a menudo denominada detección de abandono (Aulck et al.,2016; Casanova y otros,2021; Niyogisubizo y otros,2022). En particular, los sistemas que predicen el rendimiento académico prometen proporcionar retroalimentación individualizada para cada estudiante, de modo que, por ejemplo, el apoyo a los estudiantes se brinde sobre una base basada en datos que eventualmente beneficie a los estudiantes, especialmente a aquellos que reciben un peor pronóstico de rendimiento (Duong et al.,2023). Al aprovechar la IA, las IES pretenden crear una educación más personalizada. experiencia educativa y garantizar que se reconozcan y aborden las necesidades y el potencial únicos de cada estudiante. Como resultado, las universidades que aplican APP esperan un mayor éxito académico de los estudiantes (Alturki et al.,2022). Para una predicción precisa del desempeño futuro de un estudiante, se utilizan comúnmente algoritmos de aprendizaje automático y a menudo se entrenan con datos de desempeño históricos de estudiantes anteriores para luego hacer predicciones para las cohortes de estudiantes actuales (Askinadze y Conrad,2019; Duong y otros,2023; Sweeney y otros,2016). Además de los datos sobre el rendimiento académico pasado de los estudiantes, estas bases de datos pueden incluir asistencia, hábitos de estudio, información de interacción social, intereses personales e incluso factores como la salud y el bienestar u otros detalles sociodemográficos. Estas variables sociodemográficas se pueden utilizar especialmente para mejorar la precisión de la predicción (Abu Saa et al.,2019; Aggarwal y otros,2021). 2.2. La predicción del rendimiento académico y sus implicaciones en la educación superior Sin embargo, los desafíos asociados con la adopción de la IA y las APP, en particular, son tan diversos como los beneficios potenciales. Por ejemplo, la Ley de IA de la UE y el Grupo de expertos de alto nivel sobre IA (AIHLEG) de la Comisión Europea hacen hincapié en la consideración de factores como la discriminación, la equidad, la transparencia y la explicabilidad de los procedimientos y resultados del aprendizaje automático en el desarrollo de la IA. También subrayan la necesidad de abordar cuestiones de solidez técnica y rendición de cuentas en los sistemas de IA (AI HLEG,2019). Al hacerlo, la AIHLEG destaca simultáneamente los graves obstáculos y los riesgos potenciales en el desarrollo y la implementación de la IA. Los riesgos asociados con la IA en la educación se vuelven particularmente relevantes para las instituciones de educación superior cuando se los considera desde la perspectiva de sus partes interesadas (Marcinkowski et al.,2020). Esta consideración adquiere aún más importancia porque una encuesta realizada por Araujo et al. 3 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 En consecuencia, si muchos estudiantes se niegan a dar su consentimiento para la recopilación y el procesamiento de datos, el sistema está inevitablemente destinado al fracaso (Reidenberg y Schaub, 2008).2018). Las investigaciones también han demostrado que los estudiantes difieren entre sí en su disposición a consentir el análisis de aprendizaje y la divulgación de datos (Kizilcec et al.,2023; Li y otros,2022) y que, en general, son más reacios a compartir datos personales para análisis de aprendizaje además de datos internos de la universidad (Ifenthaler y Schumacher,2016). Por ejemplo, no todos están igualmente dispuestos a compartir sus datos y a que se analice su rendimiento académico. Sin embargo, si grupos específicos de estudiantes se abstienen de participar en evaluación de sistemas sociotécnicos que dependen en gran medida de datos personales y afectan a áreas sensibles de la vida escolar y personal de los estudiantes. La recopilación, el procesamiento y el análisis de grandes cantidades de esos datos personales plantean cuestiones relacionadas con la privacidad de los datos, los sesgos de los datos y la discriminación que pueden percibirse como perjudiciales a nivel individual y social. Además, las implicaciones pedagógicas de confiar en información determinada algorítmicamente deben examinarse críticamente, ya que la implementación de la IAIEd puede incorporar o reflejar pedagogías y enfoques instructivos distintos (du Boulay,2019; Caballero y otros,2014; Aleven y otros,2023). Es fundamental considerar si tales prácticas podrían conducir inadvertidamente a un deterioro u homogeneización de las experiencias educativas o disminuir el papel de los educadores en el fomento de un entorno de aprendizaje dinámico (Rowe,2019). Por lo tanto, el despliegue ético de las tecnologías AIEd requiere el cumplimiento de las leyes de protección de datos y una reflexión sobre los principios pedagógicos que aborden la equidad educativa y el bienestar de los estudiantes.Además, en consonancia con la búsqueda de la UE de una "IA confiable" y la amplia literatura sobre el tema, es importante investigar el papel potencial de la confianza en la IA y la confianza institucional para la evaluación de cuestiones de IA y sus consecuencias para la implementación de sistemas de IA sociotécnicos (Gedrimiene et al.,2023; Li y otros,2022). Por lo tanto, a continuación arrojaremos luz sobre diferentes cuestiones relacionadas con la IA que influyen en las percepciones de riesgo y daño de la APP. En este proceso, debemos distinguir entre una evaluación de riesgo más amplia alineada con la Ley de IA de la UE y el grado en que los encuestados perciben estos riesgos como manifestándose a nivel individual y social, explorando sus percepciones de los daños esperados. 2.2.1. Privacidad de datos Las cuestiones de privacidad y protección de datos surgen en muchos contextos, incluido el uso de medios digitales y herramientas de análisis de datos. Los datos personales se recopilan, almacenan y analizan para diferentes usos, a menudo no para los fines que se comunicaron adecuadamente cuando las personas aceptaron que se recopilaran sus datos (Rubel y Jones, 2008).2016). Cuando se trata de recopilar datos de los estudiantes a través de las instituciones de educación superior, se entrega mucha información privada a la institución para la inscripción en el curso de estudio. Los datos de rendimiento académico complementan posteriormente dichos datos privados, principalmente demográficos. Sin embargo, existe cierta incertidumbre entre los estudiantes sobre la recopilación y el uso de datos personales y confidenciales, por lo que los estudiantes pueden tener inquietudes sobre su privacidad y la divulgación de sus datos en el contexto de predicciones automatizadas (Reidenberg y Schaub, 2005).2018). Por ejemplo, la mayoría de los estudiantes carecen de conocimientos sobre el procesamiento de datos y no conocen los procesos de minería de datos ni los datos específicos utilizados (Jones, Asher et al.,2020). A pesar de esta incertidumbre, o quizás debido a ella, muchos estudiantes temen una pérdida de autonomía en su entorno personal de aprendizaje (Schumacher & Ifenthaler,2018; Slade y otros,2019). Los estudiantes, por un lado, esperan que sus instituciones de educación superior apliquen altos estándares éticos a la recopilación y uso de sus datos (Whitelock–Wainwright et al.,2019). Por otro lado, también exigen control personal y consentimiento informado después de haber sido educados sobre la recolección de datos y de que se les hayan explicado los procesos (Sun et al.,2019). La concienciación entre los estudiantes sobre el uso de sus datos personales es de particular importancia, ya que un alto nivel de preocupaciones por la privacidad conduce a actitudes negativas hacia los sistemas de IA y a una mayor percepción de riesgos (Araujo et al.,2020). A continuación, Lobera et al. (2020) también encuentran que las preocupaciones sobre la privacidad impulsan la oposición a la IA. Además, la efectividad de los análisis de aprendizaje y los sistemas de procesamiento de datos, en general, depende del Big Data, lo que infiere una necesidad de recopilar la mayor cantidad posible de datos personales. 4 como una variable Computadoras dependientey Educación: en la investigación (por ejemplo, Inteligencia Artificial 7 (2024) Choung et al.,2023;100305 Crockett y otros,2020; para una descripción general, véase también Glikson y Woolley,2020), pero se sabe menos sobre el impacto de la confianza en otros parámetros como las percepciones de riesgo. Sin embargo, se ha demostrado que confiar en un algoritmo, por ejemplo, tiene un impacto positivo en la intención de seguir una recomendación correspondiente de la IA (Gedrimiene et al.,2023). Rodway y Schepman (2023) también M. Lünich, B. Keller y F. Marcinkowski análisis de datos, esto podría introducir aún más sesgo y dar lugar a más consecuencias discriminatorias (Li et al.,2022). 2.2.2. Sesgo y discriminación de datos En consecuencia, además de las preocupaciones sobre la privacidad, la discriminación es una de las amenazas más discutidas para las aplicaciones de IA, como se denuncia en varias directrices éticas para el desarrollo de una IA confiable y centrada en el ser humano por parte de actores de la política, los negocios y la sociedad civil (Jobin et al.,2019). En cuanto al riesgo de discriminación, esta preocupación es doble y puede distinguirse entre sesgo estadístico y social (Mitchell et al.,2021). Por un lado, el desarrollo descuidado de la IA puede conducir a algoritmos discriminatorios cuando utiliza atributos sensibles (por ejemplo, etnia) que no deberían afectar la predicción o cuando las métricas de equidad implementadas no se eligen cuidadosamente o incluso se ignoran por completo (Kizilcec y Lee,2022; Makhlouf y otros,2021Veale y Binns,2017). Por otra parte, la discriminación puede emanar de los datos de entrada, reproducidos por el algoritmo de manera análoga a los estereotipos que contiene (Fazelpour y Danks,2021). Sin embargo, Kizilcec y Lee (2022) se refieren a otra fuente de discriminación, a saber, las acciones resultantes basadas en una decisión, predicción o recomendación algorítmica. En este caso, la discriminación puede surgir de una interpretación errónea del resultado, por ejemplo, por parte de los humanos dentro de la administración de la institución de educación superior que procesan los resultados de la aplicación. Si bien varios estudios están analizando las percepciones de equidad hacia la IA (para una revisión, consulte Starke et al.,2022), necesitamos aprender más sobre las poblaciones que ya han sufrido un trato desigual. Parece concebible que aquellos grupos de estudiantes que ya han sufrido un trato desigual en el pasado, consciente o inconscientemente, sean especialmente susceptibles a la perpetuación de los sesgos encontrados en los datos históricos y también sean más vulnerables.capaz de daños individuales resultantes de APP (Baker & Hawn,2022). Además, las experiencias personales previas de discriminación podrían moldear las creencias sobre la objetividad de los sistemas de IA y su potencial para un trato justo. Un estudio de Koch–Bayram et al. (2023) en el contexto de la selección de personal apoya esta visión al mostrar que las personas con experiencias de discriminación evalúan la toma de decisiones algorítmica de manera más positiva que las personas que no han experimentado un trato desigual. 2.2.3. Confíe en la IA En el contexto de la "IA confiable", comprender la confianza en la IA misma yEn las organizaciones que la implementan se está volviendo cada vez más esencial, ya que la confianza entre los miembros de la organización es un prerrequisito crítico para la implementación exitosa de la IA institucional. Nos adherimos a la definición de confianza como “la voluntad de una parte de ser vulnerable a las acciones de otra parte con base en la expectativa de que la otra realizará una acción particular importante para el que confía, independientemente de la capacidad de monitorear o controlar a esa otra parte” (Mayer et al.,1995, p. 712). En consecuencia, para los sistemas de IA que son inherentemente opacos, un determinante clave de la confianza es si la tecnología es percibida como confiable por aquellos afectados por el sistema. La confiabilidad se considera, por lo tanto, un atributo multidimensional de un sistema técnico y un factor primario que influye en la confianza de los encuestados, lo que refleja su propensión a actuar en función de estas percepciones (Mayer et al.,1995; Wiencierz y Lünich,2022). Por lo tanto, como solución a los problemas de privacidad y discriminación, se supone que la "IA confiable" impulsa el desarrollo y la implementación de una IA responsable (AI HLEG,2019;Shneiderman,2020) y se considera elemental para la implementación y aceptación exitosa de AIEd (Drachsler y Greller,2016). En este contexto, la confianza juega un papel, especialmente en situaciones de incertidumbre, como lo sugieren los desafíos que plantean las nuevas tecnologías (Lee,2018). Si bien la confianza y la confiabilidad en la IA a menudo se usan indistintamente en la literatura empírica, ambas se estudian a menudo 5 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 rara vez se han estudiado empíricamente (Li y Gu,2023). Mientras tanto, abordar las preocupaciones y expectativas de las partes interesadas y del público en general puede conducir a políticas de IA más integrales y equilibradas y mejorar la adopción y el éxito generales de la tecnología en el sector público y otros sectores de la sociedad (Lünich et al.,2024). Sin embargo, los resultados de una encuesta reciente de Kieslich et al. (2023) indican que la conciencia de las implicaciones éticas de la IA es baja entre el público alemán, especialmente entre los grupos potencialmente más afectados por las consecuencias de las aplicaciones sesgadas de la IA. Sigue sin estar claro si estas diferencias se extienden a las percepciones de la IA y muestran que las actitudes generales hacia la IA influyen en la comodidad de los estudiantes con la AIEd, mientras que la predicción del rendimiento (especialmente en forma de predicción de calificaciones) se percibe como la menos cómoda, lo que los autores interpretan como que requiere un alto nivel de confianza en la APP. 2.2.4. Confianza institucional Además, la AIEd y la APP pueden tener consecuencias de largo alcance para las instituciones de educación superior, como lo demuestran varios ejemplos negativos. Por ejemplo, la discriminación sistemática contra los estudiantes de familias socialmente más débiles en el caso de un sistema de evaluación automatizado en el Reino Unido provocó protestas masivas (Edwards,2021; Herrero,2020). El sistema automatizado de admisión universitaria Parcoursup en Francia provocó reacciones similares (Frouillou et al.,2020), justocomo los diferentes sistemas APP utilizados en las IES de EE. UU., donde el uso poco ético de los datos de los estudiantes provocó desconfianza en las IES (Jones, Rubel et al.,2020). Incluso en ausencia de discriminación observable, la injusticia percibida en un sistema de IA puede causar un daño duradero a la reputación de una institución de educación superior. Tales percepciones pueden disuadir a los estudiantes de elegir la institución (Marcinkowski et al.,2020). En este contexto, parece útil no solo considerar la confianza en la IA en general, sino también observar más de cerca el papel de la confianza institucional en la percepción del riesgo. En particular, porque la confianza institucional influye significativamente en la probabilidad de que los estudiantes consientan el uso de sus datos personales para análisis de aprendizaje (Li et al.,2022). Sin embargo, también es evidente que “los estudiantes tienen una confianza inherente abrumadora en que su universidad utilizará sus datos de manera apropiada y ética” (Slade et al.,2019, p. 235). Al mismo tiempo, las IES tienen una responsabilidad moral especial hacia sus estudiantes de actuar en su mejor interés. Jones, Rubel et al. (2020) enfatizan que esto se aplica no sólo para evitar consecuencias potencialmente dañinas sino también a las consecuencias que pueden o no derivarse de la decisión de un sistema APP, como cuando se predice que un estudiante corre un alto riesgo de abandonar la escuela pero no se le advierte ni se le da más apoyo. 2.3. La predicción del rendimiento académico y sus incógnitas en la educación superior Dado que la AIEd tiene el potencial de afectar las trayectorias educativas y profesionales futuras de los estudiantes y, por lo tanto, puede tener un impacto significativo en la sociedad, la implementación de APP requiere una consideración cuidadosa (Smuha,2022). Frente a los problemas mencionados anteriormente sobre la AIEd y la APP, las percepciones de los afectados personalmente y de la sociedad en general son particularmente importantes para una implementación exitosa de la APP (Lang y Davis,2023). Las investigaciones sobre la evaluación de la AIEd por parte de distintos grupos de interesados dentro de la educación superior sugieren que las percepciones bajas de equidad hacia la AIEd pueden tener consecuencias negativas para la reputación de las IES y potencialmente llevar a que los estudiantes se alejen de ellas (Marcinkowski et al.,2020). Rodway y Schepman (2023) también muestran que la adopción de AIEd conduce a una disminución en la satisfacción con el curso, lo que a su vez podría conducir a la desvinculación, a pesar de que los estudiantes expresaron una familiaridad relativamente alta con varias aplicaciones de AIEd. Los autores concluyen que "parece que es poco probable que la diferenciación universitaria a través de la implementación de tecnologías de AIEd mejore la satisfacción o el reclutamiento de estudiantes a menos que la introducción de aplicaciones se gestione con mucho cuidado" (Rodway y Schepman,2023, pág. 9). A pesar de los diversos problemas sobre la adopción de sistemas sociotécnicos y APP en particular, hasta ahora se sabe poco sobre las percepciones comparativas de riesgo de las partes interesadas en el contexto de AIEd, ya que a menudo se discuten a nivel teórico pero 6 ven abrumados por Computadoras un exceso yde información (Kizilcec,2016). Educación: Inteligencia Artificial 7 (2024) Sin 100305 embargo, esto sólo es cierto para los estudiantes cuyas expectativas coincidieron con la decisión de la IA, ya que pueden ser más escépticos con respecto a la IA. Teniendo en cuenta esta incertidumbre en torno a las preferencias por el diseño, la funcionalidad y las consecuencias reales de la APP, se plantea la cuestión de los requisitos específicos que tienen los estudiantes para la APP en relación con sus percepciones individuales de los daños y qué implicaciones esto plantea para las instituciones de educación superior. Por lo tanto, la incógnita final que pretendemos investigar es: M. Lünich, B. Keller y F. Marcinkowski Si las variaciones en la percepción del riesgo pueden rastrearse hasta el grado en que los grupos demográficos individuales se ven afectados. Por lo tanto, las principales incógnitas que identificamos giran en torno a la evidencia empírica relacionada con las percepciones de riesgo hacia la IA, la IA en entornos virtuales y las aplicaciones de aplicaciones. En consecuencia, planteamos las siguientes preguntas de investigación: RQ1. ¿Cómo se compara la percepción de la IA y la AIEd entre los estudiantes matriculados con la del público en general? RQ2. ¿Cómo perciben los estudiantes y la población en general los riesgos, los daños individuales y sociales y la posible discriminación asociados a la APP? ¿En qué medida difieren estas percepciones entre los dos grupos? RQ4. ¿Cómo evalúan los estudiantes las posibles formas de implementación de la APP en las IES? Al comparar las respuestas de los estudiantes con las de la población general, pretendemos revelar diferencias en sus percepciones de la IA, la IA en Internet y las aplicaciones móviles. Por ejemplo, los estudiantes, como grupo directamente afectado por la IA y las aplicaciones móviles, podrían tener opiniones más matizadas o críticas de estas tecnologías con respecto al "efecto Not-In-MyBackyard" que la población general. Este efecto sugiere que las diferencias en las percepciones de la tecnología se pueden observar en función de la probabilidad de verse afectado y, por lo tanto, las percepciones de riesgo pueden diferir (Arning et al.,2019;DevineWright,2013). De manera similar, Crockett et al. (2020) señalan diferencias en la percepción del riesgo entre la población general y los estudiantes de un curso de ingeniería, y concluyen que cuanto más personal o grave sea el impacto potencial de una decisión de IA, mayor será la percepción del riesgo. Como se sugirió anteriormente, las percepciones, actitudes y experiencias de los estudiantesEn cuanto a la divulgación de sus datos personales, las experiencias personales de discriminación y los niveles de confianza en los sistemas de IA sociotécnicos y las instituciones de educación superior pueden variar y son posibles predictores de las percepciones de riesgo individuales. Por lo tanto, para ayudar a explorar otra incógnita, los factores que influyen en las preocupaciones sobre las aplicaciones, preguntamos: RQ3. ¿Qué explica las percepciones de los estudiantes sobre el daño individual y social de las aplicaciones de aprendizaje automático? Más específicamente, ¿en qué medida las preocupaciones por la privacidad, la discriminación experimentada, la confianza en la IA y la confianza institucional están vinculadas a las percepciones de daño individual y social? Dados los diversos riesgos que conlleva la adopción de sistemas sociotécnicos, es esencial ser consciente de las preocupaciones de los afectados, tomarlas en serio y considerarlas al diseñar los sistemas (Schumacher & Ifenthaler,2018). De este modo, las instituciones de educación superior pueden responder a las preocupaciones de los estudiantes con diversas medidas. Por ejemplo, en lo que respecta a las preocupaciones sobre la privacidad, podrían priorizar el desarrollo de medidas de privacidad sólidas (Reidenberg y Schaub,2018). En cuanto a las preocupaciones de los estudiantes sobre las IA potencialmente sesgadas,Se pueden realizar esfuerzos para garantizar que los algoritmos de IA utilizados en la aplicación sean lo más justos y transparentes posibles (Kizilcec y Lee,2022). En consecuencia, las IES necesitan mejorar su transparencia y comunicación organizacional con las partes interesadas para abordar sus preocupaciones desde el principio (Tsai et al.,2020) porque “solo aumentando la transparencia en torno a las actividades de análisis del aprendizaje las IES ganarán la confianza y una cooperación más plena de los estudiantes” (Prinsloo y Slade,2015, p. 90). Sin embargo, el grado de transparencia requiere una calibración cuidadosa, ya que mejora la confianza en la IA hasta que se alcanza un cierto umbral, más allá del cual la confianza puede disminuir si los estudiantes se 7 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 3. Método 1 Ninguno de los encuestados de nuestra muestra se identificó como no binario o de género diverso, lo que limita la representación de un grupo de interesados crucial en nuestros resultados. El uso de una variable de género binaria en los Para responder a las preguntas de investigación, se realizó una encuesta estandarizada a gran escala. El análisis de datos se realizó utilizando el programa estadístico R (versión 4.3.1) utilizando modelos de ecuaciones estructurales con el paquete lavaan (Rosseel,2012). siguientes análisis no pretende ser discriminatorio, sino que destaca las posibles diferencias influidas por el género en los conflictos sociales y la AIEd. Este enfoque nos permite explorar cómo el género puede afectar las respuestas, aunque se limita a las perspectivas de las personas cisgénero. 3.1. Muestra Los encuestados fueron reclutados por la agencia de encuestas comerciales Forsa. La encuesta se realizó a través de un cuestionario en línea del 1 al 19 de diciembre de 2022. El conjunto de datos final se pondera para los análisis que abordan las preguntas de investigación utilizando la encuesta en paquete (Lumley,2004) para tener en cuenta la sobrerrepresentación y el sesgo en la composición de la muestra. En total, n = 751 estudiantes y n = 1.009 miembros de la población general completaron la encuesta. La edad promedio de los estudiantes fue de 27,74 años (DE = 7,53). En total, 330 (43,9%) estudiantes se identificaron como mujeres, 421 (56,1%) como hombres. Con respecto a la pregunta sobre qué título están cursando actualmente los estudiantes en su materia principal, 328 (43,7%) estudiantes informan que están cursando una licenciatura, 259 (34,5%) informan que están cursando una maestría, 81 (10,8%) informan que están cursando un examen estatal y 82 (10,9%) cursan un doctorado. La edad media de los encuestados de la población fue de 51,7 (DE = 16,96). En total, 478 (47,4%) personas de la población se identificaron como mujeres y 531 (52,6%) como hombres. 1 Además, 147 (14,6%) encuestados declararon haber alcanzado un nivel educativo básico, 452 (44,9%) declararon haber alcanzado un nivel educativo medio y 407 (40,5%) poseen un título de educación superior. 3.2. Procedimiento y diseño de la encuesta En primer lugar, se informó a los encuestados sobre la naturaleza y el objetivo del estudio, la duración de la respuesta al cuestionario de unos 20 minutos y el uso y la protección de sus datos personales. El consentimiento informado requirió que los encuestados primero indicaran si estaban o no inscritos actualmente en una IES, que se utilizará como criterio distintivo en el resto de la encuesta. A continuación, a todos los encuestados se les dio una breve descripción de la IA para luego preguntarles sobre sus preocupaciones sobre la privacidad y el apoyo u oposición a la IA en varias áreas de aplicación. Luego se presentó a todos los encuestados el propósito y la función de un sistema de APP, y se pidió a los estudiantes que evaluaran las posibles consecuencias y los diferentes escenarios de implementación. Finalmente, a todos los encuestados se les pidió nuevamente que evaluaran los posibles riesgos, los daños sociales e individuales y la posible discriminación antes de que se les pidiera que proporcionaran información sobre sus experiencias personales de discriminación, así como sus características sociodemográficas (es decir, edad, género), complementadas con algunas preguntas específicas para los estudiantes (es decir, materia de estudio, número de semestres de estudio, su título deseado y el tipo de su reciente institución de educación superior). Por último, se agradeció a los participantes, se les informó sobre su participación y se los redirigió a Forsa, donde recibieron una compensación monetaria por su participación. El tiempo promedio para completar el cuestionario fue de 14 minutos (DE = 11). 3.3. Medidas 3.3.1. Aprobación de la IA en diferentes campos de aplicación En primer lugar, nos centramos en la aprobación general de la IA en diversas áreas de aplicación. En concreto, preguntamos si los encuestados estaban en general más a favor o en contra del uso de la IA en doce sectores diferentes (banca, atención sanitaria, producción industrial, transporte, vida diaria personal, etc.). 8 Posteriormente, se pidió a los estudiantes que expresaran nivel de Computadoras y Educación: Inteligencia Artificial 7su (2024) 100305 acuerdo con varias afirmaciones. M. Lünich, B. Keller y F. Marcinkowski vida, escuelas y universidades, administración pública, decisiones políticas, tribunales, autoridades policiales y de seguridad, fuerzas terrestres, fuerza aérea y marina, y servicios de inteligencia y secretos). Las opciones de respuesta variaron de 1 Preocupaciones sobre la privacidad.En relación con sus preocupaciones sobre la privacidad, se pidió a los estudiantes que calificaran cuatro afirmaciones al considerar el tema de la privacidad. Estos elementos fueron adaptados de Malhotra et al. (2004) y Hoffmann y Lutz (2022). Sin embargo, para mejorar la validez factorial, tuvimos que = “completamente en contra” a 5 = “completamente a favor” y también incluido la opción de no expresar preferencia (“no sé”). De esta manera, podemos comparar la promoción del uso de IA en educación con otros sectores con la diferenciación adicional entre estudiantes y la población alemana en general. 3.3.2. Percepción de riesgos, daños individuales y sociales y discriminación Percepción de riesgos.A continuación nos centramos en la percepción del riesgo de la APP en particular. La percepción general del riesgo se derivó del enfoque basado en el riesgo de la Comisión Europea, que identifica una pirámide de riesgo que distingue entre riesgos mínimos, limitados, altos e inaceptables (Comisión Europea, 2006).2021). Se preguntó a los encuestados cómo percibían, en términos generales, el riesgo asociado con la implementación de la APP para los estudiantes en una escala Likert de cuatro puntos que abarca las categorías de riesgo antes mencionadas. Daños individuales y sociales y discriminación.Los daños individuales y sociales y la discriminación se midieron en una escala Likert de cinco puntos que iba desde 1 = “totalmente en desacuerdo” a 5 = “totalmente de acuerdo”, pidiendo a los encuestados que evaluaran tres afirmaciones para cada variable. Cada afirmación comenzaba con “Predecir el rendimiento de los estudiantes a través de la inteligencia artificial...” seguido de “conduce a problemas sociales en el sistema educativo”, “tiene consecuencias negativas en el sistema educativo” y “causa daños en el sistema educativo” para los daños sociales; “tiene consecuencias negativas para mí personalmente”, “causa daños a mí personalmente” y “conduce a desventajas para mí” para los daños personales; y evaluando la discriminación percibida preguntando si la APP “refuerza las desigualdades existentes”, “crea nuevas desigualdades” y “conduce a la discriminación”. Si bien la medición de los daños sociales y personales fue adaptada de Lünich (2022), la discriminación percibida fue autodesarrollada. Los tres indicadores por constructo sugieren una buena validez factorial (ver Tabla1). Antes de investigar las diferencias entre los grupos respectivos a través del modelado de factores latentes, es crucial verificar la invariancia de la medición de los indicadores, como lo proponen Putnick y Bornstein (2016), utilizando el siguiente procedimiento paso a paso. Primero, examinamos la invariancia configuracional a través del modelo M1 (ver Tabla1). Posteriormente, en el modelo M2, examinamos la invariancia métrica restringiendo las cargas factoriales y contrastando M1 y M2 utilizando una prueba de diferencia de chicuadrado. El resultado no significativo de esta prueba implica que el modelo con restricciones de igualdad impuestas para las cargas factoriales no muestra un ajuste peor que el modelo sin tales restricciones. En consecuencia, los parámetros de los respectivos modelos se consideran equivalentes. A continuación, el modelo M3, con interceptos de indicador restringidos, se utiliza para verificar la invariancia escalar contrastándolo con M2, nuevamente utilizando una prueba de diferencia de chi-cuadrado. Los hallazgos indican que los interceptos de dos indicadores no son invariantes. En consecuencia, se liberan las restricciones sobre estos, lo que nos lleva a asumir una invariancia escalar parcial. Por último, imponemos restricciones sobre las varianzas residuales de los indicadores en el modelo M5 para probar la invariancia residual. La prueba de diferencia de chi-cuadrado muestra que no hay invariancia residual. Los resultados sugieren una fuerte invariancia factorial para las percepciones de daño social percibido y una invariancia factorial parcial para la medición de los daños individuales percibidos y la discriminación esperada. 3.3.3. Factores que influyen en la percepción de daños Se evaluaron todos los factores que influyen en la percepción del riesgo mediante una escala Likert de cinco puntos, que van desde 1 = “totalmente en desacuerdo” hasta 5 = “totalmente de acuerdo”. 9 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Tabla 1 Invariancia de medición para variables latentes de percepción de daño y discriminación entre la población general y estudiantes. M1: ConfigurableInvariancia M2: Invariancia métrica M3: Invariancia escalar M4: Invariancia escalar parcial M5: Invariancia residual Chisq (df) TLI RMSEA Comp Diferencial de Chisq (df) Diferencia TLI Diferencia RMSEA 171.096*** (48) 174.048*** (54) 221.587*** (60) 175.370*** (58) 231.089*** (67) 0,98 0,98 0,98 0,98 0,98 0,07 (0,06-0,08) 0,06 (0,05-0,07) 0,07 (0,06-0,08) 0,06 (0,05-0,07) 0,06 (0,06-0,07) M1 M2 M2 M4 2.952 (6) 47.539*** (6) 1.322 (4) 55.718*** (9) 0.00 -0.00 0.00 -0.00 -0.00 0,01 -0.00 0,01 de que la percepción del riesgo aumenta con la edad. Además, las mujeres también tienen una mayor percepción del riesgo con respecto a los sistemas de IA, aunque este efecto parece marginal (Araujo et al.,2020) Se agregó el género como variable ficticia (0 = masculino, 1 = femenino). Además, las percepciones de equidad y riesgo hacia la IA varían según la experiencia y el conocimiento de programación (Lee y Baykal,2017; Logg y otros,2019; Yigitcanlar y otros,2022). Por lo tanto, examinamos si las percepciones del riesgo Excluimos un ítem (“Internet representa una amenaza grave para la privacidad”) y trabajamos sólo con los otros tres para nuestro análisis: “En comparación con otros, soy más sensible a cómo las empresas manejan mi información personal”; “Es importante para mí proteger mi privacidad en Internet”; “Me preocupa mi privacidad en Internet”. Los ítems muestran una buena validez factorial (prueba de Cronbach).�= 0,77; varianza media extraída (AVE) = 0,52). Discriminación experimentada.Para obtener experiencias personales de discriminación, utilizamos la Escala de Discriminación Cotidiana de Williams et al.1997). Sin embargo, tuvimos que excluir un ítem (“Alguien actúa como si tuviera miedo de ti”) para mejorar la validez factorial. Se pidió a los encuestados que indicaran con qué frecuencia les habían sucedido las siguientes cosas en su vida diaria: “Recibes un peor servicio que otras personas en restaurantes o tiendas”; “Te tratan con menos respeto que a otras personas”; “Alguien actúa como si no te tomaran en serio”; “Te amenazan o acosan”. Las opciones de respuesta iban de 1 a 5 en una escala de Likert (1 = nunca, 2 = raramente, 3 = a veces, 4 = a menudo, 5 = muy a menudo). Después de tener en cuenta estas medidas, todos los indicadores del constructo respectivo muestran una buena validez factorial (prueba de Cronbach).�= 0,77; AVE = 0,48). Confía en APP.En cuanto a la confianza en la APP, adaptamos los elementos de Shin (2021) utilizados para medir la confianza en los sistemas de recomendación y los adaptaron al contexto de las aplicaciones. Estos elementos también fueron utilizados anteriormente porLünich y Kieslich (2022) en el contexto de la confianza general en la IA. Preguntamos en qué medida los encuestados estaban de acuerdo con las siguientes cuatro afirmaciones: “Confío en que un sistema informático pueda hacer predicciones precisas del rendimiento académico”; “Confío en las predicciones del rendimiento de los estudiantes realizadas por un sistema informático”; “Las predicciones del rendimiento de los estudiantes realizadas por un sistema informático son fiables”; “Creo que las predicciones del rendimiento de los estudiantes realizadas por un sistema informático son fiables”. Los ítems muestran una buena validez factorial (β de Cronbach = 0,94; AVE = 0,79). Confianza institucional.La confianza institucional se refiere explícitamente a la institución de educación superior en la que están inscritos los estudiantes. Por lo tanto, esta pregunta se formuló únicamente a los estudiantes. Utilizamos y adaptamos ligeramente cuatro ítems desarrollados a partir de Ghosh et al. (2001) y previamente validado por Li et al. (2022). Se pidió a los estudiantes que calificaran hasta qué punto estaban de acuerdo con las siguientes oraciones: “Dado que no puedo supervisar personalmente todas las actividades de mi universidad, confío en que los empleados de la universidad hagan su trabajo correctamente”; “En general, no tengo confianza en mi universidad” (codificación inversa); “Creo que mi universidad es una organización creíble”; “Siento que puedo confiar en mi universidad”. Los ítems muestran una buena validez factorial (prueba de Cronbach).�= 0,77; AVE = 0,47). Variables de control.Por último, incluimos variables sociodemográficas (es decir, género y edad) y el campo de estudio como variables de control en nuestro modelo. Decidimos hacer esto porque investigaciones anteriores han demostrado que la edad está relacionada positivamente con la percepción del riesgo, en el sentido 10 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 difieren entre los estudiantes que estudian materias STEM y SHAPE (Morgan Jones et al.,2020). Utilizamos la clasificación temática de la Oficina Federal de Estadística de Alemania, que permite respuestas de ocho categorías temáticas principales (Destatis,2021). Cuatro categorías se clasificaron como STEM (es decir, matemáticas y ciencias naturales; medicina humana y ciencias de la salud; ciencias agrícolas, forestales y nutricionales, medicina veterinaria; ingeniería), y cuatro como SHAPE (humanidades; deportes; derecho, economía y ciencias sociales; artes;). Además, los estudiantes podían elegir la categoría.'Otros'. Los encuestados fueron clasificados en grupos STEM o SHAPE según el tema de estudio, lo que dio como resultado una variable ficticia codificada como 0 para 'SHAPE' y 1 para 'STEM'. 3.3.4. Demandas de los estudiantes para la implementación de APP Por último, también investigamos las demandas de los estudiantes en relación con la implementación de APP en las IES para explicar las distintas percepciones de los daños y proporcionar algunos consejos prácticos para las IES. Con este fin, se pidió a los estudiantes que expresaran su nivel de acuerdo con 16 opciones de implementación diferentes.ciones para un sistema APP (ver Tabla6). Estas opciones se desarrollaron durante un taller universitario interno coorganizado por los autores como parte de un proyecto de investigación interdisciplinario centrado en el desarrollo socialmente responsable de APP. En el taller, el personal administrativo, los profesores y los estudiantes interesados discutieron sus requisitos personales para un sistema APP y varias estrategias de implementación para APP. En la encuesta, se pidió a los estudiantes que imaginaran que la IES implementaría un sistema APP en el que están inscritos. Las declaraciones incluyeron voluntariedad de la divulgación de datos, transparencia, explicación, accesibilidad de los resultados de la predicción y consecuencias de la predicción, como la opción y el uso de más apoyo basado en APP. Todos los elementos se midieron nuevamente en una escala Likert de cinco puntos que van desde 1 = "totalmente en desacuerdo" a 5 = "totalmente de acuerdo". 4. Resultados 4.1. Aprobación de aplicaciones de IA en diferentes sectores de la sociedad Para evaluar la aprobación de aplicaciones de IA en diferentes sectores de la sociedad entre la población general y los estudiantes, realizamos múltiples pruebas t independientes utilizando la corrección de Benjamini-Hochberg para comparaciones múltiples (Thissen et al.,2002). Los resultados relativos a la aprobación de aplicaciones de IA en diferentes sectores de la sociedad indican que los estudiantes están significativamente más inclinados a apoyar el uso de IA en diversos sectores sociales, como la banca, la atención sanitaria, la producción industrial, el transporte y la vida cotidiana, en comparación con la población general (véase la Tabla2). En cuanto a la D de Cohen, los tamaños del efecto son pequeños a medianos. Sin embargo, el sentimiento hacia la adopción de IA en la educación varía entre los estudiantes y refleja la ambigüedad encontrada en el público en general. No hay una diferencia significativa entre la población general y los estudiantes con respecto a la aprobación del uso de IA en escuelas y universidades, y ambas medias están cerca del punto medio de la escala. Contrariamente a los campos de aplicación anteriores, los estudiantes no respaldan unánimemente la integración de IA en las instituciones educativas. Finalmente, en comparación con la población en general, existe una oposición o ambigüedad igual y notable de los estudiantes hacia el uso de IA en las agencias de aplicación de la ley, militares y de inteligencia. 11 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Tabla 2 Aprobación de aplicaciones de IA en diferentes sectores de la sociedad por parte de la población en general y los estudiantes. ¿Está usted más a favor o en contra del uso de la IA en los siguientes campos? Población general: media (DE) GeneralPoblaci ón n Estudiantes: Media (DE) Estudiantes n t (gl) p (Benjamini-Hochberg corregido) La d de Cohen ¿En los bancos? ¿En el ámbito sanitario? ¿En la producción industrial? ¿En movilidad? ¿En la vida personal diaria? 2,97 (1,18) 3.27 (1.20) 4,02 (0,97) 3,39 (1,17) 3,00 (1,07) 968 974 981 981 974 3,26 (1,15) 3,53 (1,07) 4,28 (0,86) 3,72 (1,10) 3,40 (1,06) 718 733 739 734 729 5.01 (1684) 4.63 (1705) 5.78 (1718) 5.70 (1713) 7.38 (1701) <. 001 <. 001 <. 001 <. 001 <. 001 0,25 0,23 0,28 0,29 0,38 ¿En la administración pública? ¿En escuelas y universidades? ¿En la toma de decisiones políticas? ¿En la corte? ¿En la policía y en las fuerzas del orden? 3,25 (1,18) 3.23 (1.13) 2.08 (1.11) 2.17 (1.15) 2,82 (1,24) 976 969 966 961 964 3,73 (1,04) 3,30 (1,07) 2.20 (1.12) 2.19 (1.12) 2,73 (1,19) 727 726 730 721 733 8.65 (1701) 1.44 (1693) 2.10 (1694) 0,48 (1680) -1,39 (1695) <. 001 0,198 0,061 0,633 0,198 0,43 0,06 0,11 0,02 0,07 ¿En las fuerzas terrestres, aéreas y navales? ¿En agencias de inteligencia y servicios secretos? 2,86 (1,30) 2,93 (1,26) 944 938 2,73 (1,30) 3.02 (1.23) 703 701 -1,85 (1645) 1.33 (1637) 0,098 0,201 0,10 0,07 Tabla 3 Percepciones de riesgo de APP por parte de la población general y estudiantes. Población general Nivel de riesgo 4 Riesgo inaceptable 3 Alto riesgo 2 Riesgo limitado 1 Riesgo mínimo Total Estudiantes norte % % (ponderado) n o rt e % % (ponderado) 74 367 519 44 1004 7.4 36.6 51.7 4.4 100.0 7.4 37.4 50.9 4.3 100.0 80 301 337 28 746 10.7 40.3 45.2 3.8 100.0 11.0 40.2 45.1 3.7 100.0 Tabla 4 Medias y diferencias de medias de las percepciones de daño y discriminación de la población general y los estudiantes. Factor latente Daños sociales Daños individuales Discriminación Población general Estudiantes Diferencia de medias entre grupos Est. ES CILL (Inglés) CIUL � CRA Est. ES CILL (Inglés) CIUL � CRA Est. ES CILL (Inglés) CIUL La d de Cohen 3.04 2.21 2,96 0,04 0,04 0,05 2,95 2.13 2.87 3.12 2.30 3.05 0,888 0,887 0,874 0,734 0,723 0,697 3.38 2.63 3.42 0,05 0,05 0,06 3.28 2.53 3.31 3.48 2.73 3.53 0,917 0,933 0.906 0,794 0,819 0,746 -0,34*** -0,41*** -0,46*** 0,07 0,07 0,07 -0,47 -0,55 -0,60 -0,21 -0,28 -0,32 0,33 0,40 0,42 estimaciones de parámetros para las medias latentes, así como las diferencias entre las medias latentes entre los estudiantes y la población. El modelo de factores latentes muestra un ajuste aceptable (� 2(60) = 181,26, p = < 0,001; RMSEA = 0,06 IC [0,05, 0,07]; TLI=0,98). 4.2. Percepciones de riesgo En cuanto a las percepciones de los riesgos asociados con la implementación de IA, los resultados sugieren que la evaluación de los estudiantes sobre los riesgos relacionados con la predicción del rendimiento a través de IA es casi idéntica a la de la población en general (ver Tabla3). Según una prueba de � 2, la diferencia no es significativa, � 2(3) = 1,93, p = 1,000, bilateral. Utilizamos las mismas categorías que especifica la Ley de IA de la UE para evaluar los riesgos asociados a las tecnologías de IA. En este enfoque de clasificación, una aplicación como sistema de IA en educación se identifica como un área crítica y se clasifica como de "alto riesgo" (Comisión Europea,2021). Los resultados ponderados para los grupos de estudiantes y población general sugieren que aproximadamente 4 de cada 10 encuestados perciben tal magnitud de riesgo en relación con la APP. Este hallazgo contrasta con la mayoría de los encuestados, quienes, independientemente de si son estudiantes o no, perciben un riesgo claramente menor que el que implica la categorización de la UE. Por el contrario, solo el 7,4% de la población general y el 11% de los estudiantes, respectivamente, consideran que el riesgo es inaceptable. 4.3. Percepción de daños individuales y sociales y discriminación Respecto a la evaluación de las expectativas de daños individuales y sociales y de discriminación, se estimó un modelo de factores latentes, diferenciando entre la población general como un grupo y los estudiantes como otro grupo (ver Tabla4). Este modelo incluye 12 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Los resultados sugieren que hay una diferencia media considerable y significativa entre los estudiantes y la población general con respecto a los daños individuales percibidos (Δ� = -0,41, SE = 0,07, p = < 0,001, daños sociales percibidos (Δ� = -0,34, SE = 0,07, p = < 0,001, y discriminación esperada (Δ� = -0,46, SE = 0,07, p = < 0,001. Los estudiantes percibieron mayores daños sociales e individuales, así como discriminación en comparación. La d de Cohen sugiere tamaños del efecto bajos a medios. En el modelo de factores latentes, existe una alta correlación entre los daños sociales percibidos y la discriminación percibida. En un análisis posterior, en el que queremos explorar los factores que influyen en las percepciones de los daños, esta alta correlación podría conducir potencialmente a una multicolinealidad en nuestro modelo, distorsionando las estimaciones estadísticas y volviéndolas poco fiables o ininterpretables. En tales situaciones, suele ser aconsejable eliminar una de las variables altamente correlacionadas para garantizar la estabilidad del modelo y evitar la redundancia. Aunque analíticamente son distintos, empíricamente, los daños sociales percibidos y la discriminación percibida de APP transmiten información en gran medida superpuesta en nuestra muestra. Eliminamos la discriminación percibida del modelo para explicar de forma fiable los efectos sobre las percepciones de daños de APP y comparar mejor los efectos de los daños individuales y sociales percibidos. 4.4. Factores que explican la percepción del daño Al examinar qué factores explican las percepciones de daño de los estudiantes, estimamos un modelo de regresión estructural que incluye preocupaciones sobre la privacidad, discriminación experimentada, confianza en la IA y confianza institucional como predictores latentes, además de controlar información sociodemográfica como la edad y el género, y si los estudiantes estudian una materia SHAPE o STEM (ver Tabla5). El modelo de regresión estructural muestra ac- 13 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Tabla 5 Efectos sobre las percepciones de daños sociales e individuales de los estudiantes. Variable predictora Variable dependiente B ES el beta Preocupaciones sobre la privacidad Discriminación experimentada Confíe en la IA Confianza institucional Percepción de daños sociales 0,06 0,11 -0,71*** -0,03 -0.00 0,06 0,08 0,05 0,08 0,08 0,94 1.35 -15,46 -0,42 -0,04 0,043 0,062 -0,592 -0,022 -0,001 0,11 0,07 1.61 0,054 -0,13 0,08 -1,56 -0,058 Género (femenino)=1) Edad Tema de estudio SHAPE vs. STEM (1=PROVENIR) Preocupaciones sobre la privacidad 0,10 0,06 1.53 0,072 Discriminación experimentada Confíe en la IA Perjuicios individuales percibidos 0,30** -0,53*** 0,09 0,05 3.18 -9,66 0,163 -0,444 Confianza institucional -0,08 0,08 -0,98 -0,053 Género (femenino)=1) Edad Tema de estudio SHAPE vs. STEM (1=STEM) 0,08 0,12 -0,12 0,09 0,08 0,09 0,91 1,59 -1.31 0,038 0,062 -0,053 basadas en la APP, es menos probable que aprueben que su universidad se acerque a ellos de manera proactiva para brindarles servicios de asesoramiento y apoyo. ajuste aceptable (�2(231)=396.56, p=< 0,001; RMSEA=0,04 IC [0,03, 0,04]; TLI=0,97). Los resultados sugieren que, si bien las preocupaciones por la 2 Los estudiantes con un índice de suma positivo de percepciones de daño individual y social fueron asignados al grupo con privacidad no parecen ser un factor determinante de las percepciones de daño, existe un efecto de discriminación experimentada previamente, donde una mayor discriminación experimentada conduce a mayores percepciones de daño individual. El efecto es pequeño y significativo.significativa, � = 0,30, SE = 0,09, p = 0,001, �estandarizado = 0,16). La confianza de los estudiantes en la IA y la confianza institucional, los resultados sugieren que esta última no muestra ningún efecto significativo. Al mismo tiempo, el primero es el principal impulsor de las percepciones de daños, mostrando un efecto medio significativo en los daños individuales percibidos (� = 0,53, SE = 0,05, p =< 0,001,�estandarizado=-0,44) y daños sociales ( �=-0,71, SE= 0,05, p=< 0,001,�estandarizado=-0,59). mayores percepciones de daño, y los estudiantes con un índice de suma negativo al grupo con menores percepciones de daño, respectivamente. 4.5. Evaluación de los estudiantes sobre la implementación de la APP Finalmente, los resultados de la evaluación de APP documentan las preferencias y expectativas de los estudiantes con respecto a la implementación de sistemas APP en las IES. En la Tabla6Por un lado, se tiene la calificación global ponderada de los estudiantes de varias afirmaciones relacionadas. Por otro lado, comparamos a los estudiantes que muestran percepciones de daño más bajas con los estudiantes que muestran percepciones de daño más altas, realizando múltiples pruebas t utilizando la corrección de Benjamini-Hochberg (Thissen et al.,2002) para comparaciones múltiples. 2 Los tres primeros ítems se refieren a la autonomía de los estudiantes en la decisión de participar y divulgar sus datos. En general, los resultados sugieren que los estudiantes quieren decidir por sí mismos si están sujetos a la APP, que, en conjunto, son algo reacios a proporcionar sus datos para la APP de forma voluntaria y que prefieren poder decidir cuáles de sus datos se utilizan para la APP. Los cuatro ítems siguientes abordan las preferencias de accesibilidad y explicabilidad de los resultados de la APP. En primer lugar, los estudiantes están muy a favor de conocer sus predicciones individuales y sugieren abrumadoramente que sólo ellos deberían conocerlas, nadie más. En segundo lugar, en promedio, a los estudiantes les preocupa que sus profesores conozcan sus predicciones. Por último, los estudiantes informan inequívocamente que les gustaría que se les expliquen sus predicciones individuales. La segunda mitad de los ítems se refería a las preferencias de los estudiantes sobre las consecuencias de la APP. Si bien es más probable que los estudiantes estén de acuerdo con que se les ofrezcan medidas de apoyo individualizadas 14 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Al abordar la cuestión de quién debería proporcionar servicios de orientación y apoyo, los estudiantes claramente prefieren a los asesores independientes de orientación estudiantil en lugar de a sus instructores. Una prueba t de muestras pareadas revela una diferencia media significativa de -0,63 (IC del 95 % [-0,75, -0,50]) entre estas dos opciones, t(749,00) = -10,06, p = < 0,001, bilateral. Los estudiantes rechazan firmemente las medidas de apoyo obligatorias para aquellos con malas predicciones de rendimiento, expresando un deseo de autonomía para decidir si utilizar las oportunidades de consulta y apoyo. Sin embargo, su postura es menos clara con respecto a si el conocimiento de las predicciones de rendimiento individuales los motivaría a buscar servicios de consulta voluntarios. En términos generales, los estudiantes insisten en que cualquier predicción de rendimiento no debería conducir a consecuencias impuestas por la universidad en sus estudios debido a la implementación del APP. Al mismo tiempo, muestran sentimientos encontrados sobre si se debería aprovechar el APP para identificar cursos desafiantes y reestructurar los programas de estudio en consecuencia. Una comparación entre estudiantes con percepciones de daño más bajas y aquellos con percepciones de daño más altas revela diferencias significativas entre los dos grupos. Los estudiantes con percepciones de daño más altas son notablemente menos propensos a proporcionar voluntariamente sus datos para la predicción del desempeño por parte de la IA y demuestran una mayor demanda de la capacidad de decidir qué datos propios se utilizan para la predicción del desempeño. La preocupación de que los instructores que tienen acceso a las predicciones de los estudiantes puedan calificarlos más bajo en sus cursos también es más pronunciada entre aquellos con percepciones de daño más altas. Además, los estudiantes con percepciones de daño más altas demuestran menos acuerdo con las medidas de apoyo individuales ofrecidas en función de la predicción del desempeño por parte de la IA. También están menos dispuestos a aceptar servicios de asesoramiento voluntarios si conocieran sus predicciones individuales. 5. Discusión 5.1. Diferencias y puntos en común entre estudiantes y población en su aprobación de la IA en diversas áreas de aplicación En una respuesta a la pregunta 1, sugerimos que los estudiantes son significativamente más partidarios del uso de sistemas de IA en varias áreas de aplicación, pero no en todas, en comparación con la población media en Alemania. Este mayor apoyo al uso de la IA en áreas como la vida cotidiana o la movilidad podría deberse a varios factores. Por ejemplo, los estudiantes alemanes, como un grupo demográfico comparativamente más joven y con mayor nivel educativo, pueden mostrar un mayor apoyo a las nuevas tecnologías en comparación con el ciudadano alemán medio (Zhang y Dafoe, 2008).2019), perciben una mayor competencia tecnológica o reconocen beneficios más sustanciales, utilidad o facilidad de uso, ya que estos factores han demostrado influir en las actitudes hacia la tecnología y los sistemas basados en IA (Ardies et al.,2015; Gado y otros,2022; Kim y otros,2020; Mays y otros,2022; Mitzner y otros,2010;Teo y Zhou,2014). 15 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Tabla 6 Evaluación de los estudiantes sobre la implementación de la APP. Artículo Uno debería poder decidir por sí mismo si una La predicción del rendimiento se realiza en base a los propios datos. Proporcionaré voluntariamente mis datos para el rendimiento. predicción por IA. Uno debería poder decidir cuáles de sus propios datos son Se utiliza para predecir el rendimiento. La propia predicción del rendimiento debería ser accesible para cada estudiante en todo momento. Sólo el propio estudiante debería poder ver sus predicción de rendimiento propio. Me preocupa que los instructores que pueden ver a los estudiantes La predicción les hará obtener calificaciones más bajas en sus cursos. Me gustaría que me explicaran cómo fue mi desempeño. La predicción se hizo realidad. Basándose en la predicción del rendimiento por IA, el individuo Se deben ofrecer medidas de apoyo. Si tengo una predicción de rendimiento pobre, quiero que La universidad se pondrá en contacto conmigo activamente y me ofrecerá asesoramiento. y servicios de apoyo. Servicios de asesoramiento basados en predicción del rendimiento de IA Deberían ser proporcionados por los profesores de mi estudio. programa. El asesoramiento basado en la predicción del rendimiento de la IA debería ser realizado por el estudio independiente de mi universidad Servicio de asesoramiento. La participación en medidas de apoyo debería ser obligatoria para estudiantes con una predicción de rendimiento pobre. Me gustaría poder decidir por mí mismo si tomo Aproveche los servicios de asesoramiento y apoyo. Si supiera mi predicción de rendimiento, estaría más dispuesto a tomar servicios de asesoramiento voluntario. Mi predicción personal no debería tener consecuencias. la universidad para mi curso de estudios. Los resultados de la predicción del rendimiento de la IA deben ser Se utiliza para identificar cursos demasiado desafiantes y reestructurar el programa de estudios en consecuencia. Estudiantes con mayor percepción de daños Media (DE) t (gl) p (BenjaminiHochberg corregido) La D de Cohen Media (DE) Estudiantes con menor percepción de daños Media (DE) 4,43 (0,95) 4,34 (0,96) 4,45 (1,00) -1,30 (549,32) 0,335 0,11 2,62 (1,28) 3.28 (1.21) 2.07 (1.10) 12,29 (526,01) <. 001 1.05 3,69 (1,38) 3,53 (1,41) 3,82 (1,34) -2,45 (533,93) 0,046 0,21 4.20 (1.30) 4.23 (1.30) 4.17 (1.29) 0,54 (543,11) 0,725 0,05 4,40 (0,94) 4.30 (1.04) 4,42 (0,90) -1,44 (514,13) 0.300 0,12 3,97 (1,06) 3,64 (1,11) 4,21 (0,97) -6,47 (513,88) <. 001 0,55 4,61 (0,75) 4,58 (0,74) 4,61 (0,77) -0,41 (550,36) 0,776 0,04 3,76 (1,12) 3,98 (1,00) 3,53 (1,18) 4,92 (556,96) <. 001 0,41 3,29 (1,27) 3,34 (1,21) 3.21 (1.34) 1,26 (555,47) 0,335 0,11 2,98 (1,19) 3.06 (1.12) 2,89 (1,20) 1,78 (552,81) 0,174 0,15 3,61 (1,07) 3,60 (1,03) 3,59 (1,12) 0,14 (554,19) 0,889 0,01 1,74 (1,06) 1,76 (1,03) 1,73 (1,06) 0,29 (548,03) 0,826 0,02 4,54 (0,82) 4,56 (0,78) 4,50 (0,87) 0,82 (556,21) 0,553 0,07 3,31 (1,15) 3,66 (1,07) 3,00 (1,14) 7.01 (552.34) <. 001 0,59 4,50 (0,90) 4,51 (0,89) 4,44 (0,98) 0,83 (555,21) 0,553 0,07 3,36 (1,24) 3,48 (1,24) 3,25 (1,22) 2,25 (542,09) 0,066 0,19 Todos los estudiantes En resumen, estos hallazgos indican que la aprobación de la IA diverge significativamente entre diferentes dominios de aplicación y depende del grupo específico en consideración. Cuando se trata de APP, esto requiere una comparación más matizada de las respectivas percepciones sobre daños y discriminación, en particular diferenciando entre la población general y los estudiantes afectados en tal contexto. Curiosamente, no observamos estas diferencias en el apoyo en áreas críticas para la seguridad, como los tribunales, el ejército y las agencias de inteligencia. En estos contextos, el uso de la IA es generalmente rechazado. Los encuestados pueden albergar temores relacionados con las armas autónomas o asociar la IA con armas biológicas.sistemas basados como el sistema COMPAS, conocido por discriminar a las personas de color (Angwin et al.,2016). Si bien un estudio reciente ha indicado que la población alemana generalmente informa un conocimiento limitado y preocupación sobre cuestiones éticas de IA (Kieslich et al.,2023), también es posible que las narrativas de la ciencia ficción popular puedan ser evocadas y volverse importantes en estos contextos (Cave y Dihal,2019; Laakasuo y otros,2018,2021). Además, nuestros hallazgos revelan que los estudiantes y la población en general son ambivalentes sobre el uso de la IA. Si bien los estudiantes favorecen las aplicaciones de IA en áreas con las que pueden tener una interacción limitada o abstracta (por ejemplo, producción industrial, movilidad, banca, atención médica) o áreas que han experimentado personalmente (por ejemplo, vida cotidiana), muestran un apoyo variado y ambiguo para el uso de IA en escuelas y universidades. Este resultado subraya la naturaleza polémica del debate en torno a la IA. Aunque a menudo se asocia con muchos beneficios, la IA también parece generar preocupaciones significativas. 16 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 5.2. Igual evaluación de riesgos pero mayor percepción de daños y discriminación de APP por parte de los estudiantes Por lo tanto, examinar la APP como una aplicación específica relevante para los estudiantes ayuda a comprender con más detalle las percepciones, lo que permite una evaluación menos abstracta de las opiniones de los encuestados sobre la IA cuando se presenta un sistema de IA en particular. Si bien la evaluación general del riesgo de la APP no difiere de la de la población general (como lo demuestra el hecho de que los estudiantes tienen una evaluación del riesgo similar y una evaluación del riesgo menor en comparación con lo que la UE podría asignar a la APP), el análisis proporciona más información clave sobre las perspectivas individuales. Posteriormente, nuestro estudio, considerando los daños individuales y sociales y la discriminación, revela un panorama más complejo. Las percepciones más fuertes de los daños sociales e individuales, junto con las preocupaciones sobre la discriminación, indican un cambio en las opiniones de los estudiantes sobre el uso de la IA. Si bien en general pueden favorecer la IA en otros campos de aplicación, este sentimiento cambia cuando la implementación de la IA los afecta personalmente. A la luz de estos hallazgos, nuestros resultados difieren de los de Kieslich et al.2023), lo que sugiere una baja conciencia y preocupación entre los grupos potencialmente más afectados por las consecuencias de las aplicaciones sesgadas de la IA.En cambio, esto puede ser indicativo del “efecto No-en-mi-patio-trasero” (Arning et al.,2019;Devine-Wright,2013), que afirma que los grupos más afectados tienen una mirada más crítica y, en consecuencia, tienen mayores percepciones de riesgo y daño, ya que pueden identificarse más fuertemente con el impacto de los riesgos potenciales y las consecuencias perjudiciales o incluso discriminatorias asociadas. Por lo tanto, nuestros resultados respaldan a Crockett et al. (2020) los hallazgos de queCuanto más personal o grave sea el impacto potencial de una decisión de IA, mayor será la percepción del daño. Por lo tanto, es menos sorprendente que no 17 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 son de importancia. También se debe prestar especial atención a los grupos que ya están marginados en situaciones cotidianas y que, por lo tanto, pueden ser especialmente sensibles a tales cuestiones. Como sugieren nuestros resultados, los estudiantes que ya han tenido experiencias cotidianas de discriminación personal temen niveles particularmente altos de daño por parte de la APP. En este sentido, las minorías, en particular, necesitan ser protegidas de los efectos negativos, y los peligros del sesgo social deben analizarse a fondo y evitarse antes de introducir la APP (Fazelpour y Danks,2021; Keller y otros,2022). Así, vemos que si bien los sistemas de IA son percibidos como más justos en muchos aspectos por las personas con experiencia de discriminación en comparación con los tomadores de decisiones humanos (Koch–Bayram et al.,2023), nuestros hallazgos sugieren que Los estudiantes perciben significativamente menos daños individuales causados por las APP, ya que no se ven afectados personalmente. Al igual que los estudiantes, califican el daño social y la discriminación como más altos que el daño individual, pero en general, continúan calificándolos significativamente más bajos que los estudiantes. Este resultado sugiere que las calificaciones de aprobación abstractas de las aplicaciones de IA pueden no capturar completamente los matices de las percepciones, especialmente cuando se evalúa una aplicación de IA en particular. Como respuesta a la pregunta 2, nuestros hallazgos demuestran que, si bien los estudiantes y la población en general pueden parecer inicialmente alineados en sus evaluaciones de riesgo de APP, surgen variaciones significativas en sus percepciones de los daños individuales y sociales y la posible discriminación, como lo indican las diferencias notables en los puntos de vista sobre APP y las preocupaciones más pronunciadas de los estudiantes. Estos hallazgos son cruciales a la luz de los valores humanos y educativos fundamentales. Haciendo eco de la investigación que aboga por una ética centrada en el ser humano y el estudiante en la AIEd (Brossi et al.,2022;Renz y Vladova,2021), es imperativo involucrar a los estudiantes en el diseño e implementación de sistemas de IA para fomentar entornos de aprendizaje inclusivos. La investigación empírica subraya además la importancia de alinear la APP con estas aspiraciones, en particular cómo se distribuyen las medidas de apoyo (Lünich et al.,2024). La preferencia de los estudiantes por una distribución basada en la igualdad basada en la APP, independientemente de si las decisiones las toman humanos o algoritmos, refleja un deseo de trato justo en los entornos educativos. Al mismo tiempo, existen variaciones notables en cómo se percibe la equidad en función de diferentes normas de justicia distributiva. Por lo tanto, es necesario incorporar continuamente las perspectivas de los estudiantes en todas las fases del desarrollo e implementación de la IA dentro de los entornos educativos para abordar la interacción entre la tecnología y los valores humanos. Al hacerlo, las IES pueden garantizar que los sistemas de IA como APP no solo se adhieran a los estándares éticos, sino que también resuenen con los valores y las expectativas de los más afectados por su uso. 5.3. La discriminación experimentada y la confianza en la IA como factores que explican la percepción del daño Al observar los factores individuales que explican las percepciones de daño de los estudiantes y, por lo tanto, proporcionar una respuesta a la pregunta 3, vemos que solo la discriminación experimentada y la confianza en la IA ayudan a explicar las percepciones de daño hacia APP. Con respecto a las preocupaciones sobre la privacidad, no encontramos ninguna influencia en la percepción de daño de los estudiantes en nuestro análisis y, por lo tanto, no podemos confirmar los resultados de Araujo et al. (2020) y Lobera et al. (2020) en relación con la percepción del daño por parte de los estudiantes en el contexto de la APP. Por un lado, esto podría indicar la alta dependencia del contexto de la percepción del sistema de IA, como ya se ha demostrado en muchos otros dominios (Starke et al.,2022). Por otro lado, debemos ser conscientes de que los estudiantes tienen diferentes niveles de conciencia y conocimiento del procesamiento de datos en el contexto de la AIEd (Jones, Asher et al.,2020). En este sentido, necesitamos averiguar cuáles son las suposiciones de los estudiantes sobre la recopilación y el uso de datos para fines de APP. Aunque las preocupaciones por la privacidad en nuestro estudio no influyen directamente en las percepciones de los estudiantes sobre el daño hacia APP, analizaremos el papel crítico de las cuestiones relacionadas con los datos en las percepciones de los estudiantes sobre el uso de APP en la siguiente sección. En cuanto a la experiencia de discriminación, queda claro que en el contexto de las aplicaciones de IA, no solo los riesgos de discriminación están influenciados por el diseño algorítmico (el llamado sesgo estadístico, Mitchell et al.2021)) y las percepciones asociadas de justicia, que han recibido mucha atención en la literatura, 10 entrada, sino tambiénComputadoras por su privacidad lo que respecta a su APP y Educación:en Inteligencia Artificial 7 (2024) 100305 personal, ya que no quieren que nadie más que ellos mismos conozca sus predicciones. Los estudiantes son bastante sensibles a las consecuencias sociales de la implementación sociotécnica de la AIEd, ya que consideran que la transparencia y la explicabilidad son factores importantes. Además, el deseo de autonomía mencionado anteriormente también se refleja en la preferencia de los estudiantes a la hora de abordar medidas de apoyo basadas en la APP. Además, los estudiantes muestran cierto escepticismo hacia sus universidades, en particular hacia sus profesores. Este escepticismo se manifiesta en cuatro preocupaciones clave: primero, la aprensión de que sus profesores puedan descubrir sus predicciones; segundo, una preferencia contra su universidad.Versity se compromete de forma proactiva con ellos si se produce una predicción errónea; en tercer lugar, M. Lünich, B. Keller y F. Marcinkowski Esto no significa automáticamente que estos grupos de personas también atribuyan menos daño a los algoritmos. Por ejemplo, KochBayram et al. (2023) señalan de manera similar que los sistemas de IA no son percibidos como menos sesgados o más precisos (en comparación con los tomadores de decisiones humanos). En cambio, los grupos de estudiantes marginados, que tienen más probabilidades de verse afectados por el sesgo algorítmico (Baker y Hawn,2022)– pueden estar en mayor riesgo y tener preocupaciones por la perpetuación de estereotipos. El segundo factor que explica las percepciones de daño de los estudiantes relacionadas con la APP en nuestro análisis es un nivel general de confianza en la IA. Este efecto es el principal impulsor de la percepción de daño, ya que una baja confianza en la IA conduce a una mayor percepción individual y social de daño. En este contexto,La demanda de AIHLEG (2019) de una "IA confiable" puede parecer razonable, ya que la confianza puede promover la implementación exitosa de la APP (Drachsler y Greller,2016). En concreto, la confianza puede tener efectos tanto positivos como negativos en el éxito del sistema de IA, dependiendo de su grado. Por ejemplo, Gedrimiene et al. (2023) ya han demostrado que un alto nivel de confianza en la IA tiene un impacto positivo en la disposición a seguir la recomendación de un algoritmo. Además, nuestros hallazgos indican que un bajo nivel de confianza puede, a su vez, aumentar la percepción de daño del sistema. En este contexto, la confianza puede verse como un mecanismo que proporciona orientación en situaciones de incertidumbre, como es el caso del uso de la IA en general y el uso de las aplicaciones en particular (Lee,2018). Sin embargo, también debemos recordar que la confianza no necesariamente interactúa con la oposición a una decisión, como dicen Lünich y Kieslich (2022) sugieren. También en el contexto de las aplicaciones móviles, en una situación en la que deben tomarse decisiones reales, la confianza en la IA puede no mostrar ningún efecto, lo cual debe explorarse más a fondo. Curiosamente, sin embargo, las percepciones de los daños están influenciadas exclusivamente por... La confianza en la IA influye de forma positiva, pero no en la confianza en la implementación de las IES. A la luz de este hallazgo, se puede suponer que a los desarrolladores de aplicaciones (normalmente no automáticamente los empleados de las IES) se les atribuye una mayor responsabilidad por el desarrollo de una IA fiable que a los usuarios finales. Como mínimo, se confía en que las universidades desarrollen aplicaciones de IA para el bien común (Zhang y Dafoe, 2005).2019). Además, esto indica que los estudiantes son hasta ahora menos conscientes del riesgo de sesgo potencial resultante de las actividades de seguimiento.ciones de la IES basadas en la APP (Kizilcec & Lee,2022). Sin embargo, esta conjetura también requiere más investigación empírica. 5.4. Evaluación de los estudiantes sobre la implementación de la APP Por último, respondiendo a la pregunta 4, arrojamos luz sobre las preferencias de los estudiantes para implementar APP como un sistema sociotécnico. Curiosamente, si bien las preocupaciones por la privacidad no influyen en las percepciones de daño con respecto a APP, los estudiantes prefieren tener un alto grado de autonomía sobre sus datos personales, quieren decidir qué datos se utilizarán y, en general, son más reacios a proporcionar sus datos a APP de forma voluntaria. Tales demandas son aún más pronunciadas para los estudiantes con mayores percepciones de daño. Este hallazgo es consistente con varios trabajos que enfatizan el miedo a perder la autonomía (Schumacher e Ifenthaler, 2000).2018; Slade y otros,2019) y la demanda de control personal por parte de los estudiantes (Sun et al.,2019). Sin embargo, la renuencia a compartir datos personales podría causar problemas para las IES, ya que AIEd depende de grandes cantidades de datos (Reidenberg y Schaub,2018), y la negativa de ciertos grupos de estudiantes a participar puede conducir a predicciones más pobres y consecuencias discriminatorias (Li et al.,2022). Además, los estudiantes no solo se preocupan por sus datos de 10 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Además, es pertinente considerar cómo las calificaciones y los antecedentes socioeconómicos de los estudiantes podrían dar forma a sus puntos de vista sobre compartir información personal con su IES. Este aspecto no se exploró en el presente estudio, pero podría influir significativamente en las percepciones y vale la pena investigarlo en futuras investigaciones. Sin embargo, es importante señalar que nuestros resultados deben interpretarse en el contexto de esta limitación. Los estudios futuros deben incluir las ventajas y los usos percibidos, su ponderación y el equilibrio final para proporcionar una perspectiva más integral sobre la APP. En cuarto lugar, un mayor aprecio por los servicios de asesoramiento académico independientes en lugar de la orientación de sus propios profesores; y, en cuarto lugar, un rechazo a las consecuencias impuestas por la universidad relacionadas con su curso de estudio. Estos sentimientos indican colectivamente una relación compleja entre los estudiantes y sus instituciones educativas, que refleja tanto un deseo de autonomía como –como era de esperar– una falta de confianza total en las estructuras tradicionales de asesoramiento académico, aunque el estudio no identificó la confianza institucional como un factor impulsor de las percepciones de daño. Esta complejidad sugiere que las preocupaciones de los estudiantes pueden tener su raíz en aspectos específicos de la relación institucional en lugar de una desconfianza generalizada, lo que destaca la necesidad de una comprensión más matizada y de intervenciones potencialmente específicas dentro del entorno académico. 5.5. Limitaciones Este estudio tiene la limitación de que se realizó exclusivamente en Alemania, por lo que los resultados podrían no ser generalizables a otros contextos. No obstante, sostenemos que centrarse en el caso alemán es de particular importancia, una postura que está anclada en nuestro diseño empírico. Alemania se ha establecido como un contribuyente crucial a la regulación de la IA dentro de la UE, asumiendo un papel de liderazgo regulatorio en el desarrollo de la Ley de IA. En consecuencia, por un lado, es crucial investigar cómo la población alemana lidia con los problemas relacionados con las regulaciones de la IA. Esta necesidad de investigación adicional incluye si el público está adquiriendo conciencia de las complejidades y desafíos planteados por la IA y, más específicamente, cómo está adquiriendo conocimiento sobre estos temas. Por otro lado, comprender las percepciones públicas actuales es imperativo, ya que pueden dar forma a la futura legislación y la implementación de tecnología. Las actitudes y creencias sostenidas por la población alemana podrían influir directa o indirectamente en la trayectoria de la política de IA, por lo que es vital considerar este aspecto al analizar posibles desarrollos futuros. Por lo tanto, si bien el enfoque geográfico en Alemania puede considerarse una limitación, también brinda una oportunidad única para estudiar un contexto altamente influyente en la gobernanza de la IA. Los conocimientos adquiridos en este entorno pueden arrojar luz sobre los avances en materia de políticas a nivel de la UE y a nivel mundial. Nuestro estudio también puede tener una limitación, ya que no pregunta sobre los usos y ventajas percibidos de la tecnología y en qué medida estos pueden superar los daños percibidos. Sin embargo, nos centramos específicamente en la importancia de la conciencia de los riesgos como una cuestión central de la Ley de IA de la UE y la literatura más amplia sobre evaluación de la tecnología (Grunwald,2019). Si bien nuestro enfoque de encuesta estandarizada no permite un análisis profundo de todos los riesgos potenciales asociados con la APP, la operacionalización de múltiples ítems nos permite cuantificar la evaluación de riesgos y probar las diferencias entre estudiantes y no estudiantes. Comprender los daños de la APP es de vital importancia, ya que ayuda a los tomadores de decisiones políticos y administrativos a prepararse, mitigar o prevenir posibles impactos sociales negativos de la implementación de tecnología. La ignorancia de los daños potenciales puede llevar a decisiones desinformadas que resultan en consecuencias no deseadas. Por el contrario, uno puede objetar una perspectiva más bien tecnopesimista que se centra principalmente en las desventajas potenciales. Aún así, un enfoque socialmente responsable para la implementación de IA garantiza un desarrollo considerado y responsable. El enfoque en el riesgo y los daños permite una exploración en profundidad de este aspecto particular de la APP y una base para posibles mejoras. 11 investigación para comprender implicaciones de Artificial tales percepciones Computadoraslas y Educación: Inteligencia 7 (2024) 100305 para las actitudes hacia la IA, el comportamiento social posterior y la implementación institucional de la IA. En consecuencia, recomendamos emplear diseños de investigación experimentales o longitudinales para rastrear posibles desarrollos positivos o negativos a lo largo del tiempo. Además, se deben considerar variables dependientes críticas como la confianza en la IA, las actitudes hacia la tecnología y los aspectos conductuales reales del uso y la implementación de la IA para proporcionar un análisis más completo. M. Lünich, B. Keller y F. Marcinkowski 6. Trascendencia 6.1. Implicaciones para los responsables de las políticas y los administradores de la educación superior Como lo ha indicado la Comisión Europea (2021) está siguiendo un enfoque basado en el riesgo en su novedosa Ley de IA, existen varias implicaciones que los responsables de las políticas y los administradores de la educación superior deberían considerar. Los encuestados, que muestran algunas reservas considerables pero también aprobación, sonLos estudiantes están divididos en cuanto a la evaluación de riesgos más altos de APP. Este dilema con respecto a las perspectivas regulatorias sugiere que, aunque solo cuentan con el apoyo de una mayoría dudosa, puede que no haya una comprensión fundamental entre los estudiantes y la población en general sobre los riesgos y complejidades potenciales involucrados en la implementación de IA en entornos educativos, lo que apunta a conflictos sociopolíticos. Sin embargo, no difieren en su evaluación, lo que sugiere una actitud social ambivalente hacia APP. La implementación exitosa de la AIEd depende en gran medida de las percepciones de todas las partes interesadas, especialmente los estudiantes. Por lo tanto, los administradores universitarios deben mostrar tacto para aprovechar los beneficios potenciales de la AIEd. En este sentido, la implementación de la AIEd parece ser una especie de cuerda floja.caminar por las IES, ya que el rechazo de la AIEd puede tener consecuencias de largo alcance, como lo demuestran los investigadores (Marcinkowski et al.,2020) así como se ve en el ejemplo de las solicitudes fallidas (Edwards,2021). Este estudio ha demostrado que los estudiantes están preocupados por los posibles daños individuales y sociales y la discriminación que puede causar la aplicación de la IA, y que tienen preferencias matizadas para su implementación. Nuestros hallazgos también pueden ser puntos de referencia útiles para otras aplicaciones de la IA. Los líderes educativos deben reconocer y abordar estas complejidades para generar confianza, mantener la autonomía y la capacidad de acción de los estudiantes y alinear las prácticas institucionales con la comprensión social y regulatoria más amplia de los posibles riesgos y beneficios de la IA. En resumen, los responsables de las políticas y los administradores deben considerar los tres aspectos siguientes. En primer lugar, deben contemplar la implementación de mecanismos transparentes que aclaren cómo se utilizará la IA en los entornos educativos para aliviar las preocupaciones y los conceptos erróneos. En segundo lugar, proporcionar acceso a servicios de asesoramiento independientes puede reforzar la confianza y ofrecer una orientación imparcial. En tercer lugar, debe haber un equilibrio cuidadoso en la implementación de la IA con consideraciones éticas, reconociendo las diferentes percepciones y el impacto potencial en los estudiantes individuales, para garantizar un enfoque responsable y empático. Estas consideraciones tienen como objetivo orientar a las IES en el fomento de un entorno de apoyo donde la IA pueda implementarse de manera responsable, abordando las oportunidades y las preocupaciones legítimas expresadas por los estudiantes y otras partes interesadas. 6.2. Implicaciones de la investigación Como Kieslich et al. (2023) muestran que la población alemana parece tener una conciencia limitada de los problemas éticos relacionados con la IA. Sin embargo, nuestros hallazgos indican que cuando se les pregunta sobre aplicaciones específicas de la IA, los encuestados podrían presentar una evaluación más matizada. Por lo tanto, surge el problema de si un aumento en la conciencia de la IA, ya sea a través de la experiencia directa con aplicaciones de IA (Jang et al.,2022), fortaleciendo la alfabetización en IA y algoritmos (Dogruel et al.,2022; Laupichler y otros,2022; Ng y otros,2021), o mediante una cobertura mediática más amplia o más específicamente dirigida (Kieslich,2022)–provocar cambios en las percepciones e intenciones de comportamiento con respecto a la AIEd y la APP. Además, tras destacar las opiniones divergentes entre los estudiantes y la población en general con respecto al uso y la implementación de la IA en la educación superior, se requiere más 12 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 resultados de la evaluación de los estudiantes sobre los APP sugieren preferencias matizadas pero notables. Los hallazgos de nuestro estudio abren el camino a medidas proactivas para abordar posibles preocupaciones y adaptar la implementación de la APP para satisfacer diversas necesidades y expectativas sociales. También facilitan el diálogo constructivo entre todas las partes interesadas, incluidos los tomadores de decisiones dentro del sistema político-administrativo y en las IES, lo cual es fundamental para dar forma a las políticas de AIEd en el futuro. Nuestros resultados alinean la implementación comprensión de la evaluación de los encuestados sobre la AIEd y sus efectos.En términos generales, a la luz de nuestros hallazgos, se deberían realizar más investigaciones para investigar la conexión entre la discriminación experimentada personalmente y la confianza en la IA con las percepciones de daño, las actitudes hacia la IA y las consiguientes demandas públicas para la implementación de la IA. Asimismo, las futuras investigaciones sobre la APP y la aceptación de la AIEd deben considerar las características del entorno educativo donde se implementa la asistencia basada en datos. Las consecuencias de las experiencias de discriminación y la confianza de los estudiantes pueden variar según el enfoque pedagógico, la dinámica que involucra a los profesores y estudiantes y los métodos de enseñanza empleados (Aleven et al.,2023; Ma y otros,2014Surgen preguntas sobre hasta qué punto mejora el rendimiento académico y cómo perciben los estudiantes la aceptabilidad de las implementaciones de APP en medio de escenarios de aprendizaje en evolución. Además, es esencial reconocer que preguntar sobre campos de aplicación bastante abstractos de la IA puede seguir siendo abstracto en la mente de los encuestados. Nuestro diseño de investigación no nos permite determinar las asociaciones de los individuos con aplicaciones específicas de la IA y sus campos correspondientes, una conexión que puede estar muy influenciada por experiencias personales o el encuadre de los medios (Brewer et al.,2022; Zhang y Dafoe,2019). Estas asociaciones individuales podrían determinar aún más la aprobación o desaprobación de la IA en diversos contextos y merecer atención a través de enfoques de investigación no estandarizados. En consecuencia, proponemos un enfoque doble. Por un lado, sugerimos diseños de investigación que presenten a los estudiantes las entradas, los rendimientos y los resultados reales de las aplicaciones de aprendizaje automático en IA, como APP. Esta presentación permitiría a los estudiantes comprender mejor los procesos subyacentes y podría influir en sus percepciones. Por otro lado, en respuesta a la creciente demanda de IA explicable (XAI), recomendamos encarecidamente que la investigación en ciencias sociales implemente y evalúe procedimientos de IA de caja blanca, como árboles de decisión o explicaciones contrafácticas (Rudin,2019). Estos métodos transparentes permiten un examen y una comprensión detallados de los procesos de IA (Larsson y Heintz,2020;Memarian y Doleck,2023). Al mejorar la transparencia y la explicabilidad, es posible mitigar las percepciones de daños y aumentar la aceptación de las aplicaciones de IA. Este enfoque integrado podría proporcionar una comprensión más completa del sentimiento público hacia la IA, abordando tanto los factores técnicos como los humanos que configuran la percepción y la aceptación. 7. Conclusión Realizamos una encuesta a gran escala con estudiantes alemanes y la población en general para evaluar las percepciones públicas de las aplicaciones basadas en IA en la educación superior. Como sugieren los datos, los estudiantes generalmente tienen más probabilidades de aprobar el uso de IA en diferentes áreas de sus vidas que el resto de la población. Sin embargo, la diferencia en la aprobación desaparece cuando se sugiere la IA en áreas de la vida social que conllevan un riesgo considerable para el individuo. En consecuencia, en comparación con la población alemana, los estudiantes muestran mayores percepciones de los riesgos y daños que conlleva la aplicación de las aplicaciones. Un análisis exploratorio sugiere que los principales impulsores de las percepciones de los daños difieren en función del daño en consideración. La confianza en la IA surge como el factor central para el daño social percibido. En el caso de los daños individuales percibidos, la confianza en la IA y la discriminación experimentada se identifican como los principales impulsores. Esta distinción destaca la naturaleza multifacética de cómo la confianza y las actitudes y experiencias personales influyen en la percepción del impacto de la IA. En lo que respecta a los posibles caminos que puede tomar la implementación de sistemas APP sociotécnicos, nuestros 13 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) Abu Saa, A., Al-Emran, M.100305 y Shaalan, K. (2019). Factores que afectan el desempeño de los estudiantes en Educación superior: una revisión sistemática de técnicas de minería de datos predictivos. Tecnología Tecnología, Conocimiento y Aprendizaje, 24(4), 567– 598. https://doi.org/10.1007/s10758-019- 09408-7. Las tecnologías de IA en la educación se complementan con la visión de la UE de una IA fiable y socialmente responsable. Sirven como brújula, orientando no solo la mejora del rendimiento académico mediante IA, sino también la preservación de los valores y las necesidades de las partes interesadas en el cambiante panorama de la IA en la educación. Mantener abiertas las líneas de comunicación se vuelve indispensable para la integración continua de la IA en la sociedad y la educación. Esta apertura garantiza que la implementación de la tecnología tenga la oportunidad de desarrollarse de una manera respetuosa, ética y mutuamente beneficiosa. Declaración de ética El proyecto de investigación fue aprobado por la Universidad Heinrich Heine de Düsseldorf y todos los procedimientos se llevaron a cabo de conformidad con las leyes aplicables, las directrices institucionales y los códigos éticos de conducta para la investigación empírica en ciencias sociales. Como este estudio involucró a participantes humanos, se obtuvo el consentimiento informado de todos los participantes y se respetaron estrictamente sus derechos de privacidad. Declaración de datos abiertos Además, este estudio está comprometido con los principios de datos abiertos.Se puede acceder a datos anónimos y al código para el análisis de datos a través del repositorio de la Open Science Foundation del proyecto:https://osf.io/xvyjd/. Fondos Este estudio se llevó a cabo como parte del proyecto Responsible Academic Performance Prediction (RAPP). El proyecto está financiado por el Ministerio Federal de Educación e Investigación de Alemania [número de subvención 16DHB4020]. Declaración de contribución de autoría de CRediT Marco Lünich:Redacción – revisión y edición, Redacción – borrador original, Validación, Supervisión, Administración de proyectos, Metodología, Investigación, Análisis formal, Curación de datos, Conceptualización. Birte Keller: Redacción – revisión y edición, Redacción – borrador original, Visualización, Validación, Administración de proyectos, Metodología, Investigación, Análisis formal, Curación de datos, Conceptualización.Análisis, Curación de datos, Conceptualización. Frank Marcinkowski: Redacción (revisión y edición), Redacción (borrador original), Supervisión, Recursos, Administración del proyecto, Investigación, Adquisición de fondos, Conceptualización. Declaración de intereses en conflicto Los autores declaran que no tienen ningún interés financiero en competencia ni relaciones personales conocidas que pudieran haber parecido influir en el trabajo presentado en este artículo. Declaración sobre la IA generativa y las tecnologías asistidas por IA en el proceso de escritura Durante la preparación de este trabajo, los autores utilizaron ChatGPT para producir y ajustar el código R y Markdown para el análisis estadístico.Análisis y reproducción del manuscrito. También utilizamos ChatGPT, DeepL y Grammarly para revisar y corregir partes de nuestro borrador escrito del manuscrito. Después de utilizar estas herramientas/servicios, los autores revisaron y editaron el contenido según fuera necesario y asumieron la total responsabilidad por el contenido de la publicación. Referencias 14 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 educación superior Educación: Un análisis cuantitativo utilizando modelos de ecuaciones estructurales. Educación y tecnologías de la información, 25(5), 3443– 3463. https://doi.org/10.1007/s10639020-10159-7. Chiu, TKF, Xia, Q., Zhou, X., Chai, CS y Cheng, M. (2023). Literatura sistemática Revisión de oportunidades, desafíos y recomendaciones de investigación futura de la tecnología artificial. Inteligencia artificial en la educación. Computadoras y educación: Inteligencia artificial, 4, 1–15. https://doi.org/10.1016/j.caeai.2022.100118. Aggarwal, D., Mittal, S. y Bali, V. (2021). Importancia de los parámetros no académicos para predecir el rendimiento de los estudiantes utilizando técnicas de aprendizaje en conjunto. Revista internacional de aplicaciones de dinámica de sistemas, 10(3), 38– 49. https://doi.org/10.4018/ IJSDA.2021070103. Ahmed, SA y Khan, SI (2019). Un enfoque de aprendizaje automático para predecir la ingeniería Estudiantes en riesgo de abandono escolar y factores que lo explican: perspectiva de Bangladesh. En el décimo período interinstitucional Conferencia nacional sobre tecnologías de computación, comunicación y redes (ICCCNT) (págs. 1–6). AI HLEG (2019). Pautas éticas para una IA confiable. Recuperado de https://digitalStrategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Aleven, V., Mavrikis, M., McLaren, BM, Nguyen, HA, Olsen, JK y Rummel, N. (2023). Seis enfoques didácticos apoyados en sistemas AIED. En B. du Boulay, A. Mitrovic, & K. Yacef (Eds.), Manual de inteligencia artificial en educación (pp. 184–228). Edward Editorial Elgar. Alturki, S., Hulpus,, I., y Stuckenschmidt, H. (2022). Predicción de resultados académicos: una encuesta desde 2007 hasta 2018. Tecnología, Conocimiento y Aprendizaje, 27(1), 275–307. https:// doi.org/10.1007/s10758-020-09476-0. Alyahyan, E., y Düştegör, D. (2020). Predicción del éxito académico en la educación superior: Revisión de literatura y mejores prácticas: Revisión de literatura y mejores prácticas. Internacional Revista de Tecnología Educativa en la Educación Superior, 17(1), 1–21. https://doi.org/10. 1186/s41239-020-0177-7. Angwin, J., Larson, J., Mattu, S., y Kirchner, L. (2016). Sesgo de máquina: hay software Se utiliza en todo el país para predecir futuros criminales y está sesgado contra los negros. ProPublica. Recuperado de https://www.propublica.org/article/machine-bias-risk- evaluaciones-en-sentenciaspenales. Araujo, T., Helberger, N., Kruikemeier, S. y de Vreese, CH (2020). ¿En la IA confiamos? Percepciones sobre la toma de decisiones automatizada por inteligencia artificial. IA y sociedad, 35(3), 611–623. https://doi.org/10.1007/s00146-019-00931-w. Ardies, J., Maeyer, S., de Gijbels, D y van Keulen, H. (2015). Las actitudes de los estudiantes hacia tecnología. Revista Internacional de Educación en Tecnología y Diseño, 25(1), 43–65. https://doi.org/10.1007/s10798-014-9268-x. Arning, K., Offermann-van Heek, J., Linzenich, A., Kaetelhoen, A., Sternberg, A., Bardow, A., & Ziefle, M. (2019). ¿Igual o diferente? Perspectivas sobre la percepción y aceptación pública Importancia de la captura y el almacenamiento o la utilización del carbono en Alemania. Política energética, 125, 235–249. https://doi.org/10.1016/j.enpol.2018.10.039. Arnold, KE y Pistilli, MD (2012). Señales de cursos en Purdue: uso de análisis de aprendizaje para aumentar el éxito de los estudiantes. En S. Dawson, C. Haythornthwaite, S. Buckingham Shum, D. Gašević y R. Ferguson (Eds.), Actas de la segunda conferencia internacional sobre Analítica de aprendizaje y conocimiento (LAK 2012)(págs. 267–270). ACM. Askinadze, A., y Conrad, S. (2019). Predicción del abandono escolar en la educación superior basada en sobre los resultados de exámenes anteriores. En MC Desmarais, CF Lynch, A. Merceron y R. Nkam- bou (Eds.), Actas de la 12ª conferencia internacional sobre minería de datos educativos: Sociedad internacional de minería de datos educativos (IEDMS)(págs. 500–503). Attaran, M., Stark, J., y Stotler, D. (2018). Oportunidades y desafíos para el big data Análisis de datos en la educación superior estadounidense. Industria y educación superior, 32(3), 169–182. https:// doi.org/10.1177/0950422218770937. Aulck, L., Velagapudi, N., Blumenstock, J., y West, J. (2016). Predicción del abandono escolar en la educación superior. En el taller de ICML sobre #Data4Good: aprendizaje automático en el bien social aplicaciones. Recuperado de http://arxiv.org/pdf/1606.06364v4. Baker, RS y Hawn, A. (2022). Sesgo algorítmico en la educación. Revista internacional de arquitectura. Inteligencia oficial en educación, 32(4), 1052–1092. https://doi.org/10.1007/s40593- 021-00285-9. Bareis, J., y Katzenbach, C. (2021). La IA hablada: narrativas e imaginarios de las estrategias nacionales de IA y sus políticas performativas. Ciencia, tecnología y derechos humanos Valores, 47(5), 855–881. https://doi.org/10.1177/01622439211030007. Bobrytska, VI, Krasylnykova, HV, Beseda, NA, Krasylnykov, SR y Skyrda, T. S. (2024). Inteligencia artificial (IA) en la educación superior ucraniana: una perspectiva integral Estudio exhaustivo de las actitudes, expectativas y preocupaciones de las partes interesadas. Revista internacional de Aprendizaje, Enseñanza e Investigación Educativa, 23(1), 400–426. https://doi.org/10. 26803/23/2020. Brewer, PR, Bingaman, J., Paintsil, A., Wilson, DC y Dawson, W. (2022). Medios Uso, comunicación interpersonal y actitudes hacia la inteligencia artificial. Ciencia Comunicación, 44(5), 559–592. https://doi.org/10.1177/10755470221130307. Brossi, L., Castillo, AM, & Cortesi, S. (2022). Requisitos centrados en el estudiante para la ética de la IA en la educación. En W. Holmes y K. Porayska-Pomsta (Eds.), La ética de la IA La inteligencia en la educación(págs. 91–112). Routledge. Casanova, JR, Gomes, CMA, Bernardo, AB, Núñez, JC y Almeida, LS (2021). Dimensionalidad y confiabilidad de un instrumento de detección para estudiantes en riesgo de abandono Egreso de la educación superior. Estudios en Evaluación Educativa, 68, Artículo 100957. https://doi.org/10.1016/j.stueduc.2020.100957. Cave, S., y Dihal, K. (2019). Esperanzas y temores de las máquinas inteligentes en la ficción y la realidad. Inteligencia de la máquina de la naturaleza, 1(2), 74–78. https://doi.org/10.1038/s42256-019-00209. Chatterjee, S., y Bhattacharjee, KK (2020). Adopción de inteligencia artificial en la 15 M. Lünich,H., B. David, Keller y P. F. y Marcinkowski Choung, Ross, A. (2023). Confianza y ética en la IA. AI & Society, 38(2), 733–745. https://doi.org/10.1007/s00146-022-01473-4. Costa-Mendes, R., Cruz-Jesus, F., Oliveira, T., & Castelli, M. (2021). Sesgo en el aprendizaje automático En la predicción de las calificaciones de la escuela secundaria: una perspectiva del conocimiento: una perspectiva del conocimiento. Revista de ciencia emergente, 5(5), 576–597. https://doi.org/10.28991/esj-202101298. Crockett, K., Garratt, M., Latham, A., Colyer, E. y Goltz, S. (2020). Riesgo y confianza perceptiva Percepciones del público sobre las aplicaciones de la inteligencia artificial. En Actas de congresos de la conferencia conjunta internacional sobre redes neuronales de 2020 (IJCNN)(págs. 1–8). Daehnhardt, P. (2011). Alemania en la Unión Europea. En R. Wong y C. Hill (Eds.), Políticas exteriores nacionales y europeas(págs. 35–56). Routledge. Destatis (2021). Bildung und Kultur: Studierende an Hochschule. Estadística Federal, Ed. Recuperado de https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/ Bildung-Forschung-Kultur/Hochschulen/Publikationen/Downloads-Hochschulen/ studierende-hochschulen-endg-2110410217004.html. Devine-Wright, P. (2013). Explicación de las objeciones “NIMBY” a una línea eléctrica: el papel de la per- Factores personales, de apego al lugar y relacionados con el proyecto. Environment and Behavior, 45(6), 761–781. https://doi.org/10.1177/0013916512440435. Dogruel, L., Masur, P. y Joeckel, S. (2022). Desarrollo y validación de un algoritmo. Escala de alfabetización para usuarios de Internet. Métodos y medidas de comunicación, 16(2), 115–133. https://doi.org/10.1080/19312458.2021.1968361. Drachsler, H., y Greller, W. (2016). Privacidad y análisis de datos: un tema delicado: una lista de verificación para análisis de aprendizaje confiables. En D. Gašević, G. Lynch, S. Dawson, H. Drachsler y C. Penstein Rosé (Eds.), Actas de la sexta conferencia internacional sobre aprendizaje Análisis y conocimiento - LAK '16(págs. 89–98). ACM Press. Du Boulay, B. (2019). Escapar de la caja de Skinner: el caso de la inteligencia contemporánea entornos de aprendizaje. Revista británica de tecnología educativa, 50(6), 2902–2919. https://doi.org/10.1111/bjet.12860. Duong, MK, Dunkelau, J., Cordova, JA y Conrad, S. (2023). RAPP: Un responsable Herramienta de predicción del rendimiento académico para la toma de decisiones en instituciones educativas. En B. König-Ries, S. Scherzinger, W. Lehner y G. Vossen (Eds.), por cierto 2023. Köllen. Edwards, C. (2021). ¿Dejar que el algoritmo decida? Comunicaciones de la ACM, 64(6), 21–22. https://doi.org/10.1145/3460216. Comisión Europea (2021). Propuesta de reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial) y por la que se modifican determinados actos legislativos de la Unión. Recuperado de https://eurlex.europa.eu/resource.html?uri=cellar:e0649735-a37211eb-958501aa75ed71a1.0001.02/DOC_1&formato=PDF. Fazelpour, S., y Danks, D. (2021). Sesgo algorítmico: sentidos, fuentes, soluciones. Filosofía Brújula, 16(8), 1–16. https://doi.org/10.1111/phc3.12760. Frouillou, L., Pin, C., & van Zanten, A. (2020). ¿Tienen las plataformas APB y parcoursup? promovió la igualdad de oportunidades: La evolución de las normas y procedimientos para el acceso a la educación superior en Francia. L'Année Sociologique, 70(2), 337–363. https://doi.org/10. 3917/anso.202.0337. Gado, S., Kempen, R., Lingelbach, K., y Bipp, T. (2022). Inteligencia artificial en psicología Psicología: ¿Cómo podemos permitir que los estudiantes de psicología acepten y utilicen información artificial? ¿Inteligencia? Psicología Aprendizaje y Enseñanza, 21(1), 37–56. https://doi.org/10.1177/ 14757257211037149. Gedrimiene, E., Celik, I., Mäkitalo, K. y Muukkonen, H. (2023). Transparencia y confianza- Valor en las intenciones de los usuarios de seguir las recomendaciones profesionales de un analista de aprendizaje herramienta lítica. Journal of Learning Analytics, 10(1), 54–70. https://doi.org/10.18608/jla. 2023.7791. Ghosh, AK, Whipple, TW y Bryan, GA (2001). La confianza de los estudiantes y sus antecedentes en Educación superior. Revista de Educación Superior, 72(3), 322– 340. https://doi.org/ 10.1080/00221546.2001.11777097. Glikson, E., y Woolley, AW (2020). Confianza humana en la inteligencia artificial: revisión de Investigación empírica. Academy of Management Annals, 14(2), 627– 660. https://doi.org/ 10.5465/anales.2018.0057. Grunwald, A. (2019). Evaluación de tecnología en la práctica y la teoría. Routledge. Hoffmann, CP y Lutz, C. (2022). El papel contextual de las preocupaciones sobre la privacidad en Internet participación política. Revista Europea de Comunicación, 1– 17. https://doi.org/10. 1177/02673231221139040. Ifenthaler, D., y Schumacher, C. (2016). Percepciones de los estudiantes sobre los principios de privacidad Analítica del aprendizaje. Investigación y desarrollo de tecnología educativa, 64(5), 923–938. https://doi.org/10.1007/s11423-016-9477-y. Jang, Y., Choi, S., y Kim, H. (2022). Desarrollo y validación de un instrumento para Medir las actitudes de los estudiantes universitarios hacia la ética de la inteligencia artificial (AT-EAI) y análisis de sus diferencias según género y experiencia en educación en IA. Educación y Tecnologías de la Información, 27(8), 11635–11667. https://doi.org/10.1007/ s10639-022-11086-5. Jobin, A., Ienca, M. y Vayena, E. (2019). El panorama global de las directrices éticas de la IA. N / A- Inteligencia artificial para máquinas, 1(9), 389–399. https://doi.org/10.1038/s42256-019-00882. Jones, KML, Asher, A., Goben, A., Perry, MR, Salo, D., Briney, KA y Robertshaw, MB (2020). “Nos están siguiendo en todo momento”: perspectivas de los estudiantes sobre su privacidad en relación con la analítica del aprendizaje en la educación superior. Revista de la Asociación para la Ciencia y tecnología de la información, 71(9), 1044-1059. https://doi.org/10.1002/asi. 24358. Computadoras y Educación: Inteligencia Artificial 7 (2024) Jones, KML, Rubel, A., y 100305 LeClere, E. (2020). Una cuestión de confianza: instituciones de educación superior Las instituciones como fiduciarios de la información en una era de minería de datos y aprendizaje educativos Analítica. Revista de la Asociación de Ciencias de la Información y Tecnología, 71(10), 1227-1241. https://doi.org/10.1002/asi.24327. 16 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Li, W., Sun, K., Schaub, F. y Brooks, C. (2022). Disparidades en la propensión de los estudiantes a consentimiento para el análisis del aprendizaje. Revista Internacional de Inteligencia Artificial en Educación, 32(3), 564–608. https://doi.org/10.1007/s40593021-00254-2. Lobera, J., Fernández Rodríguez, CJ, & Torres-Albero, C. (2020). Privacidad, valores y maChines: Predicción de la oposición a la inteligencia artificial. Estudios de la Comunicación, 71(3), 448–465. https://doi.org/10.1080/10510974.2020.1736114. Logg, JM, Minson, JA y Moore, DA (2019). Apreciación de algoritmos: la gente prefiere Algoritmo para el juicio humano. Comportamiento organizacional y procesos de decisión humana. 151, 90-103. https://doi.org/10.1016/j.obhdp.2018.12.005. Caluroso,P. (2020). No preguntes si la inteligencia artificial es buena o justa, pregunta cómo transfiere el poder. Naturaleza, 583(7815), 169. https://doi.org/10.1038/d41586-020-02003-2. Keller, B., Lünich, M., & Marcinkowski, F. (2022). ¿Cómo es la educación académica socialmente responsable? ¿Es posible predecir el rendimiento? Ideas a partir de un concepto de equidad percibida en la IA. En F. Almaraz-Menéndez, A. Maz-Machado, C. López-Esteban y C. Almaraz-López (Eds.), Estrategia, política, práctica y gobernanza para la IA en instituciones de educación superior (págs. 126–155). IGI Global. Kemper, L., Vorhoff, G. y Wigger, BU (2020). Predecir el abandono estudiantil: una máquina enfoque de aprendizaje. Revista Europea de Educación Superior, 10(1), 28– 47. https://doi.org/10.1016/j.1016.1016. org/10.1080/21568235.2020.1718520. Kieslich, K. (2022). Comentario: Reacciones sociales a las esperanzas y amenazas de la autonomía Acciones de los agentes: Reflexiones sobre la opinión pública y las implementaciones de tecnología. Interacción persona-computadora, 37(3), 259–262. https://doi.org/10.1080/07370024. 2021.1976642. Kieslich, K., Lünich, M., y Došenović, P. (2023). ¿Has oído hablar de la IA ética? Destacando la importancia de las cuestiones éticas de la IA entre la población alemana. Internacional Revista de interacción hombre-ordenador, 40(11), 2986– 2999. https://doi.org/10.1080/ 10447318.2023.2178612. Kim, J., Merrill, K., Xu, K. y Sellnow, DD (2020). Mi maestro es una máquina: comprender Percepciones de los estudiantes sobre los asistentes de enseñanza con inteligencia artificial en la educación en línea. Internacional Revista de interacción hombre-ordenador, 36(20), 1902-1911. https://doi.org/10.1080/ 10447318.2020.1801227. Kizilcec, RF (2016). ¿Cuánta información? Efectos de la transparencia en la confianza en una Interfaz algorítmica. En J. Kaye, A. Druin, C. Lampe, D. Morris y JP Hourcade (Eds.), Actas de la conferencia CHI de 2016 sobre factores humanos en sistemas informáticos (págs. 2390–2395). ACM. Kizilcec, RF y Lee, H. (2022). Equidad algorítmica en educación. En W. Holmes y K. Porayska-Pomsta (Eds.), La ética de la inteligencia artificial en la educación (pp. 174– 202). Estado de Washington. Kizilcec, RF, Viberg, O., Jivet, I., Martínez Mones, A., Oh, A., Hrastinski, S., Mutimukwe, C., & Scheffel, M. (2023). El papel del género en las preocupaciones de los estudiantes sobre la privacidad en relación con el aprendizaje. Análisis de datos. En I. Hilliger, H. Khosravi, B. Rienties y S. Dawson (Eds.), LAK23: 13. Conferencia internacional sobre análisis del aprendizaje y conocimiento(págs. 545–551). Asociación para Maquinaria informática. Knight, S., Buckingham Shum, S., y Littleton, K. (2014). Epistemología, evaluación, pedagogía. Agogy: donde el aprendizaje se encuentra con la analítica en el espacio intermedio. Revista de Analítica del Aprendizaje líticos, 1(2), 23–47–23-47. https://doi.org/10.18608/jla.2014.12.3. Koch–Bayram, IF, Kaibel, C., Biemann, T. y Del Triana, MC (2023). </click to begin Tu entrevista digital>: Las experiencias de discriminación de los solicitantes explican su Reacciones a los algoritmos en la selección de personal. Revista Internacional de Selección y Evaluación, 1–15. https://doi.org/10.1111/ijsa.12417. Köstler, L. y Ossewaarde, R. (2022). La creación de la sociedad de la IA: marcos futuros de la IA en los discursos políticos y mediáticos alemanes. AI & Society, 37(1), 249– 263. https:// doi.org/10.1007/s00146-021-01161-9. Laakasuo, M., Drosinou, M., Koverola, M., Kunnari, A., Halonen, J., Lehtonen, N. y Palomäki, J. (2018). ¿Qué hace que la gente apruebe o condene la tecnología de carga mental? ¿Ogía? Desenredando los efectos del asco sexual, la pureza y la familiaridad de la ciencia ficción. Comunicaciones Palgrave, 4(1), 1–14. https://doi.org/10.1057/s41599-018-0124-6. Laakasuo, M., Repo, M., Drosinou, M., Berg, A., Kunnari, A., Koverola, M., Saikkonen, T., Hannikainen, IR, Visala, A. y Sundvall, J. (2021). El camino oscuro a la vida eterna: El maquiavelismo predice la aprobación de la tecnología de transferencia de información mental. Personalidad e Individuos Diferencias individuales, 177, Artículo 110731. https://doi.org/10.1016/j.paid.2021.110731. Lang, C., y Davis, L. (2023). Análisis de aprendizaje e inclusión de las partes interesadas: ¿qué debemos hacer? ¿Qué queremos decir cuando decimos “centrado en el ser humano”? En I. Hilliger, H. Khosravi, B. Rienties y S. Dawson (Eds.), LAK23: 13.ª conferencia internacional sobre análisis del aprendizaje y conocimiento (págs. 411–417). Asociación para Maquinaria Computacional. Larsson, S., y Heintz, F. (2020). Transparencia en inteligencia artificial. Internet Policy Re- vista, 9(2). https://doi.org/10.14763/2020.2.1469. Laupichler, MC, Aster, A., Schirch, J. y Raupach, T. (2022). Inteligencia artificial Alfabetización en la educación superior y de adultos: una revisión bibliográfica exploratoria. Computadoras y Educación: Inteligencia Artificial, 3, Artículo 100101. https://doi.org/10.1016/j.caeai. 2022.100101. Lee, MK (2018). Comprender la percepción de las decisiones algorítmicas: imparcialidad, confianza y La emoción en respuesta a la gestión algorítmica. Big Data y Sociedad, 5(1), Arti- cle 205395171875668. https://doi.org/10.1177/2053951718756684. Lee, MK y Baykal, S. (2017). Mediación algorítmica en decisiones grupales: percepción de equidad ciones de división social mediada por algoritmos frente a división social basada en debates. En Actas de la conferencia ACM 2017 sobre trabajo cooperativo asistido por computadora y computación social (págs. 1035–1048). Li, S., y Gu, X. (2023). Un marco de riesgo para la inteligencia artificial centrada en el ser humano en la educación. Educación: Basado en revisión de literatura y método Delphi–AHP. Tecnología Educativa & Sociedad, 26(1), 187–202. https://doi.org/10.30191/ETS.20230126(1).0014. 17 M. Lünich, Keller yAnálisis F. Marcinkowski Lumley, T.B.(2004). de muestras de encuestas complejas. Journal of Statistical Software, 9(1), 1–19. Lünich, M. (2022). Der glaube an big data: Eine analice gesellschaftlicher Überzeugungen von erkenntnis- und nutzengewinnen aus digitalen daten. Wiesbaden: Springer Fachmedien. Lünich, M., Keller, B., y Marcinkowski, F. (2024). Equidad del desempeño académico Dicción para la distribución de medidas de apoyo a los estudiantes: Diferencias en la percepción equidad de las normas de justicia distributiva. Tecnología, conocimiento y aprendizaje, 29(2), 1079-1107. https://doi.org/10.1007/s10758-023-09698-y. Lünich, M., y Kieslich, K. (2022). Exploración de los roles de la confianza y la preferencia por grupos sociales sobre la legitimidad de la toma de decisiones algorítmica frente a la toma de decisiones humana para la asignación Vacunas contra la COVID-19. AI & Society, 1(19). https://doi.org/10.1007/s00146- 02201412-3. Ma, W., Adesope, OO, Nesbit, JC y Liu, Q. (2014). Sistemas de tutoría inteligente y resultados de aprendizaje: un metaanálisis. Revista de Psicología Educativa, 106(4), 901–918. https://doi.org/10.1037/a0037123. Makhlouf, K., Zhioua, S. y Palamidessi, C. (2021). Nociones de equidad en el aprendizaje automático: Acortando la brecha con aplicaciones del mundo real. Procesamiento y gestión de la información, 58(5), 1–32. https://doi.org/10.1016/j.ipm.2021.102642. Malhotra, NK, Kim, SS y Agarwal, J. (2004). Privacidad de la información de los usuarios de Internet Preocupaciones (IUIPC): El constructo, la escala y un modelo causal. Sistemas de Información Investigación, 15(4), 336–355. https://doi.org/10.1287/isre.l040.0032. Marcinkowski, F., Kieslich, K., Starke, C. y Lünich, M. (2020). Implicaciones de la IA (no )equidad en las admisiones a la educación superior: Los efectos de la (in)equidad percibida de la IA en Salida, voz y reputación organizacional. En M. Hildebrandt, C. Castillo, E. Celis, S. Ruggieri, L. Taylor y G. Zanfir-Fortuna (Eds.), Actas de la conferencia de 2020 sobre Equidad, rendición de cuentas y transparencia (FAT* '20)(págs. 122–130). ACM. Martínez Neda, B., Zeng, Y. y Gago-Masague, S. (2021). Uso del aprendizaje automático en la administración siones: Reducción del sesgo humano y algorítmico en el proceso de selección. En M. Sherriff, LD Merkle, P. Cutter, A. Monge y J. Sheard (Eds.), Actas de la 52.ª ACM Simposio técnico sobre educación en informática (SIGCSE '21)(pág. 1323). ACM. Mayer, RC, Davis, JH, y Schoorman, FD (1995). Un modelo integrador de organización Confianza organizacional. The Academy of Management Review, 20(3), 709–734. https:// doi.org/10.5465/amr.1995.9508080335. Mays, KK, Lei, Y., Giovanetti, R. y Katz, JE (2022). ¿La IA como jefe? Una encuesta nacional en EE. UU. de predisposiciones que rigen la comodidad con roles expandidos de IA en la sociedad. IA y sociedad, 37(4), 1587-1600. https://doi.org/10.1007/s00146021-01253-6. Memarian, B., y Doleck, T. (2023). Equidad, rendición de cuentas, transparencia y ética (FATE) en inteligencia artificial (IA) y educación superior: una revisión sistemática. Computadoras y Educación: Inteligencia Artificial, 5, 1–12. https://doi.org/10.1016/j.caeai. 2023.100152. Mitchell, S., Potash, E., Barocas, S., D'Amour, A. y Lum, K. (2021). Justicia algorítmica: Opciones, supuestos y definiciones. Revista anual de estadística y su aplicación, 8(1), 141–163. https://doi.org/10.1146/annurev-statistics-042720-125902. Mitzner, TL, Boron, JB, Fausset, CB, Adams, AE, Charness, N., Czaja, SJ, Dijkstra, K., Fisk, AD, Rogers, WA, y Sharit, J. (2010). Los adultos mayores hablan de tecnología: Tech- Usos y actitudes de la tecnología. Computadoras en el comportamiento humano, 26(6), 1710–1721. https:// doi.org/10.1016/j.chb.2010.06.020. Morgan Jones, M., Abrams, D. y Lahiri, A. (2020). Dar forma al futuro: cómo la sociedad Las ciencias, las humanidades y las artes pueden CONFORMAR un futuro positivo pospandémico para Pueblos, economías y entornos. Revista de la Academia Británica, 8, 167–266. https://doi.org/10.5871/jba/008.167. Ng, DTK, Leung, JKL, Chu, SKW y Qiao, MS (2021). Conceptualización de la IA Alfabetización: una revisión exploratoria. Computadoras y educación: inteligencia artificial, 2, Ar- Artículo 100041. https://doi.org/10.1016/j.caeai.2021.100041. Niyogisubizo, J., Liao, L., Nziyumva, E., Murwanashyaka, E. y Nshimyumukiza, PC (2022). Predicción del abandono de los estudiantes en las clases universitarias mediante un conjunto de dos capas El enfoque del aprendizaje automático: una nueva generalización apilada. Computadoras y educación ción: Inteligencia Artificial, 3, 1–12. https://doi.org/10.1016/j.caeai.2022.100066. Prinsloo, P., y Slade, S. (2015). Autogestión de la privacidad de los estudiantes: implicaciones para el aprendizaje Análisis de datos. En J. Baron, G. Lynch, N. Maziarz, P. Blikstein, A. Merceron y G. Siemens (Eds.), Actas de la quinta conferencia internacional sobre análisis del aprendizaje y conocimiento(págs. 83–92). ACM. Putnick, DL y Bornstein, MH (2016). Convenciones de invariancia de medición y reportes ing: El estado del arte y las direcciones futuras de la investigación psicológica. Revisar, 41, 71–90. https://doi.org/10.1016/j.dr.2016.06.004. Rahwan, I. (2018). Sociedad en el circuito: Programación del contrato social algorítmico. Ética y Tecnologías de la Información, 20(1), 5-14. https://doi.org/10.1007/s10676017- 9430-8. Reidenberg, JR, y Schaub, F. (2018). Lograr la privacidad de los macrodatos en la educación. Teoría y Investigación en Educación, 16(3), 263–279. https://doi.org/10.1177/1477878518805308. Renz, A., y Vladova, G. (2021). Revitalizando el discurso sobre la inteligencia artificial centrada en el ser humano Inteligencia artificial en tecnologías educativas. Technology Innovation Management Review, 11(5). Recuperado de https://timreview.ca/article/1438. Rodway, P. y Schepman, A. (2023). El impacto de la adopción de tecnologías educativas basadas en IA Estrategias para la satisfacción con los Artificial cursos en estudiantes Computadoras y Educación: Inteligencia 7 (2024) universitarios. Computadoras y Educación: Inteligencia artificial, 5, 1–12. 100305 https://doi.org/10.1016/j.caeai.2023.100150. Rosseel, Y. (2012). Lavaan: Un paquete R para modelado de ecuaciones estructurales. Revista de Software estadístico, 48(2). https://doi.org/10.18637/jss.v048.i02. Rowe, M. (2019). Dar forma a nuestros algoritmos antes de que ellos nos den forma a nosotros. En J. Knox, Y. Wang, & M. Gallagher (Eds.), Inteligencia artificial y educación inclusiva: futuros especulativos y prácticas emergentes(págs. 151-163). Singapur: Springer. 18 M. Lünich, B. Keller y F. Marcinkowski Computadoras y Educación: Inteligencia Artificial 7 (2024) 100305 Rubel, A., y Jones, KML (2016). Privacidad de los estudiantes en las analíticas de aprendizaje: una perspectiva de la información perspectiva ética. La Sociedad de la Información, 32(2), 143–159. https://doi.org/10.1080/ 01972243.2016.1130502. Rudin, C. (2019). Dejen de explicar los modelos de aprendizaje automático de caja negra para decisiones de alto riesgo. siones y utilizar en su lugar modelos interpretables. Nature Machine Intelligence, 1(5), 206–215. https://doi.org/10.1038/s42256-019-0048x. Schumacher, C., & Ifenthaler, D. (2018). Características que los estudiantes realmente esperan del aprendizaje Analítica. Computadoras en el comportamiento humano, 78, 397–407. https://doi.org/10.1016/j.chb. 2017.06.030. Shin, D. (2021). Los efectos de la explicabilidad y la causalidad en la percepción, la confianza y Aceptación: implicaciones para la IA explicable. Revista internacional de análisis humano-computadora Estudios, 146, 1–10. https://doi.org/10.1016/j.ijhcs.2020.102551. Shneiderman, B. (2020). Inteligencia artificial centrada en el ser humano: confiable, segura y confiable. digno. Revista internacional de interacción hombre-computadora, 36(6), 495–504. https:// doi.org/10.1080/10447318.2020.1741118. Slade, S., y Prinsloo, P. (2013). Analítica de aprendizaje: cuestiones éticas y dilemas mas. Científico del comportamiento estadounidense, 57(10), 1510–1529. https://doi.org/10.1177/ 0002764213479366. Slade, S., Prinsloo, P. y Khalil, M. (2019). Análisis de aprendizaje en las intersecciones de los estudiantes Confianza, divulgación y beneficio. En Actas de la 9.ª conferencia internacional sobre aprendizaje Análisis y conocimiento (LAK '19)(págs. 235–244). Smith, H. (2020). Sesgo algorítmico: ¿deberían pagar el precio los estudiantes? AI & Society, 35(4), 1077–1078. https://doi.org/10.1007/s00146-020-01054-3. Smuha, NA (2022). Dificultades y vías para una inteligencia artificial confiable en la educación En W. Holmes y K. Porayska-Pomsta (Eds.), La ética de la inteligencia artificial En educación(págs. 113–145). Routledge. Starke, C., Baleis, J., Keller, B. y Marcinkowski, F. (2022). Percepciones de equidad de algo- Toma de decisiones rítmica: una revisión sistemática de la literatura empírica. Big Data y Sociedad, 9(2), 1–16. https://doi.org/10.1177/20539517221115189. Sun, K., Mhaidli, AH, Watel, S., Brooks, CA y Schaub, F. (2019). ¡Son mis datos! Tensiones entre las partes interesadas de un panel de análisis de aprendizaje. En S. Brewster, G. Fitzpatrick, A. Cox y V. Kostakos (Eds.), Actas de la conferencia CHI de 2019 sobre factores humanos en sistemas informáticos(págs. 1–14). ACM. Sweeney, M., Lester, J., Rangwala, H. y Johri, A. (2016). Rendimiento de los estudiantes en el próximo período Predicción: un enfoque de sistemas de recomendación. Revista de minería de datos educativos, 8(1), 22–51. https://doi.org/10.5281/zenodo.3554603. Teo, T., & Zhou, M. (2014). Explicando la intención de uso de la tecnología entre los estudiantes universitarios Estudiantes: Un enfoque de modelado de ecuaciones estructurales. Revista de informática en educación superior Educación, 26(2), 124142. https://doi.org/10.1007/s12528-014-9080-3. Thissen, D., Steinberg, L., y Kuang, D. (2002). Implementación rápida y sencilla de la Procedimiento de Benjamini-Hochberg para controlar la tasa de falsos positivos en múltiples Comparaciones. Revista de estadística educativa y conductual, 27(1), 77– 83. https:// doi.org/10.3102/10769986027001077. Tsai, Y.-S., Whitelock-Wainwright, A., y Gašević, D. (2020). La paradoja de la privacidad y Sus implicaciones para la analítica del aprendizaje. En C. Rensing, H. Drachsler, V. Kovanović, N. Pinkwart, M. Scheffel y K. Verbert (Eds.), Actas de la décima conferencia internacional Encender el análisis del aprendizaje y el conocimiento(págs. 230–239). ACM. Tsai, Y.-S., Whitelock-Wainwright, A., & Gašević, D. (2021). Más que cifras sobre tu Laptop: Implementación (des)confiada de la analítica del aprendizaje. Journal of Learning Analyt- ICS, 8(3), 81–100. https://doi.org/10.18608/jla.2021.7379. Veale, M., y Binns, R. (2017). Aprendizaje automático más justo en el mundo real: mitigación discriminación sin recopilar datos sensibles: Mitigar la discriminación sin Recopilación de datos sensibles. Big Data and Society, 4(2), 1–17. https://doi.org/10.1177/ 2053951717743530. Weinberg, L. (2022). Repensar la equidad: una encuesta interdisciplinaria de las críticas a la hegemonía Enfoques de equidad de ML monic. Revista de investigación en inteligencia artificial, 74, 75–109. https://doi.org/10.1613/jair.1.13196. Whitelock–Wainwright, A., Gašević, D., Tejeiro, R., Tsai, Y. y Bennett, K. (2019). Cuestionario de expectativas de aprendizaje de los estudiantes. Revista de informática asistida Aprendiendo, 35(5), 633–666. https://doi.org/10.1111/jcal.12366. Wiencierz, C., & Lünich, M. (2022). Confianza en las aplicaciones de datos abiertos a través de Transparencia. Nuevos medios y sociedad, 24(8), 1751–1770. https://doi.org/10.1177/ 1461444820979708. Williams, DR, Yan, Y., Jackson, JS y Anderson, NB (1997). Diferencias raciales en Salud física y mental: situación socioeconómica, estrés y discriminación. Revista de Psicología de la Salud, 2(3), 335–351. https://doi.org/10.1177/135910539700200305. Wu, Y., Zhai, G., Li, S., Ren, C. y Tsuchida, S. (2014). Investigación comparativa sobre el riesgo NIMBY Aceptabilidad entre estudiantes universitarios chinos y japoneses. Monitoreo ambiental Ing. y evaluación, 186(10), 6683–6694. https://doi.org/10.1007/s10661-014-38827. Yigitcanlar, T., Degirmenci, K., & Inkinen, T. (2022). Factores que impulsan la percepción pública de inteligencia artificial: perspectivas de las principales ciudades australianas. AI & Society, 1(21). https://doi.org/10.1007/s00146-022-01566-0. Zawacki-Richter, O., Marín, VI, Bond, M. y Gouverneur, F. (2019). Revisión sistemática de la investigación sobre aplicaciones de inteligencia artificial en la educación superior: ¿dónde están las ¿Educadores? Revista Internacional de Tecnología Educativa en Educación Superior, 16(1), 1–27. https://doi.org/10.1186/s41239-019-0171-0. Zhang, B., y Dafoe, A. (2019). Inteligencia artificial: actitudes y tendencias estadounidenses. Universidad ciudad de Oxford. 19