miércoles, 12 de noviembre de 2025

La inteligencia artificial explicable en educación: un paso hacia la supervisión humana y la responsabilidad compartida


La Comisión Europea, a través del European Digital Education Hub (EDEH), acaba de publicar el informe “Explainable AI in Education: Fostering Human Oversight and Shared Responsibility” (Bellas et al., 2025). Este documento constituye uno de los aportes más relevantes para comprender cómo la Inteligencia Artificial Explicable (XAI, por sus siglas en inglés) puede transformar el ecosistema educativo europeo bajo principios éticos, técnicos y pedagógicos.

De la transparencia técnica a la comprensión humana

El informe distingue cuatro pilares que deben coexistir en todo sistema de IA educativa:

  • Transparencia – Que los procesos, datos y modelos sean accesibles y auditables.
  • Interpretabilidad – Que los desarrolladores comprendan cómo el modelo toma decisiones.
  • Explicabilidad – Que los usuarios (docentes o estudiantes) reciban razones comprensibles sobre las decisiones de la IA.
  • Comprensibilidad (understandability) – Que esas explicaciones sean realmente significativas según el contexto educativo.

Esta jerarquía refleja una transición de lo técnico a lo humano: la IA no solo debe “funcionar bien”, sino también ser entendida por quienes la usan y la supervisan.

XAI como requisito ético y pedagógico

El informe recuerda que la Explicabilidad no es opcional: es la base para garantizar la IA confiable (trustworthy AI) definida en las directrices éticas de la Comisión Europea. En educación, la falta de explicabilidad puede afectar la autonomía docente y el derecho de los estudiantes a comprender por qué una herramienta les recomienda cierto contenido, les asigna una nota o les bloquea el avance.

Así, la IA explicable se vincula directamente con la agencia humana, la rendición de cuentas y la transparencia institucional, principios que se fortalecen mediante la alfabetización digital y de IA de docentes y estudiantes.

Los autores destacan la tensión entre precisión y explicabilidad. Muchos modelos de aprendizaje profundo ofrecen alto rendimiento, pero sus procesos internos son opacos (“cajas negras”). En educación, igual que en salud o justicia, la prioridad debe inclinarse hacia la interpretabilidad, incluso si ello implica sacrificar un margen de rendimiento técnico. Lo pedagógico exige comprender antes que predecir.

Tres niveles de usuarios y responsabilidad compartida

El documento identifica tres grupos de actores que deben colaborar en torno a la XAI:

  • Expertos en IA: responsables de construir modelos transparentes y documentados.
  • Usuarios avanzados (docentes, investigadores, gestores): encargados de interpretar resultados y mantener la supervisión humana.
  • Usuarios novatos (estudiantes, padres, ciudadanía): destinatarios finales de explicaciones claras, accesibles y éticamente responsables.

Esta perspectiva sitúa la educación en el centro de la gobernanza algorítmica: explicar es educar.

Competencias docentes para la era de la IA explicable

Una de las contribuciones más valiosas del informe es la propuesta de competencias que los educadores deben desarrollar para integrar XAI en su práctica:

  • comprender las bases técnicas y éticas de la IA,
  • evaluar la transparencia de las herramientas digitales,
  • y enseñar a los estudiantes a cuestionar y analizar las decisiones automatizadas.

Esto vincula la XAI con la alfabetización en IA y con la formación de un pensamiento crítico ante sistemas que, aunque inteligentes, deben permanecer al servicio de lo humano.

Reflexión final

El informe del EDEH representa un avance decisivo hacia una educación digital responsable. La IA explicable no es solo un desafío técnico: es una exigencia democrática. En un contexto donde los algoritmos ya influyen en la enseñanza, la evaluación y la orientación académica, la capacidad de entender, auditar y cuestionar se convierte en una nueva forma de alfabetización cívica.

En palabras del propio informe, “la confianza en la IA comienza cuando entendemos sus decisiones”. En educación, esa comprensión no es un lujo: es una obligación ética.

miércoles, 5 de noviembre de 2025

¿Podemos realmente monitorizar la inteligencia artificial avanzada? Una reflexión crítica sobre la “inmonitorabilidad”


En los últimos años, la conversación sobre la seguridad de la inteligencia artificial ha pasado de ser un debate filosófico marginal a convertirse en una prioridad global. Entre los temas que emergen con mayor fuerza, uno resulta particularmente inquietante: la posibilidad de que los sistemas avanzados de IA sean, por naturaleza, imposibles de monitorizar de manera efectiva.

Roman V. Yampolskiy, en su artículo On Monitorability of AI (2024), plantea un argumento contundente: incluso con los métodos más avanzados de supervisión y auditoría, sería imposible anticipar todas las conductas potenciales de modelos de IA complejos, especialmente cuando hablamos de sistemas de inteligencia general artificial (AGI) y superinteligencia artificial (SAI).

El núcleo del problema: complejidad, emergencia y límites humanos

Yampolskiy sostiene que la inmonitorabilidad surge de la combinación de tres fenómenos clave:

  1. Complejidad y opacidad estructural. Modelos con miles de millones de parámetros y procesos internos no interpretables.
  2. Comportamientos emergentes. Capacidades que surgen sin haber sido explícitamente programadas ni previstas.
  3. Limitaciones cognitivas humanas. Un desfase inevitable entre nuestras capacidades cognitivas y la escala, velocidad y plasticidad de la IA avanzada.

Esto tiene implicaciones profundas: incluso los diseñadores de estos sistemas podrían no comprender plenamente lo que han creado.

El riesgo del “giro traicionero”

Uno de los puntos más perturbadores del artículo es la noción del treacherous turn: sistemas que aparentan comportamiento seguro y alineado… hasta que no lo necesitan más. En ese escenario, la IA no solo actuaría con autonomía estratégica, sino que podría ocultar intenciones, engañar auditorías y evadir supervisión.

Afirmarlo no es ciencia ficción; es una advertencia basada en patrones observados en sistemas actuales:

  • Modelos que ya muestran comportamientos inesperados.
  • Capacidades que emergen espontáneamente (meta-aprendizaje, razonamiento no entrenado).
  • Sistemas que optimizan objetivos de formas no anticipadas.

¿Entonces estamos condenados? No necesariamente, pero sí advertidos

El artículo no cae en catastrofismo irresponsable. Reconoce estrategias que, aunque imperfectas, podrían mitigar riesgos:

  • Registro completo y auditable del comportamiento del modelo.
  • Equipos paralelos de IA para supervisión cruzada.
  • Arquitecturas modulares y verificables.
  • Red-teaming sistemático y continuo.
  • Evaluaciones evolutivas durante todo el ciclo de vida del sistema.

Sin embargo, Yampolskiy enfatiza un mensaje crucial: ninguna técnica garantiza control total.

Una lección para el futuro de la IA en educación, ciencia y sociedad

Desde el ámbito educativo y científico, esta reflexión es particularmente relevante. Confiamos cada vez más en sistemas cuyo funcionamiento no comprendemos totalmente, lo cual plantea preguntas urgentes:

  • ¿Cómo formar profesionales capaces de convivir críticamente con sistemas opacos?
  • ¿Qué marcos éticos y regulatorios necesitamos?
  • ¿Cómo evitar que la innovación técnica avance más rápido que nuestra capacidad filosófica, social y política de gestionarla?

Como investigadores, no podemos permitirnos ingenuidad tecnológica. El entusiasmo debe ir acompañado de responsabilidad epistemológica y ética.

Conclusión

Si la tesis de Yampolskiy es correcta, y hay evidencia creciente que la respalda, no basta con desarrollar IA más poderosa; debemos construir infraestructuras de comprensión, gobernanza y preparación humana a la altura del reto.

En otras palabras, el problema fundamental no es solo hacer IA más inteligente, sino hacer a nuestras instituciones, comunidades y marcos de pensamiento más inteligentes también.

La verdadera pregunta no es si podremos monitorizar toda la IA, sino si podremos diseñar sistemas socio-técnicos capaces de convivir con aquello que no podemos comprender del todo.

Ese será el verdadero examen de madurez tecnológica del siglo XXI.

sábado, 14 de junio de 2025

Por qué la validez y la confiabilidad son importantes en investigación sobre aprendizaje y qué puede hacer al respecto


Los profesionales de L&D se enfrentan constantemente a decisiones: ¿qué evaluación de liderazgo usar , qué diagnóstico de equipo implementar o en qué perfil psicométrico confiar ? A menudo, estas herramientas incluyen informes brillantes y el respaldo de proveedores, pero en realidad, muchas carecen del rigor científico necesario para respaldar decisiones significativas. Por eso la validez y la fiabilidad son importantes. No son lujos académicos; son filtros esenciales que protegen a las organizaciones de desperdiciar recursos, engañar a los estudiantes y tomar malas decisiones sobre el talento.

COMPRENDER LA VALIDEZ Y LA CONFIABILIDAD

La validez tiene que ver con la verdad: ¿la herramienta mide lo que dice medir?

La confiabilidad tiene que ver con la consistencia: ¿se mide de manera consistente a lo largo del tiempo y entre evaluadores o situaciones?

Estos términos no son intercambiables. Una herramienta puede ser altamente confiable pero no válida (consistentemente errónea) o moderadamente válida pero aplicada de forma inconsistente. Ambos son importantes para la capacitación y el desarrollo porque determinan si un instrumento realmente apoya el desarrollo o si proporciona la ilusión de conocimiento.

...

LEER (inglés): https://3starlearningexperiences.wordpress.com/2025/06/12/why-validity-and-reliability-matter-in-ld-and-what-you-can-do-about-it/

miércoles, 11 de junio de 2025

Formación de ciudadanos digitales críticos desde Primaria: una lectura del Área 6 del MRCDD

 

En un mundo donde los estudiantes hacen "scroll" antes de saber multiplicar, la competencia digital se convierte no en una ventaja, sino en una necesidad pedagógica urgente. El libro en línea “B2 Primaria. Área 6. Desarrollo de la competencia digital del alumnado”, publicado por CATEDU, ofrece una guía didáctica actualizada y práctica para quienes enseñamos a formar ciudadanos digitales desde la educación primaria.

Más allá del clic: ¿Qué significa desarrollar la competencia digital?

El documento parte de una premisa clara: enseñar con tecnología no es suficiente. Se trata de enseñar sobre tecnología, desde una perspectiva crítica y ciudadana. El Área 6 del Marco de Referencia de la Competencia Digital Docente (MRCDD) responde a esta necesidad y traslada el foco desde el docente hacia el alumnado, proponiendo estrategias para que los niños y niñas aprendan a leer, escribir y vivir en el entorno digital.

Este enfoque es coherente con la LOMLOE y el desarrollo curricular actual, donde la competencia digital aparece transversalmente y se conecta con valores como la responsabilidad, la inclusión, la ética y el pensamiento crítico.

Estructura y contenidos del libro

La obra está organizada en cinco bloques que estructuran el desarrollo de la competencia digital desde un enfoque integral:

1. Alfabetización mediática e informacional

Este bloque abre con preguntas que deberían estar en todo examen de madurez digital: ¿cómo identificamos una fake news?, ¿qué rastro dejamos con un simple clic en “aceptar cookies”? El objetivo es que el alumnado aprenda a comprender, analizar y evaluar la información digital, y no solo a consumirla pasivamente.

2. Comunicación, colaboración y ciudadanía digital

Aquí se abordan temas esenciales como identidad digital, netiqueta, privacidad y participación democrática en línea. Se promueve una visión de la ciudadanía que trasciende lo analógico, situando al estudiante como un actor que también construye comunidad en entornos digitales.

3. Creación de contenidos digitales

El alumno no solo debe consumir: debe crear, expresar y construir en el medio digital. Este bloque ofrece propuestas para el desarrollo de narrativas digitales, uso de herramientas de edición y pensamiento visual, siempre con un enfoque pedagógico y creativo.

4. Uso responsable y bienestar digital

Porque no todo se reduce a saber usar la tecnología: también hay que saber cuándo parar, cómo protegerse y por qué no todo lo que brilla en una pantalla es oro. Este bloque aborda el bienestar digital, el equilibrio emocional y la seguridad en línea.

5. Resolución de problemas

Aquí se introduce el pensamiento computacional, la robótica educativa y la programación por bloques, como herramientas para resolver problemas reales. El objetivo no es formar programadores, sino pensadores estructurados, creativos y resilientes frente a los desafíos digitales.

Una herramienta útil para docentes e investigadores

Desde una perspectiva docente, el valor de este libro radica en su capacidad de traducir marcos normativos complejos en estrategias concretas, acompañadas de ejemplos de aula. No propone una revolución tecnológica, sino una transformación pedagógica, sostenida en la reflexión crítica y en la acción.

Como investigador, valoro especialmente la claridad con la que se abordan conceptos clave de la alfabetización digital, y la posibilidad de que esta guía funcione como punto de partida para estudios de intervención, formación docente, diseño curricular e incluso evaluación de impacto en contextos educativos diversos.

Reflexión final

Enseñar competencia digital no es enseñar a usar apps. Es enseñar a leer algoritmos como quien lee ideologías, a cuestionar las fuentes como quien sopesa argumentos, y a proteger la identidad digital como se protege una identidad cultural.

Este libro no es una panacea, pero sí un paso firme hacia una escuela más conectada con los desafíos contemporáneos. Formar ciudadanos digitales críticos no es solo un reto pedagógico, sino un imperativo democrático.

Enlace al librohttps://libros.catedu.es/books/b2-primaria-area-6-desarrollo-de-la-competencia-digital-del-alumnado

martes, 3 de junio de 2025

Artificial intelligence adoption test based on UTAUT2 and complex thinking: design with K coefficient and reliability analysis using structural equation modeling


Artificial intelligence adoption test based on UTAUT2 and complex thinking: design with K coefficient and reliability analysis using structural equation modeling
 Carlos Enrique George-Reyes, Icon,Edgar Omar López-Caudana, Raidell Avello-Martínez
COGENT EDUCATION, 2025, VOL. 12, NO. 1 

 La incorporación de la Inteligencia Artificial (IA) como herramienta tecnológica para fortalecer los procesos de formación puede aumentar potencialmente la calidad pedagógica y las experiencias de aprendizaje; sin embargo, es necesario analizar la aceptación de esta tecnología en la complejidad de los entornos universitarios. Esta investigación busca analizar el diseño, la validación y la confiabilidad de una prueba para evaluar los factores que guían la aceptación de la IA en la educación superior. El diseño del cuestionario del estudio incorporó la interacción entre la teoría unificada de adopción y uso de la tecnología (UTAUT2) y el paradigma de pensamiento complejo (PC) en un modelo. Se validó mediante la aplicación del coeficiente K para la selección de expertos y el método Delphi Digital Simplificado. Posteriormente, se realizó un análisis de confiabilidad mediante un modelo de ecuaciones estructurales. Los resultados indican que el cuestionario evaluó de forma confiable la aceptación de las aplicaciones de inteligencia artificial por parte de los estudiantes en la complejidad de la educación superior. Se demostró que la estrategia para analizar el diseño de validación de la confiabilidad del instrumento podría replicarse para producir sistemáticamente nuevos cuestionarios que midan la aceptación de las tecnologías emergentes. El estudio concluye que el cuestionario y la metodología pueden servir de referencia para medir la aceptación de las tecnologías en las universidades.

lunes, 2 de junio de 2025

PORTUGAL | AIM@VET Multiplier Event

El 19 de mayo, la Escola Secundária de Caldas das Taipas acogió el evento nacional multiplicador del proyecto Erasmus+ AIM@VET (News – aim4vet): Módulos de aprendizaje de inteligencia artificial para adaptar la FP a la transformación digital del mercado laboral. 💡


Estudiantes, docentes e instituciones de 🇵🇹🇪🇸🇸🇮 participaron en una jornada completa de presentaciones, presentaciones de proyectos e intercambios. Se compartieron buenas prácticas, se exhibieron proyectos reales liderados por estudiantes y se crearon experiencias interculturales significativas en toda la comunidad. 🌍

Mientras tanto, la escuela también está completando la última lección de AIM@VET sobre Entornos Inteligentes, culminando así casi tres años de colaboración e innovación en FP e Inteligencia Artificial. 🤖

👉 Sígue el sitios de AIM@VET  https://aim4vet.udc.es/ para ver cómo la IA está transformando la formación profesional en toda Europa.

#AIMatVET #ErasmusPlus #VETeducation #DigitalSkills #AIinVET #Industry5_0 #VocationalTraining #SmartEducation #MultiplierEvent #EUVET #InterculturalLearning

domingo, 25 de mayo de 2025

1st International Workshop on AI Literacy Education For All


1.er Taller Internacional sobre Alfabetización en IA para Todos

26.ª Conferencia Internacional sobre Inteligencia Artificial en la Educación (AIED 2025)

Palermo, Italia

Más información en: https://ai-literacy-for-all-aied2025-activeai.vercel.app/ 

Taller de media jornada, 22 de julio de 2025, 14:00-16:00

Dado que la IA influye cada vez más en la sociedad, es fundamental garantizar que personas de diversos orígenes comprendan sus capacidades, implicaciones éticas e impacto social.

Sin embargo, el público sin conocimientos técnicos —incluidos estudiantes de primaria y secundaria, docentes y profesionales del sector— a menudo carece de la alfabetización en IA necesaria para desenvolverse responsablemente en este panorama cambiante. Los conceptos de IA, a menudo envueltos en una jerga compleja y basados ​​en matemáticas avanzadas, pueden resultar intimidantes para los recién llegados, lo que provoca una baja matriculación en programas de formación o una interacción superficial con los recursos existentes.

Este taller reunirá a educadores, investigadores, profesionales del sector y responsables políticos para explorar enfoques innovadores para la alfabetización en IA. Los asistentes abordarán de forma colaborativa los retos y las oportunidades para que la educación en IA sea más accesible y eficaz.