martes, 7 de abril de 2026

IA y docencia: una respuesta desde la Facultad de Ingeniería

En  el último “post” nos preguntábamos si el ChatGPT es amigo o enemigo en el aula. Una contestación bien interesante y compartida viene desde la Facultad de Ingeniería de la Universidad de la República, que acaba de elaborar una “Guía para el uso ético y crítico de inteligencia artificial en las unidades curriculares de Facultad de Ingeniería”.

            El propósito de esta guía o protocolo es “proporcionar una visión institucional general sobre el tema, estableciendo algunos principios y un marco de acciones en el que el personal docente pueda basarse, considerando las realidades de los distintos cursos, temáticas y objetivos de aprendizaje”.

            Mientras no se elaboren otras propuestas en el ámbito universitario, entendemos de interés docente leer esta documento, que es posible bajar con el link: https://www.fing.edu.uy/sites/default/files/2026-02/guia-de-etica-fing_2026.pdf

            Entre los diversos aspectos que analiza, destacamos los “principios generales” que deben acompañar el uso de la IA en el aula:

 

Integridad académica: Todos los estudiantes deben adherirse a los estándares de honestidad académica, evitando cualquier forma de plagio o mal uso de recursos tecnológicos. Algunos ejemplos de deshonestidad académica relacionados con el uso de IA pueden ser:

.                  Generar texto o ideas mediante IA y presentarlas como propias.

.                  Generar, mediante IA, la solución de una tarea entregable.

.                  Generar, mediante IA, la solución de un ejercicio práctico cuando esta no es publicada intencionalmente por los docentes.

 

Transparencia: El uso de herramientas de IA debe ser transparente y debidamente reconocido. Entre las medidas para aumentar la transparencia se encuentran:

.                  Discutir en clase el uso de la IA en la unidad curricular.

.                  No ignorar la existencia de estas herramientas ni su posible uso por parte de los estudiantes.

.                  Explicar qué usos están permitidos y cómo declarar el uso de la herramienta en los trabajos entregables.

 

Capacidad crítica: Evaluar críticamente las respuestas proporcionadas por la IA, ya que pueden contener errores o sesgos.

.                  Tomar conciencia de que la información procesada por una herramienta de IA no tiene por qué ser equivalente a la información original.

.                  Tomar conciencia sobre sesgos y alucinaciones inherentes a los modelos de lenguaje.

.                  Reforzar la comunicación de buenas prácticas, como consultar varias fuentes de información o conocer las fuentes y su confiabilidad.

 

            Importa también destacar que la guía establece diferentes criterios a medida que avanza la carrera universitaria. incrementando la posibilidad de uso de las tecnologías (y del chatGPT), a media que el estudiante ascienda en su UC (Unidad curricular). De este modo, es establecen tres categorías: la primera de “uso reducido”, la segunda de “uso moderado” y la última de “uso extensivo”. En líneas generales, las sugerencia y relativos ejemplos de uso permitido y “prohibido”, son los siguientes:

Categoría 1: Nivel de uso reducido:

.                  Se apunta a un uso restringido de la IA, habilitándola únicamente en actividades señaladas por el equipo docente (teóricos, prácticos, clases de consulta, etc.). En este nivel se encuentran las UC enfocadas en la comprensión básica, donde la IA puede servir como herramienta de apoyo, ya que en esta fase resulta prioritario que el/la estudiante consolide los fundamentos conceptuales y comience a forjar su propio criterio analítico y de razonamiento.

.                  Ejemplos de uso permitido: generar ejemplos adicionales y practicar la resolución de problemas. Mejorar o criticar la presentación de una solución originalmente producida por el estudiante (corrección de ortografía y gramática, traducción, mejora de aspectos estéticos, generación de gráficas o tablas a partir de datos crudos, siempre que no sea un objetivo de la tarea).

.                  Ejemplos de uso prohibido: uso de IA para generar parte o toda la solución de las tareas de evaluación asignadas por el equipo docente.

 

Categoría 2: Nivel de uso moderado:

.                  Se apunta a un uso de la IA como asistente para la resolución de tareas rutinarias, así como para realizar análisis y apoyar en la resolución de problemas, siempre que este uso no afecte la incorporación de conocimientos.

.                  Ejemplos de uso permitido: utilizar la IA como recurso de estudio interactivo. Por ejemplo, formularle preguntas para comprobar la comprensión de conceptos teóricos o para analizar estrategias para resolver ejercicios, del mismo modo que se contrastarían ideas en un grupo de estudio. Asimismo, puede emplearse para desarrollar partes específicas de una tarea asignada por el equipo docente, siempre que su aporte sea transparente y no sustituya el trabajo analítico requerido al estudiante.

.                  Ejemplos de uso prohibido: Generar una parte de la solución de una tarea entregable que sea central desde el punto de vista pedagógico.

.                   

.                  Categoría 3: Nivel de uso extensivo:

.                  Se espera el uso de la IA como herramienta profesional, manteniendo un uso crítico y un entendimiento profundo de sus implicaciones éticas (p. ej., declarar su uso) y técnicas (p. ej., juzgar sus resultados).

.                  Ejemplos de uso permitido: integración de IA como parte de la solución, con una explicación detallada de su uso. Generar código auxiliar, casos de prueba o scripts de limpieza de datos, siempre que no formen parte del objetivo pedagógico de la tarea.

.                  Ejemplos de uso prohibido: Delegar la totalidad del trabajo en herramientas de IA sin contribución significativa del estudiante. Aceptar, sin verificación, la salida de la IA, incorporando errores técnicos o inexactitudes que demuestren la ausencia de juicio crítico. Reemplazar el proceso reflexivo requerido (p. ej., conclusiones, discusión de resultados, defensa oral) por respuestas generadas automáticamente. 

Finalmente entendemos de especial importancia la “Declaración del uso de IA”: cuando el estudiante utilice herramientas de IA que aporten contenido a sus tareas, deberá declarar la herramienta utilizada y cómo se integró la IA en el trabajo (por ejemplo, "Este análisis fue asistido por ChatGPT de OpenAI"). El atribuirse como propio un contenido generado por herramientas de IA podrá considerarse una falta a las reglamentaciones de la Facultad, “con las implicaciones y sanciones que ello conlleva, según la gravedad”.

            Mientras otras Facultades no aprueben sus respectivos reglamentos, esta guía de la Facultad de Ingeniería nos parece perfectamente aplicable a nuestra función docente. La razonabilidad de los criterios establecidos y la diferenciación de soluciones a partir de las categorías definidas en la guía, la vuelven un útil instrumento de decisión a la hora de autorizar o limitar el uso de la IA en el aula.

 

3 comentarios:

  1. Muchas gracias por el aporte. Sin dudas la IA va a cambiar (está cambiando) la forma de estudio, el aprendizaje y la práctica profesional, transparentar su uso (a todos los niveles) es un camino que se debe recorrer.

    ResponderBorrar
  2. Gracias Profesor por compartir la Guía. Me parece en mi humilde opinión que tendríamos que contar con la/os docentes de Metodología de la Enseñanza que nos propongan Estrategias de Aprendizaje en la IA para que nuestra/os alumna/os egresen de nuestra Facultad con altos conocimientos para insertarse en el mercado laboral.

    ResponderBorrar
  3. No dudo que en la construcción de una "estrategia de aprendizaje de la IA" debe existir un debate profundo entre docentes y alumnas/os. El tema, quizás, es decidir quien da el primer paso.

    ResponderBorrar