Necesidad de un marco para usar la inteligencia artificial
Desde finales de 2022, con la irrupción de herramientas como Chat GPT, el impacto en la educación superior se volvió evidente, señalan. “Impactaba fuertemente en las prácticas de estudio, en las de enseñanza, en las de investigación científica, e incluso en la administración”, explicó a Los Andes Julio Aguirre, secretario académico de la UNCuyo.
La casa de estudios local reconoció que diversas entidades a nivel internacional también habían avanzado en marcos normativos y realizó un extenso relevamiento. Así, consideró casos como el desarrollado por la UNESCO y la Unión Europea. La universidad mendocina optó por un camino intermedio entre la restricción total y la falta de reglas.
“Estudiando todo ese material, llegamos a la conclusión de que no había ni que prohibir su uso, o ni tratar de regularlo en términos estrictos, tampoco dejarlo liberado caóticamente al uso que cada persona, que lo que teníamos que hacer era generar principios para el uso responsable, que fueran como faros, como guías”, explicó Aguirre.
Un semáforo para el uso de la IA
El secretario académico señaló que la guía de buenas prácticas considera diversos roles institucionales en la universidad: estudiante, docente, investigador y administrativo, no docente, ejemplos de usos adecuados, usos riesgosos y usos que habría que tratar de evitar.
“En función de eso salieron dos documentos, que es la de los principios para el uso responsable de inteligencia artificial y la guía de buenas prácticas, que está justamente trabajada para cada uno de estos roles, y que diseña las prácticas en torno a una especie de semáforo, luz verde, amarilla y roja”, explicó. Luego detalló: “Luz verde son las cosas que podés usar libremente, luz amarilla, las que tenés que usar con ciertos resguardos, y luz roja las que tenés que tratar de evitar, que normalmente son las que están implicadas con problemas de información sensible, plagio, cosas por el estilo.”
Lo que toman en cuenta en particular es el uso de la IA Generativa (IAG).
Virtudes y riesgos del uso de la IA en educación
Para la UNCuyo, la IAG bien diseñada y acompañada pedagógicamente tiene el potencial de personalizar trayectorias educativas, diversificar lenguajes (texto, audio, imagen) y ofrecer retroalimentación formativa más frecuente. Incluso, se destaca que su uso puede permitir "más tiempo para la mediación humana de calidad".
inteligencia-artificial-oficios-riesgo
Inteligencia Artificial: la UNCuyo creó una guía de uso para estudiantes y docentes
Sin embargo, el documento es taxativo respecto a los riesgos asociados. Entre los principales peligros que la universidad busca mitigar se encuentran:
- la generación de respuestas erróneas o fuera de contexto,
- la reproducción de estereotipos o sesgos,
- la exposición involuntaria de datos personales o información sensible,
- la vulneración de derechos de autor,
- la posible afectación del desarrollo del pensamiento crítico y la creatividad si se utiliza de manera dependiente.
Desigualdades
La adopción de esta guía no solo responde a una necesidad tecnológica, sino a un compromiso con la equidad y la inclusión. La universidad reconoce que, de no mediar criterios institucionales, la IA podría profundizar desigualdades en el acceso o comprometer la integridad académica.
Como señala el documento, la meta es garantizar un uso "transparente y alineado con valores democráticos", asegurando que la tecnología sea una herramienta para fortalecer los procesos educativos y no un obstáculo para la autoría personal.
En este marco se establecen ocho principios fundantes para el uso de la IAG.
Autoría responsable y honestidad académica
Toda producción académica deberá distinguir explícitamente las contribuciones humanas de las asistidas por IA, declarando y citando su uso conforme a las normas vigentes. La IA no podrá figurar como autora o coautora. La responsabilidad intelectual, la veracidad y la interpretación recaen en las personas firmantes. Este principio implica, además, que el uso de IA nunca debe sustituir el aprendizaje, la producción personal ni la creatividad original de los miembros de la comunidad universitaria.
Transparencia metodológica y trazabilidad
El empleo de IA en informes, artículos, tesis, materiales docentes u otros documentos académicos o institucionales similares, deberá declararse indicando la herramienta utilizada, su versión, la fecha de uso y su propósito. La información deberá documentarse de manera suficiente para permitir revisión y escrutinio académico.
Verificación de hechos
Los contenidos generados con apoyo de IA deberán ser contrastados con fuentes académicas y científicas confiables, dejando registro del procedimiento de validación. La omisión de este paso compromete la validez académica y puede derivar en desinformación, errores o plagio inadvertido. Este principio establece la obligatoriedad de que cada usuario asuma la responsabilidad de corroborar la información y no delegar en la IA la función de garante de la veracidad.
Conciencia y mitigación de sesgos
Este principio reconoce que la IAG refleja limitaciones y sesgos en sus fuentes de información, por ejemplo, sesgos en los datos utilizados, sesgos del modelo, sesgos en el uso y las instrucciones o sesgos culturales y lingüísticos. Por ello, la comunidad universitaria debe adoptar una perspectiva crítica a través de instancias de formación y procedimientos de revisión, con el propósito de identificarlos y tomar medidas de mitigación como la triangulación de fuentes, la revisión por pares diversos o las pruebas de sensibilidad.
Seguridad, bienestar digital y sostenibilidad ambiental
La Universidad promoverá el uso de la inteligencia artificial que resguarde la seguridad de los entornos digitales, la protección y privacidad de los datos personales, y que contribuya al bienestar físico, mental y social de las personas.
El impacto de la digitalización y la reconfiguración del mundo del trabajo - Por Podestá
Inteligencia Artificial: la UNCuyo creó una guía de uso para estudiantes y docentes
Toda incorporación de herramientas de IA requerirá consentimiento informado que explicite fines, riesgos y medidas de resguardo, así como también deberá prevenir la exposición indebida de información, las prácticas inseguras, la sobrecarga digital, la dependencia acrítica, las formas de exclusión y cualquier situación que afecte el desarrollo integral de las personas, en lo académico, laboral o institucional. Asimismo, su adopción deberá considerar criterios de responsabilidad ambiental. Queda prohibido el ingreso de información sensible en plataformas no institucionales o sin garantías suficientes.
Supervisión humana significativa y responsabilidad ética
Las decisiones de alto impacto académico (evaluación, acreditación, calificaciones, aprobación ética) deben estar siempre bajo la responsabilidad de personas. La IAG puede ser una herramienta de apoyo, pero no reemplaza el juicio humano ni la posibilidad de revisión por parte de terceros.
Uso crítico y desarrollo de competencias
La UNCuyo promoverá la formación continua en competencias digitales vinculadas a la IA, fomentando una alfabetización crítica que permita a docentes, estudiantes y no docentes comprender sus alcances, limitaciones y riesgos. El uso de IAG deberá fortalecer el pensamiento crítico, la creatividad, la autonomía y el aprendizaje profundo, evitando la dependencia tecnológica.
Inclusión, accesibilidad, equidad y colaboración abierta
La incorporación de IA en la Universidad deberá garantizar el acceso equitativo a herramientas institucionales y materiales accesibles, buscando reducir brechas digitales. Se promoverán apoyos específicos para estudiantes, docentes y no docentes, así como instancias de diálogo interdisciplinario y repositorios abiertos de buenas prácticas.