Por Hugo Pais (*)
Diariamente de un modo u otro, ingresamos a tratar el tema de la inteligencia artificial -IA- donde entendemos a quienes expresan su temor frente al desarrollo de este avance de la tecnología, generado por el propio ser humano. No hace tanto exprese en este mismo medio, que la IA, no tiene sentimientos, emociones y carece de un alma humana, si bien es fruto del intelecto de los seres humanos, que le dan un perfil determinado, con respuestas no uniformes en diferentes robóticas, pero sin algo que tanto nos preocupa a los formadores, sin inteligencia emocional.
Pero hoy, deseo expresar mi preocupación, respecto de la ética y la moral en la IA, recurriendo a estudios realizados por diversos investigadores que nos ayudan a comprender que ella se debe desarrollar y utilizar, de manera responsable y con transparencia. Por ende, no solo es prioridad tomar en cuenta los aspectos técnicos de la IA, sino de las implicaciones éticas de su uso. Además, somos muchos los que consideramos que los gobiernos deberían generar políticas y lineamientos para asegurar la práctica responsable de la IA, facilitando a su vez la innovación y el progreso.
Sabemos, por informes responsables, de centros de investigación internacional, que existen organizaciones que han estado trabajando en iniciativas sobre la ética en la inteligencia artificial. Y como docente, debo señalar, que es difícil la labor de mis colegas, si no se preparan frente a este tema, para comprender el uso que hacen de la IA sus alumnos que ponen en juego en sus trabajos, la propiedad intelectual de los mismos.
Aunque su enfoque ha estado principalmente en los datos y cómo se analizan, existen organizaciones como The Montreal, la cual ha desarrollado una serie de principios con carácter humanista que prometen mejorar el desarrollo, uso e implementación de la IA.
Se ha identificado que el uso de la IA en educación ha tomado 4 roles principales:
-tutor inteligente,
-tutelado,
-herramienta de aprendizaje/compañero
-asesor en la formulación de políticas.
No obstante, comparto que existen dilemas éticos sobre la IA en educación, existen si, muchas objeciones, que si establecemos reglas, normas de uso, se subsanarían.
En tal sentido vale señalar que la UUNESCO enuncia seis retos para lograr el desarrollo sustentable de la IA
-Hacer políticas públicas integrales, con inclusión y equidad.
-Preparar al profesorado para la educación con IA.
-Capacitar a la IA en educación.
-Desarrollar sistemas de datos inclusivos con calidad.
-Garantizar que la investigación sea significativa.
-Asegurar la ética y la transparencia en la recolección, uso y diseminación de datos
Sin dudas, no podemos dejar de señalar que hay riesgos legales, éticos, de seguridad, etc., que se plantean entre otros los siguientes:
-sesgo sistemático, (desviación de los resultados de la verdad, que se repite siempre de la misma forma (no aleatoria)
-discriminación,
-desigualdad,
-xenofobia (a nivel individual),
-brechas de desigualdad entre estudiantes,
-riesgos de privacidad asociados con la responsabilidad de los datos consentimiento informado,
-violación de la privacidad,
-equidad,
-apofenia estadística,
-vigilancia y consentimiento,
-configuración de la identidad,
-confidencialidad del usuario,
-integridad e inclusividad,
-recolección de datos,
-disponibilidad restringida de datos,
-sesgo y representación,
-propiedad,
-control y autonomía de los datos.
Vale que señalemos, algunos principios éticos, a tomar en cuenta, respecto de la IA en educación
-Transparencia y responsabilidad
-Seguridad y protección
-Sostenibilidad y proporcionalidad
-Gobernanza
-Enfoque humano
-Privacidad
-Inclusividad
Esta es una invitación a reflexionar, con profundidad, la implicancias y consecuencia, de una herramienta que se esta usando sin definir parámetros éticos/ morales.
(*) Profesor, investigador en temas de educación, Ex Rector de la Escuela de Nivel Medio y Superior “Del Centenario”