banner
Hogar / Noticias / Es hora de actuar sobre la tecnología educativa y los derechos digitales del niño
Noticias

Es hora de actuar sobre la tecnología educativa y los derechos digitales del niño

Aug 31, 2023Aug 31, 2023

Por la Dra. Erica Southgate

Australia es signataria de la Convención de las Naciones Unidas sobre los Derechos del Niño (CRC) desde 1990.

Como el tratado de derechos humanos más ratificado de la historia, la CDN proporciona 54 artículos o principios que sientan las bases para permitir que todos los niños (menores de 18 años) tengan una infancia sana y segura, libre de discriminación y llena de oportunidades para una vida plena. desarrollo.

Los derechos del niño incluyen el derecho a la educación; tener y compartir información que no les perjudique; tener acceso a información confiable; y privacidad

La CDN estipula que los gobiernos deben poner estos derechos a disposición de los niños.

En 2021, Naciones Unidas entregó un importante documento que destacó los derechos del niño en la era digital. Se denominó Observación general núm. 25 sobre los derechos del niño en relación con el entorno digital.

Comentario general n. 25 proporciona una visión general amplia de las oportunidades y desafíos en el cumplimiento de los derechos de todos los niños en el mundo digital, declarando:

El entorno digital… [incluye] redes digitales, contenidos, servicios y aplicaciones, dispositivos y entornos conectados, realidad virtual y aumentada, inteligencia artificial, robótica, sistemas automatizados, algoritmos y análisis de datos, biometría y tecnología de implantes… [Se está] volviendo cada vez más importante en la mayoría de los aspectos de la vida de los niños, incluso durante tiempos de crisis, a medida que las funciones sociales, incluida la educación, ... progresivamente dependen de las tecnologías digitales. Brinda nuevas oportunidades para la realización de los derechos del niño, pero también plantea los riesgos de su violación o abuso. Durante las consultas, los niños expresaron la opinión de que el entorno digital debería apoyar, promover y proteger su participación segura y equitativa.

Los nuevos tipos de tecnologías utilizan sensores, geolocalizadores e inteligencia artificial para recolectar rápidamente información sobre una persona (su demografía, ubicación y preferencias y afiliaciones) y de una persona (atributos corporales y comportamientos como voz, frecuencia cardíaca, dedo, extremidad y ojo). movimientos e incluso dilatación de la pupila).

Esta información es utilizada por algoritmos de aprendizaje automático para crear un perfil sobre nosotros, predecir lo que podríamos hacer e incluso empujarnos en ciertas direcciones sin nuestro conocimiento.

No se trata solo de nuestra vida en línea. También puede tener un impacto en las oportunidades disponibles para nosotros de manera más general, ya que estos perfiles analíticos son utilizados por todo tipo de organizaciones para automatizar decisiones sobre qué oportunidades están o no disponibles para nosotros.

Esto también afecta a los niños en su vida de ocio y, cada vez más, en la educación.

En este nuevo mundo de automatización y toma de decisiones algorítmica, ChatGPT es la primera manifestación visible de lo que vendrá.

Sin embargo, los administradores educativos y los fabricantes de tecnología educativa llevan mucho tiempo recopilando y utilizando información (o datos, como los llamamos ahora) para guiar las decisiones técnicas y educativas que están dando forma a cómo se imparte el aprendizaje en forma de sistemas de tutoría automatizados y chatbots pedagógicos; la estructura de entrega a través de sistemas de gestión de aprendizaje; y evaluación adaptativa.

La tendencia es automatizar a qué oportunidades de aprendizaje tienen acceso los estudiantes y cómo se representan los propios estudiantes a través de paneles analíticos.

Sin duda, el desempeño de los maestros de escuela también se representará y evaluará a través de dichos tableros, ya que los educadores en educación superior ahora están sujetos a esto.

Esto no es necesariamente una tendencia negativa si existe una regulación, política y diseño de productos que proteja nuestros derechos humanos y los derechos del niño.

Desafortunadamente, este no es el caso en Australia, aunque la Ley de privacidad de la Commonwealth se encuentra actualmente en revisión y existen comisiones, defensores del pueblo y agencias de derechos humanos que brindan pautas útiles y cierta supervisión.

Desde la perspectiva de los estudiantes y sus familias, y sin duda de muchos maestros, a menudo no está claro qué información recopilan los administradores educativos, con quién la comparten y con qué propósito y consecuencia.

Esta falta de transparencia se amplifica cuando consideramos la recolección de datos; usar y compartir; y toma de decisiones automatizada en productos de tecnología educativa.

Cuando un maestro trae una nueva aplicación a la clase, ¿considera estos problemas?

Los términos y condiciones de los productos y las declaraciones de privacidad a menudo ofuscan, en lugar de explicar claramente, lo que sucede con los datos de los estudiantes y los maestros, y optar por no participar no es realmente una opción si los productos educativos se entrelazan con el aprendizaje diario.

Los algoritmos que impulsan la tecnología, incluida la tecnología educativa, a menudo se describen como "caja negra". Esto significa dos cosas.

El primero se refiere al uso de ciertos tipos de aprendizaje automático donde el proceso analítico es tan complejo que incluso los informáticos que diseñan la inteligencia artificial no pueden comprender el proceso de toma de decisiones de la máquina.

El segundo se refiere a la protección del carácter propietario de los algoritmos por intereses comerciales y gubernamentales.

De cualquier manera, nos encontramos en una situación en la que la norma de la "caja negra" crea una falta de transparencia y explicabilidad, tanto a nivel de los algoritmos utilizados en los productos de tecnología educativa como en la política educativa en general.

Los contratos con empresas de tecnología educativa a menudo se hacen de manera confidencial y no están disponibles públicamente.

Más allá de esto, los mecanismos para que los estudiantes y sus familias impugnen las decisiones automatizadas que se toman sobre ellos, y las representaciones de ellos como aprendices, que resultan de la tecnología educativa, en realidad no existen, excepto por los procedimientos estándar de quejas.

El problema es que es posible que no sean conscientes del papel que desempeñó la automatización en las decisiones o que no puedan comprender cómo se tomaron estas decisiones, debido a la falta de educación específica que les permita participar y defender la transparencia algorítmica y la prevención y corrección de dañar.

El informe AI in Schools, del que soy coautor, detalla lo que las escuelas, los administradores educativos, los responsables políticos y la industria deben hacer en el contexto australiano.

Pero ahora más que nunca, necesitamos regulación y leyes para garantizar que se respeten los derechos digitales del niño.

Esto incluye empoderar a los estudiantes y sus familias para que sean parte de la conversación de manera genuina y para que los administradores educativos lideren el desarrollo de políticas y procedimientos éticos y transparentes que permitan a los maestros comprender lo que está en juego en la nueva era de las máquinas. La Dra. Erica Southgate es Profesora Asociada de Tecnologías Emergentes para la Educación (Universidad de Newcastle). Es una defensora de la equidad, creadora de juegos de computadora para la alfabetización, especialista en ética de la tecnología e investigadora principal en VR School Study, la investigación de mayor duración sobre la realidad virtual inmersiva en las aulas. Su último libro es Virtual Reality in Curriculum and Pedagogy (Routledge). Sus pensamientos sobre la nueva era de las máquinas para la educación se pueden encontrar en su sitio web.

La Dra. Erica Southgate es Profesora Asociada de Tecnologías Emergentes para la Educación (Universidad de Newcastle). Es una defensora de la equidad, creadora de juegos de computadora para la alfabetización, especialista en ética de la tecnología e investigadora principal en VR School Study, la investigación de mayor duración sobre la realidad virtual inmersiva en las aulas. Su último libro es Virtual Reality in Curriculum and Pedagogy (Routledge). Sus pensamientos sobre la nueva era de las máquinas para la educación se pueden encontrar en su sitio web.