Por qué es importante la crisis de diversidad de AI y cómo abordarla
Rachel Crowell es una periodista independiente que vive cerca de Des Moines, Iowa.
También puede buscar este autor en PubMed Google Scholar
Tiene acceso completo a este artículo a través de su institución.
Los grupos de inclusión se enfocan en promover constructores diversos para futuros proyectos de inteligencia artificial. Crédito: Shutterstock
La inteligencia artificial (IA) se enfrenta a una crisis de diversidad. Si no se aborda de inmediato, las fallas en la cultura de trabajo de la IA perpetuarán los sesgos que se filtran en las tecnologías resultantes, lo que excluirá y dañará a grupos enteros de personas. Además de eso, la 'inteligencia' resultante será defectuosa, careciendo de variados conocimientos socioemocionales y culturales.
En un informe de 2019 del AI Now Institute de la Universidad de Nueva York, los investigadores observaron que más del 80 % de los profesores de IA eran hombres. Además, las personas negras constituían solo el 2,5% de los empleados de Google y el 4% de los que trabajaban en Facebook y Microsoft. Además, los autores del informe señalaron que el "enfoque abrumador en las 'mujeres en la tecnología'" cuando se discuten cuestiones de diversidad en la IA "es demasiado limitado y probablemente privilegiará a las mujeres blancas sobre otras".
Algunos investigadores luchan por el cambio, pero también existe una cultura de resistencia a sus esfuerzos. "Debajo de este barniz de 'oh, la IA es el futuro, y tenemos todas estas cosas brillantes y agradables', tanto la academia como la industria de la IA son fundamentalmente conservadoras", dice Sabine Weber, consultora científica de VDI/VDE Innovation + Technik, una consultoría tecnológica con sede en Berlín. La IA en ambos sectores está "dominada en su mayoría por hombres blancos de mediana edad con antecedentes adinerados. Están realmente apegados al statu quo", dice Weber, quien es un organizador central del grupo de defensa Queer in AI. Nature habló con cinco investigadores que encabezan los esfuerzos para cambiar el status quo y hacer que el ecosistema de IA sea más equitativo.
Gerente sénior de ciencia de datos en Shopify en Atlanta, Georgia, y presidente general de la conferencia Deep Learning Indaba de 2023.
Soy originario de Ghana e hice mi maestría en estadísticas en la Universidad de Akron en Ohio en 2011. Mi experiencia es en el uso del aprendizaje automático para resolver problemas comerciales en la gestión de la experiencia del cliente. Aplico mis habilidades analíticas para crear modelos que impulsen el comportamiento del cliente, como los sistemas de recomendación de orientación al cliente, aspectos de la puntuación de clientes potenciales (la clasificación de clientes potenciales, la priorización de los que contactar para diferentes comunicaciones) y cosas de esa naturaleza.
Este año, también soy presidente general de Deep Learning Indaba, una reunión de la comunidad africana de aprendizaje automático e inteligencia artificial que se lleva a cabo en un país africano diferente cada año. El año pasado se celebró en Túnez. Este año, tendrá lugar en Ghana en septiembre.
Nuestra organización está construida para toda África. El año pasado participaron 52 países. El objetivo es tener representados a los 54 países africanos. Deep Learning Indaba empodera a cada país para tener una red de personas que manejan las cosas localmente. Tenemos el evento principal, que es la conferencia anual, y eventos IndabaX específicos de cada país (piense en charlas TED y TEDx).
Durante las conferencias IndabaX de Ghana, capacitamos a las personas sobre cómo programar y cómo manejar diferentes tipos de datos. También hacemos talleres sobre lo que está sucediendo en la industria fuera de Ghana y cómo debería involucrarse Ghana. IndabaX proporciona financiación y recomienda oradores que son investigadores establecidos que trabajan para empresas como Deep Mind, Microsoft y Google.
Para fortalecer el aprendizaje automático y la IA y la inclusión en Ghana, necesitamos desarrollar capacidades mediante la capacitación de jóvenes investigadores y estudiantes para que comprendan los conjuntos de habilidades y la preparación que necesitan para sobresalir en este campo. El desafío número uno al que nos enfrentamos son los recursos. Nuestro estado económico es tal que el enfoque del gobierno y la mayoría de los ghaneses está en el pan de cada día. La mayoría de los ghaneses ni siquiera están pensando en la transformación tecnológica. Muchos académicos locales no tienen la experiencia para enseñar a los estudiantes, para realmente cimentarlos en IA y aprendizaje automático.
La mayoría de los algoritmos y sistemas que usamos hoy en día fueron creados por personas fuera de África. Falta la perspectiva de África y, en consecuencia, los sesgos afectan a África. Cuando hacemos IA relacionada con imágenes, no hay muchas imágenes africanas disponibles. Los puntos de datos africanos representan no más del 1% de la mayoría de los conjuntos de datos de aprendizaje automático de la industria.
Cuando se trata de autos sin conductor, la red de carreteras de los EE. UU. es agradable y limpia, pero en África, la red tiene muchos baches y muchos agujeros. No hay forma de que un automóvil autónomo entrenado en las carreteras de EE. UU. o el Reino Unido pueda funcionar en África. También esperamos que el uso de IA para ayudar a diagnosticar enfermedades transforme la vida de las personas. Pero esto no ayudará a África si la gente no va allí para recopilar datos y comprender la atención médica africana y los sistemas de apoyo social relacionados, las enfermedades y el entorno en el que vive la gente.
Hoy, los estudiantes africanos en IA y aprendizaje automático deben buscar becas y salir de sus países para estudiar. Quiero ver este cambio y espero ver a los africanos involucrados en la toma de decisiones, siendo pioneros en grandes avances en el aprendizaje automático y la investigación de IA.
Los investigadores fuera de África pueden apoyar la IA africana asesorando y colaborando con los esfuerzos africanos existentes. Por ejemplo, tenemos Ghana NLP, una iniciativa enfocada en construir algoritmos para traducir inglés a más de tres docenas de idiomas ghaneses. Los investigadores globales que se ofrecen como voluntarios para contribuir con su conjunto de habilidades a la investigación específica de África ayudarán con esfuerzos como este. Deep Learning Indaba tiene un portal en el que los investigadores pueden registrarse para ser mentores.
Maria Skoularidou ha trabajado para mejorar la accesibilidad en una importante conferencia sobre inteligencia artificial. Crédito: Maria Skoularidou
Candidato a doctorado en bioestadística en la Universidad de Cambridge, Reino Unido, y fundador y presidente de {Dis}Ability in AI.
Fundé {Dis}Ability in AI en 2018, porque me di cuenta de que las personas con discapacidad no estaban representadas en las conferencias y no se sentía bien. Quería iniciar un movimiento de este tipo para que las conferencias pudieran ser inclusivas y accesibles, y las personas discapacitadas como yo pudieran asistir a ellas.
Ese año, en NeurIPS, la conferencia anual sobre sistemas de procesamiento de información neuronal, en Montreal, Canadá, asistieron al menos 4000 personas y no pude identificar a una sola persona que pudiera clasificarse como visiblemente discapacitada. Estadísticamente, no suma que no haya participantes discapacitados.
También observé muchos problemas de accesibilidad. Por ejemplo, vi carteles que eran desconsiderados con respecto al daltonismo. El lugar estaba tan lleno de gente que las personas que usan dispositivos de asistencia como sillas de ruedas, bastones blancos o perros de servicio no habrían tenido espacio para navegar por la sesión de carteles. Había ascensores, pero para alguien con movilidad limitada no habría sido fácil acceder a todas las salas de sesiones, dado el tamaño del lugar. Tampoco hubo intérpretes de lenguaje de señas.
Desde 2019, {Dis}Ability in AI ha ayudado a facilitar una mejor accesibilidad en NeurIPS. Hubo intérpretes y subtítulos para personas con problemas auditivos. Hubo escoltas voluntarias para personas con problemas de movilidad o visión que solicitaron ayuda. Hubo consejeros de línea directa y salas silenciosas porque las conferencias grandes pueden ser abrumadoras. La idea era: esto es lo que podemos proporcionar ahora, pero comuníquese en caso de que no seamos considerados con respecto a algo, porque queremos ser éticos, justos, equitativos y honestos. La discapacidad es parte de la sociedad y necesita ser representada e incluida.
Muchos investigadores discapacitados han compartido sus temores y preocupaciones sobre las barreras que enfrentan en la IA. Algunos han dicho que no se sentirían seguros compartiendo detalles sobre su enfermedad crónica, porque si lo hicieran, es posible que no obtengan un ascenso, que no reciban el mismo trato, que tengan las mismas oportunidades que sus compañeros, que reciban el mismo salario, etc. Otros investigadores de IA que se comunicaron conmigo habían sido intimidados y sintieron que si volvían a hablar sobre su condición, podrían incluso perder sus trabajos.
Las personas de grupos marginados deben ser parte de todos los pasos del proceso de IA. Cuando no se incluyen personas con discapacidad, los algoritmos se entrenan sin tener en cuenta a nuestra comunidad. Si una persona vidente cierra los ojos, eso no le hace entender con lo que debe lidiar una persona ciega. Necesitamos ser parte de estos esfuerzos. Ser amable es una forma en que los investigadores sin discapacidades pueden hacer que el campo sea más inclusivo. Las personas sin discapacidad pueden invitar a personas con discapacidad a dar charlas o ser investigadores o colaboradores visitantes. Necesitan interactuar con nuestra comunidad en un nivel justo y equitativo.
William Agnew es candidato a doctorado en informática en la Universidad de Washington en Seattle. Sabine Weber es consultora científica en VDI/VDE Innovation + Technik en Erfurt, Alemania. Son organizadores de la organización de defensa Queer in AI.
Agnew: Ayudé a organizar el primer taller Queer en IA para NeurIPS en 2018. Básicamente, el campo de la IA no se toma en serio la diversidad y la inclusión. En cada paso del camino, los esfuerzos en estas áreas están subfinanciados y subestimados. El campo a menudo protege a los acosadores.
La mayoría de las personas que trabajan en Queer in AI son estudiantes de posgrado, incluyéndome a mí. Puede preguntar: "¿Por qué no es el profesor principal? ¿Por qué no es el vicepresidente de lo que sea?" La falta de miembros senior limita nuestra operación y los recursos que tenemos para defender.
Las cosas por las que abogamos están sucediendo de abajo hacia arriba. Estamos pidiendo baños neutrales en cuanto al género; poner pronombres en las credenciales de registro de la conferencia, biografías de los oradores y encuestas; oportunidades para realizar nuestra encuesta de experiencias de IA queer, para recopilar datos demográficos, experiencias de daño y exclusión, y las necesidades de la comunidad de IA queer; y nos oponemos a las políticas de extracción de datos. Nosotros, como un grupo de personas queer que están marginadas por su condición queer y que somos las personas más jóvenes en nuestro campo, debemos abogar desde esas posiciones.
En nuestras encuestas, las personas queer mencionan constantemente la falta de comunidad, apoyo y grupos de pares como los mayores problemas que podrían impedirles continuar una carrera en IA. Uno de nuestros programas otorga becas para ayudar a las personas a postularse a la escuela de posgrado, para cubrir las tarifas de las solicitudes, las pruebas de admisión estandarizadas, como el Graduate Record Examination (GRE) y las transcripciones universitarias. Algunas personas deben volar a un país diferente para tomar el GRE. Es una gran barrera, especialmente para las personas queer, que tienen menos probabilidades de contar con el apoyo financiero de sus familias y que experimentan entornos legales represivos. Por ejemplo, las legislaturas estatales de EE. UU. están aprobando leyes anti-trans y anti-queer que afectan a nuestra membresía.
En gran parte debido a mi trabajo con Queer en IA, pasé de ser un especialista en robótica a ser un especialista en ética. La forma en que se utilizan, recopilan y abusan los datos de las personas queer es una gran preocupación. Otra preocupación es que el aprendizaje automático se trata fundamentalmente de categorizar elementos y personas y predecir resultados sobre la base del pasado. Estas cosas son la antítesis de la noción de queerness, donde la identidad es fluida y, a menudo, cambia de manera importante y grande, y con frecuencia a lo largo de la vida. Retrocedemos e intentamos imaginar sistemas de aprendizaje automático que no repriman la rareza.
Podrías decir: "Estos modelos no representan la rareza. Simplemente los arreglaremos". Pero las personas queer han sido durante mucho tiempo el objetivo de diferentes formas de vigilancia destinadas a denunciarnos, controlarnos o reprimirnos, y un modelo que comprende bien a las personas queer también puede vigilarlas mejor. Debemos evitar construir tecnologías que afiancen estos daños y trabajar en tecnologías que empoderen a las comunidades queer.
Weber: Anteriormente, trabajé como ingeniero en una empresa de tecnología. Le dije a mi jefe que yo era la única persona que no era cisgénero en todo el equipo de aproximadamente 60 desarrolladores. Él respondió: "Usted fue la única persona que solicitó su trabajo que tenía la calificación. Es muy difícil encontrar personas calificadas".
Pero las empresas claramente no están buscando mucho. Para ellos se siente como: "Estamos sentados en lo alto. Todos vienen a nosotros y se ofrecen". En cambio, las empresas podrían reclutar personas en organizaciones queer, en organizaciones feministas. Cada universidad tiene un grupo de mujeres en ciencia, tecnología, ingeniería y matemáticas (STEM) o un grupo de mujeres en computación al que las empresas podrían acudir fácilmente.
Pero prevalece el pensamiento: "Así es como siempre lo hemos hecho; no hagas olas". Es frustrante. En realidad, tengo muchas ganas de sacudir el barco, porque el barco es estúpido. Es una gran decepción toparse con estas barreras.
Laura Montoya anima a quienes, como ella, llegaron al campo de la inteligencia artificial por una vía no convencional. Crédito: Tim McMacken Jr ([email protected])
Director ejecutivo del Instituto Accel.AI y LatinX en IA en San Francisco, California.
En 2016, comencé el Instituto Accel.AI como una empresa de educación que ayuda a las personas subrepresentadas o desatendidas en IA. Ahora, es una organización sin fines de lucro con la misión de impulsar la IA para iniciativas de impacto social. También cofundé el programa LatinX in AI, un organismo profesional para personas de origen latinoamericano en el campo. Soy primera generación en Estados Unidos, porque mi familia emigró de Colombia.
Mi formación es en biología y ciencias físicas. Comencé mi carrera como ingeniero de software, pero la ingeniería de software convencional no era gratificante para mí. Fue entonces cuando descubrí el mundo del aprendizaje automático, la ciencia de datos y la IA. Investigué la mejor manera de aprender sobre IA y aprendizaje automático sin ir a la escuela de posgrado. Siempre he sido un pensador alternativo.
Me di cuenta de que había una necesidad de opciones educativas alternativas para personas como yo, que no toman la ruta típica, que se identifican como mujeres, que se identifican como personas de color, que quieren seguir un camino alternativo para trabajar con estas herramientas y tecnologías. .
Más tarde, mientras asistía a grandes conferencias sobre inteligencia artificial y aprendizaje automático, conocí a otros como yo, pero constituíamos una pequeña parte de la población. Me reuní con algunos amigos para hacer una lluvia de ideas, "¿Cómo podemos cambiar esto?". Así nació LatinX en IA. Desde 2018, lanzamos talleres de investigación en las principales conferencias y organizamos nuestra propia convocatoria de artículos en conjunto con NeurIPS.
También tenemos un programa de tutoría de tres meses para abordar la fuga de cerebros resultante de los investigadores que se van de América Latina a América del Norte, Europa y Asia. Más miembros senior de nuestra comunidad e incluso aliados que no son LatinX pueden servir como mentores.
En 2022, lanzamos nuestro programa de supercomputadoras, porque el poder de cómputo es muy escaso en gran parte de América Latina. Para nuestro programa piloto, a fin de brindar acceso a la investigación a recursos informáticos de alto rendimiento en el campus de Guadalajara del Instituto Tecnológico de Monterey en México, la empresa de tecnología NVIDIA, con sede en Santa Clara, California, donó un sistema DGX A100, esencialmente un servidor grande computadora. La agencia gubernamental para la innovación del estado mexicano de Jalisco albergará el sistema. Los investigadores y estudiantes locales pueden compartir el acceso a este hardware para la investigación en IA y aprendizaje profundo. Lanzamos una convocatoria global de propuestas para equipos que incluyan al menos un 50 % de miembros latinos que quieran usar este hardware, sin tener que estar inscritos en el instituto o incluso estar ubicados en la región de Guadalajara.
Hasta el momento, ocho equipos han sido seleccionados para formar parte de la primera cohorte, trabajando en proyectos que incluyen aplicaciones de conducción autónoma para América Latina y herramientas de monitoreo para la conservación de animales. Cada equipo tiene acceso a una unidad de procesamiento de gráficos, o GPU, que está diseñada para manejar tareas complejas de procesamiento de gráficos y datos visuales en paralelo, durante el período de tiempo que solicitan. Esta será una oportunidad para la colaboración cruzada, para que los investigadores se reúnan para resolver grandes problemas y utilizar la tecnología para el bien.
doi: https://doi.org/10.1038/d41586-023-01689-4
Estas entrevistas han sido editadas por su extensión y claridad.
Colección: Diversidad y carreras científicas
Por qué la inteligencia artificial necesita entender las consecuencias
Exhibición de las contribuciones de África a la ciencia
Para que la IA sea justa, esto es lo que debemos aprender a hacer
Investigadores de Tanzania ofrecieron US$22.000 para publicar en revistas internacionales
Noticias 06 JUN 23
Cuando muere un ser querido: cómo la academia puede apoyar a los colegas en duelo
Característica de carrera 05 JUN 23
Utopías científicas: iluminación científica en la Oficina de Preguntas Estúpidas
Columna de carrera 05 JUN 23
Seis consejos para codificar mejor con ChatGPT
Característica tecnológica 05 JUN 23
Hacia el aprendizaje automático cuántico
Foco 24 MAYO 23
Ordenadores cuánticos: ¿para qué sirven?
Foco 24 MAYO 23
ChatGPT: pautas estándar de informes para un uso responsable
Correspondencia 06 JUN 23
Seis consejos para codificar mejor con ChatGPT
Característica tecnológica 05 JUN 23
El aprendizaje por transferencia permite predicciones en biología de redes
Artículo 31 23 DE MAYO
Una organización de investigación interdisciplinaria donde la ciencia y la tecnología de vanguardia impulsan el descubrimiento de Insights impactantes
Nueva área de Pudong, Shanghái
Instituto BeiGene
Ubicada en la parte este de Nanjing, la Universidad Forestal de Nanjing es una universidad integral.
Nanjing, Jiangsu (CN)
Universidad Forestal de Nanjing (NFU)
Representante de DMPK/PD en equipos de expertos multifuncionales para la evaluación de nuevas entidades químicas
Cantón, Guangdong, China
BeiGene Ltd.
El NIEHS busca un investigador sénior para que se desempeñe como Jefe del Centro de Investigación sobre el Cambio Climático y la Salud.
Research Triangle Park, Carolina del Norte
Instituto Nacional de Ciencias de la Salud Ambiental/NIH
Nos encontramos en la búsqueda de un Técnico en Investigación para incorporarse al grupo Giustacchini en el Programa de Población y Genómica Médica de Human Technopole (HT).
Milán (IT)
Tecnopolo humano