4 maneras de abordar el sesgo de género en la IA

Cualquier examen del sesgo en la IA debe reconocer el hecho de que estos sesgos provienen principalmente de los sesgos inherentes a los humanos. Los modelos y sistemas que creamos y formamos son un reflejo de nosotros mismos. Así que no es de extrañar encontrar que la IA está aprendiendo sesgos de género de los humanos. Por ejemplo, se ha encontrado que el procesamiento del lenguaje natural (PNL), un ingrediente crítico de sistemas comunes de IA como Alexa de Amazon y Siri de Apple, entre otros, muestra sesgos de género, y esto no es un incidente independiente. Ha habido varios casos de prejuicio de género de alto perfil, incluidos los sistemas de visión por computadora para el reconocimiento de género que reportaron tasas de error más altas en el reconocimiento de mujeres, específicamente aquellas con tonos de piel más oscuros. Para producir una tecnología más justa, los investigadores y los equipos de aprendizaje automático de toda la industria deben realizar un esfuerzo concertado para corregir este desequilibrio. Tenemos la obligación de crear una tecnología eficaz y justa para todos.
Personal de HBR /Dessalpicaduras

Cualquier examen del sesgo en la IA debe reconocer el hecho de que estos sesgos provienen principalmente de los sesgos inherentes a los humanos. Los modelos y sistemas que creamos y formamos son un reflejo de nosotros mismos.

Así que no es de extrañar encontrar que la IA está aprendiendo sesgos de género de los humanos. Por ejemplo, el procesamiento del lenguaje natural (PNL), un ingrediente crítico de sistemas comunes de IA como Alexa de Amazon y Siri de Apple, entre otros, se ha encontrado que muestra sesgos de género — y esto no es un incidente independiente. Ha habido varios casos de discriminación por motivos de género de gran notoriedad, incluidos sistemas de visión por computadora para el reconocimiento de género que reportó tasas de error más altas para reconocer a las mujeres, específicamente aquellas con tonos de piel más oscuros. Para producir una tecnología más justa, los investigadores y los equipos de aprendizaje automático de toda la industria deben realizar un esfuerzo concertado para corregir este desequilibrio. Afortunadamente, estamos empezando a ver un nuevo trabajo que mira exactamente cómo se puede lograr.

Centro de información

  • IA y sesgo
    Patrocinado por SAS

    Construir sistemas de aprendizaje automático justos y equitativos.

Cabe destacar la investigación de sesgo que se está llevando a cabo con respecto a las incrustaciones de palabras, que es cuando las palabras se convierten en representaciones numéricas, que luego se utilizan como insumos en modelos de procesamiento de lenguaje natural. Las incrustaciones de palabras representan las palabras como una secuencia o un vector de números. Si dos palabras tienen significados similares, sus incrustaciones asociadas estarán cerca una de la otra — en un sentido matemático. Las incrustaciones codifican esta información evaluando el contexto en el que se produce una palabra. Por ejemplo, AI tiene la capacidad de llenar objetivamente la palabra «reina» en la frase «El hombre es rey, como la mujer es X.» El problema subyacente surge en los casos en que AI rellena frases como «El padre es médico como madre es amamantar». El sesgo inherente de género en la observación refleja una percepción obsoleta de la mujer en nuestra sociedad que no se basa en los hechos ni en la igualdad.

Pocos estudios han evaluado los efectos del sesgo de género en el habla con respecto a las emociones, y la IA emocional está empezando a desempeñar un papel más destacado en el futuro del trabajo, el marketing y casi todas las industrias que se te ocurra. En los seres humanos, el sesgo ocurre cuando una persona interpreta erróneamente las emociones de una categoría demográfica más a menudo que otra, por ejemplo, pensando erróneamente que una categoría de género está enojada más a menudo que otra. Este mismo sesgo se observa ahora en las máquinas y cómo clasifican erróneamente la información relacionada con las emociones. Para entender por qué es esto, y cómo podemos solucionarlo, es importante primero examinar las causas del sesgo de IA.

¿Qué causa el sesgo de IA?

En el contexto del aprendizaje automático, el sesgo puede significar que hay un mayor nivel de error para ciertas categorías demográficas. Debido a que no existe una causa raíz de este tipo de sesgo, existen numerosas variables que los investigadores deben tener en cuenta a la hora de desarrollar y capacitar modelos de aprendizaje automático, con factores que incluyen:

  • Un conjunto de datos de entrenamiento incompleto o sesgado: Esto sucede cuando faltan categorías demográficas en los datos de formación. Los modelos desarrollados con estos datos pueden no escalarse correctamente cuando se aplican a nuevos datos que contienen esas categorías faltantes. Por ejemplo, si las hablantes representan solo el 10% de los datos de entrenamiento, entonces cuando se aplica un modelo de aprendizaje automático entrenado a las mujeres, es probable que produzca un mayor grado de errores.
  • Etiquetas utilizadas para el entrenamiento: La gran mayoría de los sistemas de IA comerciales utilizan aprendizaje automático supervisado, lo que significa que los datos de capacitación están etiquetados para enseñar al modelo cómo comportarse. La mayoría de las veces, los humanos vienen con estas etiquetas, y dado que las personas con frecuencia presentan sesgos (conscientes e inconscientes), pueden ser codificados involuntariamente en los modelos de aprendizaje automático resultantes. Dado que los modelos de aprendizaje automático están capacitados para estimar estas etiquetas, esta clasificación errónea y la injusticia hacia la categoría de género en particular se codificarán en el modelo, lo que dará lugar a sesgos.
  • Características y técnicas de modelado: Las mediciones utilizadas como insumos para los modelos de aprendizaje automático, o el entrenamiento del modelo en sí mismo, también pueden introducir sesgos. Por ejemplo, a lo largo de muchas décadas, la síntesis de voz de campo, es decir, la tecnología de texto a voz (por ejemplo, la voz de Stephen Hawking) y el reconocimiento automático de voz — tecnología de voz a texto (por ejemplo, subtítulos cerrados) — tuvo un rendimiento deficiente para las hablantes en comparación con los hombres. Esto se atribuye al hecho de que la forma en que se analizó y modeló el discurso fue más precisa para los altavoces más altos con cuerdas vocales más largas y voces más pronunciadas. Como resultado, la tecnología de voz era más precisa para los altavoces con estas características, que suelen ser masculinas, y mucho menos precisa para aquellos con voces más pronunciadas, que suelen ser femeninas.

Cuatro mejores prácticas para los equipos de aprendizaje automático para evitar el sesgo de género

Al igual que muchas cosas en la vida, las causas y soluciones del sesgo de IA no son blanco y negro. Incluso la «equidad» en sí misma debe ser cuantificada para ayudar a mitigar los efectos del sesgo no deseado. Para los ejecutivos que estén interesados en aprovechar el poder de la IA, pero que estén preocupados por el sesgo, es importante asegurarse de que en sus equipos de aprendizaje automático suceda lo siguiente:

  • Garantice la diversidad en las muestras de entrenamiento (por ejemplo, use aproximadamente tantas muestras de audio femeninas como machos en sus datos de entrenamiento).
  • Asegúrese de que los humanos que etiquetan las muestras de audio provienen de diversos fondos.
  • Alentar a los equipos de aprendizaje automático a medir los niveles de precisión por separado para las diferentes categorías demográficas e identificar cuándo una categoría está siendo tratada de manera desfavorable.
  • Resuelva por injusticia recopilando más datos de entrenamiento asociados con grupos sensibles. A partir de ahí, aplique técnicas modernas de dessesgo de aprendizaje automático que ofrezcan formas de penalizar no solo por errores en el reconocimiento de la variable primaria, sino que también tengan sanciones adicionales por producir injusticia.

Aunque examinar estas causas y soluciones es un primer paso importante, todavía quedan muchas preguntas pendientes por responder. Más allá de la capacitación en aprendizaje automático, la industria necesita desarrollar enfoques más holísticos que aborden las tres causas principales de sesgo, como se ha señalado anteriormente. Además, las futuras investigaciones deberían considerar datos con una representación más amplia de variantes de género, como transgénero, no binario,., para ayudar a ampliar nuestra comprensión de cómo manejar la creciente diversidad.

Tenemos la obligación de crear una tecnología eficaz y justa para todos. Creo que los beneficios de la IA superarán los riesgos si podemos abordarlos colectivamente. Depende de todos los profesionales y líderes en el campo colaborar, investigar y desarrollar soluciones que reduzcan el sesgo de IA para todos.

 


Josh Feast via HBR.org

Total
0
Shares
Post Anterior

Ayudar a su equipo a sentir el propósito en su trabajo

Siguiente Post

Conseguir que su equipo haga más que cumplir los plazos

Posts Relacionados

¿Cómo se verá el equilibrio entre el trabajo y la vida personal después de la pandemia?

Durante décadas, los académicos han descrito cómo las organizaciones se construyeron sobre el modelo implícito de un «trabajador ideal»: uno que está totalmente dedicado a su trabajo y está disponible las 24 horas del día, los 365 días del año, todos los años de su carrera. Este fue un arquetipo siempre poco realista, y la crisis de Covid-19 ha demostrado cuán poco realista es. Los autores explican cómo alejarse de este modelo dañino beneficiará no solo a los padres que trabajan sino a todos los empleados, y conducirá a organizaciones con mejores resultados.

Leer Más

¿Mejorará la automatización el trabajo para las mujeres, o lo empeorará?

Durante casi 30 años, la participación de las mujeres en la fuerza de trabajo mundial se ha estancado obstinadamente en torno al 39%; el progreso hacia la igualdad de género en el trabajo es glacial. Ahora ha llegado un nuevo cambio de juego en forma de tecnologías de automatización e inteligencia artificial (IA). ¿Podrían estas tecnologías formar parte del avance que necesitan las mujeres trabajadoras, convirtiéndolas en nuevas oportunidades y reduciendo la brecha de género en el trabajo? ¿O estas tecnologías dejarán a las mujeres aún más atrás? Las investigaciones realizadas por el Instituto Global McKinsey encuentran que es probable que la automatización desplace a hombres y mujeres de manera más o menos igualitaria en la próxima década. Sin embargo, como resultado de ese desplazamiento, las mujeres tendrán que hacer transiciones mucho más significativas en comparación con los hombres y tal vez les resulte más difícil aprovechar nuevas oportunidades debido a las persistentes barreras que enfrentan.

Leer Más