<![CDATA[

(Expansión) – Estoy convencida que la inteligencia artificial (IA) es uno de los inventos más grandes de la humanidad. Pero, ¿qué es la inteligencia artificial? Es la combinación de algoritmos planteados con el propósito de que imiten las capacidades humanas –computadoras que realizan tareas como toma de decisiones, de forma similar a nosotros-. La inteligencia artificial permite que las máquinas o los dispositivos aprendan de su propia experiencia, se reconfiguren ante nuevos escenarios y luego desarrollen tareas de manera similar a como lo hacemos nosotros. Y no, no va a sustituirnos. Pero, ¿cómo lograr que la inteligencia artificial sea inclusiva y evitar que adquiera los sesgos de las personas que la programan?

Los responsables somos los humanos ¿Por qué debería importarme?

Para que la inteligencia artificial sea eficiente se necesitan dos materias primas: algoritmos y datos. El algoritmo da las instrucciones para la máquina y los datos permiten que esa máquina aprenda a usar esas instrucciones y mejore su uso. No, no son realmente independientes y autónomos… porque comienzan con nosotros: los seres humanos. Somos las personas quienes generamos los algoritmos, los datos y quienes programamos la inteligencia artificial. Y, ¿qué sucede si esas personas tienen sesgos? La IA también los tendrá. Es como educar a un bebé. Los libros y canciones reflejan los sesgos de sus autores. En la IA, al igual que en estos ejemplos, los conjuntos de datos tienen a sus programadores. Los datos se recopilan de acuerdo con las instrucciones de las personas. Al programar los algoritmos, las personas muestran sus prejuicios, sus opiniones, sus sesgos. Cuando hablamos de sesgo en IA, hablamos de prejuicios, de concepciones de la realidad por las cuales tomamos decisiones de forma consciente o inconsciente. Por lo tanto, es necesario destacar el papel que poseen todas aquellas personas que trabajan con estos algoritmos y hacer conciencia sobre el impacto que tienen. ¿Recuerdan que hace poco más de un año Twitter tenía un algoritmo que favorecía la promoción de las imágenes de personas blancas, delgadas y jóvenes por sobre la de una que no lo es? Claro que no era intencional, esto lo hacía la red social sistemáticamente por los algoritmos que tenía programados. ¿Qué ocurría si un hombre blanco y uno negro aparecían en una misma imagen? La previsualización enfocaba al hombre blanco. Lo mismo sucedía en las búsquedas. Hoy esta tecnología ayuda a decidir lo que para alguien puede significar un cambio de vida. Por ejemplo, quién tiene derecho a un préstamo bancario o a un seguro de vida, qué tratamiento médico debe recibir una persona o quién puede acceder a un puesto de trabajo. Si existen los sesgos, las minorías subrepresentadas tienen mayor probabilidad de salir perdiendo. En 2014 un equipo de ingenieros de software de Amazon construyó un programa para revisar currículums. En 2015 se dieron cuenta de que el algoritmo discriminaba a las mujeres para los puestos técnicos. El objetivo de Amazon había sido facilitar la búsqueda del mejor talento. Esta herramienta, basándose en los datos de los últimos 10 años, ‘aprendió’ que los hombres eran “preferibles”, ya que eran los hombres quienes más se postulaban a este tipo de puesto. El equipo de Recursos Humanos se preguntó por qué sólo recibía perfiles masculinos, entendió y corrigió.

Blockchain, la solución desconocida para casi todo | Expansión LAB Sesgos racistas ¿Hay solución?

La IA requiere grandes volúmenes de datos para entrenar sus modelos predictivos. Para que una máquina aprenda a detectar caras, le enseñamos muchas imágenes de rostros y muchas imágenes de otras cosas que no lo son, pelotas o animales, por ejemplo. La máquina aprende así a encontrar formas, colores y otros patrones visuales que son típicos en las caras que le hemos enseñado y que los distingue de otros. La máquina aprende qué es una cara a partir de las imágenes que le enseñemos. ¿Qué pasa entonces si solamente le enseñamos rostros de personas blancas? Ocurren errores como el de Google que etiquetó como gorilas a personas afroamericanas. La máquina aprendió a partir de una muestra sesgada de ejemplos y, en consecuencia, aprendió a clasificar de forma incorrecta. ¡Claro que la hay! Si eres líder en una compañía, es fundamental contar con equipos diversos para crear modelos representativos y así datos diversos que puedan garantizar que la IA sea más transparente, menos sesgada, más accesible e inclusiva. Personalmente hablando, detectar y eliminar tus sesgos tantos aprendidos como heredados es el primer paso. Todos nosotros tenemos nuestras percepciones formadas por nuestra experiencia pasada, y todos somos producto de nuestras historias personales y contexto. En ese sentido, todos los humanos estamos sesgados. Cuando los seres humanos logremos detectar sesgos y nuestros equipos de trabajo sean diversos, la inteligencia artificial será más inclusiva. Eliminemos los sesgos. Mientras tanto, me encantaría conocer tu opinión sobre el compañere … Por favor escríbanme . Nota del editor: Ana Peña es directora de comunicación para Intel Américas. Síguela en LinkedIn . Las opiniones publicadas en esta columna pertenecen exclusivamente a la autora. Consulta más información sobre este y otros temas en el canal Opinión

]]> Fuente: Expansión

Por admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *