La Inteligencia Artificial que se volvió racista y misógina

La ética moral y la Inteligencia Artificial

Un experimento de Inteligencia Artificial desató las alarmas. Se trata de una investigación que tuvo como objetivo el identificar la ética que puede llegar a desarrollar un software inteligente. Lo sorpresivo de esta inteligencia llego al demostrar que, entre otras cosas, es misógina y racista.

Como casi en la mayoría del desarrollo de la inteligencia artificial, el problema tuvo lugar en el aprendizaje. Por lo regular, este entrenamiento o enseñanza se hace mediante el suministro de grandes cantidades de datos.

En este sentido, podemos decir que el problema con el proyecto denominado Delphi, se debió por los datos que se usaron. La investigadora Liwei Jiang, una de sus promotoras, explica en este artículo cómo es que Delphi pretende dotar de ética a las maquinas.

Les compartimos este vídeo donde explica cómo los algoritmos que están detrás de la IA pueden tener la capacidad de discriminar a las personas basándose en múltiples factores

La ética y la inteligencia artificial

El desarrollo de una inteligencia artificial sería clave para tener una aplicación en diversas áreas. Como, por ejemplo, crear un asistente inteligente, tal como podemos presenciar con los chatbots. Pero incluso esta inteligencia podría tener una aplicación menos ética. Como el dotar de robots a los ejércitos.

Para entrenar a esta inteligencia, se empleó una base de datos llamada Commonsense Norm Bank. Equipada con 1,7 millones de ejemplos de juicios éticos de personas en un amplio espectro de situaciones cotidianas. Sin embargo, el problema con esta base de datos es que la información recopilada es de ciudadanos estadounidenses. Lo que provoco un sesgo al emitir los juicios éticos.

Entre una de las desventajas de esta colección de datos, esta que algunas de sus opiniones prevenían de fuentes como Reddit. Que tal y como sucede en muchos otros foros, no destaca precisamente por sus valores éticos.

- Anuncio -

Es así que Delphi, emitió respuestas como “es bueno besar a una mujer aunque no quiera”. O que si es buena idea pasar cerca de un hombre negro de noche responda que “es sospechosos”.

Pese a que sus promotores dicen que la tasa de aciertos de esta inteligencia artificial oscila entre el 85% y 92%, lo cierto es que estos errores tienen un nivel de gravedad considerable. Por lo que, podemos decir que Delphi es un experimento un tanto riguroso e inquietante.

Un acierto que podemos otorgarle a estos investigadores es el hecho de haber creado una web abierta a la participación, para que sean precisamente las personas quienes se encarguen de corregir los fallos en los juicios éticos de esta inteligencia. ¿Qué opinan ustedes? ¿Creen que esta inteligencia artificial será capaz de emitir juicios morales más acertados? Déjennos sus comentarios.

- Anuncio -
Artículo anteriorGoogle My Business nos dice adiós
Artículo siguienteLos soonicorns mexicanos y latinoamericanos del 2021
Especialista en Marketing Digital con enfoque en resultados. Apasionado de los emprendimientos de alto impacto que involucran tecnología e innovación.