La inteligencia artificial ¿es realmente tan inteligente? Los peligros que esconde la inteligencia artificial

La Inteligencia Artificial (IA) presenta sesgos que pueden ser peligrosos para la sociedad debido a que las máquinas aprenden a partir de datos sesgados. Estos sesgos pueden tener consecuencias sociales significativas, como discriminación en la contratación y etiquetado erróneo de imágenes. Sin embargo, la IA no es inherentemente mala, sino que se requiere una selección de datos adecuada y medidas correctivas para abordar estos sesgos. Es fundamental contar con equipos diversos en el desarrollo de IA y trabajar hacia una IA responsable, aplicando técnicas de explicabilidad y meta aprendizaje.

Cada vez más investigadores detectan sesgos y discriminación en sistemas de IA que se implementan masivamente. ¿Cuáles son las claves para poder terminar con este problema?

Hace años que la Inteligencia Artificial (IA) está entre nosotros. La utilizamos, incluso, sin darnos cuenta. Hoy varios investigadores están prendiendo las alarmas porque aseguran que muchos programas de IA presentan sesgos que pueden ser peligrosos para la sociedad.

En primer lugar, hay que tener en claro su concepto, es decir, a qué llamamos Inteligencia Artificial. Se refiere a sistemas o máquinas que imitan la inteligencia humana para realizar tareas. Estos procesos pueden mejorar su efectividad y respuesta a partir de la información que recopilan. Y justamente aquí radica el “gran tema” de estas herramientas tecnológicas. Es que las máquinas aprenden a través de los datos que se incorporan; y utilizan distintos patrones para poder mejorar sus respuestas.

¿Qué pasa entonces si toda la información de la que se alimentan y se entrenan estos sistemas está sesgada? La respuesta es simple: arrojarán resultados sesgados. El tema no es menor porque ya comenzaron a tener claras consecuencias sociales. Varios especialistas están observando que esta tecnología es muy sensible al sesgo y presenta fallas que son alarmantes.

Sólo basta con pensar en las innumerables aplicaciones que tiene y tendrá esta herramienta tecnológica. La IA ya se está utilizando para aprobar créditos bancarios, en los sistemas de salud y hasta para agilizar los reclutamientos de talentos. 

Un claro ejemplo es el que se vivió en Amazon en 2014. Ese año un equipo de ingenieros de software de la compañía de Jeff Bezos desarrolló un programa para revisar currículums. En 2015 se dieron cuenta de que el algoritmo discriminaba a las mujeres para los puestos técnicos. El objetivo de Amazon había sido facilitar la búsqueda del mejor talento. Esta herramienta, basándose en los datos de los últimos 10 años, “aprendió” que los hombres eran “preferibles” para estas posiciones, ya que eran quienes más se postulaban a este tipo de puestos. Luego de comenzar a utilizar esta herramienta el equipo de Recursos Humanos se dio cuenta que sólo recibía postulantes masculinos. Encontró que la causa la estaba generando esta solución tecnológica y corrigió el problema.

Racismo

Por otro lado, es importante tener en cuenta que las máquinas aprenden a encontrar formas, colores y otros patrones visuales en función de las imágenes que se le enseñen o se sumen al sistema a modo de ejemplo. ¿Qué pasaría si el desarrollador solamente ingresa rostros de personas blancas? Ocurrirán errores como el de Google que etiquetó como gorilas a personas afroamericanas.

Aún son pocos los modelos de deep learning donde realmente los sistemas aprenden más allá de los de los data sets de sus programadores.

¿IA, entonces, es una tecnología mala?

Las tecnologías no son ni malas ni buenas, lo que puede ser es que haya una selección de datos inadecuada. No puede culparse a los sistemas de IA si no a quienes han realizado el análisis exploratorio previo para determinar los problemas subyacentes como presencia de variables no relevantes o desbalance de datos.

Lo importante es poder detectar estos defectos a tiempo y aplicar medidas para corregirlos. ¿Cómo? Analizando la selección de variables, generando ejemplos artificiales para equilibrar la distribución o ajustando al algoritmo de entrenamiento, entre otras acciones.

Además, es fundamental contar con equipos diversos y heterogéneos dentro del área de desarrollo, para poder crear programas que sean representativos e incluir datos diversos que garanticen herramientas de IA más transparentes, menos sesgadas, más accesibles e inclusivas.

Hacia una IA responsable

Es clave trabajar para contar con una Inteligencia Artificial responsable y aplicada a todo tipo de modelos. Para lograrlo ya existen varias líneas de investigación que apuntan a este objetivo. Entre ellas se destacan: nuevas métricas, aplicar técnicas de explicabilidad para los modelos más novedosos como Deep Learning y combinar las técnicas y las métricas.

Al mismo tiempo, ya comenzó a hablarse del meta learning o meta aprendizaje. ¿De qué se trata? A diferencia de los enfoques de IA convencionales, en los que una determinada tarea se resuelve desde cero utilizando un algoritmo de aprendizaje fijo, el meta aprendizaje busca mejorar el algoritmo de aprendizaje.

Así, “aprender a aprender” permite la observación sistemática de cómo funcionan los diferentes enfoques del aprendizaje automático en una variedad de tareas de aprendizaje. A partir de esta experiencia, o de los metadatos, el sistema debería aprender a aprender nuevas tareas mucho más rápido.

De esta manera, el meta aprendizaje no solo acelera y mejora drásticamente el diseño de arquitecturas neuronales, sino que también permite que los algoritmos hechos a mano sean reemplazados por nuevos enfoques que se aprenden de una manera basada en datos. Con la creciente aparición de tecnologías como el meta aprendizaje, la IA se está volviendo menos intensiva en datos.

Por último, muchos aseguran que la inteligencia “real” es la abierta, donde el cerebro realiza una sinapsis y conexiones para ir aprendiendo y resolviendo casos. Dado el componente transformador y nuevo de la Inteligencia Artificial, su apertura permite mejorar los procesos, y entender los principales problemas a enfrentar para acelerar su desarrollo. Es más, varios de los actores más influyentes en la industria tecnológica ya han dado pasos en la dirección de la apertura de su conocimiento en IA, lo que revela una tendencia en alza.

En conclusión, es verdad que hoy contamos con herramientas de AI basadas en datos que pueden tener ciertos sesgos, aunque ya se están desarrollando modelos avanzados en vistas a solucionar estas falencias.

Manuel Allegue – 19 de septiembre del 2022

Formá parte del mundo Cloud

Suscribite a nuestro resumen periódico de Noticias de Tecnología.

es_ES