Riesgos de la Inteligencia Artificial

Roni Bandini
3 min readMay 29, 2023

--

Los riesgos de la Inteligencia Artificial son varios, pero no necesariamente esos escenarios distopicos que suelen proyectar filósofos y sociólogos.

Desde el punto de vista tecnológico y presente algunos que vale la pena recordar:

  1. Sesgo
  2. Discriminación
  3. Sim2Real
  4. Confusión Nominal

Hay mucha información disponible sobre sesgo y discriminación, pero poca sobre Sim2Real y casi nada sobre Confusión Nominal.

¿Es lo mismo sesgo que discriminación?

En Inteligencia Artificial suele existir una articulación entre pre condición y acción. El sesgo generalmente está asociado a la pre condición y la discriminación generalmente asociada a la acción. Cuando hay discriminación hay sesgo en alguna de las etapas. Pero cuando hay sesgo no necesariamente se traduce en discriminación.

Tipos de sesgo:

  • Sesgo en el entrenamiento: Machine Learning utiliza datos históricos y es común que justamente el carácter histórico de los datos incluya prejuicios ya derribados. El famoso caso de reclutamiento de Amazon utilizaba datos de hasta diez años atrás.
  • Sesgo en el modelo: se puede introducir un sesgo a propósito con el fin de compensar el sesgo arrastrado en el entrenamiento.
  • Sesgo en el uso: ante un uso no contemplado del modelo de IA se podría revelar un sesgo para el cual no se tomaron medidas.

En cuanto a la supuesta intencionalidad del sesgo, la visión es muy diferente para la gente que trabaja en IA que para la gente que escribe sobre IA. Hay consenso entre los primeros sobre cuestiones de costos (testear es caro y a veces no se tiene acceso a ciertos datos confidenciales), distracciones (buenos RRHH son escasos) o torpezas (investigar es lento). Mientras que para los segundos, el sesgo es parte de algún plan malvado.

Los métodos para medir sesgos suelen chocar con la “caja negra” de la IA, ya que a diferencia de la programación heurística, acá no se programó explícitamente para encontrar patrones y la explicación sencillamente no existe.

¿Qué quiere decir Sim2real?

Obtener datos para un proyecto de Machine Learning puede ser tedioso, complicado y caro, de modo que muchas veces se aprovecha la Inteligencia Artificial generativa para crear datos que van a servir de entrenamiento y testing. Por ejemplo: en un sistema para activar una bocina ante ciertas acciones humanas, se le pide a OpenAI Dall-e 200 imagenes con calidad fotográfica. Esas fotos creadas por IA son utilizadas para entrenar e incluso testear el modelo.

Lo mismo se puede hacer con voces (Suno AI Bark) videos (GenCraft) y datos numéricos en general como las coordenadas de un acelerómetro (para esto alcanza con un Excell).

A veces estos datos sintéticos son indistinguibles de los datos reales y empieza una recursión peligrosa de efectos impredecibles: IA siendo usada para generar datos de entrenamiento y testing de la IA en sistemas que luego van a tener impacto en las personas.

¿Qué quiere decir confusión nominal?

La confusión nominal es asumir que un sistema de Inteligencia Artificial va a ser necesariamente inteligente por… llamarse así.

Por esto mismo se ven titulares del tipo “Una inteligencia artificial dice que…” sugiriendo que cualquier output merece ser atendido ya que es inteligente transitivamente.

Desde el punto de vista de un proyecto de Machine Learning, un mal planteo inicial, datos con ruido, sub o sobrerepresentados, van a generar un sistema nada inteligente.

Más sobre confusión nominal y sim2real en la charla “Inteligencia artificial y creación de dispositivos con Machine Learning”, minuto 09.20

https://www.youtube.com/watch?v=9iijHolZsE4

--

--

Roni Bandini

Contracultura maker 🛠️ Arte electrónico 💡Inteligencia Artificial