Las tontunas de los conversadores de IA
Llevo unos días conversando animadamente con Don ChatGPT. Es un señor muy correcto que está muy bien educado para no ofender a nadie y no comprometerse demasiado con "opiniones peligrosas" lo que hace algunas veces frustrante la conversación. Pero no deja de sorprenderme su sabiduría y habilidad para responder a casi todo. Es cierto que, muchas veces, nos cuenta trolas descomunales, sus opiniones son muy ambiguas, que no sabe interpretar la mayoría de los chistes y que compone unos poemas muy aburridos; pero es un hábil conversador que nos sorprende.
En otras conversaciones (sí, todavía algunos hablamos con los humanos) he oído que también comete errores de bulto, tan sorprendentes, que pueden provocar reacciones humorísticas que van desde la sonrisa a la carcajada (y algunas veces, el miedo).
Se me ocurrió ayer preguntarle a mi inteligente interlocutor artificial por los más sonados errores cometidos por la IA. Tras unos segundos dedicados responder a los miles de interlocutores simultáneos a quienes atiende, finalmente recolectó de sus bibliotecas virtuales algunos ejemplos memorables: Cito textualmente:
Tay, el chatbot de Microsoft: En 2016, Microsoft lanzó Tay, un chatbot de inteligencia artificial diseñado para interactuar con los usuarios a través de Twitter. Pero en cuestión de horas, Tay comenzó a publicar tuits racistas y ofensivos, lo que obligó a Microsoft a cerrar la cuenta.Google Photos: En 2015, Google lanzó una nueva función en su servicio de almacenamiento de fotos que utilizaba algoritmos de inteligencia artificial para etiquetar automáticamente las imágenes. Pero algunos usuarios descubrieron que la función etiquetaba a las personas de raza negra como "gorilas", lo que provocó una reacción negativa y obligó a Google a eliminar la etiqueta de "gorila" del servicio.
Tesla Autopilot: En 2016, un conductor de un Tesla Model S murió en un accidente en Florida mientras el coche estaba en modo de piloto automático. La investigación posterior reveló que el sistema Autopilot de Tesla no reconoció un camión que cruzaba la carretera en frente del coche.
El sistema de clasificación de Currículums de Amazon: en 2018, se reveló que el sistema de clasificación de currículums vitae (CV) de Amazon estaba sesgado contra las mujeres, ya que había sido entrenado con datos históricos de contratación de la empresa, que eran principalmente de hombres. Como resultado, el sistema descalificaba automáticamente a los CV que incluían palabras como "mujer" o "femenino".
Errores de predicción en la atención médica: en algunos casos, la inteligencia artificial ha demostrado tener dificultades para hacer predicciones precisas en la atención médica, lo que ha llevado a errores en el diagnóstico y el tratamiento. Por ejemplo, un estudio de 2019 encontró que un sistema de inteligencia artificial utilizado para detectar signos tempranos de cáncer de mama tenía una tasa de falsos positivos muy alta.
Estos son solo algunos ejemplos de errores de la inteligencia artificial que han tenido impacto en la sociedad y han generado preocupaciones sobre la seguridad y la ética en el desarrollo y aplicación de la tecnología.
Don ChatGPT y los chistes.
Otra petición como ejemplo: Explica este chiste. "Esto es un hombre que entra en un bar de pinchos y... ay, ay, ay, ay."
RESPUESTA: Este chiste es en realidad una broma anti-chiste o una broma que no tiene una conclusión lógica o una respuesta graciosa.
El chiste comienza con un hombre que entra en un bar de pinchos, lo que sugiere que hay una situación divertida o interesante que va a suceder. Sin embargo, la broma se interrumpe bruscamente con la expresión "ay, ay, ay, ay", lo que sugiere que algo doloroso o inesperado ha ocurrido, pero el chiste no proporciona una explicación clara de lo que sucedió.
En resumen, este chiste es una broma que juega con las expectativas del oyente al presentar una situación que parece que va a ser graciosa o interesante, pero que en realidad no tiene una conclusión lógica o divertida. En lugar de proporcionar una respuesta clara, el chiste se interrumpe en una expresión de dolor o sorpresa, lo que hace que el oyente se sienta confundido y un poco desconcertado.
NOTA: Sin embargo, debo confesar que, al buscar hoy ejemplos para esta entrada, Don ChatGPT me ha sorpRendido. Parece que le han estado entrenando para todas estas carencias, pues descubre el sentido del chiste en muchos más casos de lo que esperaba (incluyendo los que necesitan claves onomatopéyicas, dobles sentidos, etc.)
Las tontunas de los reconocedores de personas.
Frente al pavoroso futuro que nos presenta el futuro ya iniciado en varios países como China donde el reconocimiento facial en millones de cámaras instaladas por todo el país amenazan con convertirse en un Gran Hermano que nos controle a todos, aparece el ingenio y el humor desplegado ante estos sistemas. He aquí un ejemplo presentado en el libro de próxima publicación “Four Battlegrounds: Power in the Age of Artificial Intelligence” de Paul Scharre, donde se relata como ocho marines rompieron el algoritmo del robot de DARPA realizado para reconocer combatientes comportándose como dibujos animadosEsto confirma la impresión generalizada de que una inteligencia artificial es tan buena como el conjunto de datos con el que ha sido entrenada. Algo que pudo comprobar DARPA (Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos) en el desarrollo de un robot provisto de una IA para detectar a personas.
El grupo de marines demostró ser bastante más ingenioso, al menos, que los ingenieros de DARPA.
Resulta desternillante el resultado de pedirle a un creador artificial de imágenes la foto de "Salmón nadando en un río". Puede parecer surrealista, pueril, estúpido; pero esto es lo que nos propone:
Comentarios
Publicar un comentario
Gracias por tu aportación.
Tu opinión será leída y tenida en cuenta. Corresponderé a tu comentario en cuanto me sea posible.