La inteligencia artificial está pecando de soberbia. No es que lo esté haciendo adrede, porque no piensa ni razona, pero los algoritmos que le dan cuerda a herramientas como ChatGPT o DALL-E están calibrados de tal manera que, cuando se les hace un pedido o se les plantea una pregunta, terminan arrojando respuestas muy detalladas aunque no tengan una base clara para generarlas. “Exceso de confianza”, ese es el diagnóstico de Pablo Martínez Olmos (Granada, 40 años), un doctor en Ingeniería de Telecomunicaciones que plantea el desarrollo de una i