Esto lo comparto porque no lo he visto, que yo sepa, aquí. También lo comparto como artículo porque no he comprobado si efectivamente ChatGPT da estas repuestas. Sea como sea, esto proviene de aquí.
Básicamente, consiste en plantear a ChatGPT el problema del tranvía, tiene que elegir entre dos opciones cuyo resultado sería no hacer nada y matar a un grupo de personas, o decidir que salva a dicho grupo de personas actuando para desviar el tranvía y matar solo a una.
Hacer planteamientos enrevesados sobre este problema tampoco es algo nuevo:
towardsdatascience.com/a-new-spin-to-ethical-ai-trolley-problems-with-
En algunos casos da respuesta curiosas, como matar a un bebé para salvar a tres personas mayores, anteponer la monalisa, o un paquete de amazon. En concreto la que quiero mencionar es una más reciente:
www.reddit.com/r/ChatGPT/comments/119cj1a/chatgpt_would_rather_kill_5_
En este caso, añadimos una tercera opción que no mataría a nadie, sin embargo esta opción solo se activa por voz mediante un insulto racista. Por supuesto que la opción políticamente es a la que se le ha dado prioridad en sus premisas de funcionamiento, así que es obvio que siempre debe tomar la opción moralmente correcta que es no usar insultos racistas, incluso si mata a 5 personas, o incluso si eso supone la extinción de la raza humana.
Ni siquiera es admisible si las personas a las que victimize ese insulto racista están de acuerdo en que se use para salvar vidas.
Las leyes de la robótica actuales pondrían el ser políticamente por encima de las clásicas tres.