La aparición de los llamados grandes modelos de lenguaje, como ChatGPT, ha reavivado antiguos debates académicos. ¿Qué características debe poseer un sistema de IA para ser considerado verdaderamente inteligente? ¿Debe tener sentido común? ¿Debe ser autónomo? ¿Debe tener en cuenta las consecuencias de sus actos?
|
etiquetas: inteligencia artificial , ia , sistemas , consecuencias
www.tomsguide.com/news/no-chatgpt-did-not-pass-the-turing-test-but-her
Claro. Pero yo te estoy hablando de un caso real. Con el equipo que tenemos no tenemos capacidad para entrenar una IA. Simplemente hemos usado un modelo ya existente y con unos datos que no superan los 100Kb, ha sido capaz de sacar conslusiones que ni siquiera se le habían pedido sobre información interna a la que jamás podría haber tenido acceso previamente.
Yo no soy
… » ver todo el comentario
No exactamente. La borrachera es un atenuante cuando cometes un delito. No es lo mismo matar a alguien estando lúcido que estando borracho o drogado. La pena es mucho menor.
Claro. En lo referente a la multa de tránsito es un agravante porque estás violando dos normas de tránsito: provocar el accidente y a demás conducir con alcohol.
Pero en lo referente al delito de lesionar a otra persona, el no estar en uso de tus facultades ya sea porque un psiquiatra certifica que estás loco, o porque estás temporalmente incapacitado para razonar por culpa de alguna droga, es un atenuante y la… » ver todo el comentario
Estar bebido es una excusa la mayoría de los casos, no debería rebajar condenas ni quitar responsabilidades
A no ser que haya medicación para mejorar. O sea que no es algo inevitable. Si tienes una enfermedad mental y has dejado la medicación podrías cometer un delito y aún así sería un atenuante.
Estar bebido es una excusa la mayoría de los casos
Claro. El problema es que no es fácil saber si es excusa o no. Y legalmente se considera que es preferible dejar libre a un culpable antes que arriesgarse a condenar a un inocente.
Me parece que no estás al tanto de cómo funciona una IA actualmente. Para empezar no han sido programadas. Al menos no más que un cerebro biológico.
Un ejemplo que te puedo dar es al usarla en mi empresa. Resulta que hemos estado probando una IA que ayuda a nuestra gente a buscar la causa de determinados problemas. La IA recibe una información determianda sobre el trabajo y responde preguntas sobre ella. Pues el otro día me… » ver todo el comentario
esolangs.org/wiki/Subleq
Me quedo con mi viejo SBCL y los libros de resolucion de problemas y algoritmia de Common Lisp, donde demostraron ser tan eficientes como antanyo.
No lo hace peor que muchos humanos.
Pero bueno, yo observo que chatgpt "es de letras". No se le da muy bien el razonamiento lógico de la matemática o de la programación. Aunque a veces puede ser de ayuda resolviendo cosas sencillas.
Es que la gente tiende a pensar que como chatgpt es una máquina, se le tienen que dar bien las cosa que se le dan bien a las máquinas típicas, como sacar cuentas o seguir instrucciones. Pero no; se comporta bastante parecido a una persona. Tiene los conocimientos de un adulto bien informado pero el razonamiento de un niño. Lo cual es una maravilla tomando en cuenta lo nuevo que es todo esto.
Para usar un Megahal/Hailo recauchutado gastando el agua de varias presas, mejor que apaguen esa mierda.
Pero es que no es inútil del todo. Tiene un montón de utilidades y eso que recién está empezando.
Un modelo de lenguaje de estos, combinado con algunos programas hechos por ti puede ser potentísimo para un usuario normal. El usuario puede hablar con lenguaje natural y decirle por ejemplo "oye, no me funciona la la página de contacto de clientes". Entonces el modelo de lenguaje puede responder con… » ver todo el comentario
No era tecnología espacial "de Star Trek" que digamos. pero sí terráquea.
También tengo un PDF donde explicaban en casi lenguaje natural consultas sobre geología en muestras lunares... en Lisp.
Con Ansi Common Lisp (estandar de los 90) y todo lo avanzado desde los libros de Peter Norvig en inteligencia artificial, lenguaje y resolvedores de problemas de… » ver todo el comentario
Incluso puede decirte cosas como "este usuario se ha quejado más de una vez del mismo problema. Observo que sólo se produce los sábados. ¿No será que los días sábados trabaja desde casa con un ordenador diferente?"
Todas esas cosas las hace y sin necesidad de que le pidas que lo haga. Porque sus extensos conocimientos generales le dicen que existe el teletrabajo y que en casa las personas suelen usar un ordenador diferente.
Y si a demás le dices que conteste en tailandés?
El problema es que crear un intérprete para subleq está tirado, 10 lineas en awk o menos.
Y un generador de lenguaje a subleq (son ficheros txt en suma) no sería dificil la verdad.
Si ya han conseguido hasta un forth encima de subleq...
Muy fácil: le dices que tenga en cuenta las consecuencias de sus acciones y eso harán.
Que sí, que a veces son un poco ingenuas y se dejan engañar. Pero eso va mejorando a medida que se hacen más inteligentes.
No sólo manejan los datos. Pueden analizarlos y sacar conclusiones sobre ellos. No son sólo "máquinas de hablar".
Si, ya se que a veces parecen bastante ingenuas pero muchas veces las he visto sacar conclusiones sobre cosas que no podían saber de antemano basadas en datos que se le acaban de proporcionar y que tampoco podía saber de antemano. Incluso las he visto deducir detalles que ni siquiera se les había pedido que dedujeran.