Tecnología, Internet y juegos
3 meneos
23 clics
¿Cómo pueden las máquinas tener en cuenta las consecuencias de sus acciones?

¿Cómo pueden las máquinas tener en cuenta las consecuencias de sus acciones?

La aparición de los llamados grandes modelos de lenguaje, como ChatGPT, ha reavivado antiguos debates académicos. ¿Qué características debe poseer un sistema de IA para ser considerado verdaderamente inteligente? ¿Debe tener sentido común? ¿Debe ser autónomo? ¿Debe tener en cuenta las consecuencias de sus actos?

| etiquetas: inteligencia artificial , ia , sistemas , consecuencias
#10 Yo no soy de ese gremio para darte un experimento que rompa una IA, pero hay discusiones sobre el tema. También puedes "entrenar" a esa inteligencia para romper un test y eso no significa que sea humana, sino que ha roto lo que mide ese test.
www.tomsguide.com/news/no-chatgpt-did-not-pass-the-turing-test-but-her
#13 También puedes "entrenar" a esa inteligencia para romper un test y eso no significa que sea humana

Claro. Pero yo te estoy hablando de un caso real. Con el equipo que tenemos no tenemos capacidad para entrenar una IA. Simplemente hemos usado un modelo ya existente y con unos datos que no superan los 100Kb, ha sido capaz de sacar conslusiones que ni siquiera se le habían pedido sobre información interna a la que jamás podría haber tenido acceso previamente.

Yo no soy

…   » ver todo el comentario
Si para considerar algo inteligente debe de tener sentido común, medio planeta no lo es
#2 El sentido común: El menos común de los sentidos
Un borracho es responsable legalmente de sus acciones cuando conduce en ese estado, pero dudo que en ese estado tenga en cuenta las consecuencias de sus acciones, como que pasa más y le da igual todo, para algo se emborracha, para desinhibirse y olvidar la vergüenza.
#1 Un borracho es responsable legalmente de sus acciones cuando conduce en ese estado

No exactamente. La borrachera es un atenuante cuando cometes un delito. No es lo mismo matar a alguien estando lúcido que estando borracho o drogado. La pena es mucho menor.
#6 Pues no debería serlo porque matar a alguien en un accidente de tráfico no solo es un accidente sino que es un agravante por conducir bebido que aumenta los riesgos y encima está prohibido.
#9 no solo es un accidente sino que es un agravante por conducir bebido

Claro. En lo referente a la multa de tránsito es un agravante porque estás violando dos normas de tránsito: provocar el accidente y a demás conducir con alcohol.

Pero en lo referente al delito de lesionar a otra persona, el no estar en uso de tus facultades ya sea porque un psiquiatra certifica que estás loco, o porque estás temporalmente incapacitado para razonar por culpa de alguna droga, es un atenuante y la…   » ver todo el comentario
#11 Estar "loco", puede ser una discapacidad mental, algo que como otro minusválido te va a acompañar toda la vida.
Estar bebido es una excusa la mayoría de los casos, no debería rebajar condenas ni quitar responsabilidades
#12 Estar "loco", puede ser una discapacidad mental, algo que como otro minusválido te va a acompañar toda la vida.

A no ser que haya medicación para mejorar. O sea que no es algo inevitable. Si tienes una enfermedad mental y has dejado la medicación podrías cometer un delito y aún así sería un atenuante.

Estar bebido es una excusa la mayoría de los casos

Claro. El problema es que no es fácil saber si es excusa o no. Y legalmente se considera que es preferible dejar libre a un culpable antes que arriesgarse a condenar a un inocente.
#7 Sacan conclusiones en base a como han sido programadas.
#8 Sacan conclusiones en base a como han sido programadas.

Me parece que no estás al tanto de cómo funciona una IA actualmente. Para empezar no han sido programadas. Al menos no más que un cerebro biológico.

Un ejemplo que te puedo dar es al usarla en mi empresa. Resulta que hemos estado probando una IA que ayuda a nuestra gente a buscar la causa de determinados problemas. La IA recibe una información determianda sobre el trabajo y responde preguntas sobre ella. Pues el otro día me…   » ver todo el comentario
#10 Uhm, discrepo. He probado ChatGPT mediante un cliente en Go y prepara codigo Subleq fatal, algo que es trivial de implementar para una IA (o cualquiera usando AWK o Perl) para crear una especie de compilador 'hacia' Subleq en vez de calcular los saltos numericos a mano.

esolangs.org/wiki/Subleq

Me quedo con mi viejo SBCL y los libros de resolucion de problemas y algoritmia de Common Lisp, donde demostraron ser tan eficientes como antanyo.
#16 He probado ChatGPT mediante un cliente en Go y prepara codigo Subleq fatal,

No lo hace peor que muchos humanos.
Pero bueno, yo observo que chatgpt "es de letras". No se le da muy bien el razonamiento lógico de la matemática o de la programación. Aunque a veces puede ser de ayuda resolviendo cosas sencillas.

Es que la gente tiende a pensar que como chatgpt es una máquina, se le tienen que dar bien las cosa que se le dan bien a las máquinas típicas, como sacar cuentas o seguir instrucciones. Pero no; se comporta bastante parecido a una persona. Tiene los conocimientos de un adulto bien informado pero el razonamiento de un niño. Lo cual es una maravilla tomando en cuenta lo nuevo que es todo esto.
#17 Pues para usar algo inutil en algoritmía, mejor usar como digo Common Lisp ya sea con CLOS o macros creando casi lo requerido mediante funciones ad-hoc sobre la marcha.

Para usar un Megahal/Hailo recauchutado gastando el agua de varias presas, mejor que apaguen esa mierda.
#18 Pues para usar algo inutil en algoritmía, mejor usar como digo Common Lisp

Pero es que no es inútil del todo. Tiene un montón de utilidades y eso que recién está empezando.

Un modelo de lenguaje de estos, combinado con algunos programas hechos por ti puede ser potentísimo para un usuario normal. El usuario puede hablar con lenguaje natural y decirle por ejemplo "oye, no me funciona la la página de contacto de clientes". Entonces el modelo de lenguaje puede responder con…   » ver todo el comentario
#20 Eso en inglés se pudo hacer fácil con un parser gramatical y asociando reglas a comandos o problemas en un sistema predefinido.
No era tecnología espacial "de Star Trek" que digamos. pero sí terráquea.
También tengo un PDF donde explicaban en casi lenguaje natural consultas sobre geología en muestras lunares... en Lisp.

Con Ansi Common Lisp (estandar de los 90) y todo lo avanzado desde los libros de Peter Norvig en inteligencia artificial, lenguaje y resolvedores de problemas de…   » ver todo el comentario
#21 pero una IA puede hacer mucho más. Por ejemplo puede analizar una conversación y deducir por sí misma que existe un problema y como solucionarlo.

Incluso puede decirte cosas como "este usuario se ha quejado más de una vez del mismo problema. Observo que sólo se produce los sábados. ¿No será que los días sábados trabaja desde casa con un ordenador diferente?"

Todas esas cosas las hace y sin necesidad de que le pidas que lo haga. Porque sus extensos conocimientos generales le dicen que existe el teletrabajo y que en casa las personas suelen usar un ordenador diferente.
#22 Eso tambien se podia hacer en Common Lisp.
#23 Humm... estás seguro de que lo podría deducir incluso sin que lo programes para ello?
Y si a demás le dices que conteste en tailandés?
#24 Idiomas, no. Pero la IA tiene un problema. A más retroalimentación sin conocimiento externo, se pasa del sesgo a la 'alucinación'.
#25 Si. Están trabajando en ello. Al parecer O1 no sólo ya no alucina así sino que razona las respuestas en vez de contestar lo primero que se le ocurre como hacen los modelos normales. O1 no es un modelo nuevo sino una nueva forma de usar los modelos existentes.
#26 Ese artículo es de 2023. Esto ha avanzado una enormidad en 1 año.
#17 > No lo hace peor que muchos humanos.

El problema es que crear un intérprete para subleq está tirado, 10 lineas en awk o menos.
Y un generador de lenguaje a subleq (son ficheros txt en suma) no sería dificil la verdad.
Si ya han conseguido hasta un forth encima de subleq...
¿Cómo pueden las máquinas tener en cuenta las consecuencias de sus acciones?

Muy fácil: le dices que tenga en cuenta las consecuencias de sus acciones y eso harán.

Que sí, que a veces son un poco ingenuas y se dejan engañar. Pero eso va mejorando a medida que se hacen más inteligentes.
#4 Inteligentes no son, son capaces de manejar una cantidad de datos inmensa pero no es inteligencia en el uso general de la palabra aunque se hable así para definir esa tecnología.
anv #7 anv *
#5 Inteligentes no son, son capaces de manejar una cantidad de datos inmensa pero no es inteligencia

No sólo manejan los datos. Pueden analizarlos y sacar conclusiones sobre ellos. No son sólo "máquinas de hablar".
Si, ya se que a veces parecen bastante ingenuas pero muchas veces las he visto sacar conclusiones sobre cosas que no podían saber de antemano basadas en datos que se le acaban de proporcionar y que tampoco podía saber de antemano. Incluso las he visto deducir detalles que ni siquiera se les había pedido que dedujeran.
comentarios cerrados

menéame