Hoy anunciamos el Meta Segment Anything Model 2 (SAM 2), la próxima generación del Meta Segment Anything Model, que ahora admite la segmentación de objetos en videos e imágenes. Estamos lanzando SAM 2 bajo una licencia Apache 2.0, para que cualquiera pueda usarlo para crear sus propias experiencias. También estamos compartiendo SA-V, el conjunto de datos que usamos para crear SAM 2 bajo una licencia CC BY 4.0 y lanzando una experiencia de demostración basada en la web donde todos pueden probar una versión de nuestro modelo en acción.
|
etiquetas: ai , sam 2 , meta , segment anything model , ia , open source
Por suerte o desgracia, lo veremos proximamente en IG y TikTok
sam2.metademolab.com/
En inglés quedará de puta madre pero en castellano es como decir que a la moto se le ha desquiciado la junta de la trócola.
Queda feo en español? Si, pero si queremos respetar el titular original entonces se tiene que quedar en ingles.
Pero vaya que mi comentario es mas destacar algo que no se suele destacar en titulos de papers etc... que es su traduccion literal. Siempre intento hacer ese ejercicio - que toc ni que toc - y muchas veces es hasta gracioso.