edición general
Canijo_GD

Canijo_GD

En menéame desde septiembre de 2020

6,10 Karma
21K Ranking
Enviadas
Publicadas
Comentarios
Notas

Luchador de MMA golpea a la "ring girl" y se desata un escándalo en pleno evento [11]

  1. "No soy racista, tengo amigos negros"

La televisión iraní muestra buques en el Estrecho de Ormuz, incluido el portahelicópteros español Juan Carlos [59]

  1. #55 Ahí solo dice que el día 14 de Julio estaban atracados, hace 1 mes. Vamos que tiempo hay para estar en la Antártida si quieren.
    Y lo del 2018 ya si tal...
  1. #24 Fuente: tu memoria prodigiosa

Manifestantes de extrema derecha irrumpen en base y complejo del tribunal militar en el centro de Israel [12]

  1. recoges lo que siembras

Pablo Iglesias maniobra para volver a ser tertuliano: ultima un acuerdo con TVE [25]

  1. #15 rebota rebota y en tu culo explota :shit:

El 86% de los israelíes responsabiliza al gobierno de Netanyahu del ataque de Hamas [Eng] [121]

  1. El problema esque muchos que le echan la culpa a Netanhyahu, tambien creen justificado masacrar palestinos. No es que el 80% esté en contra de represalias, es solo que tambien quieren su cabeza de turco

¿El fin del Chroma Key? [84]

  1. #82 Se ve que nos dedicamos a lo mismo jajajajaja Xq tb hemos jugado con el video volumetrico y nos parece una chulada, los de DepthKit se han puesto las pilas hace poco además.
    Y es vdad que optimizar una escena en condiciones te vale en muchos casos. Pero sigo pensando que para una setup de cine, no te puedes saltar el hecho de tener que escalar a base de añadir PCs, y solo el hecho de poder encadenarlos es donde se va la pasta a saco. Ahora, totalmente cierto la de cosas que se pueden hacer con solo 1 PC es impresionante y vale para hacer un montón de negocio. Solo digo que si el objetivo es cine o directos, necesitas que te sobre la potencia, necesitas clusterizar y meter al mix herramientras de realizacion, necesitas pasta y gente con conocimientos y cabeza si quieres poder llevarte el setup y confiar en que nada se cuelga, todo irá suave, y todo es solucionable. En mi caso esta a nivel utópico por presupuesto y sigo currando en tener una workstation potente con herramientas, escenas y compos a medida para mi potencia.

    Digo en serio que me gustaría ver lo que montárais si os lanzáis, no se si hay privados por meneame, pero durante los proximos meses tb estaremos haciendo progresos, me gustaría encontrar un equipo con los mismo problemas con quien compartir soluciones! Aquí me tendrás si es el caso (aunque entiendo que lo primero es proteger vuestro producto, yo hablo desde la ilusión naive de un desarrollador xD)
  1. #80 No conocía NvTesla, la verdad, pero por lo que veo es GPU en la nube. Igual con 5G se podría, pero ¿de verdad a día de hoy se podría renderizar en tiempo real en la nube con tan poco Lag para que no se note? (Ya te menciona el lag el tipo del video con una escena tirada por 11 PCs. Sustituir eso por computación en nube igual hace que renderize instantáneo, pero transmitirlo por red, mi intuición de me dice que por cojones tardará más, y estarías introduciendo un problema un poco limitante en cuanto a lo que un plano de cine mínimamente dinámico pediría, creo, especulando todo.
    En cuanto al SLI, por lo que tengo entendido, su soporte se ha ido abandonando y solo la 3090 soportará SLI, además, cuenta con que UE4 y usar SLI puede no funcionar. Si funcionara, además, solo seria para builds ya empacadas, en modo Editor no tiraría en ningun caso una configuracion SLI, y sin embargo una de las mayores maravillas y ventajas de usar estas nuevas mierdas es la capacidad, no solo de renderizado, sino de EDICION en tiempo real. Permitir que clientes, directores de cine, los propios artistas o quien le toque, sean capaces de introducir cambios de manera rapida sin que se necesite recompilar el proyecto para sacar una nueva build. . Además, muchos de los plugins que mencionas, te funcionan en modo editor (te vendrá bien checkear Composure si no lo conoces todavia!).
    En las blackmagic gastate pasta, yo uso una Quad 2 y se queda corta, se calienta durante el rodaje y aunque el PC vaya fresco, a la capturadora le cuesta y dropea muchos más frames de lo que sería aceptable.
    En cuanto a limpiar por Shading, no hay nada mas rápido que un shader en cuanto al procesado de imagen. Lo que tiene un real es un chroma keyer un poco basico, y cortito para necesidades profesionales en calidad, pero no en velocidad.
    Y sí, yo tambien quiero probar el Reality Engine y ver qué ofrecen gratis. Pero no me hago ilusiones, son una empresa con gran oportunidad para hacer pasta y hasta ahora venian ofreciendo el software por ~40k€. Si lo sacan gratis, me huelo que va a haber muchas pegas. Además, me molesta porque UE4 y su colaboracion con RealityEngine han provocado que UE4 abandone el desarrollo de ciertas herramientas que habrían acabado sacando y serían ORO para desarrollar un pipeline en condiciones para hacer integración de AR en condiciones. Pero bueno, eso ya es otra cosa xD

    Y sí! estamos a 2 velas y no podemos invertir demasiado en equipo durante una temporada, pero me haré con los nuevos Vive en cuanto pueda =D

    El ranchito, claro, como no xD
  1. #77 Se puede hacer, de hecho el tipo tiene un programa propio (hecho sobre UE4) que se llama Cinetracer y si no me equivoco el enfoque es crear cinemáticas de escenas 3D con herramientas de tracking (tipo ViveTrackers) o periféricos tipo mando PS4 etc, o periféricos custom como las ruedas de inercia que utiliza para simular una grúa. Pero puedes encontrar soluciones de diferentes si realmente solo necesitas rodar escenas en 3D.
    Los costes se disparan cuando lo que quieres hacer es grabar escenarios reales vestidos con escenas 3D en tiempo real, renderizandose basadas en el frustrum de la cámara. Necesitas soluciones de tracking para las cámaras de estudio, y aunque en muchos casos un Vive Tracker te puede valer, en muchos otros no. Traen un par de problemas que para cine no valen ya que no ofrecen fiabilidad profesional. Te puede interesar este artículo donde elogian la precisión de un sistema barato y accesible como Vive, pero desvelan ciertos problemas, como un jitter constante (que con correcto emplazamiento de sensores y calibrado se puede reducir, pero no eliminar) y un problema al respecto de que si un tracker pierde el tracking durante un ciclo, al recuperarlo, su plano de referencia puede haberse inclinado unos grados, destrozando la integración con la realidad en muchos casos (quizá no para fondos lejanos o no enfocados). Son la hostia, pero no como una solución en la que puedas confiar durante un rodaje, ya que esto sería un problema constante. Eso significa gastarte 10.000€+ en cámaras robotizadas con tracking incorporado o grúas robotizadas, o sistemas de tracking óptico que pueden valer para las cámaras de estudio que ya tendréis.
    Luego esta el hecho de renderizar la escena. Es cine, necesitas detalle, necesitas raytracing, y probablemente por tanto, necesitarás varios PCs para tirar la escena en condiciones. Clusterizar PCs para que compartan la carga de una misma escena 3D proyectada…   » ver todo el comentario
  1. #47 Muchos de los avances hacia tecnologías de 8K, van enfocados a aumentar la informacion que es capaz de transmitirse dentro de una imagen, no solo su nitidez.

    Si tu PC es capaz de escupir composiciones (un render es una composicion de muchas imagenes y procesado de las mismas en diferentes fases) de 8K de resolucion a 60FPS, significa que puedes hacer una burrada de efectos "gratis" con todo ese bando de ancha extra.
    Por ejemplo, en mi caso he llegado a tener render pipelines complejas en tiempo real, que no aceptan anti-aliasing en alguna capa por diferentes razones (a veces, post procesos como el anti-aliasing necesitan almacenar, usar, o modificar, informacion dentro de un buffer limitado, o con restricciones debido a otros post-procesos con los que entra en conflicto (recuerda esto es tiempo real, no una granja de render, los recursos son limitados, y quieres 60 imágenes por segundo). Una de tus pocas soluciones en estos casos, es subir la resolucion inciial de esa capa, y reducirla con las demás al final (al renderizar en más resolucion, tienes mejores bordes, y al re-escalar hacia abajo, encima los suavizas (antialising a lo burro))
  1. #59 El tío que lleva ese canal hace cosas bastante interesantes.

    La idea de rodar cinemáticas de videojuego, desde casa, con un operador de camara profesional, --> QUE UTILIZA HERRAMIENTAS DE CÁMARA TRADICIONAL!! (movimientos de cine a los que estamos acostumbrados, tanto con grúas, gadgets varios, o con cámara al hombro) con un director de cine que ve lo que ves tú y te puede guiar hacia lo que quiere.... es una flipada.

    Previamente hemos tenido en su mayoría programadores / diseñadores de gameplay haciendo intentos de cinemáticas, con movimientos virtuales demasiado "perfectos". Con esto se recupera ese tacto de cámara humano, y en mi opinión, se nota mucho. También, esa sensación de poder moverte por el set, buscando los mejores ángulos, es más real y (creo) fomenta más la creatividad durante la creación de contenido que verlo desde pantallas sentadito
  1. #2 Pero tal cual.

    Desde marzo que me dedico a hacer platós virtuales, para grabaciones y directos. Muchos de los datos que ha soltado son JOYAS para los que se están metiendo en esto, ya que todavía no hay mucha información general acerca de la mayoría de detalles y trucos que se necesitan para lograr utilizar estas técnicas sin volverte loco.

    Bravo por el video y la visibilidad a esta tecnologia. Necesitamos estandarizaciones alrededor de esto ya!!
« anterior1

menéame