ByteDance: Seedance 2.0 todavía está lejos de ser perfecto y continuará explorando la alineación profunda entre modelos grandes y retroalimentación humana

robot
Generación de resúmenes en curso

12 de febrero, se lanzó oficialmente Seedance 2.0, el modelo de creación de videos de ByteDance. La cuenta oficial de ByteDance publicó que Seedance 2.0 aún no es perfecto y que sus resultados de generación todavía presentan muchas imperfecciones. En el futuro, continuarán explorando la alineación profunda entre grandes modelos y retroalimentación humana, para ofrecer herramientas de producción de audio y video más eficientes, estables y con mayor imaginación, sirviendo a más creadores. Según se informa, el modelo soporta referencia multimodal integral, permitiendo combinar diferentes entradas de texto, imágenes, videos y audios, además de incluir nuevas capacidades de edición de video, que permiten modificar segmentos específicos, personajes, acciones o tramas, y también ofrecen función de extensión de video. Actualmente, el modelo ya está disponible en plataformas como Meng AI y Doubao. Desde ByteDance indicaron que (Jiemian News).

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)