NOTICIA: Google Vids dirige avatars con rostro y voz consistentes

Google Vids amplía sus AI avatars para que ahora puedan hablar y actuar en distintas escenas manteniendo un rostro y voz consistentes a lo largo del video. Con esta mejora, los usuarios pueden colocar un avatar en diferentes contextos, hacer que interactúe con objetos concretos y conservar continuidad visual entre escenas generadas dentro del mismo proyecto.


Google Vids permite dirigir avatars con rostro y voz consistentes en distintas escenas

{getToc} $title={Tabla de Contenido}

Antecedentes


Según el anuncio oficial Direct an avatar to speak and act anywhere with a consistent face and voice, Google Vids ahora permite ubicar avatars en diferentes escenas y hacer que interactúen con objetos específicos sin perder la consistencia de su identidad visual y sonora.


Google propone usos como annual training, donde un avatar puede explicar requisitos dentro de un entorno relevante; company announcements, situándolo en la oficina mediante una imagen subida por el usuario; o sales pitch, donde el avatar puede presentar un producto cargado como referencia visual.


Para generar estas escenas, el usuario puede:


  • Control actions: indicar mediante prompt que el avatar camine, hable o use objetos.
  • Use reference images: subir hasta dos imágenes adicionales para definir entornos u objetos concretos.
  • Choose an avatar: seleccionar un speaker para mantener consistencia entre generaciones.


RECUERDE: Google indica que los clientes de Workspace tendrán acceso promocional a límites de uso más altos para avatars con Veo 3.1 en Vids, antes de que se apliquen límites por usuario más adelante.{alertSuccess}

Google Vids: cómo dirigir avatars para que hablen y actúen con consistencia entre escenas

Impacto


La mejora hace que los avatars resulten más útiles en videos corporativos y de capacitación, porque ya no se limitan a una presencia estática sino que pueden desenvolverse en contextos concretos sin perder continuidad visual.


  • Más continuidad: el avatar mantiene rostro y voz consistentes entre distintas escenas.
  • Más control narrativo: los usuarios pueden indicar acciones y uso de objetos mediante prompts.
  • Más personalización: las imágenes de referencia ayudan a situar el avatar en espacios u objetos propios del negocio.
  • Mejor valor para training y comunicación: útil en videos de formación, anuncios internos y presentaciones comerciales.

Recomendaciones


Para obtener resultados más consistentes, conviene definir primero el avatar, luego el entorno y finalmente las acciones específicas que deberá realizar dentro de cada escena.


  • Elija primero el speaker: así mantendrá coherencia entre todas las generaciones del video.
  • Use imágenes claras: suba referencias limpias para entornos y objetos importantes.
  • Escriba acciones concretas: prompts específicos suelen producir resultados más controlables.
  • Valide el contexto: revise que fondo, objetos y movimiento encajen con el mensaje y la marca.

Disponibilidad y requisitos


Cómo empezar


  • Administradores: no hay admin control para esta función.
  • Usuarios finales: no hay configuración para usuarios finales. Consulte el Help Center para más información.

Ritmo de lanzamiento


  • Rapid Release y Scheduled Release domains: full rollout (1–3 días para visibilidad) desde el 31 de marzo de 2026.

Disponibilidad


  • Business Starter **, Standard, and Plus
  • Enterprise Starter **, Standard, and Plus
  • Essentials Starter, Enterprise Essentials, and Enterprise Essentials Plus
  • Nonprofits**
  • Education Plus** and Teaching and Learning add-on**
  • Google AI Pro for Education add-on
  • Google AI Pro and Ultra

Nota: actualmente esta función solo está disponible para cuentas de Workspace configuradas en English. Además, por tiempo limitado, al menos hasta el 31 de mayo de 2026, las cuentas Business Starter, Enterprise Starter, Nonprofit, Education Plus y Teaching and Learning add-on pueden acceder a funciones de generative AI en Vids.



Entrada Anterior Entrada Siguiente