parentesis.com/

Gemini podría crear música con IA basándose en prompts de sus usuarios


Un análisis de la app de Gemini sugiere que Google trabaja en herramientas para crear música con IA directamente desde su asistente, aunque su lanzamiento aún no está confirmado.

por: Fernanda Flores Fernanda Flores

portada de nota
banner custom

Hoy amanecimos con un rumor que apunta a nuevas herramientas que Google ofrecerá dentro de su ecosistema de IA. Todo indica que la compañía está desarrollando capacidades para generar musica con inteligencia artificial directamente desde su aplicación de Gemini.

Aunque la función no ha sido anunciada ni confirmada por Google y podría no ser un producto final, los rumores iniciaron al encontrar una versión reciente en la app para Android. Los hallazgos revelaron ciertos códigos relevantes que sugieren una futura actualización de Gemini hacia la creación sonora generativa. 

El hallazgo proviene del análisis de la versión 17.2.51.sa.arm64 de Gemini para Android, publicada el 22 de enero de 2026 y desmontada por especialistas en aplicaciones móviles. Ahí se identificaron referencias concretas a una herramienta de generación musical denominada internamente “MUSIC_GENERATION_AS_TOOL”, así como a una nueva categoría de contenido en la sección “My Stuff” dedicada a música generada por IA. 

Tienes que leer: Habrá más robots que humanos”, la predicción de Elon Musk en 2026

Este tipo de referencias, suelen anticipar funciones en desarrollo que aún no están visibles para los usuarios ni documentadas por Google. Tampoco hay certeza de que se lancen oficialmente, ya que la presencia en código de una app filtrada no garantiza que la funcionalidad esté terminada o aprobada para despliegue público. 

Igual de capaz que Nano Banana

Aunque la interfaz oficial aún no muestra ningún control específico para crear o editar música en Gemini, las referencias pueden ser un indicador de las futuras actualizaciones de Gemini, donde la música generada por IA estará al mismo nivel que otras capacidades creativas de la plataforma, como generación de imágenes con modelos tipo Nano Banana o de video con Veo. 

La herramienta también parece formar parte de la experiencia integral del asistente, lo que implicaría que las creaciones musicales se puedan generar, organizar y reproducir desde la misma app de Gemini, en lugar de requerir herramientas externas o conocimientos técnicos avanzados. Según la evidencia encontrada en el código, Google incluso ha preparado un espacio en “My Stuff” para almacenar estas creaciones.

Cómo podría operar la generación musical dentro de Gemini

De ser verdad, la creación de música dentro de Gemini seguiría una lógica similar a otras funciones creativas ya presentes en la plataforma. Los usuarios podrían generar pistas describiendo elementos básicos como género, estado de ánimo, ritmo o tipo de instrumentos mediante lenguaje natural, con la posibilidad de ajustar el resultado a través de indicaciones posteriores.

Un flujo de uso inicial contemplaría la generación de fragmentos musicales cortos, de entre 30 y 90 segundos, que después podrían ampliarse, editarse o remezclar por secciones. El audio final se exportaría en formatos compatibles y quedaría almacenado dentro de la sección “My Stuff”, donde Gemini ya concentra otros contenidos generados por el usuario.

Dado el enfoque reciente de Google en la IA multimodal, también se anticipa que estas piezas musicales puedan integrarse con imágenes o video generados mediante tecnologías como Veo, lo que facilitaría la creación de clips breves, demostraciones audiovisuales o contenido optimizado para formatos cortos como Shorts o Reels.

Para creadores de contenido y usuarios más avanzados, la herramienta podría incluir funciones prácticas como duraciones optimizadas para bucles, exportación por capas o “stems” y, eventualmente, archivos MIDI que permitan una edición más profunda en estaciones de trabajo de audio digital (DAW).

No obstante, en una etapa temprana, la función probablemente tendría restricciones técnicas y de uso, como límites en la duración de las pistas, cuotas diarias de generación y mecanismos de seguridad diseñados para evitar la imitación directa del estilo de artistas específicos, una medida alineada con los debates actuales sobre derechos de autor y contenido generado por IA.

En cuanto al acceso, no se descarta que esta capacidad debute primero como una función exclusiva para usuarios de Gemini Advanced o planes como Google One AI Premium, antes de una posible expansión al público general.

Google se convierte en autor musical una vez más

Google no es nueva en el terreno de la música generada con IA, pues desde hace tiempo ofrece capacidades musicales a través de otras plataformas. Por ejemplo, la aplicación Recorder para los dispositivos Pixel más recientes, existen funciones influenciadas por IA que permiten generar o transformar audio, incluyendo música. También, los desarrolladores pueden acceder a modelos musicales como Lyria y Lyria RealTime vía la API de Gemini, que posibilitan la generación de música instrumental y composiciones interactivas en tiempo real.

Lyria RealTime, parte del ecosistema de modelos generativos de Google, permite controlar en tiempo real aspectos como ritmo, instrumentación y estructura musical mediante indicaciones durante el proceso de creación. Está disponible para uso en aplicaciones experimentales y como herramienta para desarrolladores, aunque todavía limita su uso a contextos técnicos o de desarrollo de software.

Asimismo, Lyria 2, otro modelo musical más avanzado, fue presentado como parte de los esfuerzos de Google por ofrecer herramientas generativas potentes que puedan producir música de alta fidelidad, abarcando múltiples estilos y géneros, desde clásico hasta electrónico y pop. 

Hay que esperar confirmaciones

Por el momento Google no ha hecho anuncios oficiales sobre el lanzamiento de esta función. Pero, en caso de llegar a ser una realidad Google lo anunciará a través de sus canales oficiales. Hasta entonces, tenemos las funciones musicales que ya se ofrecen desde sus distintos dispositivos y plataformas. 

 

Te podría interesar:
-ChatGPT confirma su primer dispositivo físico: será anunciado este 2026
-La CDMX es la ciudad con más tráfico del mundo; chilangos viven 1 semana atrapados en congestionamientos
-Grok compartió, al menos, 3 millones de imágenes sexualizadas; 23 mil eran de menores

banner custom

Comenta:

separador de nota