A Google lança o Gemini 3.1 Flash TTS: suporta 70 línguas e cenários para encenação, voz de IA mais natural

O responsável pelas relações com programadores da Google para IA, Logan Kilpatrick, anunciou a disponibilização do Gemini 3.1 Flash TTS no dia 15 de abril — o modelo mais recente de texto-para-voz da Google. Este modelo suporta 70 línguas, controlo pormenorizado ao nível de cenários (scene direction) e do tipo de orador, bem como etiquetas de áudio; atualmente, já está disponível para utilização no audio playground da Google AI Studio e na Gemini API.

Quatro funcionalidades centrais

O Gemini 3.1 Flash TTS, em comparação com a geração anterior, tem quatro melhorias evidentes:

Direção de cena (Scene Direction) — permite definir o contexto para a voz, por exemplo, “falar baixinho num café barulhento” ou “anunciar entusiasmado uma boa notícia”; o modelo ajusta o tom, a velocidade de fala e a emoção de acordo com o cenário

Controlo ao nível do orador (Speaker-Level Specificity) — em conversas com múltiplos intervenientes, pode definir características de voz diferentes para cada personagem

Etiquetas de áudio (Audio Tags) — permite inserir instruções de efeitos sonoros no texto, controlando detalhes como pausas e variações de entoação

Suporte a 70 línguas — expande significativamente a cobertura multilingue, incluindo chinês

Uma voz mais natural e expressiva

A Google sublinha os progressos deste modelo na naturalidade da voz. Os modelos tradicionais de TTS são frequentemente criticados por produzirem uma saída que “soa como IA”; o Gemini 3.1 Flash TTS procura reduzir a distância para a voz humana através de variações de prosódia e expressão emocional mais ricas. Kilpatrick aponta que a evolução “é bastante significativa” de Gemini 2.5 para 3.1.

Como os programadores podem usar

Os programadores podem utilizá-lo de duas formas:

Google AI Studio Audio Playground — testar e pré-visualizar diretamente os efeitos de voz na interface Web

Gemini API — integrá-lo nas aplicações, para cenários como assistentes de voz, audiolivros, geração automática de Podcast, apoio ao cliente multilingue, entre outros

A linha de produtos da Gemini continua a expandir-se

O Flash TTS faz parte do conjunto de lançamentos recentes e intensos da série Gemini 3.1. Anteriormente, a Google já tinha apresentado o Gemini Robotics ER 1.6 (raciocínio visual para robôs), Tab Tab Tab (preenchimento de prompt de Vibe Coding) e funções como design preview. A Google está a expandir a Gemini, de “modelo de conversação”, para uma plataforma de IA multimodal completa que abrange texto, voz, visão e robôs.

Este artigo “A Google lança o Gemini 3.1 Flash TTS: suporta 70 línguas e direção de cena; voz de IA mais natural” surgiu pela primeira vez em Cadeia de notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

O Governo Trump anunciou um plano de combate à extração de IA, acusando as empresas chinesas de roubo sistemático das capacidades dos modelos

O Gabinete de Política Tecnológica da Casa Branca (OSTP), o assessor presidencial Michael J. Kratsios, emitiu, a 23 de abril, um comunicado oficial, afirmando que a administração Trump tem informação, indicando que entidades estrangeiras (principalmente na China) estão a visar deliberadamente grandes empresas de IA dos EUA, através da extração sistemática de capacidades dos modelos de IA dos EUA por meio de “dezenas de milhares de contas de agentes” e sistemas de tecnologia de jailbreaking, e divulgando em simultâneo quatro medidas de resposta.

MarketWhisper18m atrás

A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4

A DeepSeek lançou oficialmente a série de pré-visualização V4 em 24 de abril, com código aberto sob a licença MIT, e os pesos do modelo foram disponibilizados na Hugging Face e na ModelScope. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de máxima força de inferência) obteve 3206 pontos no benchmark do Codeforces, ultrapassando o GPT-5.4.

MarketWhisper34m atrás

Cambricon Conclui a Adaptação Day 0 do DeepSeek-V4, Marco para o Ecossistema de Chips de IA da China

Mensagem do Gate News, 24 de Abril — A Cambricon anunciou hoje que concluiu a adaptação Day 0 do DeepSeek-V4, o mais recente modelo de linguagem grande da DeepSeek, utilizando o seu ecossistema proprietário de software NeuWare e o framework vLLM. O código de adaptação foi simultaneamente disponibilizado como open-source, assinalando o

GateNews50m atrás

A Tencent disponibiliza como open source o Hy3 (versão de pré-visualização), com testes de referência do código melhorados em 40% face à geração anterior

A Tencent abriu oficialmente em código aberto o modelo linguístico de grande dimensão Hy3 em versão de pré-visualização a 23 de abril nas plataformas GitHub, Hugging Face e ModelScope, e disponibilizou em simultâneo um serviço de APIs pagas no seu serviço de nuvem (Tencent Cloud). Segundo a Decrypt, a 24 de abril, a versão de pré-visualização Hy3 iniciou o treino em finais de janeiro e, aquando do calendário de publicação, tinha menos de três meses.

MarketWhisper58m atrás

Investimentos da Carteira da FTX no Valor de 158 biliões Won se não tivesse falido

FTX, a bolsa centralizada de criptomoedas que pediu proteção contra falência ao abrigo do Capítulo 11 em novembro de 2022 devido a escassez de liquidez e saídas de capital, teria mantido investimentos avaliados em aproximadamente 158.796 biliões de won se não tivesse entrado em colapso, de acordo com uma análise citada por Park

CryptoFrontier1h atrás

A Xiaomi revela detalhes do treino do MiMo-V2-Pro: parâmetros do modelo 1T, milhares de GPUs implementadas

Mensagem do Gate News, 24 de Abril — A responsável da equipa de modelos de linguagem da Xiaomi, Luo Fuli, revelou numa entrevista aprofundada que o modelo MiMo-V2-Pro tem, no total, 1 bilião de parâmetros e que foram necessários milhares de GPUs para o treino. Ela referiu que a escala de 1T representa o limiar mínimo para obter

GateNews1h atrás
Comentar
0/400
Nenhum comentário