Notícias sobre produtos
Anúncio do Gemma 4 na prévia para desenvolvedores do AICore
Leitura de 3 minutos
No Google, temos o compromisso de levar os modelos de IA mais eficientes diretamente aos dispositivos Android. Hoje, temos o prazer de anunciar o lançamento do nosso modelo aberto de última geração: Gemma 4.
Esses modelos são a base da próxima geração do Gemini Nano. Portanto, o código que você escrever hoje para o Gemma 4 vai funcionar automaticamente em dispositivos com o Gemini Nano 4, que estarão disponíveis ainda este ano. Com o Gemini Nano 4, você vai se beneficiar das nossas otimizações de desempenho adicionais para poder enviar para produção em todo o ecossistema Android com a inferência no dispositivo mais eficiente.
Você pode ter acesso antecipado a esse modelo hoje mesmo na prévia para desenvolvedores do AICore.
Selecione o modelo rápido do Gemini Nano 4 na interface da prévia para desenvolvedores para conferir a velocidade de inferência incrivelmente rápida em ação antes de escrever qualquer código
Como o Gemma 4 oferece suporte nativo a mais de 140 idiomas, você pode esperar experiências multilíngues e localizadas aprimoradas para seu público global. Além disso, o Gemma 4 oferece desempenho líder do setor com compreensão multimodal, permitindo que seus apps entendam e processem texto, imagens e áudio. Para oferecer o melhor equilíbrio entre desempenho e eficiência, o Gemma 4 no Android está disponível em dois tamanhos:
- E4B:projetado para maior capacidade de raciocínio e tarefas complexas.
- E2B:otimizado para velocidade máxima (3 vezes mais rápido que o modelo E4B) e menor latência.
O novo modelo é até 4 vezes mais rápido que as versões anteriores e usa até 60% menos bateria. A partir de hoje, você pode testar recursos aprimorados, incluindo:
- Raciocínio:comandos de linha de raciocínio e instruções condicionais agora podem retornar resultados de maior qualidade. Por exemplo: "Determine se o comentário a seguir para um tópico de discussão atende às diretrizes da comunidade. O comentário não atende às diretrizes da comunidade se contiver um ou mais destes motivos_para_sinalização: linguagem obscena, linguagem depreciativa, discurso de ódio". Se a análise atender às diretrizes da comunidade, retorne {true}. Caso contrário, retorne {false, reason_for_flag}."
- Matemática:com melhores habilidades matemáticas, o modelo agora pode responder a perguntas com mais precisão. Por exemplo: "Se eu receber 26 pagamentos por ano, quanto devo contribuir em cada pagamento para atingir minha meta de economia de US $10.000 ao longo de um ano?"
- Compreensão de tempo:o modelo agora é mais capaz de raciocinar sobre o tempo, tornando-o mais preciso para casos de uso que envolvem calendários, lembretes e alarmes. Por exemplo: "O evento é às 18h do dia 18 de agosto, e um lembrete deve ser enviado 10 horas antes do evento. Retorne a hora e a data em que o lembrete deve ser enviado."
- Compreensão de imagens:casos de uso que envolvem OCR (reconhecimento óptico de caracteres), como compreensão de gráficos, extração de dados visuais e reconhecimento de manuscritos, agora vão retornar resultados mais precisos.
Participe da prévia para desenvolvedores hoje mesmo para baixar esses modelos e começar a criar recursos de próxima geração imediatamente.
Começar a testar o modelo
Você pode testar o modelo sem código seguindo o guia da prévia para desenvolvedores. Se você quiser integrar esses modelos diretamente ao seu fluxo de trabalho atual, facilitamos esse processo. Acesse o Android Studio para refinar seu comando e criar com a API Prompt do Kit de ML. Introduzimos um novo recurso para especificar um modelo, permitindo que você escolha as variantes E2B (rápida) ou E4B (completa) para testes.
// Define the configuration with a specific track and preference val previewFullConfig = generationConfig { modelConfig = ModelConfig { releaseTrack = ModelReleaseTrack.PREVIEW preference = ModelPreference.FULL } } // Initialize the GenerativeModel with the configuration val previewModel = GenerativeModel.getClient(previewFullConfig) // Verify that the specific preview model is available val previewModelStatus = previewModel.checkStatus() if (previewModelStatus == FeatureStatus.AVAILABLE) { // Proceed with inference val response = previewModel.generateContent("If I get 26 paychecks per year, how much I should contribute each paycheck to reach my savings goal of $10k over the course of a year? Return only the amount.") } else { // Handle the case where the preview model is not available // (e.g., print out log statements) }
O que esperar durante a prévia para desenvolvedores
O objetivo dessa prévia para desenvolvedores é dar um início rápido para aprimorar a precisão do comando e explorar novos casos de uso para seus apps específicos.
Vamos fazer várias atualizações durante o período de prévia, incluindo suporte para chamadas de ferramentas, saída estruturada, comandos do sistema e modo de pensamento na API Prompt, facilitando o aproveitamento total dos novos recursos do Gemma 4, bem como otimizações significativas de desempenho.
Os modelos de prévia estão disponíveis para testes em dispositivos com o AICore. Esses modelos serão executados na geração mais recente de aceleradores de IA especializados do Google, da MediaTek e da Qualcomm Technologies. Em outros dispositivos, os modelos serão executados inicialmente em uma implementação de CPU que não é representativa do desempenho final de produção. Se o dispositivo não tiver o AICore, você também poderá testar esses modelos pelo app AI Edge Gallery. Vamos oferecer suporte a mais dispositivos no futuro.
Como começar
Quer saber o que o Gemma 4 pode fazer pelos seus usuários?
- Aceitar: inscreva-se na prévia para desenvolvedores do AICore.
- Baixar:depois de aceitar, você pode acionar o download dos modelos mais recentes do Gemma 4 diretamente para o dispositivo de teste com suporte.
- Criar:atualize a implementação do Kit de ML para direcionar os novos modelos e comece a criar no Android Studio.
Continuar lendo
-
Notícias sobre produtos
Para ajudar ainda mais a levar seus casos de uso da API Prompt do Kit de ML para produção, temos o prazer de anunciar a otimização automatizada de comandos (APO, na sigla em inglês) direcionada a modelos no dispositivo na Vertex AI. A otimização automatizada de comandos é uma ferramenta que ajuda você a encontrar automaticamente o comando ideal para seus casos de uso.
Chetan Tekur, Chao Zhao, Paul Zhou, Caren Chang • Leitura de 3 minutos
-
Notícias sobre produtos
A IA está facilitando a criação de experiências de apps personalizadas que transformam o conteúdo no formato certo para os usuários. Anteriormente, permitimos que os desenvolvedores se integrassem ao Gemini Nano usando as APIs GenAI do Kit de ML, personalizadas para casos de uso específicos, como resumo e descrição de imagens.
Caren Chang, Chengji Yan, Penny Li • Leitura de 2 minutos
-
Notícias sobre produtos
O Android Studio Panda 4 agora é estável e está pronto para uso na produção. Essa versão traz o modo de planejamento, a previsão da próxima edição e muito mais, facilitando a criação de apps Android de alta qualidade.
Matt Dyor • Leitura de 5 minutos
Fique por dentro
Receba os insights mais recentes sobre o desenvolvimento Android na sua caixa de entrada semanalmente.