Os modelos Qwen no Vertex AI oferecem modelos totalmente geridos e sem servidor como APIs. Para usar um modelo Qwen no Vertex AI, envie um pedido diretamente para o ponto final da API Vertex AI. Uma vez que os modelos Qwen usam uma API gerida, não é necessário aprovisionar nem gerir a infraestrutura.
Pode transmitir as suas respostas para reduzir a perceção de latência do utilizador final. Uma resposta em stream usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.
Modelos Qwen disponíveis
Os seguintes modelos estão disponíveis no Qwen para utilização no Vertex AI. Para aceder a um modelo Qwen, aceda ao respetivo cartão do modelo do Model Garden.
Qwen3-Next-80B Instruct
O Qwen3-Next-80B Instruct é um modelo de linguagem da família de modelos Qwen3-Next. Foi concebido para seguir comandos específicos e processar textos muito longos. Usa um design inteligente denominado Mixture-of-Experts (MoE), que ativa um subconjunto de parâmetros disponíveis para processar informações, o que o torna mais rápido e rentável de executar do que outros modelos do seu tamanho.
A versão Instruct está otimizada para respostas diretas e fiáveis em chats e aplicações de agentes, e a respetiva grande janela de contexto permite-lhe manter uma conversa inteira ou um documento grande na memória.
Aceda ao cartão do modelo Qwen3-Next-80B Instruct
Qwen3-Next-80B Thinking
O Qwen3-Next-80B Thinking é um modelo de linguagem da família de modelos Qwen3-Next. É especializado na resolução de problemas complexos e no raciocínio profundo. O modo de "pensamento" gera um processo de raciocínio visível passo a passo juntamente com a resposta final, o que o torna ideal para tarefas que requerem lógica transparente, como provas matemáticas, depuração de código complexa ou planeamento de agentes de vários passos.
Aceda ao cartão do modelo de raciocínio Qwen3-Next-80B
Qwen3 Coder (Qwen3 Coder)
O Qwen3 Coder (Qwen3 Coder
) é um modelo de código aberto de grande escala
desenvolvido para tarefas avançadas de desenvolvimento de software. A principal caraterística do modelo é a sua grande capacidade de resposta, o que lhe permite processar e compreender bases de código grandes de forma abrangente.
Aceda ao cartão do modelo Qwen3 Coder
Qwen3 235B (Qwen3 235B)
O Qwen3 235B (Qwen3 235B
) é um modelo grande de 235 mil milhões de parâmetros. O modelo distingue-se pela sua capacidade de "pensamento híbrido", que permite aos utilizadores alternar dinamicamente entre um modo de "pensamento" metódico e passo a passo para tarefas complexas, como raciocínio matemático e programação, e um modo de "não pensamento" rápido para conversas de uso geral. A sua grande capacidade de resposta torna-o adequado para exemplos de utilização que requerem raciocínio profundo e compreensão de formato longo.
Aceda ao cartão do modelo Qwen3 235B
Antes de começar
Para usar os modelos Qwen com o Vertex AI, tem de realizar os seguintes passos. A API Vertex AI (aiplatform.googleapis.com
) tem de estar ativada para usar a Vertex AI. Se já tiver um projeto com a API Vertex AI ativada, pode usá-lo em vez de criar um novo projeto.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. -
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. - Aceda a um dos seguintes cartões de modelos do Model Garden e, de seguida, clique em Ativar.