Modelos Qwen

Os modelos Qwen no Vertex AI oferecem modelos totalmente geridos e sem servidor como APIs. Para usar um modelo Qwen no Vertex AI, envie um pedido diretamente para o ponto final da API Vertex AI. Uma vez que os modelos Qwen usam uma API gerida, não é necessário aprovisionar nem gerir a infraestrutura.

Pode transmitir as suas respostas para reduzir a perceção de latência do utilizador final. Uma resposta em stream usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.

Modelos Qwen disponíveis

Os seguintes modelos estão disponíveis no Qwen para utilização no Vertex AI. Para aceder a um modelo Qwen, aceda ao respetivo cartão do modelo do Model Garden.

Qwen3-Next-80B Instruct

O Qwen3-Next-80B Instruct é um modelo de linguagem da família de modelos Qwen3-Next. Foi concebido para seguir comandos específicos e processar textos muito longos. Usa um design inteligente denominado Mixture-of-Experts (MoE), que ativa um subconjunto de parâmetros disponíveis para processar informações, o que o torna mais rápido e rentável de executar do que outros modelos do seu tamanho.

A versão Instruct está otimizada para respostas diretas e fiáveis em chats e aplicações de agentes, e a respetiva grande janela de contexto permite-lhe manter uma conversa inteira ou um documento grande na memória.

Aceda ao cartão do modelo Qwen3-Next-80B Instruct

Qwen3-Next-80B Thinking

O Qwen3-Next-80B Thinking é um modelo de linguagem da família de modelos Qwen3-Next. É especializado na resolução de problemas complexos e no raciocínio profundo. O modo de "pensamento" gera um processo de raciocínio visível passo a passo juntamente com a resposta final, o que o torna ideal para tarefas que requerem lógica transparente, como provas matemáticas, depuração de código complexa ou planeamento de agentes de vários passos.

Aceda ao cartão do modelo de raciocínio Qwen3-Next-80B

Qwen3 Coder (Qwen3 Coder)

O Qwen3 Coder (Qwen3 Coder) é um modelo de código aberto de grande escala desenvolvido para tarefas avançadas de desenvolvimento de software. A principal caraterística do modelo é a sua grande capacidade de resposta, o que lhe permite processar e compreender bases de código grandes de forma abrangente.

Aceda ao cartão do modelo Qwen3 Coder

Qwen3 235B (Qwen3 235B)

O Qwen3 235B (Qwen3 235B) é um modelo grande de 235 mil milhões de parâmetros. O modelo distingue-se pela sua capacidade de "pensamento híbrido", que permite aos utilizadores alternar dinamicamente entre um modo de "pensamento" metódico e passo a passo para tarefas complexas, como raciocínio matemático e programação, e um modo de "não pensamento" rápido para conversas de uso geral. A sua grande capacidade de resposta torna-o adequado para exemplos de utilização que requerem raciocínio profundo e compreensão de formato longo.

Aceda ao cartão do modelo Qwen3 235B

Antes de começar

Para usar os modelos Qwen com o Vertex AI, tem de realizar os seguintes passos. A API Vertex AI (aiplatform.googleapis.com) tem de estar ativada para usar a Vertex AI. Se já tiver um projeto com a API Vertex AI ativada, pode usá-lo em vez de criar um novo projeto.

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the Vertex AI API.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the API

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  6. Verify that billing is enabled for your Google Cloud project.

  7. Enable the Vertex AI API.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the API

  8. Aceda a um dos seguintes cartões de modelos do Model Garden e, de seguida, clique em Ativar.