Modelos Qwen

Os modelos Qwen na Vertex AI oferecem modelos totalmente gerenciados e sem servidor modelos como APIs. Para usar um modelo Qwen na Vertex AI, envie uma solicitação diretamente para o endpoint de API Vertex AI. Devido ao Os modelos Qwen usam uma API gerenciada, não é necessário provisionar nem gerenciar a infraestrutura.

É possível transmitir as respostas para reduzir a percepção de latência do usuário final. Uma resposta transmitida usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.

Modelos Qwen disponíveis

Os modelos a seguir estão disponíveis na Qwen para uso na Vertex AI. Para acessar um modelo Qwen, acesse o card de modelo do Model Garden.

Qwen3-Next-80B Instruct

O Qwen3-Next-80B Instruct é um modelo de linguagem da família de modelos Qwen3-Next. Ele foi projetado para seguir comandos específicos e processar textos muito longos. Ele usa um design inteligente chamado Mixture-of-Experts (MoE), que ativa um subconjunto de parâmetros disponíveis para processar informações, o que o torna mais rápido e econômico do que outros modelos do mesmo tamanho.

A versão Instruct é ajustada para respostas diretas e confiáveis em aplicativos de chat e de agente. A grande janela de contexto permite manter uma conversa inteira ou um documento grande na memória.

Acessar o card do modelo Qwen3-Next-80B Instruct

Qwen3-Next-80B Thinking

O Qwen3-Next-80B Thinking é um modelo de linguagem da família de modelos Qwen3-Next. Ela é especializada em resolução de problemas complexos e raciocínio profundo. O modo de "pensamento" gera um processo de raciocínio visível e detalhado junto com a resposta final, o que o torna ideal para tarefas que exigem lógica transparente, como provas matemáticas, depuração de código complexo ou planejamento de agentes de várias etapas.

Acessar o card do modelo Qwen3-Next-80B Thinking

Qwen3 Coder (Qwen3 Coder)

O Qwen3 Coder (Qwen3 Coder) é um modelo de grande escala e peso aberto desenvolvido para tarefas avançadas de desenvolvimento de software. O principal recurso do modelo é a grande janela de contexto, que permite processar e entender grandes bases de código de forma abrangente.

Acessar o card do modelo Qwen3 Coder

Qwen3 235B (Qwen3 235B)

O Qwen3 235B (Qwen3 235B) é um modelo grande de 235 bilhões de parâmetros. O modelo se destaca pela capacidade de "pensamento híbrido", que permite aos usuários alternar dinamicamente entre um modo de "pensamento" metódico, etapa por etapa, para tarefas complexas, como raciocínio matemático e programação, e um modo rápido de "não pensamento" para conversas de uso geral. A grande janela de contexto o torna adequado para casos de uso que exigem raciocínio profundo e compreensão de textos longos.

Acessar o card do modelo Qwen3 235B

Antes de começar

Para usar modelos Qwen com a Vertex AI, siga as etapas abaixo. A API Vertex AI (aiplatform.googleapis.com) precisa estar ativada para usar a Vertex AI. Se você já tiver um projeto existente com a API do Vertex AI ativada, poderá usar esse projeto em vez de criar um novo.

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the Vertex AI API.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the API

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  6. Verify that billing is enabled for your Google Cloud project.

  7. Enable the Vertex AI API.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the API

  8. Acesse um dos seguintes cards de modelo do Model Garden e clique em Ativar.