Para otimizar o desempenho, ajuste as seguintes configurações de volume:
Aumente a capacidade de volume: é possível aumentar a capacidade do nível de serviço Premium, Extreme ou Standard para melhorar a taxa de transferência de volume máxima. Para volumes do nível de serviço Flex, aumente a capacidade dos pools de armazenamento.
Atualize o nível de serviço: é possível atualizar os volumes do nível de serviço Premium
para o nível Extreme para melhorar a taxa de transferência. Recomendamos
que você atribua o volume a um pool de armazenamento diferente com um nível de
serviço diferente.
O aumento da capacidade do volume e a atualização dos níveis de serviço não interrompem
as cargas de trabalho de E/S em processo no volume e não afetam o acesso ao volume
de nenhuma forma.
Ajustar o cliente
Para melhorar a performance, ajuste as seguintes configurações no cliente:
Colocalização de clientes: os resultados de latência são diretamente afetados pelos
recursos e pela localização do cliente. Para melhores resultados, coloque o cliente
na mesma região do volume ou o mais próximo possível. Teste o impacto
da zona testando a latência de um cliente em cada zona e use a zona com
a menor latência.
Configurar o largura de banda da rede do Compute Engine: os recursos de rede das máquinas virtuais do Compute Engine dependem do tipo de instância usado. Normalmente,
instâncias maiores podem gerar mais capacidade de rede. Recomendamos que você
selecione uma máquina virtual cliente com um recurso de largura de banda de rede
adequado, selecione a interface de rede NIC virtual do Google (gVNIC) e
ative o desempenho Tier_1. Para mais informações, consulte a documentação do Compute Engine sobre largura de banda de rede.
Abrir várias sessões TCP: se o aplicativo exigir alta taxa de transferência,
você poderá saturar o único protocolo de controle de transmissão (TCP, na sigla em inglês)
que é a base de uma sessão NFS e SMB normal. Para esses casos, aumente
o número de sessões TCP usadas pela conexão NFS e SMB.
Use uma das guias a seguir para ajustar o cliente com base no tipo de
cliente:
Linux
Tradicionalmente, um cliente NFS usa uma única sessão TCP para todos
os sistemas de arquivos montados em NFS que compartilham um endpoint de armazenamento. Usar a
opção de montagem nconnect
permite aumentar o número de sessões TCP com suporte até um máximo
de 16.
Recomendamos as práticas recomendadas abaixo para ajustar o tipo de cliente Linux
e aproveitar ao máximo o nconnect:
Aumente o número de sessões TCP com nconnect: cada
sessão TCP adicional adiciona uma fila para 128 solicitações pendentes,
melhorando a possível simultaneidade.
Definir o parâmetro sunrpc.max_tcp_slot_table_entries:
sunrpc.max_tcp_slot_table_entries é um parâmetro de ajuste no nível da conexão
que pode ser modificado para controlar o desempenho. Recomendamos
definir sunrpc.max_tpc_slot_table_enteries como 128 solicitações ou por
conexão e não ultrapassar 10.000 slots para todos os clientes NFS em
um único projeto que se conecta aos volumes NetApp. Para definir o
parâmetro sunrpc.max_tcp_slot_table_entries, adicione-o ao
arquivo /etc/sysctl.conf e recarregue o arquivo de parâmetro usando o
comando sysctl -p.
Ajustar o valor máximo com suporte por sessão para 180: ao contrário do NFSv3,
os clientes NFSv4.1 definem a relação entre o cliente e o servidor
em sessões. Embora os volumes do NetApp ofereçam suporte a até 128
solicitações pendentes por conexão usando o NFSv3, o NFSv4.1 é limitado a
180 solicitações pendentes por sessão. Os clientes Linux NFSv4.1 usam o padrão
64 max_session_slots por sessão, mas você pode ajustar esse valor conforme
necessário. Recomendamos mudar o valor máximo aceito por sessão
para 180.
Para ajustar max_session_slots, crie um arquivo de configuração em
/etc/modprobe.d. Verifique se não há aspas (" ")
inline. Caso contrário, a opção não vai entrar em vigor.
O gráfico de comparação nconnect do NFS a seguir demonstra o impacto
do uso da configuração nconnect em uma carga de trabalho do NFS. Essas
informações foram capturadas usando o Fio com as seguintes configurações:
Carga de trabalho de leitura de 100%
Tamanho de bloco de 8 KiB em um único volume
Máquina virtual n2-standard-32 usando o sistema operacional Red Hat 9
Conjunto de trabalho de 6 TiB
O uso de um valor de nconnect de 16 resultou em cinco vezes mais desempenho
do que quando ele não estava ativado.
Windows
Para clientes baseados no Windows, o cliente pode usar o SMB Multichannel
com escalamento do lado do receptor (RSS, na sigla em inglês) para abrir várias conexões TCP. Para
fazer isso, a máquina virtual precisa ter um adaptador de rede alocado
com suporte a RSS. Recomendamos definir o RSS como quatro ou
oito valores. No entanto, qualquer valor acima de um aumenta a taxa de transferência.
O gráfico a seguir mostra a diferença que o uso da configuração RSS
pode ter em uma carga de trabalho SMB. Essas informações foram capturadas usando o Fio com
as seguintes configurações:
Carga de trabalho de leitura de 100%
Tamanho de bloco de 8 KiB em um único volume
Máquina virtual n2-standard-32 única executando um SO Windows 2022
Conjunto de trabalho de 6 TiB
Oito trabalhos foram executados com apenas a opção RSS do cliente SMB mudando entre
execuções de teste. O uso de valores de RSS de 4, 8 e 16 aumentou a performance
em duas vezes em comparação com o uso de um valor de 1. Cada instância do RSS foi executada
nove vezes com um parâmetro numjobs de 8. O parâmetro iodepth foi
aumentado em cinco a cada execução até que a capacidade máxima fosse alcançada.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[],[],null,["# Optimize performance\n\nThis page provides details on how you can optimize Google Cloud NetApp Volumes\nperformance.\n\nBefore you begin\n----------------\n\nBefore you make changes to your volumes to optimize performance, review\n[performance considerations](/netapp/volumes/docs/performance/performance-considerations).\n\nAdjust volume settings\n----------------------\n\nYou can optimize performance by adjusting the following volume settings:\n\n- **Increase volume capacity**: You can increase the capacity of your Premium,\n Extreme or Standard service level volume to improve maximum achievable volume\n throughput. For volumes of Flex service level, increase storage pools capacity\n instead.\n\n- **Upgrade your service level**: You can upgrade your Premium service level\n volumes to the Extreme service level to improve throughput. We recommend that\n you assign the volume to a different storage pool with a different service\n level.\n\nIncreasing volume capacity and upgrading service levels are both non-disruptive\nto I/O workloads in process on the volume and don't affect access to the volume\nin any way.\n\nAdjust the client\n-----------------\n\nYou can improve performance by adjusting the following settings on the client:\n\n- **Co-locate clients**: latency results are directly impacted by the\n capabilities and location of the client. For best results, place the client\n in the same region as the volume or as close as possible. Test the zonal\n impact by testing latency from a client in each zone and use the zone with\n the lowest latency.\n\n- **Configure Compute Engine network bandwidth** : the network capabilities of\n Compute Engine virtual machines depend on the instance type used. Typically,\n larger instances can drive more network throughput. We recommend that you\n select a client virtual machine with an appropriate network bandwidth\n capability, select the Google Virtual NIC (gVNIC) network interface and\n enable `Tier_1` performance. For more information, see Compute Engine\n documentation on [network bandwidth](/compute/docs/network-bandwidth).\n\n- **Open multiple TCP sessions**: if your application requires high throughput,\n you can eventually saturate the single transmission control protocol (TCP)\n session that underlies a normal NFS and SMB session. For such cases, increase\n the number of TCP sessions your NFS and SMB connection uses.\n\n Use one of the following tabs to adjust your client based on the type of\n client: \n\n ### Linux\n\n Traditionally, an NFS client uses a single TCP session for all\n NFS-mounted file systems that share a storage endpoint. Using the\n [`nconnect` mount option](https://man7.org/linux/man-pages/man5/nfs.5.html)\n lets you increase the number of supported TCP sessions up to a maximum\n of 16.\n\n We recommend the following best practices for adjusting your Linux client\n type to fully take advantage of `nconnect`:\n - **Increase the number of TCP sessions with `nconnect`**: Each\n additional TCP session adds a queue for 128 outstanding requests,\n improving potential concurrency.\n\n - **Set `sunrpc.max_tcp_slot_table_entries` parameter** :\n `sunrpc.max_tcp_slot_table_entries` is a connection-level adjustment\n parameter which you can modify to control performance. We recommend\n setting `sunrpc.max_tpc_slot_table_enteries` to 128 requests or per\n connection and not surpassing 10,000 slots for all NFS clients within\n a single project connecting to NetApp Volumes. To set the\n `sunrpc.max_tcp_slot_table_entries` parameter, add the parameter to\n your `/etc/sysctl.conf` file and reload the parameter file using the\n `sysctl -p` command.\n\n - **Tune maximum supported value per session to 180** : Unlike NFSv3,\n NFSv4.1 clients define the relationship between the client and server\n in sessions. While NetApp Volumes supports up to 128\n outstanding requests per connection using NFSv3, NFSv4.1 is limited to\n 180 outstanding requests per session. Linux NFSv4.1 clients default to\n `64 max_session_slots` per session but you can tune this value as\n needed. We recommend changing the maximum supported value per session\n to 180.\n\n To tune `max_session_slots`, create a configuration file under\n `/etc/modprobe.d`. Make sure that no quotation marks (\" \") appear\n inline. Otherwise, the option doesn't take effect. \n\n $ echo \"options nfs max_session_slots=180\" \u003e /etc/modprobe/d/nfsclient/conf\n $ reboot\n\n Use the systool -v -m nfs command to see the current maximum in use\n by the client. For the command to work, at least one NFSv4.1 mount\n must be in place.\n\n $ systool -v -v nfs\n {\n Module = \"nfs\"\n ...\n Parameters:\n ...\n Max_session_slots = \"63\" \u003c-\n ...\n }\n\n The following NFS `nconnect` comparison graph demonstrates the impact\n using the nconnect configuration can have on an NFS workload. This\n information was captured using Fio with the following settings:\n - 100% read workload\n\n - 8 KiB block size against a single volume\n\n - `n2-standard-32` virtual machine using Red Hat 9 OS\n\n - 6 TiB working set\n\n Using an `nconnect` value of 16 resulted in five times more performance\n than when it wasn't enabled.\n\n ### Windows\n\n For Windows-based clients, the client can use [SMB Multichannel](https://learn.microsoft.com/en-us/previous-versions/windows/it-pro/windows-server-2012-r2-and-2012/dn610980(v=ws.11))\n with Receive Side Scaling (RSS) to open multiple TCP connections. To\n achieve this configuration, your virtual machine must have an allocated\n network adapter that supports RSS. We recommend setting RSS to four or\n eight values, however, any value over one should increase throughput.\n\n The following graph displays the difference using the RSS configuration\n can have on an SMB workload. This information was captured using Fio with\n the following settings:\n - 100% read workload\n\n - 8 KiB block size against a single volume\n\n - Single `n2-standard-32` virtual machine running a Windows 2022 OS\n\n - 6 TiB working set\n\n Eight jobs were run with only the SMB client RSS option changing between\n test executions. Using RSS values of 4, 8, and 16 increased performance\n two-fold when compared to using a value of 1. Each RSS instance was run\n nine times with a `numjobs` parameter of 8. The `iodepth` parameter was\n increased by five each execution until maximum throughput was reached.\n\nWhat's next\n-----------\n\nRead about [storage pools](/netapp/volumes/docs/configure-and-use/storage-pools/overview)."]]