Private Service Connect は、 Google Cloud のソフトウェア定義ネットワーキング(SDN)である Andromeda(PDF)を使用して実装されます。Andromeda は、Google Cloud ネットワーキングの分散型コントロール プレーンとデータプレーンであり、Virtual Private Cloud(VPC)ネットワークに対するネットワーキングを可能にします。Andromeda のネットワーキング ファブリックは、VM をホストする物理サーバーでパケットを処理します。その結果、データプレーンは完全に分散され、中間プロキシやアプライアンスにボトルネックが集中することがなくなります。
Private Service Connect トラフィックは物理ホストで完全に処理されるため、プロキシ指向モデルに比べてパフォーマンスが大幅に向上します。
Private Service Connect によって課される追加の帯域幅制限はありません。送信元と宛先の VM インターフェースの合計帯域幅は、実際の Private Service Connect の帯域幅制限になります。
Private Service Connect は、トラフィックへのレイテンシを最小限に抑えます。トラフィック パスは、単一の VPC ネットワーク内の VM 間トラフィックと同一のものになります。宛先ホスト全体で行われる追加のトラフィック処理ステップは、トラフィックのネットワーク アドレス変換のみになります。
次の図は、コンシューマー VPC ネットワークとプロデューサー VPC ネットワーク間の Private Service Connect トラフィックの一般的なトラフィック パスを示しています。
論理的には、コンシューマー Private Service Connect エンドポイントとプロデューサー ロードバランサが存在します。ただし、物理的な観点からは、トラフィックは、クライアント VM をホストする物理サーバーからプロデューサー ロードバランサ VM をホストする物理サーバーに直接送信されます。
以下の説明で示すように、Andromeda は Private Service Connect トラフィックにいくつかの機能を適用します。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["わかりにくい","hardToUnderstand","thumb-down"],["情報またはサンプルコードが不正確","incorrectInformationOrSampleCode","thumb-down"],["必要な情報 / サンプルがない","missingTheInformationSamplesINeed","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-09-05 UTC。"],[],[],null,["# Private Service Connect architecture and performance\n====================================================\n\nThis page explains how Private Service Connect works.\n\nPrivate Service Connect is implemented by using software-defined\nnetworking (SDN) from Google Cloud called\n[Andromeda](https://www.usenix.org/system/files/conference/nsdi18/nsdi18-dalton.pdf)\n(PDF). Andromeda is the distributed control plane and data plane for\nGoogle Cloud networking that enables networking for\nVirtual Private Cloud (VPC) networks. The Andromeda networking fabric processes\npackets on the physical servers that host VMs. As a result, the data plane is\nfully distributed and has no centralized bottlenecks on intermediate proxies or\nappliances.\n\nBecause Private Service Connect traffic is processed fully on the\nphysical hosts, it has significant performance benefits over a proxy-oriented\nmodel:\n\n- **There are no additional bandwidth limits imposed by\n Private Service Connect.** The combined bandwidth of the source and destination VM interfaces is effectively the bandwidth limit of Private Service Connect.\n- **Private Service Connect adds minimal latency to traffic.** The traffic path is the same as VM-to-VM traffic within a single VPC network. Network address translation of traffic is the only additional traffic processing step which is done entirely on the destination host.\n\nThe following diagram shows a typical traffic path for\nPrivate Service Connect traffic between a consumer\nVPC network and a producer VPC network.\n[](/static/vpc/images/psc-architecture.svg) Physical hosts perform client load balancing to determine which target host to send the traffic to (click to enlarge).\n\nFrom a logical perspective, there are consumer\nPrivate Service Connect endpoints and producer load balancers.\nHowever, from a physical perspective traffic goes directly from the physical\nserver that hosts the client VM to the physical server that hosts the producer\nload balancer VM.\n\nAndromeda applies functions to Private Service Connect traffic as\nshown in the following diagram:\n\n- Client-side load balancing is applied on the source host (`Host 1`) which decides which target host to send the traffic to. This decision is based on location, load and health.\n- The inner packet from `VPC1` is encapsulated in an Andromeda header with the destination network of `VPC2`.\n- The destination host (`Host 2`) applies SNAT and DNAT to the packet, using the [NAT subnet](/vpc/docs/about-vpc-hosted-services#psc-subnets) as the source IP address range of the packet and the producer load balancer IP address as the destination IP address.\n\nThere are exceptions where traffic is processed by intermediate routing hosts,\nsuch as inter-regional traffic or very small or intermittent traffic flows.\nHowever, Andromeda dynamically offloads traffic flows for direct, host-to-host\nnetworking whenever possible to optimize for best latency and throughput.\n\nWhat's next\n-----------\n\n- Learn more about [Private Service Connect](/vpc/docs/private-service-connect).\n- View [Private Service Connect compatibility\n information](/vpc/docs/private-service-connect-compatibility)."]]