Tabel berikut membandingkan jenis endpoint yang didukung untuk menayangkan prediksi online Vertex AI dan menunjukkan jenis mana yang direkomendasikan sebagai praktik terbaik.
Endpoint publik khusus (direkomendasikan) | Endpoint publik | Endpoint Private Service Connect (direkomendasikan) | Endpoint pribadi | |
---|---|---|---|---|
Tujuan | Pengalaman jaringan default. Mengaktifkan pengiriman permintaan dari internet publik (jika Kontrol Layanan VPC tidak diaktifkan). | Pengalaman jaringan default. Mengaktifkan pengiriman permintaan dari internet publik (jika Kontrol Layanan VPC tidak diaktifkan). | Direkomendasikan untuk aplikasi perusahaan produksi. Meningkatkan latensi dan keamanan jaringan dengan memastikan permintaan dan respons dirutekan secara pribadi. | Direkomendasikan untuk aplikasi perusahaan produksi. Meningkatkan latensi dan keamanan jaringan dengan memastikan permintaan dan respons dirutekan secara pribadi. |
Jaringan masuk | Internet publik menggunakan bidang jaringan khusus | Internet publik yang menggunakan platform jaringan bersama | Jaringan pribadi menggunakan endpoint Private Service Connect | Jaringan pribadi menggunakan Akses layanan pribadi (Peering Jaringan VPC) |
Jaringan keluar | Internet publik | Internet publik | Tidak didukung | Jaringan pribadi menggunakan Akses layanan pribadi (Peering Jaringan VPC) |
Kontrol Layanan VPC | Tidak didukung. Gunakan endpoint Private Service Connect. | Didukung | Didukung | Didukung |
Biaya | Vertex AI Prediction | Vertex AI Prediction | Vertex AI Prediction + endpoint Private Service Connect | Vertex AI Prediction + Akses layanan pribadi (lihat: "Menggunakan endpoint Private Service Connect (aturan penerusan) untuk mengakses layanan yang dipublikasikan") |
Latensi jaringan | Dioptimalkan | Tidak dioptimalkan | Dioptimalkan | Latensi P50 yang lebih rendah, latensi P99 (tail) yang lebih tinggi |
Enkripsi saat transit | TLS dengan sertifikat yang ditandatangani CA | TLS dengan sertifikat yang ditandatangani CA | TLS opsional dengan sertifikat yang ditandatangani sendiri | Tidak ada |
Waktu tunggu inferensi | Dapat dikonfigurasi hingga 1 jam | 60 detik | Dapat dikonfigurasi hingga 1 jam | 60 detik |
Batas ukuran payload | 10 MB | 1,5 MB | 10 MB | 10 MB |
Kuota QPM | Tidak terbatas | 30.000 | Tidak terbatas | Tidak terbatas |
Dukungan protokol | HTTP atau gRPC | HTTP | HTTP atau gRPC | HTTP |
Dukungan streaming | Ya (SSE) | Tidak | Ya (SSE) | Tidak |
Pembagian traffic | Ya | Ya | Ya | Tidak |
Logging permintaan dan respons | Ya | Ya | Ya | Tidak |
Logging akses | Ya | Ya | Ya | Tidak |
Model AutoML dan kemampuan menjelaskan | Tidak | Ya | Tidak | Tidak |