Analisis data Anda

Last reviewed 2023-08-08 UTC

Dokumen dalam Framework Arsitektur Google Cloud ini menjelaskan beberapa prinsip inti dan praktik terbaik untuk analisis data di Google Cloud. Anda akan mempelajari beberapa layanan analisis data utama, dan bagaimana layanan tersebut dapat membantu di berbagai tahap siklus proses data. Praktik terbaik ini membantu Anda memenuhi kebutuhan analisis data dan membuat desain sistem Anda.

Prinsip inti

Bisnis ingin menganalisis data dan menghasilkan hasil analisis yang bisa ditindaklanjuti dari data tersebut. Google Cloud menyediakan berbagai layanan yang membantu Anda menangani seluruh siklus proses pendataan, mulai dari penyerapan data hingga laporan dan visualisasi. Sebagian besar layanan ini dikelola sepenuhnya, dan ada di antaranya yang beroperasi serverless. Anda juga dapat mem-build dan mengelola lingkungan analisis data di VM Compute Engine, seperti menghosting sendiri Apache Hadoop atau Beam.

Fokus khusus, keahlian tim, dan pandangan strategis membantu Anda menentukan layanan Google Cloud yang digunakan untuk mendukung kebutuhan analisis data Anda. Misalnya, Dataflow memungkinkan Anda menulis transformasi kompleks dalam pendekatan serverless, tetapi Anda harus mengandalkan versi konfigurasi opini untuk kebutuhan komputasi dan pemrosesan. Atau, Dataproc memungkinkan Anda menjalankan transformasi yang sama, tetapi Anda mengelola cluster dan menyesuaikan tugas sendiri.

Dalam desain sistem Anda, pikirkan strategi pemrosesan yang digunakan tim Anda, seperti ekstrak, transformasi, load (ETL) atau ekstrak, load, transformasi (ELT). Desain sistem Anda juga harus mempertimbangkan apakah Anda perlu memproses analisis batch atau analisis streaming. Google Cloud menyediakan platform data terpadu, dan memungkinkan Anda mem-build data lake atau data warehouse untuk memenuhi kebutuhan bisnis Anda.

Layanan utama

Tabel berikut memberikan ringkasan umum tentang layanan analisis Google Cloud:

Layanan Google Cloud Deskripsi
Pub/Sub Fondasi sederhana, andal, dan skalabel untuk analisis stream dan sistem komputasi berbasis peristiwa.
Dataflow Layanan terkelola sepenuhnya untuk mengubah dan memperkaya data dalam mode streaming (real time) dan batch (historis).
Dataprep by Trifacta Layanan data cerdas untuk menjelajahi, membersihkan, dan menyiapkan data terstruktur dan tidak terstruktur secara visual untuk analisis.
Dataproc Layanan cloud yang cepat, mudah digunakan, dan terkelola sepenuhnya untuk menjalankan cluster Apache Spark dan Apache Hadoop.
Cloud Data Fusion Layanan integrasi data terkelola sepenuhnya yang dibangun untuk cloud dan memungkinkan Anda membangun serta mengelola pipeline data ETL/ELT. Cloud DataFusion menyediakan grafis antarmuka dan library open source yang luas dari konektor dan transformasi yang telah dikonfigurasi sebelumnya.
BigQuery Data warehouse yang terkelola sepenuhnya, hemat biaya, dan serverless yang dapat diskalakan dengan kebutuhan penyimpanan dan daya komputasi Anda. BigQuery adalah database berbasis kolom dan ANSI SQL yang dapat menganalisis data berukuran terabyte hingga petabyte.
Cloud Composer Layanan orkestrasi alur kerja yang terkelola sepenuhnya, yang memungkinkan Anda membuat, menjadwalkan, dan memantau pipeline yang mencakup cloud dan pusat data lokal.
Data Catalog Layanan pengelolaan metadata yang skalabel dan terkelola sepenuhnya, yang membantu Anda menemukan, mengelola, dan memahami semua data Anda.
Looker Studio Layanan analisis visual yang terkelola sepenuhnya dapat membantu Anda membuka insight dari data melalui dasbor interaktif.
Looker Platform perusahaan yang menghubungkan, menganalisis, dan memvisualisasikan data di seluruh lingkungan multi-cloud.
Dataform Produk yang terkelola sepenuhnya untuk membantu Anda berkolaborasi, membuat, dan men-deploy data pipeline, serta memastikan kualitas data.
Dataplex Layanan data lake terkelola yang mengelola, memantau, dan mengatur data secara terpusat di seluruh data lake, data warehouse, dan data mart menggunakan kontrol yang konsisten.
AnalyticsHub Platform yang bertukar aset analisis data secara efisien dan aman di seluruh organisasi Anda untuk mengatasi tantangan keandalan dan biaya data.

Siklus proses data

Saat membuat desain sistem, Anda dapat mengelompokkan layanan analisis data Google Cloud mengikuti pergerakan data umum di sistem apa pun, atau mengikuti siklus proses data.

Siklus proses data mencakup tahapan dan layanan contoh berikut:

Tahapan dan layanan berikut berjalan di seluruh siklus proses data:

  • Integrasi data mencakup layanan seperti Data Fusion.
  • Pengelolaan dan tata kelola metadata mencakup layanan seperti Data Catalog.
  • Pengelolaan alur kerja mencakup layanan seperti Cloud Composer.

Penyerapan data

Terapkan praktik terbaik penyerapan data berikut di lingkungan Anda sendiri.

Tentukan sumber data untuk penyerapan

Data biasanya berasal dari penyedia atau layanan cloud lain, atau dari lokasi lokal:

Pertimbangkan cara yang Anda inginkan untuk memproses data setelah Anda menyerapnya. Misalnya, Storage Transfer Service hanya menulis data ke bucket Cloud Storage, dan BigQuery Data Transfer Service hanya menulis data ke set data BigQuery. Cloud Data Fusion mendukung beberapa tujuan.

Identifikasi sumber data streaming atau batch

Pertimbangkan bagaimana Anda perlu menggunakan data Anda dan kenali dimana Anda memiliki kasus penggunaan streaming atau batch. Misalnya, jika Anda menjalankan layanan streaming global yang memiliki persyaratan latensi rendah, Anda dapat menggunakan Pub/Sub. Jika memerlukan data untuk penggunaan analisis dan pelaporan, Anda dapatmelakukan streaming data ke BigQuery.

Jika Anda perlu melakukan streaming data dari sistem seperti Apache Kafka di lingkungan lokal atau cloud lainnya, gunakan Template Kafka ke Dataflow BigQuery. Untuk workload batch, langkah pertama biasanya adalah menyerap data ke Cloud Storage. Gunakan alat gsutil atau Storage Transfer Service untuk menyerap data.

Serap data dengan alat otomatis

Memindahkan data secara manual dari sistem lain ke cloud bisa menjadi sebuah tantangan. Jika memungkinkan, gunakan alat yang dapat mengotomatiskan proses penyerapan data. Misalnya, Cloud Data Fusion menyediakan konektor dan plugin untuk membawa data dari sumber eksternal dengan GUI tarik lalu lepas. Jika tim Anda ingin menulis beberapa kode, Data Flow atau BigQuery dapat membantu mengotomatiskan penyerapan data. Pub/Sub dapat membantu dalam pendekatan sedikit kode atau yang mendahulukan kode. Untuk menyerap data ke dalam bucket penyimpanan, gunakan gsutil untuk ukuran data hingga 1 TB. Untuk menyerap jumlah data yang lebih besar dari 1 TB, gunakan Storage Transfer Service.

Gunakan alat migrasi untuk menyerap dari data warehouse lain

Jika Anda perlu bermigrasi dari sistem data warehouse lain, seperti Teradata, Netezza, atau Redshift, Anda dapat menggunakan BigQuery Data Transfer Service bantuan migrasi. BigQuery Data Transfer Service juga menyediakan transfer pihak ketiga yang membantu Anda menyerap data sesuai jadwal dari sumber eksternal. Untuk informasi selengkapnya, baca pendekatan migrasi mendetail untuk setiap data warehouse.

Perkirakan kebutuhan penyerapan data Anda

Volume data yang perlu diserap membantu Anda menentukan layanan mana yang akan digunakan dalam desain sistem. Untuk penyerapan streaming data, Pub/Sub menskalakan hingga puluhan gigabyte per detik. Persyaratan regional, kapasitas, dan penyimpanan untuk data Anda membantu menentukan apakah Pub/Sub Lite merupakan opsi yang lebih baik untuk desain sistem Anda atau tidak. Untuk mengetahui informasi selengkapnya, baca artikel Memilih Pub/Sub atau Pub/Sub Lite.

Untuk penyerapan batch data, perkirakan jumlah total data yang ingin Anda transfer, dan seberapa cepat Anda ingin melakukannya. Tinjau opsi migrasi yang tersedia, termasuk perkiraan waktu dan perbandingan transfer online versus offline.

Gunakan alat yang sesuai untuk secara teratur menyerap data sesuai jadwal

Storage Transfer Service dan BigQuery Data Transfer Service dapat Anda gunakan untuk menjadwalkan tugas penyerapan. Untuk kontrol yang lebih mendetail terkait waktu penyerapan atau sistem sumber dan tujuan, gunakan sistem manajemen alur kerja seperti Cloud Composer. Jika Anda lebih menginginkan pendekatan yang manual, gunakan Cloud Scheduler dan Pub/Sub untuk memicu Cloud Function.
Jika ingin mengelola infrastruktur Compute, Anda dapat menggunakan perintah gsutil dengan cron untuk transfer data maksimal 1 TB. Jika Anda menggunakan pendekatan manual ini, daripada Cloud Composer, ikuti praktik terbaik untuk membuat skrip transfer produksi.

Tinjau kebutuhan penyerapan data server FTP/SFTP

Jika memerlukan lingkungan bebas kode untuk menyerap data dari server FTP/SFTP, Anda dapat menggunakan salinan plugin FTP. Jika Anda ingin memperbarui dan membuat solusi alur kerja jangka panjang, Cloud Composer adalah layanan terkelola sepenuhnya yang memungkinkan Anda membaca dan menulis dari berbagai sumber dan sink.

Gunakan konektor Apache Kafka untuk menyerap data

Jika Anda menggunakan Pub/Sub, Dataflow, atau BigQuery, Anda dapat menyerap data menggunakan salah satu konektor Apache Kafka. Misalnya, konektor open source Kafka Pub/Sub dapat Anda gunakan untuk menyerap data dari Pub/Sub atau Pub/Sub Lite.

Referensi tambahan

Penyimpanan data

Terapkan praktik terbaik penyimpanan databerikut di lingkungan Anda sendiri.

Memilih penyimpanan data yang sesuai dengan kebutuhan Anda

Untuk membantu Anda memilih jenis solusi penyimpanan yang akan digunakan, ditinjau, dan dipahami penggunaan data downstream Anda. Kasus umum penggunaan data Anda berikut memberikan rekomendasi produk Google Cloud yang akan digunakan:

Kasus penggunaan data Rekomendasi produk
Berbasis file Filestore
Berbasis objek Cloud Storage
Latensi rendah Bigtable
Deret waktu Bigtable
Cache online Memorystore
Pemrosesan transaksi Cloud SQL
Business intelligence (BI) & analisis BigQuery
Batch processing Cloud Storage

Bigtable jika data yang masuk adalah deret waktu dan Anda memerlukan akses latensi rendah ke data tersebut.

BigQuery jika Anda menggunakan SQL.

Tinjau kebutuhan struktur data Anda

Untuk sebagian besar data yangtidak terstruktur seperti dokumen dan teks file, audio dan file video, atau logs, . Anda kemudian dapat memuat dan memproses data dari penyimpanan objek saat Anda membutuhkannya.

Untuk data semi-terstruktur seperti XML atau JSON, kasus penggunaan dan pola akses data membantu memandu pilihan Anda. Anda dapat memuat set data tersebut ke BigQuery untuk deteksi skema secara otomatis. Jika Anda memiliki persyaratan latensi rendah, Anda dapat memuat data JSON ke Bigtable Jika Anda memiliki persyaratan lama atau aplikasi bekerja dengan database relasional, Anda juga dapat memuat set data ke dalam penyimpanan relasi.

Untuk data terstruktur, seperti CSV, Parquet, Avro, or ORC, Anda dapat menggunakan BigQuery jika Anda memiliki BI dan persyaratan analisis yang menggunakan SQL. Untuk informasi selengkapnya, lihat cara memuat data secara kelompok. Jika Anda ingin membuat data lake pada standar dan teknologi terbuka, Anda dapat menggunakan Cloud Storage.

Migrasikan data dan kurangi biaya untuk HDFS

Cari cara untuk memindahkan data Hadoop Distributed File System (HDFS) dari penyedia lokal atau cloud lain ke sistem penyimpanan yang lebih murah. Cloud Storage adalah pilihan yang paling umum yang di pakai sebagai tempat penyimpanan data alternatif Untuk informasi tentang kelebihan dan kekurangan pilihan ini, lihat HDFS vs. Cloud Storage.

Anda dapat memindahkan data dengan metode push atau pull. Kedua metode tersebut menggunakan perintah hadoop distcp. Untuk informasi selengkapnya, lihat Memigrasikan Data HDFS dari Lokal ke Google Cloud.

konektor Cloud Storage open source untuk mengizinkan tugas Hadoop dan Spark mengakses data di Cloud Storage Konektor tersebut diinstal secara default di cluster Dataproc dan dapat diinstal secara manual di cluster lain.

Gunakan penyimpanan objek untuk mem-build data lake yang kohesif

Data lake adalah repositori terpusat yang didesain untuk menyimpan dan mengamankan sejumlah besar data terstruktur, semi-terstruktur, dan tidak terstruktur. Anda dapat menggunakan Cloud Composer dan Cloud Data Fusion untuk membangun data lake.

Untuk membangun sebuah platform data modern, Anda dapat menggunakan BigQuery sebagai sumber pusat data, bukan dari Cloud Storage. BigQuery adalah data warehouse modern dengan penyimpanan dan komputasi yang terpisah. Data yang dibangun di BigQuery memungkinkan Anda melakukan analisis dari BigQuery ke konsol Cloud. Data tersebut juga memungkinkan Anda mengakses data yang disimpan dari framwork lain seperti Apache Spark.

Referensi tambahan

Proses dan transformasikan data

Terapkan praktik terbaik analisis data berikut ini di lingkungan Anda sendiri saat memproses dan mengubah data.

Pelajari software open source yang dapat Anda gunakan di Google Cloud

Banyak layanan Google Cloud yang menggunakan software open source untuk membuat transisi Anda menjadi lancar. Google Cloud menawarkan solusi terkelola dan serverless yang memiliki API Open Source dan kompatibel dengan framework open source untuk mengurangi ketergantungan vendor.

Dataproc adalah layanan terkelola yang kompatibel dengan Hadoop yang memungkinkan Anda untuk menghosting software open source, dengan beban operasional yang kecil. Dataproc menyertakan dukungan untuk Spark, Hive, Pig, Presto, and Zookeeper. Dataproc juga menyediakan Hive Metastore sebagai layanan terkelola untuk menghapus dirinya sendiri sebagai titik tunggal kegagalan di ekosistem Hadoop

Anda dapat bermigrasi ke Dataflow jika saat ini Anda menggunakan Apache Beam sebagai mesin pemrosesan batch dan streaming. Dataflow adalah layanan terkelola sepenuhnya dan serverless yang menggunakan Apache Beam. Gunakan Dataflow untuk menulis pekerjaan di Beam tetapi biarkan Google Cloud mengatur lingkungan eksekusi.

Jika Anda menggunakan CDAP sebagai platform integrasi data, Anda dapat bermigrasi ke Cloud Data Fusion untuk pengalaman yang terkelola sepenuhnya.

Tentukan kebutuhan pemrosesan data ETL atau ELT Anda

Pengalaman dan preferensi tim Anda membantu Anda menentukan desain sistem untuk cara memproses data. Google Cloud memungkinkan Anda menggunakan salah satu dari ETL tradisional atau ELT yang lebih modern dalam sistem pemrosesan data.

Gunakan framework yang sesuai untuk kasus penggunaan data Anda

Kasus penggunaan data Anda menentukan alat dan framework mana yang akan digunakan. Beberapa produk Google Cloud dibuat untuk menangani semua kasus penggunaan data berikut ini sedangkan pendukung terbaik lain hanya satu kasus penggunaan tertentu.

  • Untuk pemrosesan sistem data batch, Anda dapat memproses dan mengubah data di BigQuery dengan antarmuka SQL yang umum diketahui Jika Anda sudah memiliki pipeline yang berjalan di Apache Hadoop atau Spark lokal atau di publik lainnya, Anda dapat menggunakan Dataproc.
    • Anda juga dapat menggunakan Dataflow jika menginginkan grafis pemrograman terpadu untuk kedua kasus penggunaan batch dan streaming. Kami merekomendasikan Anda untuk memodernisasi dan menggunakan Dataflow untuk ETL dan BigQuery untuk ELT.
  • Untuk melakukanstreaming data pipeline, gunakan layanan terkelola dan serverless seperti Dataflow yang menyediakan windowing, server otomatis, dan template. Untuk informasi selengkapnya, lihat Membangun pipeline data siap produksi menggunakan Dataflow.

    • Jika Anda memiliki tim dan kemampuan analisis yang berfokus pada analisis serta SQL, Anda juga dapat streaming data ke BigQuery.
  • Untuk kasus penggunaan real-time , seperti analisis deret waktu atau analisis video streaming, gunakan Dataflow.

Pertahankan kendali di masa mendatang atas mesin eksekusi Anda

Untuk meminimalkan ketergantungan dengan vendor dan dapat menggunakan platform berbeda di masa mendatang, gunakan model pemrograman Apache Beam dan Dataflow sebagai solusi serverless terkelola Model pemrograman Beam memungkinkan Anda mengubah dasar mesin eksekusi, seperti mengubah Dataflow ke Apache Flink atau Apache Spark.

Gunakan Dataflow untuk menyerap data dari beberapa sumber

Untuk menyerap data dari beberapa sumber, seperti Pub/Sub, Cloud Storage, HDFS, S3, or Kafka, gunakan Dataflow. Dataflow adalah layanan serverless terkelola yang mendukung template Dataflow, yang memungkinkan team Anda menjalankan template dari alat yang berbeda.

Dataflow Prime menyediakan mesin server horizontal and vertikal that are yang digunakan dalam proses eksekusi pipeline. Dataflow Prime juga menyediakan diagnostik dan rekomendasi cerdas dalam mengidentifikasi masalah dan menyarankan cara memperbaikinya.

Temukan, identifikasi, dan lindungi data sensitif

Gunakan Sensitive Data Protection untuk memeriksa dan mengubah data terstruktur serta tidak terstruktur Sensitive Data Protection bekerja pada data yang terletak di manapun di Google Cloud, seperti di Cloud Storage atau database. Anda dapat mengklasifikasikan, menyamarkan, dan membuat token data sensitif Anda agar dapat terus menggunakan dengan aman untuk pemrosesan downstream. Gunakan Sensitive Data Protection untuk melakukan tindakan seperti, memindai data BigQuery atau melakukan de-identifikasi dan mengidentifikasi ulang PII dalam set data skala besar

Modernisasi proses transformasi data Anda

Gunakan Dataform untuk menulis transformasi data seperti kode dan untuk mulai menggunakan kontrol versi default. Anda juga dapat mengadopsi praktik terbaik pengembangan software seperti CI/CD, pengujian unit, dan kontrol versi ke kode SQL. Dataform mendukung semua produk dan database cloud data warehouse (CDW) seperti PostgreSQL.

Referensi Tambahan

Analisis data dan warehouse

Penerapan persiapan analisis data dan praktik terbaik warehouse untuk lingkungan Anda sendiri.

Tinjau kebutuhan penyimpanan data Anda

Data lake dan data warehouse tidak eksklusif terhadap satu sama lain. Data lake berguna untuk pemrosesan penyimpanan data tidak terstruktur dan semi-terstruktur. Data warehouse adalah data yang terbaik untuk analisis dan BI.

Tinjau data Anda untuk membantu menentukan tempat penyimpanan data dan produk Google Cloud mana yang paling sesuai untuk memproses dan menganalisis data Anda. Produk seperti BigQuery dapat memproses sebuah data PBs dan tumbuh sesuai permintaan Anda.

Identifikasi peluang untuk bermigrasi dari data warehouse tradisional ke BigQuery

Tinjau data warehouse tradisional yang saat ini digunakan di lingkungan Anda. Untuk mengurangi kompleksitas dan potensi pengurangan biaya, peluang identifikasi untuk migrasi data warehouse tradisional Anda ke layanan Google Cloud seperti BigQuery. Untuk informasi selengkapnya dan contoh skenario, lihat data migrasi warehouse ke BigQuery.

Rencanakan akses gabungan ke data

Tinjau persyaratan data Anda dan bagaimana Anda butuh berinteraksi dengan layanan dan produk lain Identifikasi kebutuhan gabungan data Anda, dan buat desain sistem yang sesuai.

Sebagai contoh, BigQuery membiarkan Anda menggunakan tabel eksternal yang dapat membaca data dari sumber lain, seperti Bigtable, Cloud SQL, Cloud Storage, atau Google Drive. Anda dapat menggabungkan sumber eksternal dengan tabel yang Anda simpan di BigQuery.

Gunakan slot fleksibel BigQuery untuk menyediakan kapasitas burst on demand

Terkadang Anda butuh kapasitas ekstra untuk melakukan analisis eksperimental atau eksploratif yang akan membutuhkan banyak resource komputasi. BigQuery membiarkan Anda mendapat tambahan kapasitas komputasi dalam bentuk slot fleksibel. Slot fleksibel ini membantu Anda saat ada periode permintaan tinggi atau saat Anda ingin menyelesaikan analisis penting.

Pahami perbedaan skema jika Anda bermigrasi ke BigQuery

BigQuery mendukung kedua skema bintang and snowflake, tetapi secara default menggunakan kolom berulang dan bertingkat. kolom berulang dan bertingkat dapat lebih mudah untuk dibaca dan dikorelasikan dibandingkan dengan skema lain. Jika data Anda direpresentasikan di dalam skema star atau snowflake, dan jika Anda ingin memigrasikannya ke BigQuery, tinjau desain sistem Anda untuk mengetahui perubahan pada analisis atau proses.

Referensi tambahan

Laporan dan visualisasi

Terapkan praktik terbaik pelaporan dan visualisasi berikut ke lingkungan Anda sendiri.

Gunakan BigQuery BI Engine untuk memvisualisasikan data Anda

BigQuery BI Engine adalah layanan, analisis memori yang cepat. Anda dapat menggunakan BI Engine untuk menganalisis data yang tersimpan di BigQuery dengan waktu respons kueri subdetik dan konkurensi tinggi. BI Engine terintegrasi ke dalam BigQuery API. Gunakan kapasitas pencadangan BI Engine untuk mengelola sebuah on-demand atau harga tarif tetap untuk kebutuhan Anda. BI Engine juga dapat bekerja dengan BI lain atau aplikasi dasbor kustom yang memerlukan respons waktu subdetik.

Modernisasi proses BI Anda dengan Looker

Looker adalah platform, perusahaan modern untuk BI, aplikasi data, dan analisis tersemat. Anda dapat membuat model data yang konsisten di atas data Anda dengan cepat dan akurat, dan Anda juga dapat mengakses data dalam transaksi dan datastore analitis. Looker juga dapat menganalisis data Anda di beberapa database dan clouds. Jika Anda memiliki proses BI dan alat yang sudah ada, kami merekomendasikan Anda untuk memodernisasi dan menggunakan platform terpusat seperti Looker

Referensi tambahan

Gunakan alat pengelolaan alur kerja

Analisis data melibatkan banyak proses dan layanan. Data bergerak melalui alat yang berbeda dan pemrosesan pipeline saat siklus proses analisis data Untuk mengelola dan mempertahankan data pipeline end-to-end, gunakan alur kerja alat manajemen yang sesuai. Cloud Composer adalah alat manajemen alur kerja yang terkelola berdasarkan open source project Apache Airflow.

Anda bisa menggunakan Cloud Composer untuk meluncurkan pipeline Dataflow dan untuk menggunakan Template Alur Kerja Dataproc. Cloud Composer juga dapat membantu Anda membuat pipeline CI/CD untuk menguji, menyinkronkan, dan men-deploy DAG atau menggunakan pipeline CI/CD untuk alur kerja pemrosesan data. Untuk informasi selengkapnya, tonton praktik terbaik Cloud Composer: Development .

Resource migrasi

Jika Anda telah menjalankan platform analisis data dan jika Anda ingin migrasi beberapa atau semua workload ke Google Cloud, tinjau referensi migrasi berikut untuk panduan dan praktik terbaik:

Langkah selanjutnya

Pelajari tentang praktik terbaik sistem desain untuk Google Cloud AI dan machine learning, termasuk hal berikut:

Pelajari kategori lain di dalam Framework Arsitektur seperti keandalan, keunggulan operasional dan keamanan, privasi, dan kepatuhan.