Masa depan data akan bersifat terpadu, fleksibel, dan mudah diakses

Perusahaan dan startup teknologi belajar bahwa untuk menjadi sukses:

- Data harus terpadu di seluruh perusahaan, dan bahkan di kalangan pemasok dan partner. Artinya, perusahaan perlu menyusun data yang tidak terstruktur dan mengurai silo teknologi dan organisasi.

- Technology stack perusahaan harus cukup fleksibel untuk mendukung kasus penggunaan yang berkisar dari analisis data offline hingga machine learning yang berjalan secara real-time.

- Stack tersebut juga harus dapat diakses dari mana saja di seluruh dunia serta harus mendukung berbagai macam platform, bahasa pemrograman, alat, dan standar terbuka.

Alasan memanfaatkan data secara maksimal bisa menjadi keunggulan kompetitif

Semua orang menyadari bahwa data sangatlah penting, tetapi hanya segelintir perusahaan yang dapat mengolah insight pelanggan dan bisnis yang inovatif dari datanya. Apa yang dimaksud dengan mendapatkan hasil yang maksimal dari data Anda? Mengapa hal tersebut merupakan sebuah tantangan?

Jika Anda memaksimalkan data, artinya Anda dapat membuat keputusan terkait produk dan operasi dengan data. Tanyakan pada diri sendiri beberapa pertanyaan berikut. Tahukah Anda bahwa ekspektasi pelanggan terus berubah? Apakah Anda menggunakan data untuk meningkatkan pengalaman pelanggan? Terkait tantangan ini, tanyakan pada diri sendiri apa hal yang sedang ditangani oleh data engineer dan data scientist Anda saat ini?

Data sangatlah penting untuk memberikan pengalaman pengguna dan produk yang inovatif bersama dengan keputusan pemilihan pasar (go-to-market) yang luas. Memanfaatkan data dengan tepat dapat memberikan keunggulan kompetitif yang signifikan. Inilah sebabnya sebagian besar startup dan perusahaan teknologi sedang dalam tekanan yang sangat besar untuk memodernisasi dan beroperasi dalam skala yang makin membesar, menyesuaikan biaya data saat ini dan masa mendatang, serta meningkatkan kualitas pengambilan keputusan dan kematangan organisasi.

Namun, ada tantangan seputar akses, penyimpanan, penggunaan alat yang tidak konsisten, kepatuhan, dan keamanan yang mempersulit penemuan dan pemanfaatan nilai sebenarnya dari data Anda. 

Mungkin Anda menggunakan sistem lama yang ingin Anda coba kombinasikan dengan sistem baru. Apakah semua data Anda harus berada di satu cloud? Atau haruskah data tersebut didistribusikan ke beberapa cloud? Bagaimana cara Anda memodernisasi stack analisis (yang secara historis telah diintegrasikan secara vertikal) agar dapat bekerja dengan platform yang dapat diskalakan secara horizontal?

Atau, mungkin Anda membuat batch atau micro batch dari data saat ini alih-alih memprosesnya secara real time. Sistem orkestrasi dan penjadwalan yang dihasilkan menambahkan kerumitan ke arsitektur Anda dan memerlukan pemeliharaan agar tidak terjadi pertentangan dan tahan lama. Overhead operasi dari mengelola dan menangani arsitektur batch sangatlah mahal, dan Anda masih akan menemukan latensi data.

Anda akan sangat dirugikan jika Anda tidak dapat mengakses semua data dengan mudah serta tidak dapat memproses dan menganalisisnya. Stack teknologi modern harus berupa stack streaming yang mengikuti skala data Anda, menggunakan data terbaru yang tersedia, dan menggabungkan serta memahami data yang tidak terstruktur. Selain itu, tim analisis paling canggih telah mengalihkan fokus mereka dari operasi ke tindakan dengan menggunakan AI/ML untuk bereksperimen dan mengoperasionalkan proses.

Cara menyesuaikan data dengan kebutuhan Anda sehingga Anda dapat fokus berinovasi

Apa artinya data yang sesuai? Data yang sesuai adalah data yang dapat meningkatkan pengalaman pelanggan, menjangkau pelanggan baru, dan meningkatkan pendapatan Anda. Secara umum, hal ini berkaitan dengan kemampuan untuk berinovasi. Kami merekomendasikan dua prinsip dalam memilih platform data yang akan membantu Anda mencapai hasil tersebut.

Prinsip 1: Kemudahan dan skalabilitas

Anda mungkin memiliki banyak data yang dapat dimanfaatkan sekarang. Mungkin data tersebut meningkat drastis dan Anda ingin mengelola atau meningkatkan ROI sambil mengimbangi volume. Mungkin Anda mengantisipasi jumlah data yang akan Anda miliki pada masa mendatang (misalnya satu terabyte) dan merancang sistem untuk memproses data tersebut sambil mempertimbangkan untuk memigrasikan sistem secara menyeluruh jika pertumbuhan data tersebut melampaui ekspektasi Anda. Atau mungkin Anda telah memilih data warehouse yang dapat disesuaikan dengan pertumbuhan yang Anda harapkan, tetapi kebutuhan pemrosesan yang meningkat membuatnya sulit untuk dikelola.

Sistem yang lebih kecil umumnya lebih mudah dikelola. Namun, Anda tidak lagi punya pilihan untuk menggunakan sistem yang mudah digunakan atau sistem yang sangat skalabel. Menggunakan arsitektur tanpa server menghilangkan kebutuhan pengelolaan cluster dan memberi Anda kemampuan untuk menangani komputasi dan penyimpanan dalam skala besar, sehingga Anda tidak perlu lagi khawatir akan ukuran data yang melebihi kapasitas teknis Anda.

Untuk kemudahan dan skalabilitas, kami merekomendasikan platform data tanpa server. Sebaiknya buang opsi yang mengharuskan Anda menginstal software, mengelola cluster, atau menyesuaikan kueri.

Prinsip 2: Fleksibilitas dan penghematan biaya

Semua sistem manajemen data yang menggabungkan komputasi dan penyimpanan akan mengharuskan Anda untuk meningkatkan skala komputasi guna menangani peningkatan volume data, meskipun Anda tidak memerlukannya. Hal ini dapat menghabiskan banyak biaya, dan Anda hanya dapat menyimpan data selama dua belas bulan di warehouse analisis Anda. Anda mungkin juga memilih untuk tidak menyertakan data karena Anda tidak memiliki kasus penggunaan yang mendesak, dan mendapati bahwa Anda tidak dapat menguji sebuah hipotesis di kemudian hari karena data tidak tersedia dan memerlukan pipeline baru untuk memulainya.

Sistem lain memberikan solusi yang tanggung, Anda dapat melakukan penskalaan dan membayar komputasi dan penyimpanan secara independen, tetapi Anda masih harus menyiapkan, menskalakan, dan mengoptimalkan cluster secara manual. Untuk mengurangi pengelolaan infrastruktur sebanyak mungkin, pertimbangkan data warehouse multicloud serverless dengan keandalan, performa, dan perlindungan data bawaan yang lebih baik (misalnya BigQuery).

Selain biaya dan pengelolaan, Anda juga perlu mempertimbangkan fleksibilitas. Saat data berubah, berapa lama waktu yang Anda perlukan untuk menyadari dan menanganinya? Saat versi baru dari beberapa software atau alat yang Anda gunakan tersedia, berapa lama waktu yang Anda perlukan untuk beradaptasi dengan kemampuan barunya? Untuk mendapatkan fleksibilitas yang lebih baik, Anda perlu memilih alat fleksibel yang hanya memerlukan sedikit penanganan dan dapat diterapkan ke berbagai beban kerja.

Kueri pada sistem seperti Redshift harus dioptimalkan agar dapat efisien. Hal ini membatasi jumlah eksperimen yang dapat Anda lakukan, sehingga Anda hanya dapat mengekstrak dan mengambil data saat menduga adanya masalah. Tidak tersedianya opsi untuk memisah komputasi/penyimpanan dan kebutuhan untuk mengoptimalkan data warehouse akan membatasi Anda.

Dengan data warehouse seperti BigQuery, Anda tidak perlu merencanakan kueri terlebih dahulu atau mengindeks set data. Pemisahan penyimpanan dan komputasi memungkinkan Anda menyimpan data tanpa khawatir hal tersebut akan meningkatkan biaya kueri Anda, dan para data scientist dapat bereksperimen tanpa perlu mengkhawatirkan cluster atau ukuran data warehouse untuk mencoba ide-ide baru melalui kueri ad-hoc.

Kita telah mempelajari bagaimana platform yang simpel, skalabel, fleksibel, dan hemat biaya memudahkan Anda melakukan inovasi. Sekarang kita akan membahas bagaimana data Anda dapat membantu mewujudkan inovasi ini.

Mengambil keputusan yang didukung data secara real time

Operasi bisnis terus melaju kencang. Ekspektasi pelanggan juga berubah. Setelah Anda dapat menyelesaikan transaksi atau menyetujui pengembalian dalam tiga hari, kini Anda harus segera memberikan jawaban. Pengambilan keputusan yang lebih cepat dan tepat waktu menghasilkan peningkatan kebutuhan untuk streaming.

Anda ingin dapat mengambil data secara real time dan menyediakan data untuk pembuatan kueri berlatensi rendah oleh tim bisnis Anda. Anda juga ingin memastikan pipeline streaming Anda mudah diskalakan, tangguh, dan memiliki overhead pengelolaan yang rendah. Ini satu-satunya cara tim Anda dapat memberikan respons secara real time untuk mengimbangi kecepatan bisnis Anda. Tidak mengejutkan bahwa BigQuery memiliki dukungan native untuk menyerap data streaming dan segera menyediakan data untuk dianalisis menggunakan SQL. Selain Streaming API BigQuery yang mudah digunakan, Dataflow memungkinkan Anda mengelola beban kerja musiman dan naik-turun tanpa perlu pengeluaran berlebihan.

Mengurai silo data

Banyak organisasi akhirnya membuat silo data karena menyimpan data secara terpisah di beberapa departemen dan unit bisnis, dan setiap tim memiliki data mereka sendiri. Artinya, kapan pun Anda ingin melakukan analisis yang mencakup departemen, Anda harus memahami cara mengurai silo tersebut, mungkin dengan menjalankan pipeline ekstraksi (ETL) untuk memperoleh data dan menempatkannya dalam data warehouse. Namun, departemen yang memiliki data sering kali menerima sedikit insentif untuk mempertahankan pipeline tersebut. Lama-kelamaan, data ini menjadi kedaluwarsa dan data yang ditempatkan menjadi kurang berguna dan lebih usang.

Selain silo organisasi, banyak perusahaan kini menggunakan strategi multicloud berdasarkan preferensi departemen, penyesuaian kemampuan, dan tekanan regulasi. Perusahaan ini sering kali juga menangani realitas data lake lama dan investasi data warehouse yang ada di sistem lokal. Realitas hybrid cloud dan multi-cloud memerlukan metode yang lebih canggih dalam mengelola dan mengakses data terpisah.

Beralih ke warehouse yang terdistribusi dengan panel kontrol umum, yang terkadang disebut data fabric atau mesh data, akan meningkatkan kemampuan Anda untuk mengakses data berkualitas tinggi di beberapa departemen, cloud, dan sistem lokal. Hal ini dapat menyelesaikan masalah bisnis seperti performa produk atau perilaku pelanggan, dan mendukung Anda untuk mengkueri data sambil jalan.

BigQuery memberikan dasar-dasar teknologi dari mesh data tersebut. Pengguna di organisasi Anda dapat mengelola, mengamankan, mengakses, dan membagikan insight serta aset data, terlepas dari pemilik data di organisasi. Misalnya, Anda dapat menempatkan semua data Anda di BigQuery dan menyediakan fungsi yang dapat digunakan kembali, tampilan terwujud, dan bahkan kemampuan untuk melatih model ML tanpa pemindahan data apa pun. Artinya, bahkan pakar domain nonteknis (dan partner serta pemasok yang memiliki izin) dapat mengakses dan menggunakan SQL dengan mudah untuk mengkueri data menggunakan alat familier seperti spreadsheet dan dasbor.

Analogi "poros dan jari-jari" sangat sesuai untuk menggambarkannya. BigQuery adalah poros yang berisi data Anda. Jari-jarinya adalah alat pelaporan, dasbor, model ML, aplikasi web, sistem rekomendasi, dan lain-lain, semuanya membaca data secara live dari BigQuery tanpa harus menyalinnya. Misalnya, Looker membantu Anda memvisualisasikan data dan mengintegrasikannya ke alur kerja harian pengguna. Dengan pendekatan ini, Anda dapat meningkatkan kegunaan, keamanan, dan kualitas data Anda secara bersamaan.

Mempermudah akses ke semua data Anda

Selama ini, data tak terstruktur dan semi-terstruktur dilayani secara maksimal oleh data lake, sedangkan data terstruktur paling cocok di data warehouse. Pemisahan ini menyebabkan silo teknologi yang mempersulit proses pembagian format. Sebaiknya Anda menyimpan semua data di data lake karena lebih terjangkau dan mudah untuk dikelola, lalu memindahkan data ke warehouse sehingga Anda dapat menggunakan alat analisis untuk mengambil insight.

"Lake house" yang kian populer ini menggabungkan kedua dunia ini menjadi sebuah lingkungan terpadu untuk semua jenis data. Anda dapat menggunakan BigQuery sebagai data warehouse dan data lake Anda. Dengan Storage API BigQuery, Anda dapat langsung mengakses penyimpanan untuk mendukung beban kerja yang biasanya dikaitkan dengan data lake. Karena data dapat disimpan di BigQuery sebagai satu sumber tepercaya, ada lebih sedikit salinan yang perlu dibuat dan dikelola. Sebagai gantinya, Anda dapat menjalankan pemrosesan downstream melalui transformasi SQL yang disimpan dalam tampilan logis tanpa harus memindahkan data.

Masalah kemudahan penggunaan — jika Anda bisa mendapatkan hasil dari kueri dalam 30 detik, alih-alih 30 menit atau 3 jam, Anda akan cenderung lebih memaksimalkan penggunaan data dalam pengambilan keputusan Anda.

Menggunakan AI/ML untuk melakukan eksperimen secara cepat dan mengoperasionalkan beban kerja

Seberapa cepat data scientist Anda dapat melakukan eksperimen? Mereka berpotensi harus menghentikan pengembangan dan mengoperasionalkan model untuk mengevaluasi eksperimen mereka dengan pengguna nyata. Mereka melakukan pengembangan dan iterasi pada model menggunakan data historis sebelum menyerahkan model kepada engineer, yang sering kali menulis ulang sepenuhnya untuk memasukkannya ke dalam sistem produksi serta menjalankan pengujian A/B. Kemudian mereka menunggu, melakukan iterasi pada model, dan memproduksinya lagi. Siklus ini mencakup banyak aktivitas periodik dan penulisan ulang kode dengan semua koordinasi yang diperlukan antartim yang menginformasikan error di sepanjang prosesnya. Data scientist Anda tidak bereksperimen sebanyak mungkin karena perlu waktu yang lama untuk melakukan eksperimen dengan cara ini. Hal ini mempersulit prediksi durasi pengerjaan dan berhasil atau tidaknya project, apalagi memprediksi lama waktu yang diperlukan project tersebut untuk digunakan secara rutin. Untuk mengatasinya, Anda harus menyediakan alat yang canggih dan familier kepada data scientist. Vertex AI Workbench memungkinkan data scientist bekerja secara efektif di notebook Jupyter, dengan pelatihan yang diakselerasi, eksperimen yang singkat, dan deployment yang singkat.

Jika serius melakukan diferensiasi berdasarkan data, Anda perlu mengambil nilai tertinggi yang bisa diperoleh dari data yang dikumpulkan. Untuk melakukannya, Anda perlu membuat tim data science menjadi seproduktif mungkin dan tidak melewatkan kesempatan untuk mem-build model karena bahkan hal yang simpel memerlukan waktu yang sangat lama atau terlalu sulit untuk dilakukan. 

Kualitas model yang telah di-build sebelumnya dan minim kode sangatlah penting. AutoML di Vertex AI menyediakan model AI terbaik di kelasnya di lingkungan no-code, yang memungkinkan pembuatan prioritas dan tolok ukur yang cepat. Memiliki model yang di-build sebelumnya seperti Entity Extraction atau Vertex AI Matching Engine di data Anda sendiri akan mempercepat pembuatan nilai dari data secara signifikan. Anda tidak lagi terbatas pada klasifikasi atau regresi saja.

Kunci untuk mempertahankan kelincahan data Anda adalah melakukan eksperimen menyeluruh lebih awal dan lebih sering. Vertex AI Pipelines memberi Anda histori eksperimen yang memungkinkan Anda melihat kembali, membandingkan tolok ukur dan endpoint, serta melakukan pengujian A/B dengan model bayangan. Karena kode tersebut berada dalam kontainer, kode yang sama dapat digunakan antara sistem produksi dan pengembangan. Pekerjaan data scientist dilakukan di Python dan engineer produksi mendapatkan kontainer yang dienkapsulasi sepenuhnya. Kedua tim dapat melakukan standardisasi dengan mengoperasionalkan model melalui Vertex AI Prediction dan Anda dapat bergerak dengan cepat.

Pakar domain sering kali menggunakan BigQuery ML untuk menguji kelayakan ide dengan melatih model kustom hanya menggunakan SQL tanpa memerlukan pengalaman tambahan dengan alat data science tradisional. Artinya, Anda dapat bereksperimen dalam sistem yang mirip dengan sistem produksi dan menjalankan pengkajian kelayakan dalam hitungan hari, bukan dalam beberapa bulan. Model BigQuery ML dapat di-deploy ke Vertex AI untuk semua keuntungan yang baru saja kita bahas. Anda dapat menggunakan Looker untuk membuat model data yang konsisten di atas semua data dan menggunakan LookML untuk mengkueri data. Ini berarti, semua orang dalam organisasi dapat membuat laporan dan dasbor yang mudah dibaca untuk mempelajari pola data.

Untuk meningkatkan nilai nyata dalam produksi, sistem harus mampu menyerap, memproses, dan menyalurkan data, serta machine learning harus mendorong layanan yang dipersonalisasi secara real time berdasarkan konteks pelanggan. Namun, penerapan produksi yang berjalan secara terus-menerus menuntut model dilatih ulang, di-deploy, dan diperiksa keamanannya secara terus-menerus. Data yang masuk memerlukan pemrosesan sebelumnya dan validasi untuk memastikan tidak ada masalah kualitas, yang diikuti rekayasa fitur dan pelatihan model dengan penyempurnaan hyperparameter.

Machine learning dan data science terintegrasi sangat penting untuk melakukan orkestrasi dan mengelola alur kerja ML multifase ini dengan mudah dan untuk menjalankannya secara andal dan berulang kali. Alat MLOps dan alur kerja otomatis memungkinkan continuous delivery secara cepat serta menyederhanakan pengelolaan model ke produksi. Terdapat kosakata dan alur kerja tunggal untuk semua produk AI kami terlepas dari lapisan abstraksi, dan Anda dapat menukar model kustom dan AutoML dengan mudah karena model tersebut memanfaatkan format dan fondasi teknis yang sama.

Misalnya, bagaimana jika Anda ingin menerapkan deteksi anomali ke aliran data live tanpa batas untuk memberantas penipuan? Dengan pendekatan yang tepat, Anda akan membuat aliran data sampel untuk menyimulasikan traffic jaringan umum dan menyerapnya ke Pub/Sub, kemudian membuat dan melatih model deteksi anomali di BigQuery menggunakan pengklusteran K-means BigQuery ML setelah menyamarkan informasi identitas pribadi (PII) menggunakan DLP. Kemudian, Anda akan menerapkan model ke data live untuk deteksi real-time menggunakan Dataflow dan akan menggunakan Looker untuk membuat dasbor, pemberitahuan, dan tindakan guna menangani peristiwa yang diidentifikasi.

Alasan pentingnya memilih opsi data warehouse yang lengkap

Kita telah membahas BigQuery dan Redshift, tetapi opsi data warehouse yang tersedia tidak hanya dua hal tersebut. Masih ada produk analisis data lain (seperti Snowflake dan Databricks) yang berfungsi di ketiga cloud utama. Jadi jika Anda memilih BigQuery, apakah ketergantungan pada cloud akan menjadi suatu masalah?

Pertama-tama, BigQuery tidak membatasi Anda untuk hanya menganalisis data yang tersimpan di Google Cloud. BigQuery Omni memungkinkan Anda untuk secara lancar mengkueri data Anda di Amazon S3 dan Azure Blob Storage dari konsol Google Cloud.

Faktanya, meskipun jika Anda menggunakan Snowflake atau Databricks, biaya peralihan dari AWS ke Google Cloud atau sebaliknya akan lebih rendah. Namun, bagaimana dengan biaya untuk beralih ke data warehouse lain? Bagaimana jika Anda ingin beralih dari Snowflake ke BigQuery, atau dari Databricks ke EMR? Anda masih harus menanggung biaya peralihan, yang berbeda hanyalah skenarionya.

Karena biaya peralihan tidak dapat dihindari, Anda akhirnya ingin memilih alat atau platform yang akan berfungsi dalam jangka panjang. Anda membuat keputusan berdasarkan fitur yang membedakan suatu platform, biaya saat ini, dan tren pengembangan yang menunjukkan penambahan inovasi di masa depan. Jika memilih Snowflake, Anda berharap pada sebuah perusahaan yang berfokus ke data warehousing untuk memberikan inovasi yang lebih cepat dalam platformnya. Jika memilih BigQuery, Anda bergantung pada sebuah perusahan yang terkenal karena menemukan banyak teknologi data dan AI untuk terus berinovasi di seluruh platformnya.

Kami percaya bahwa sebuah platform yang inovatif dan terintegrasi dengan baik akan lebih efektif dalam menggerakkan roda inovasi. Ketika penawaran layanan terkelola seperti Google Kubernetes Engine (GKE) memuat image container dengan lebih cepat, Serverless Spark akan berfungsi lebih baik, dan karena Serverless Spark dapat beroperasi pada data in BigQuery, maka BigQuery menjadi lebih berharga bagi Anda. Roda inovasi akan berputar lebih cepat jika Anda berinvestasi pada sebuah platform, bukan pada produk individu.

Cara menghadapi perjalanan migrasi data Anda dengan percaya diri

Berapa lama proses migrasi data Anda berlangsung? Enam bulan? Dua tahun? Berapa banyak upaya yang diperlukan, dan apakah semuanya itu sebanding?

Jika Anda bermigrasi dari satu cloud ke cloud lainnya, kemungkinan itu akan lebih mudah daripada bermigrasi dari infrastruktur lokal ke cloud, sebab biasanya Anda akan lebih menguasai teknologi lokal. Terlepas dari hal itu, fokuslah pada sasaran Anda, yang biasanya adalah "Seberapa cepat saya dapat berinovasi?"

Bayangkan semua hal inovatif yang ingin Anda lakukan yang saat ini belum terlaksana, lalu siapkan project baru dan transfer data yang Anda butuhkan untuk menyelesaikannya. Kami dapat membantu Anda membangun kasus penggunaan baru seperti itu dan menyediakan pencerminan sumber data yang akan Anda butuhkan. Untuk sementara, Anda akan berada dalam lingkungan hybrid, tempat banyak kasus penggunaan berjalan secara lokal, tetapi didukung oleh data yang dicerminkan secara real time atau dalam batch dari lingkungan lokal Anda atau penyedia cloud Anda yang lain.

Pertimbangan kedua Anda adalah seputar biaya. Perhatikan instance Teradata yang sangat mahal dan sedang Anda jalankan ini. Kami melihat pelanggan menghemat separuh biaya dengan beralih ke BigQuery, dan migrasi ini lebih mudah dari sebelumnya berkat alat penilaian otomatis serta transpiler SQL otomatis yang mengonversi sebagian besar skrip Anda. Kami memiliki banyak cara untuk melakukan virtualisasi sehingga klien Anda mengira bahwa mereka menggunakan Teradata padahal mereka sedang menggunakan BigQuery. Ada banyak cara bagi kami untuk membantu Anda bermigrasi tanpa perlu melakukan penonaktifan. Anda dapat menggunakan alat migrasi untuk beralih dari beban kerja Teradata dan Hadoop Anda yang berbiaya tinggi. 

Pertimbangan ketiga adalah seputar sistem ERP, seperti SAP, sistem Salesforce, dan Oracle. Jika ingin mengoptimalkan supply chain Anda, menjalankan penilaian prospek, atau mendeteksi penipuan, Anda perlu menghubungkan beban kerja analisis ke sistem ERP Anda. Ada sejumlah konektor pihak ketiga yang dapat kami gunakan untuk mendapatkan data dari sistem tersebut, yang kemudian dapat digunakan untuk membuat kasus penggunaan modern berbasis AI pada data tersebut di cloud.

Urutan langkah-langkah yang perlu diikuti bergantung pada situasi Anda. Jika Anda adalah startup, sebaiknya mulai dengan inovasi, beralih ke pengoptimalan biaya, dan akhirnya memanfaatkan pipeline serta konektor yang ada. Jika bisnis Anda sangat bergantung pada supply chain, sebaiknya mulai dengan konektor ERP. Mana pun yang dilakukan terlebih dahulu, Anda akan sama-sama memindahkan sejumlah besar estate data yang berharga ke dalam cloud. Setelah itu, perhatikan hal lain dan pertimbangkan apakah beralih adalah keputusan yang sepadan bagi Anda. Sering kali, jawabannya adalah tidak Setelah memindahkan 70%–80% beban kerja yang benar-benar penting, Anda akan perlu mulai membuat keputusan yang sulit. Anda harus menentukan apakah 20%–30% sisanya patut untuk dimigrasikan, atau sebaiknya mempertimbangkan untuk menulis ulang atau mengerjakan tugas dengan cara lain? Sebaiknya hindari peralihan total apa adanya ke cloud, jika tidak, Anda hanya akan mereplikasi semua kekurangan teknologi yang sebelumnya ada di lokal ke dalam lingkungan cloud baru, alih-alih berfokus pada nilai data.

Bacaan lebih lanjut

Kami telah banyak membahas cara memanfaatkan data Anda dan makna riil dibaliknya, serta beberapa pertimbangan yang mungkin Anda hadapi ketika memigrasikan ke data warehouse di cloud.

Untuk mempelajari lebih lanjut cara Google Cloud dapat membantu Anda menggunakan insight untuk mendapatkan keuntungan signifikan, membantu perusahaan Anda menghemat biaya, dan meningkatkan produktivitas dengan mengoptimalkan penggunaan data serta AI, silakan hubungi kami.

Referensi lainnya

Siap untuk mengambil langkah berikutnya?

Pelajari lebih lanjut cara Google Cloud dapat membantu mengoptimalkan penggunaan data dan AI.
Google Cloud Next '21: Data Cloud: Bertransformasi dengan platform data universal.

Isi formulir dan kami akan menghubungi Anda. Lihat formulir