Mulai menggunakan container deep learning lokal

Halaman ini menjelaskan cara membuat dan menyiapkan container deep learning lokal. Panduan ini mengharapkan Anda memiliki pengetahuan dasar tentang Docker.

Sebelum memulai

Selesaikan langkah-langkah berikut untuk menyiapkan akun Google Cloud, mengaktifkan API yang diperlukan, serta menginstal dan mengaktifkan software yang diperlukan.

  1. Di Konsol Google Cloud, buka halaman Manage resources dan pilih atau buat project.

    Buka Manage resources

  2. Instal dan lakukan inisialisasi gcloud CLI.

  3. Menginstal Docker.

    Jika Anda menggunakan sistem operasi berbasis Linux, seperti Ubuntu atau Debian, tambahkan nama pengguna ke grup docker agar Anda dapat menjalankan Docker tanpa menggunakan sudo:

    sudo usermod -a -G docker ${USER}
    

    Anda mungkin perlu memulai ulang sistem setelah menambahkan diri Anda ke grup docker.

  4. Buka Docker. Untuk memastikan Docker berjalan, jalankan perintah Docker berikut, yang menampilkan waktu dan tanggal saat ini:

    docker run busybox date
    
  5. Gunakan gcloud sebagai helper kredensial untuk Docker:

    gcloud auth configure-docker
    
  6. Opsional: Jika Anda ingin menjalankan penampung menggunakan GPU secara lokal, instal nvidia-docker.

Membuat penampung

Ikuti langkah-langkah berikut untuk membuat penampung.

  1. Untuk melihat daftar penampung yang tersedia:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Sebaiknya buka Memilih penampung untuk membantu memilih penampung yang Anda inginkan.

  2. Jika Anda tidak perlu menggunakan penampung yang mendukung GPU, masukkan contoh kode berikut. Ganti tf-cpu.1-13 dengan nama penampung yang ingin Anda gunakan.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Jika Anda ingin menggunakan penampung yang mendukung GPU, masukkan contoh kode berikut. Ganti tf-gpu.1-13 dengan nama penampung yang ingin Anda gunakan.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Perintah ini memulai container dalam mode terpisah, memasang direktori lokal /path/to/local/dir ke /home/jupyter dalam container, dan memetakan port 8080 di container ke port 8080 di mesin lokal Anda. Penampung telah dikonfigurasi untuk memulai server JupyterLab, yang dapat Anda kunjungi di http://localhost:8080.

Langkah selanjutnya