arrow_back

Dataflow: Qwik Start - Şablonlar

Join Sign in
Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

Dataflow: Qwik Start - Şablonlar

Lab 45 minutes universal_currency_alt 1 Credit show_chart Introductory
Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

GSP192

Google Cloud Rehbersiz Laboratuvarları

Genel bakış

Bu laboratuvarda Google'ın Cloud Dataflow şablonlarından birini kullanarak akış ardışık düzeni oluşturmayı öğreneceksiniz. Daha net açıklamak gerekirse "Cloud Pub/Sub'dan BigQuery'ye" şablonunu kullanacaksınız. Bu şablon, JSON biçiminde yazılmış mesajları Pub/Sub konusundan okuyarak BigQuery tablosuna aktarır. Bu şablonla ilgili belgeleri, Google tarafından sağlanan şablonlar için başlangıç kılavuzunda bulabilirsiniz.

BigQuery veri kümesi ve tablosunu oluşturmak için size Cloud Shell komut satırı veya Cloud Console'u kullanma seçeneği sunulacak. Kullanılacak bir yöntem seçip laboratuvarın geri kalan kısımlarında bu yöntemi kullanmaya devam edin. Her iki yöntemi de kullanmayı denemek istiyorsanız bu laboratuvara iki defa katılın.

Kurulum

Laboratuvarı Başlat düğmesini tıklamadan önce

Buradaki talimatları okuyun. Laboratuvarlar süreli olduğundan duraklatılamaz. Laboratuvarı Başlat'ı tıkladığınızda başlayan zamanlayıcı, Google Cloud kaynaklarının ne süreyle kullanımınıza açık durumda kalacağını gösterir.

Bu uygulamalı laboratuvarı kullanarak, laboratuvar etkinliklerini gerçek bir bulut ortamında (Simülasyon veya demo ortamında değil.) gerçekleştirebilirsiniz. Bu olanağın sunulabilmesi için size yeni, geçici kimlik bilgileri verilir. Bu kimlik bilgilerini laboratuvar süresince Google Cloud'da oturum açmak ve Google Cloud'a erişmek için kullanırsınız.

Bu laboratuvarı tamamlamak için şunlar gerekir:

  • Standart bir internet tarayıcısına erişim (Chrome Tarayıcı önerilir).
Not: Bu laboratuvarı çalıştırmak için tarayıcıyı gizli pencerede açın. Aksi takdirde, kişisel hesabınızla öğrenci hesabınız arasında oluşabilecek çakışmalar nedeniyle kişisel hesabınızdan ek ücret alınabilir.
  • Laboratuvarı tamamlamak için yeterli süre. (Laboratuvarlar, başlatıldıktan sonra duraklatılamaz)
Not: Kişisel bir Google Cloud hesabınız veya projeniz varsa bu laboratuvarda kullanmayın. Aksi takdirde hesabınızdan ek ücret alınabilir.

Laboratuvarınızı başlatma ve Google Cloud Console'da oturum açma

  1. Laboratuvarı Başlat düğmesini tıklayın. Laboratuvar için ödeme yapmanız gerekiyorsa ödeme yöntemini seçebileceğiniz bir pop-up açılır. Soldaki Laboratuvar Ayrıntıları panelinde şunlar yer alır:

    • Google Console'u Aç düğmesi
    • Kalan süre
    • Bu laboratuvarda kullanmanız gereken geçici kimlik bilgileri
    • Bu laboratuvarda ilerlemek için gerekebilecek diğer bilgiler
  2. Google Console'u Aç'ı tıklayın. Laboratuvar, kaynakları çalıştırır ve sonra Oturum aç sayfasını gösteren başka bir sekme açar.

    İpucu: Sekmeleri ayrı pencerelerde, yan yana açın.

    Not: Hesap seçin iletişim kutusunu görürseniz Başka Bir Hesap Kullan'ı tıklayın.
  3. Gerekirse Laboratuvar Ayrıntıları panelinden Kullanıcı adı'nı kopyalayın ve Oturum aç iletişim kutusuna yapıştırın. Sonraki'ni tıklayın.

  4. Laboratuvar Ayrıntıları panelinden Şifre'yi kopyalayın ve Hoş geldiniz iletişim penceresine yapıştırın. Sonraki'ni tıklayın.

    Önemli: Sol paneldeki kimlik bilgilerini kullanmanız gerekir. Google Cloud Öğrenim Merkezi kimlik bilgilerinizi kullanmayın. Not: Bu laboratuvarda kendi Google Cloud hesabınızı kullanabilmek için ek ücret ödemeniz gerekebilir.
  5. Sonraki sayfalarda ilgili düğmeleri tıklayarak ilerleyin:

    • Şartları ve koşulları kabul edin.
    • Geçici bir hesap kullandığınızdan kurtarma seçenekleri veya iki faktörlü kimlik doğrulama eklemeyin.
    • Ücretsiz denemelere kaydolmayın.

Birkaç saniye sonra Cloud Console bu sekmede açılır.

Not: Soldaki Gezinme menüsü'nü tıklayarak Google Cloud ürün ve hizmetlerinin listelendiği menüyü görüntüleyebilirsiniz. Gezinme menüsü simgesi

Cloud Shell'i etkinleştirme

Cloud Shell, çok sayıda geliştirme aracı içeren bir sanal makinedir. 5 GB boyutunda kalıcı bir ana dizin sunar ve Google Cloud üzerinde çalışır. Cloud Shell, Google Cloud kaynaklarınıza komut satırı erişimi sağlar.

  1. Google Cloud Console'un üst kısmından Cloud Shell'i etkinleştir Cloud Shell'i etkinleştir simgesi simgesini tıklayın.

Bağlandığınızda, kimliğiniz doğrulanmış olur. Proje ise PROJECT_ID'nize göre ayarlanmıştır. Çıkış, bu oturum için PROJECT_ID'yi tanımlayan bir satır içerir:

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud, Google Cloud'un komut satırı aracıdır. Cloud Shell'e önceden yüklenmiştir ve sekmeyle tamamlamayı destekler.

  1. (İsteğe bağlı) Etkin hesap adını şu komutla listeleyebilirsiniz:
gcloud auth list
  1. Yetkilendir'i tıklayın.

  2. Çıkışınız aşağıdaki gibi görünecektir:

Çıkış:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (İsteğe bağlı) Proje kimliğini şu komutla listeleyebilirsiniz:
gcloud config list project

Çıkış:

[core] project = <project_ID>

Örnek çıkış:

[core] project = qwiklabs-gcp-44776a13dea667a6 Not: gcloud ile ilgili tüm belgeleri, Google Cloud'daki gcloud CLI'ya genel bakış rehberinde bulabilirsiniz.

Dataflow API'nin yeniden etkinleştirildiğini doğrulama

Gerekli API'ye erişilebilmesi için Dataflow API bağlantısını yeniden başlatın.

  1. Cloud Console'un üst kısmındaki arama çubuğuna "Dataflow API" yazın. Listelenen sonuçlarda Dataflow API'yi tıklayın.

  2. Yönet'i tıklayın.

  3. API'yi devre dışı bırak'ı tıklayın.

Onaylamanız istenirse Devre dışı bırak'ı tıklayın.

  1. Etkinleştir'i tıklayın.

API tekrar etkinleştirildiğinde, sayfada devre dışı bırakma seçeneği gösterilir.

Tamamlanan görevi test etme

Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın.

Dataflow API'yi devre dışı bırakıp tekrar etkinleştirin.

1. görev: Cloud Shell'i kullanarak Cloud BigQuery veri kümesi ve tablosu oluşturma

Öncelikle BigQuery veri kümesi ve tablosu oluşturalım.

Not: Bu bölümde bq komut satırı aracı kullanılmaktadır. Bu laboratuvarda konsolu kullanarak ilerlemek istiyorsanız aşağıdaki bölüme geçin.
  1. taxirides adlı bir veri kümesi oluşturmak için aşağıdaki komutu çalıştırın:
bq mk taxirides

Elde ettiğiniz çıkış şuna benzer şekilde görünecektir:

Dataset '' successfully created

Tamamlanan görevi test etme

Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. BigQuery veri kümesi oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.

BigQuery veri kümesi oluşturun (veri kümesinin adı: taxirides).

Artık veri kümeniz oluşturulduğuna göre bir BigQuery tablosu örneklendirmek için aşağıdaki adımda bu veri kümesini kullanacaksınız.

  1. Bu işlemi yapmak için aşağıdaki komutu çalıştırın:
bq mk \ --time_partitioning_field timestamp \ --schema ride_id:string,point_idx:integer,latitude:float,longitude:float,\ timestamp:timestamp,meter_reading:float,meter_increment:float,ride_status:string,\ passenger_count:integer -t taxirides.realtime

Elde ettiğiniz çıkış şuna benzer şekilde görünecektir:

Table 'myprojectid:taxirides.realtime' successfully created

Tamamlanan görevi test etme

Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. BigQuery veri kümesinde tablo oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.

BigQuery veri kümesinde tablo oluşturun.

bq mk komutu ilk bakışta biraz karmaşık görünür. Ancak bu komutun ne anlama geldiğini çözmek için BigQuery komut satırı belgelerinden yardım alabiliriz. Örneğin, belgelerde şema hakkında daha fazla bilgi edinebiliriz.

  • Yerel JSON şema dosyasına veya sütun tanımlarının [FIELD]:[DATA_TYPE], [FIELD]:[DATA_TYPE] biçiminde virgülle ayrılmış listesine giden yoldur.

Bu durumda ikinci seçeneği, yani virgülle ayrılmış listeyi kullanıyoruz.

Cloud Storage paketi oluşturma

Artık tablomuzu örneklendirdiğimize göre bir paket oluşturalım.

Paket adının global olarak benzersiz olması için proje kimliğini kullanın:

  • Bu işlemi yapmak için şu komutları çalıştırın:
export BUCKET_NAME={{{project_0.project_id | "Bucket Name"}}} gsutil mb gs://$BUCKET_NAME/

Tamamlanan görevi test etme

Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. Cloud Storage paketi oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.

Cloud Storage paketi oluşturun.

Paketinizi oluşturduktan sonra sayfayı aşağı kaydırarak Ardışık düzeni çalıştırma bölümüne gidin.

2. görev: Cloud Console'u kullanarak Cloud BigQuery veri kümesi ve tablosu oluşturma

Not: Komut satırı kurulumunu yaptıysanız bu bölümü atlayın.
  1. Soldaki menüde, Büyük Veri bölümünden BigQuery'yi tıklayın.

  2. Ardından Bitti'yi tıklayın.

  3. Gezgin bölümünde proje adının yanındaki üç noktayı tıklayın, ardından Veri kümesi oluştur'u tıklayın.

  4. Veri kümesi kimliğiniz olarak taxirides değerini girin:

  5. Veri konumu için us (Amerika Birleşik Devletleri'nde birden fazla bölge) seçeneğini belirleyin.

  6. Diğer varsayılan ayarları değiştirmeden VERİ KÜMESİ OLUŞTUR'u tıklayın.

Tamamlanan görevi test etme

Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. BigQuery veri kümesi oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.

BigQuery veri kümesi oluşturun (veri kümesinin adı: taxirides).
  1. Soldaki konsolda, proje kimliğinin altında taxirides veri kümesini görüyor olmanız gerekir.

  2. taxirides veri kümesinin yanındaki üç noktayı tıklayıp 'ı seçin.

  3. Ardından, konsolun sağ tarafında TABLO OLUŞTUR'u seçin.

  4. Hedef > Tablo Adı kısmına realtime yazın.

  5. Şema bölümünde Metin olarak düzenle kaydırma çubuğunu açın ve aşağıdaki kodu girin:

ride_id:string,point_idx:integer,latitude:float,longitude:float,timestamp:timestamp, meter_reading:float,meter_increment:float,ride_status:string,passenger_count:integer

Konsolunuz aşağıdaki gibi görünecektir:

Tablo oluştur sayfası

  1. Şimdi Tablo oluştur'u tıklayın.

Tamamlanan görevi test etme

Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. BigQuery veri kümesinde tablo oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.

BigQuery veri kümesinde tablo oluşturun.

Cloud Storage paketi oluşturma

  1. Cloud Console'a dönüp Cloud Storage > Paketler > Paket oluştur adımlarını izleyin.

  2. Paket adının global olarak benzersiz olması için proje kimliğini kullanın:

  3. Diğer varsayılan ayarları değiştirmeden Oluştur'u tıklayın.

Tamamlanan görevi test etme

Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. Cloud Storage paketi oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.

Cloud Storage paketi oluşturun.

3. görev: Ardışık düzeni çalıştırma

Dataflow şablonunu dağıtın:

gcloud dataflow jobs run iotflow \ --gcs-location gs://dataflow-templates-{{{project_0.default_region | "Region"}}}/latest/PubSub_to_BigQuery \ --region {{{project_0.default_region | "Region"}}} \ --worker-machine-type e2-medium \ --staging-location gs://{{{project_0.project_id | "Bucket Name"}}}/temp \ --parameters inputTopic=projects/pubsub-public-data/topics/taxirides-realtime,outputTableSpec={{{project_0.project_id | "Table Name"}}}:taxirides.realtime

Google Cloud Console'da, gezinme menüsünde, Dataflow > İşler'i tıklayın. Dataflow işiniz gösterilir.

Daha fazla bilgi için lütfen belgeye göz atın.

Not: Etkinlik takibinin tamamlanması için bir dakika beklemeniz gerekebilir.

Tamamlanan görevi test etme

Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. Dataflow ardışık düzenini başarıyla çalıştırdıysanız bir değerlendirme puanı görürsünüz.

Ardışık düzeni çalıştırın.

Kaynaklarınızın oluşturulduğunu ve kullanıma hazır hale geldiğini görürsünüz.

Şimdiyse gezinme menüsünde BigQuery'yi tıklayarak BigQuery'ye yazılan verileri görüntüleyelim.

  • BigQuery kullanıcı arayüzü açıldığında proje adının altına taxirides veri kümesinin, onun altına da realtime tablosunun eklendiğini görürsünüz.
Not: Verilerin BigQuery tablosuna doldurulması için birkaç dakika beklemeniz gerekebilir.

4. görev: Sorgu gönderme

Sorguları standart SQL kullanarak gönderebilirsiniz.

  1. BigQuery Düzenleyici alanına, aşağıdaki kodu ekleyerek projenizdeki verilere sorgu gönderin.
SELECT * FROM `{{{project_0.project_id | "Bucket Name"}}}.taxirides.realtime` LIMIT 1000
  1. ÇALIŞTIR'ı tıklayın.

Herhangi bir sorun veya hatayla karşılaşırsanız sorguyu tekrar çalıştırın. Ardışık düzenin başlaması bir dakika sürebilir.

  1. Sorgu çalıştırıldığında, Sorgu Sonuçları panelinde aşağıdaki çıkışı görürsünüz:

Sorgu sonuçları sayfası

İyi iş çıkardınız! Pub/Sub konusundan 1.000 taksi yolculuğu çekip bunları BigQuery tablosuna aktardınız. Sizin de gördüğünüz gibi şablonlar, Dataflow işlerini çalıştırmanın pratik ve kullanımı kolay bir yoludur. Google tarafından sağlanan şablonlar için başlangıç kılavuzunu inceleyerek Dataflow belgelerindeki diğer Google şablonlarına da göz atmayı unutmayın.

5. görev: Öğrendiklerinizi test etme

Aşağıda, bu laboratuvarda ele alınan kavramlarla ilgili bilginizi pekiştirecek çoktan seçmeli sorular verilmiştir. Bu soruları elinizden geldiğince yanıtlamaya çalışın.

Tebrikler!

Görevinizi tamamlama

Bu yönlendirmesiz öğrenim laboratuvarı, Temel: Veri, ML, AI görevinin bir parçasıdır. Görevler, bir öğrenme rotasını oluşturan birbiriyle bağlantılı laboratuvar dizilerini ifade eder. Bir görevi tamamladığınızda başarınızın ödülü olarak rozet kazanırsınız. Rozetlerinizi herkese açık hale getirebilir ve rozetin bağlantısını online özgeçmişinizde veya sosyal medya hesabınızda paylaşabilirsiniz. Bu göreve veya bu laboratuvarı içeren herhangi bir göreve kaydolun ve tamamlama kredisini anında kazanın. Tüm mevcut görevleri görmek için Google Cloud Öğrenim Merkezi kataloğuna bakın.

Sonraki adımlar / Daha fazla bilgi

Bu laboratuvar, Qwik Starts laboratuvar serisinin bir parçasıdır. Bu laboratuvarlar, Google Cloud'daki pek çok özelliği biraz olsun tanıtabilmek için tasarlamıştır. Katılabileceğiniz bir sonraki laboratuvarı bulmak için Google Cloud Öğrenim Merkezi kataloğunda "Qwik Starts" araması yapın.

Google Cloud eğitimi ve sertifikası

...Google Cloud teknolojilerinden en iyi şekilde yararlanmanıza yardımcı olur. Derslerimizde teknik becerilere odaklanırken en iyi uygulamalara da yer veriyoruz. Gerekli yetkinlik seviyesine hızlıca ulaşmanız ve öğrenim maceranızı sürdürebilmeniz için sizlere yardımcı olmayı amaçlıyoruz. Temel kavramlardan ileri seviyeye kadar farklı eğitim programlarımız mevcut. Ayrıca, yoğun gündeminize uyması için talep üzerine sağlanan, canlı ve sanal eğitim alternatiflerimiz de var. Sertifikasyonlar ise Google Cloud teknolojilerindeki becerilerinizi ve uzmanlığınızı doğrulamanıza ve kanıtlamanıza yardımcı oluyor.

Kılavuzun Son Güncellenme Tarihi: 10 Kasım 2023

Laboratuvarın Son Test Edilme Tarihi: 10 Kasım 2023

Telif Hakkı 2024 Google LLC Tüm hakları saklıdır. Google ve Google logosu, Google LLC şirketinin ticari markalarıdır. Diğer tüm şirket ve ürün adları ilişkili oldukları şirketlerin ticari markaları olabilir.