Python クライアント ライブラリ v0.25.1 への移行

Python v0.25.1 用のクライアント ライブラリでは、以前のクライアント ライブラリの設計方法にいくつかの重要な変更が加えられています。この変更を、次にまとめます。

  • モジュールを統合して型の数を少なくした

  • 型指定なしのパラメータを、厳密に型指定されたクラスと列挙型に置き換えた

このトピックでは、v0.25.1 Python クライアント ライブラリを使用するために、Cloud Vision API クライアント ライブラリの Python コードに加える必要のある変更について詳しく説明します。

クライアント ライブラリの旧バージョンの実行

Python クライアント ライブラリを v0.25.1 にアップグレードする必要はありません。Python クライアント ライブラリの旧バージョンを引き続き使用し、コードを移行しない場合は、アプリで使用する Python クライアント ライブラリのバージョンを指定する必要があります。ライブラリの特定バージョンを指定するには、requirements.txt ファイルを以下のように編集します。

google-cloud-vision==0.25

削除されたモジュール

以下のモジュールは、Python Client Library v0.25.1 パッケージで削除されました。

  • google.cloud.vision.annotations

  • google.cloud.vision.batch

  • google.cloud.vision.client

  • google.cloud.vision.color

  • google.cloud.vision.crop_hint

  • google.cloud.vision.entity

  • google.cloud.vision.face

  • google.cloud.vision.feature

  • google.cloud.vision.geometry

  • google.cloud.vision.image

  • google.cloud.vision.likelihood

  • google.cloud.vision.safe_search

  • google.cloud.vision.text

  • google.cloud.vision.web

必要なコードの変更

インポート

Python クライアント ライブラリ v0.25.1 の新しい型にアクセスするには、新しい google.cloud.vision.types モジュールをインクルードします。

types モジュールには、リクエストを作成するために必要な新しいクラス(types.Image など)が含まれています。

from google.cloud import vision
from google.cloud.vision import types

さらに、新しい google.cloud.vision.enums モジュールには、API レスポンスの解析と理解に役立つ列挙(enums.Likelihood.UNLIKELYenums.FaceAnnotation.Landmark.Type.LEFT_EYE など)が含まれています。

クライアントの作成

Client クラスは、ImageAnnotatorClient クラスに置き換えられました。Client クラスへの参照は、ImageAnnotatorClient で置き換えてください。

クライアント ライブラリの旧バージョン:

old_client = vision.Client()

Python クライアント ライブラリ v0.25.1:

client = vision.ImageAnnotatorClient()

画像コンテンツを表すオブジェクトの作成

ローカル ファイル、Google Cloud Storage URI、またはウェブ URI から画像コンテンツを指定するには、新しい Image クラスを使用します。

ローカル ファイルからの画像コンテンツを表すオブジェクトの作成

以下の例は、ローカル ファイルからの画像コンテンツを表す新しい方法を示しています。

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

URI からの画像コンテンツを表すオブジェクトの作成

次の例は、Google Cloud Storage URI またはウェブ URI からの画像コンテンツを表す新しい方法を示しています。uri は Google Cloud Storage またはウェブ上の画像ファイルの URI です。

クライアント ライブラリの旧バージョン:

image = old_client.image(source_uri=uri)

Python クライアント ライブラリ v0.25.1:

image = vision.types.Image()
image.source.image_uri = uri

リクエストの作成とレスポンスの処理

Python クライアント ライブラリ v.0.25.1 では、face_detection などの API メソッドは Image オブジェクトではなく ImageAnnotatorClient オブジェクトに属しています。

以下に説明されているように、いくつかのメソッドでは戻り値が異なります。

特に、境界ボックスの頂点は、bounds.vertices ではなく bounding_poly.vertices に格納されるようになりました。各頂点の座標は vertex.x_coordinatevertex.y_coordinate ではなく vertex.xvertex.y に格納されます。

境界ボックスの変更は、face_detectionlogo_detectiontext_detectiondocument_text_detectioncrop_hints に影響します。

顔検出リクエストの作成とレスポンスの処理

感情の可能性レベルは、face.emotions.surprise ではなく face.surprise_likelihood に格納された列挙型として返されるようになりました。推測ラベルの名前を回復するには、google.cloud.vision.enums.Likelihood をインポートできます。

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

faces = image.detect_faces()

for face in faces:
    print('anger: {}'.format(face.emotions.anger))
    print('joy: {}'.format(face.emotions.joy))
    print('surprise: {}'.format(face.emotions.surprise))

    vertices = (['({},{})'.format(bound.x_coordinate, bound.y_coordinate)
                for bound in face.bounds.vertices])

    print('face bounds: {}'.format(','.join(vertices)))

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

response = client.face_detection(image=image)
faces = response.face_annotations

# Names of likelihood from google.cloud.vision.enums
likelihood_name = ('UNKNOWN', 'VERY_UNLIKELY', 'UNLIKELY', 'POSSIBLE',
                   'LIKELY', 'VERY_LIKELY')
print('Faces:')

for face in faces:
    print('anger: {}'.format(likelihood_name[face.anger_likelihood]))
    print('joy: {}'.format(likelihood_name[face.joy_likelihood]))
    print('surprise: {}'.format(likelihood_name[face.surprise_likelihood]))

    vertices = (['({},{})'.format(vertex.x, vertex.y)
                for vertex in face.bounding_poly.vertices])

    print('face bounds: {}'.format(','.join(vertices)))

ラベル検出リクエストの作成とレスポンスの処理

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

labels = image.detect_labels()

for label in labels:
    print(label.description)

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

response = client.label_detection(image=image)
labels = response.label_annotations
print('Labels:')

for label in labels:
    print(label.description)

ランドマーク検出リクエストの作成とレスポンスの処理

クライアント ライブラリの旧バージョン:

ランドマークの場所の緯度と経度は、location.latitudelocation.longitude ではなく、location.lat_lng.latitudelocation.lat_lng.longitude に格納されるようになりました。

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

landmarks = image.detect_landmarks()

for landmark in landmarks:
    print(landmark.description, landmark.score)
    for location in landmark.locations:
        print('Latitude'.format(location.latitude))
        print('Longitude'.format(location.longitude))

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

response = client.landmark_detection(image=image)
landmarks = response.landmark_annotations
print('Landmarks:')

for landmark in landmarks:
    print(landmark.description)
    for location in landmark.locations:
        lat_lng = location.lat_lng
        print('Latitude {}'.format(lat_lng.latitude))
        print('Longitude {}'.format(lat_lng.longitude))

ロゴ検出リクエストの作成とレスポンスの処理

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

logos = image.detect_logos()

for logo in logos:
    print(logo.description, logo.score)

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

response = client.logo_detection(image=image)
logos = response.logo_annotations
print('Logos:')

for logo in logos:
    print(logo.description)

セーフサーチ検出リクエストの作成とレスポンスの処理

セーフサーチの可能性レベルは、列挙型として返されるようになりました。推測ラベルの名前を回復するには、google.cloud.vision.enums.Likelihood をインポートできます。

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

safe = image.detect_safe_search()
print('Safe search:')
print('adult: {}'.format(safe.adult))
print('medical: {}'.format(safe.medical))
print('spoofed: {}'.format(safe.spoof))
print('violence: {}'.format(safe.violence))

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

response = client.safe_search_detection(image=image)
safe = response.safe_search_annotation

# Names of likelihood from google.cloud.vision.enums
likelihood_name = ('UNKNOWN', 'VERY_UNLIKELY', 'UNLIKELY', 'POSSIBLE',
                   'LIKELY', 'VERY_LIKELY')
print('Safe search:')

print('adult: {}'.format(likelihood_name[safe.adult]))
print('medical: {}'.format(likelihood_name[safe.medical]))
print('spoofed: {}'.format(likelihood_name[safe.spoof]))
print('violence: {}'.format(likelihood_name[safe.violence]))
print('racy: {}'.format(likelihood_name[safe.racy]))

テキスト検出リクエストの作成とレスポンスの処理

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

texts = image.detect_text()

for text in texts:
    print('\n"{}"'.format(text.description))

    vertices = (['({},{})'.format(bound.x_coordinate, bound.y_coordinate)
                for bound in text.bounds.vertices])

    print('bounds: {}'.format(','.join(vertices)))

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

response = client.text_detection(image=image)
texts = response.text_annotations
print('Texts:')

for text in texts:
    print('\n"{}"'.format(text.description))

    vertices = (['({},{})'.format(vertex.x, vertex.y)
                for vertex in text.bounding_poly.vertices])

    print('bounds: {}'.format(','.join(vertices)))

ドキュメント テキスト検出リクエストの作成とレスポンスの処理

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

document = image.detect_full_text()

for page in document.pages:
    for block in page.blocks:
        block_words = []
        for paragraph in block.paragraphs:
            block_words.extend(paragraph.words)

        block_symbols = []
        for word in block_words:
            block_symbols.extend(word.symbols)

        block_text = ''
        for symbol in block_symbols:
            block_text = block_text + symbol.text

        print('Block Content: {}'.format(block_text))
        print('Block Bounds:\n {}'.format(block.bounding_box))

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

response = client.document_text_detection(image=image)

for page in response.full_text_annotation.pages:
    for block in page.blocks:
        print('\nBlock confidence: {}\n'.format(block.confidence))

        for paragraph in block.paragraphs:
            print('Paragraph confidence: {}'.format(
                paragraph.confidence))

            for word in paragraph.words:
                word_text = ''.join([
                    symbol.text for symbol in word.symbols
                ])
                print('Word text: {} (confidence: {})'.format(
                    word_text, word.confidence))

                for symbol in word.symbols:
                    print('\tSymbol: {} (confidence: {})'.format(
                        symbol.text, symbol.confidence))

画像プロパティ リクエストの作成とレスポンスの処理

ドミナント カラーの情報は、props.colors ではなく props.dominant_colors.colors に格納されるようになりました。

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

props = image.detect_properties()

for color in props.colors:
    print('fraction: {}'.format(color.pixel_fraction))
    print('\tr: {}'.format(color.color.red))
    print('\tg: {}'.format(color.color.green))
    print('\tb: {}'.format(color.color.blue))
    print('\ta: {}'.format(color.color.alpha))

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

response = client.image_properties(image=image)
props = response.image_properties_annotation
print('Properties:')

for color in props.dominant_colors.colors:
    print('fraction: {}'.format(color.pixel_fraction))
    print('\tr: {}'.format(color.color.red))
    print('\tg: {}'.format(color.color.green))
    print('\tb: {}'.format(color.color.blue))
    print('\ta: {}'.format(color.color.alpha))

ウェブ検出リクエストの作成とレスポンスの処理

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

notes = image.detect_web()

if notes.pages_with_matching_images:
    print('\n{} Pages with matching images retrieved')

    for page in notes.pages_with_matching_images:
        print('Score : {}'.format(page.score))
        print('Url   : {}'.format(page.url))

if notes.full_matching_images:
    print ('\n{} Full Matches found: '.format(
           len(notes.full_matching_images)))

    for image in notes.full_matching_images:
        print('Score:  {}'.format(image.score))
        print('Url  : {}'.format(image.url))

if notes.partial_matching_images:
    print ('\n{} Partial Matches found: '.format(
           len(notes.partial_matching_images)))

    for image in notes.partial_matching_images:
        print('Score: {}'.format(image.score))
        print('Url  : {}'.format(image.url))

if notes.web_entities:
    print ('\n{} Web entities found: '.format(len(notes.web_entities)))

    for entity in notes.web_entities:
        print('Score      : {}'.format(entity.score))
        print('Description: {}'.format(entity.description))

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()

image = vision.types.Image(content=content)

response = client.web_detection(image=image)
annotations = response.web_detection

if annotations.best_guess_labels:
    for label in annotations.best_guess_labels:
        print('\nBest guess label: {}'.format(label.label))

if annotations.pages_with_matching_images:
    print('\n{} Pages with matching images found:'.format(
        len(annotations.pages_with_matching_images)))

    for page in annotations.pages_with_matching_images:
        print('\n\tPage url   : {}'.format(page.url))

        if page.full_matching_images:
            print('\t{} Full Matches found: '.format(
                   len(page.full_matching_images)))

            for image in page.full_matching_images:
                print('\t\tImage url  : {}'.format(image.url))

        if page.partial_matching_images:
            print('\t{} Partial Matches found: '.format(
                   len(page.partial_matching_images)))

            for image in page.partial_matching_images:
                print('\t\tImage url  : {}'.format(image.url))

if annotations.web_entities:
    print('\n{} Web entities found: '.format(
        len(annotations.web_entities)))

    for entity in annotations.web_entities:
        print('\n\tScore      : {}'.format(entity.score))
        print(u'\tDescription: {}'.format(entity.description))

if annotations.visually_similar_images:
    print('\n{} visually similar images found:\n'.format(
        len(annotations.visually_similar_images)))

    for image in annotations.visually_similar_images:
        print('\tImage url    : {}'.format(image.url))

クロップヒント リクエストの作成とレスポンスの処理

クライアント ライブラリの旧バージョン:

with io.open(file_name, 'rb') as image_file:
    content = image_file.read()

image = old_client.image(content=content)

hints = image.detect_crop_hints(aspect_ratios=[1.77])

for n, hint in enumerate(hints):
    print('\nCrop Hint: {}'.format(n))

    vertices = (['({},{})'.format(bound.x_coordinate, bound.y_coordinate)
                for bound in hint.bounds.vertices])

    print('bounds: {}'.format(','.join(vertices)))

Python クライアント ライブラリ v0.25.1:

with io.open(path, 'rb') as image_file:
    content = image_file.read()
image = vision.types.Image(content=content)

crop_hints_params = vision.types.CropHintsParams(aspect_ratios=[1.77])
image_context = vision.types.ImageContext(
    crop_hints_params=crop_hints_params)

response = client.crop_hints(image=image, image_context=image_context)
hints = response.crop_hints_annotation.crop_hints

for n, hint in enumerate(hints):
    print('\nCrop Hint: {}'.format(n))

    vertices = (['({},{})'.format(vertex.x, vertex.y)
                for vertex in hint.bounding_poly.vertices])

    print('bounds: {}'.format(','.join(vertices)))

アスペクト比を CropHintsParamsImageContext で渡す必要があることに注意してください。

このページは役立ちましたか?評価をお願いいたします。

フィードバックを送信...

Cloud Vision API ドキュメント
ご不明な点がありましたら、Google のサポートページをご覧ください。