Leitfaden zur Tag-Erkennung

Mit dem Modell Tag-Erkennung können Sie wichtige Probleme bei der Analyse Ihres Einzelhandelsregals lösen, nämlich die Tags (z. B. das Preisschild oder andere Label-Tags) gemäß einem benutzerdefinierten Schema zur Entnahme von Entitäten mit Schlüssel/Wert-Paaren zu erkennen und zu analysieren.

Dieses Modell kann als primärer KI-Baustein für die Analyse und Interpretation von Produktbilddaten in Einzelhandelsgeschäften dienen. Sie können dieses Modell beispielsweise für Regalbilder verwenden, die mit lokalen Kameras oder Mobilgeräten aufgenommen wurden.

Anwendungsfälle für die Tag-Erkennung und die Produkterkennung

Das Produkterkennungsmodell und die Tag-Erkennungsmodelle können als die primären KI-Bausteine für die Analyse und Interpretation der Bilddaten zu Produkten und Tags in Einzelhandelsgeschäften dienen, z. B. die Bilder von Regalen, die von den installierten Kameras oder Mobilgeräten / Plattformen aufgenommen werden.

Die Modelle für die Produkterkennung und die Tag-Erkennung umfassen mehrere wichtige KI-Modellierungs- und Datenfunktionen von Google, mit denen Einzelhändler und/oder technische Partner wichtige Probleme beim Verständnis des Einzelhandelsregals lösen können, darunter:

  • Erkennen und erfassen, welche Produkte sich auf dem Bild oder im Regal befinden.
  • Erkennen, Erkennen und Parsen der Tags (z. B. Preis-Tags oder andere Textlabel-Tags) gemäß dem benutzerdefinierten Schema zur Entitätsextraktion von Schlüssel/Wert-Paaren.

Insbesondere sind in der Lösung zur Regalprüfung mehrere differenzierende Google-KI-Modelle enthalten, um die Lösung dieser Anwendungsfallprobleme zu unterstützen, z. B.

  • Modelle zur Produkterkennung (von Google vortrainiert, aber anpassbar)
  • Visuelles Einbettungsmodell für Produkt-Thumbnails, das ein Produkt-Thumbnail-Bild in eine numerische Darstellung des Merkmalsraums umwandelt.
  • Das OCR-Modell von Google, mit dem der gesamte im Bild sichtbare Text extrahiert wird.
  • Das benutzerdefinierbare Modell zur Entitätsextraktion von Google, das die Rohtexte in benutzerdefinierte benannte Entitäten mit Schlüssel/Wert-Paaren umwandelt.

Neben diesen KI-Modellen von Google nutzt die Lösung zur Regalinspektion auch die umfangreiche Datenbank mit Produktinformationen von Google. Die Produktdaten in dieser Produktdatenbank umfassen die GTIN / UPC-Identität, die Produktmarke, den Titel und mehrsprachige Beschreibungen, das Produktlogo und Bilder mit verschiedenen Verpackungsvarianten. Mit der Produktdatenbank mit dem zuvor erwähnten Modell für das visuelle Einbetten von Produktminiaturen kann das Modell für die Produkterkennung viele Produkte sofort erkennen.

Bei einem aufgenommenen Regalbild wie dem folgenden soll die Lösung zur Regalprüfung beispielsweise Folgendes erreichen:

  1. Alle sichtbaren (nicht stark verdeckten) Produktboxen im Bild erkennen und lokalisieren und die Produktidentität der einzelnen Produktboxen auf GTIN-/UPC-Ebene erkennen.
  2. Alle (sichtbaren) Tag-Boxen im Bild erkennen und lokalisieren, alle Textstrings im Tag erkennen und dann versuchen, den Text in das benutzerdefinierte Schema zur Entnahme von Entitäten mit Schlüssel/Wert-Paaren zu parsen, z. B. Produktartikelbeschreibung, Preiswert.

Die beiden wichtigsten KI-Funktionen, die diese Lösungen ermöglichen, sind das Produkterkennungsmodell und das Tagerkennungsmodell. Weitere Informationen dazu finden Sie in den folgenden Abschnitten. Bei jeder dieser beiden APIs, die hauptsächlich die Dienste zur Bilderkennung bereitstellen, gibt es eine oder mehrere Komponenten, die Sie anpassen können. Wir beschreiben zuerst den Inferenzpfad der API-Nutzung und gehen dann kurz darauf ein, wie Sie die beteiligten Komponenten anpassen können, entweder über eine Nutzerkonfiguration oder über ein von Ihnen durchgeführtes Modelltraining.

Tag-Erkennung

Dieses Modell erkennt alle Textstrings im Tag und versucht dann, den Text in das benutzerdefinierte Schema zur Entitätsextraktion mit Schlüssel/Wert-Paaren zu parsen, z. B. die Beschreibung eines Produktartikels oder den Preiswert. Dazu gehören die folgenden Google AI-Modelle:

  • Die OCR-Technologie von Google, mit der der gesamte sichtbare Text im Bild extrahiert wird.
  • Das Google-Modell zur Entitätsextraktion, das den Rohtext in benutzerdefinierte Schlüssel/Wert-Paare mit benannten Entitäten umwandelt. Sie können dieses Modell mit Vertex AI anpassen. Wenn Sie sich beispielsweise hauptsächlich für die Beschreibung des Produktartikels, den Produktpreis oder den Sonderangebotspreis interessieren, können Sie das Tag-Parsing-Schema so definieren:

    key: item_description   value: string
    key: regular_price      value: number
    key: sale_price         value: number
    

Tag-Parsing-Schema

Beim Training des benutzerdefinierten Modells für die Entitätsextraktion wird das erkannte Tag-Elementfeld dann gemäß dem benutzerdefinierten Schema erkannt und analysiert, z. B. so:

  item_description:   COLLECTION 18PC GFT BX
  regular_price:      1099
  sale_price:         999

Beispiel für ein JSON-Ausgabeobjekt

{
  "imageUri": "gs://test_bucket/test_image.jpg",
  "tagRecognitionAnnotations": [
    {
      "entities": [
        {
          "confidence": 0.99646133,
          "mentionText": "NISSIN TOP RAMEN\n\nBOW CHICKEN\n\n",
          "region": {
            "xMax": 0.4618055,
            "xMin": 0.042725038,
            "yMax": 0.45387268,
            "yMin": 0.18415153
          },
          "type":"description"
        },
        {
          "confidence": 0.95828205,
          "mentionText": "$3.90\n",
          "region": {
            "xMax": 0.24819264,
            "xMin": 0.04185935,
            "yMax": 0.96134734,
            "yMin": 0.80382305
          },
          "type":"unit_price"
        },
        {
          "confidence": 0.60659707,
          "mentionText": "$14.99\n",
          "region": {
            "xMax": 0.9754113,
            "xMin": 0.3654699,
            "yMax": 0.92825794,
            "yMin": 0.40368474
          },
          "type":"price"
        }
      ]
    }
  ]
}

Umgebung einrichten

In diesem Abschnitt wird beschrieben, wie Sie mit der Store Vision AI RESTful API interagieren.

API_ENDPOINT=visionai.googleapis.com
PROJECT_ID=your project ID

Bei allen create-Methoden muss der Name/die ID der zu erstellenden Ressource explizit angegeben werden. Sie können eine aussagekräftige String-ID wie „Produkt-ABC“ oder eine zufällig generierte Kennung wie eine UUID verwenden.

Wenn Sie einer Personenrolle den Bearbeitungszugriff auf die Store Vision API gewähren möchten, führen Sie den folgenden Befehl zur IAM-Bindung aus:

gcloud projects add-iam-policy-binding PROJECT_ID --member='user:USER_ACCOUNT' --role='roles/visionai.editor'

Wenn Sie einem Dienstkonto den Bearbeitungszugriff gewähren möchten, verwenden Sie den folgenden Befehl:

gcloud projects add-iam-policy-binding PROJECT_ID --member='serviceAccount:SERVICE_ACCOUNT' --role='roles/visionai.editor'

Weitere Informationen zu IAM-Bindungen

User Journey für die Tag-Erkennung

  1. Mit der Funktion Vertex AI/AutoML Vision-Objekterkennung ein benutzerdefiniertes Training für das Tag-Erkennungsmodell durchführen
  2. Trainieren Sie ein Modell zum Parsen von Tag-Entitäten mit der Funktion Vertex AI/AutoML Vision Object Detection und einer benutzerdefinierten OCR-Engine.
  3. Erstellen Sie einen Endpunkt mit der gewünschten Konfiguration für die Tagerkennung.
  4. Führen Sie „BatchAnalyze“ mit der Funktion „TagRecognition“ aus. Im Backend identifiziert das System Tags aus jedem Eingabebild und analysiert den Text auf jedem erkannten Tag, um eine strukturierte Parsing-Ausgabe zu erstellen. T ## Modelltraining für die Tagerkennung und das Entitäts-Parsing

Sie können das benutzerdefinierte Tag-Erkennungsmodell mithilfe der Funktion zum Trainieren von Modellen für die Bildobjekterkennung unseres bestehenden Produkts Vertex AI/AutoML Vision trainieren. Obwohl die Funktion zum Trainieren von Objekterkennungsmodellen mit Vertex AI / AutoML Vision ein vollständig verwaltetes Modelltraining bietet, müssen Sie trotzdem ein gut repräsentatives Bild-Dataset mit vollständig beschrifteten Objekt-Bounding-Box-Anmerkungen als Trainingsdatensatz für die Modelltrainingskonsole vorbereiten. Google Cloud stellt den Vertex AI Data Labeling Service bereit, mit dem Sie die Datenbeschriftungsaufgabe erstellen können. Weitere Informationen finden Sie unter /vertex-ai/docs/datasets/data-labeling-job. Stellen Sie den menschlichen Bewertern eine klare Anleitung zum Datenlabeln zur Verfügung, damit sie wissen, wie sie die Begrenzungsrahmen für die Tagerkennung in den Bildern bei der Vorbereitung des Trainingsdatensatzes labeln sollen.

Um das Modell für das Entfernen von Tags zu trainieren, müssen Sie eine Sammlung von Trainingsdaten mit Bildern und den zugehörigen Anmerkungen vorbereiten.

  • Das Bild ist das bereits zugeschnittene Tag-Bild.
  • Sie müssen für jedes Bild das Feld für die Schlüsselentität (z. B. „product_title“, „price“, „unit_price“) definieren und angeben, das erkannt und/oder geparst werden soll, sowie die zugehörigen Koordinaten des Bild-Begrenzungsrahmens in dieser zugeschnittenen Bildansicht.
  • Für die korrekte Erkennung und das Parsen müssen Sie außerdem die reguläre Ausdruckssyntax angeben, um jedes Feld zu charakterisieren. Dies ist erforderlich, um den Trainings- und Inferenzablauf des Tag-Parsing-Algorithmus zu unterstützen.

erkanntes Tag-Bild

Beispiel für das Training des Entfernens von Tags

Für das vorherige Beispiel zum Parsen von Tag-Entitäten können Sie beispielsweise eine Zeile mit Anmerkungsinformationen in der CSV-Datei mit Anmerkungen zu Trainingsdaten angeben:

"image_filepath", "product_title", "(x0, y0, x1, y1)", "", "price", "(x0, y0, x1, y1)", "\\$\\d+\\.\\d{2}", "unit_price", "(x0, y0, x1, y1)", "\\$\\d+\\.\\d{2}"

Aus dem vorherigen Beispiel:

  • Das Feld „product_title“ hat die entsprechende Box-Bildkoordinate „(x0, y0, x1, y1)“ und die reguläre Ausdrucksbeschränkung für dieses Feld ist „none"".
  • Das Feld „price“ hat die entsprechende Box-Bildkoordinate „(x0, y0, x1, y1)“ und die reguläre Ausdrucksbeschränkung für dieses Feld lautet „$\d+\.\d{2}“. Das bedeutet, dass wir dieses Feld mit dem $-Zeichen am Anfang der Textzeile und einigen Ziffern vor dem „.“ und zwei Ziffern nach dem „.“ erkennen und parsen möchten.
  • Das Feld „unit_price“ hat dieselbe Anmerkungssyntax wie das Feld „price“, z. B. die Boxbildkoordinaten „(x0, y0, x1, y1)“. Die Einschränkung für den regulären Ausdruck für dieses Feld lautet „$\d+\.\d{2}“. Das bedeutet, dass dieses Feld mit dem Dollarzeichen am Anfang der Textzeile und einigen Ziffern vor dem „.“ und zwei Ziffern nach dem „.“ erkannt und analysiert werden soll.

Daher sollten die Trainingsdaten für ein Modell zum Parsen von Preisschildern / Erkennung von Entitäten eine Sammlung von Bildern mit Preisschildern enthalten. Die Anmerkungen sollten in einer CSV-Datei mit jeder CSV-Zeileneintrag wie im vorherigen Beispiel gespeichert sein.

"image_filepath", "product_title", "(x0, y0, x1, y1)", "", "price", "(x0, y0, x1, y1)", "\\$\\d+\\.\\d{2}", "unit_price", "(x0, y0, x1, y1)", "\\$\\d+\\.\\d{2}"

"image_filepath", "product_title", "(x0, y0, x1, y1)", "", "price", "(x0, y0, x1, y1)", "\\$\\d+\\.\\d{2}", "unit_price", "(x0, y0, x1, y1)", "\\$\\d+\\.\\d{2}"

"image_filepath", "product_title", "(x0, y0, x1, y1)", "", "price", "(x0, y0, x1, y1)", "\\$\\d+\\.\\d{2}", "unit_price", "(x0, y0, x1, y1)", "\\$\\d+\\.\\d{2}"

[...]

Sie können das benutzerdefinierte Tag-Entitäts-Parsing-Modell mit der Funktion zum Trainieren von Modellen für die Bildobjekterkennung unseres bestehenden Produkts Vertex AI /AutoML Vision und der Anpassung der Google OCR-Engine trainieren.

Hinweis: Das Training und die Bereitstellung benutzerdefinierter Modelle für die Tag-Erkennung und das Tag-Entitäts-Parsing in der BatchAnalyze API von Store Vision AI wird in der Google Cloud Console zwar seit Juli 2022 unterstützt, aber noch nicht vollständig. Sie können diese Modelle aber trotzdem mithilfe der Objekterkennungsfunktion von Vertex AI Vision trainieren und in der BatchAnalyze API von Store Vision AI bereitstellen. Dazu sind jedoch einige manuelle Schritte erforderlich.

API-Nutzung – Batch-Analyse von Inferenzen

Endpunkt erstellen
  • ENDPOINT_ID=Ihre Endpunkt-ID
  • TAG_DETECTOR=Name des Modells zur Tagerkennung
  • TAG_PARSER=Name des Modells zum Parsen von Tags
curl -sS -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" https://visionai.googleapis.com/v1alpha1/projects/PROJECT_ID/locations/us-central1/retailEndpoints?retail_endpoint_id=ENDPOINT_ID \
-d '{
  "tagRecognitionConfig": {
    "tag_detection_model": "TAG_DETECTOR_NAME",
    "tag_parsing_model": "TAG_PARSER_NAME"
  }
}'
  • INPUT_FILE_URI=Cloud Storage-URI der Eingabedatei. Jede Zeile in der Eingabedatei ist nur ein Cloud Storage-URI des zu verarbeitenden Bilds, z. B. gs://my-bucket/my-image.jpg.
  • OUTPUT_URI_PREFIX=Cloud Storage-URI-Präfix für die Ausgabedatei mit den Ergebnissen, z. B. gs://my-bucket/my-output-dir
curl -sS -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" https://visionai.googleapis.com/v1alpha1/projects/PROJECT_ID/locations/us-central1/retailEndpoints/ENDPOINT_ID:batchAnalyze 
-d '{
  "gcsSource": {
    "uris": ["INPUT_FILE_URI"]
  },
  "features": [
    {
      "type": "TYPE_TAG_RECOGNITION",
     }
  ],
  "outputGcsDestination": {
    "outputUriPrefix": "OUTPUT_URI_PREFIX"
  }
}'
"features": [
    {
      "type": "TYPE_TAG_RECOGNITION",
      "tagRecognitionConfig": {
        "tag_detection_model": "'TAG_DETECTOR_NAME'",
        "tag_parsing_model": "TAG_PARSER_NAME"
      }
    }
  ],

Es gibt noch weitere Felder, die Sie im tagRecognitionConfig festlegen und konfigurieren können. Das tagRecognitionConfig ist ein RetailTagRecognitionConfig-Objekt. Weitere Informationen finden Sie in der Ressourcenbeschreibung in der API-Referenz.

API-Referenz

Ressource: projects.locations.retailCatalogs

JSON-Darstellung

{
  "name": string,
  "displayName": string,
  "createTime": string,
  "updateTime": string,
  "resourceState": enum(RetailResourceState),
  "labels": {
    string: string,
    ...
  }
}

Fields


name

String

Nur Ausgabe. Ressourcenname des „RetailCatalog“

displayName

String

Optional. Der Anzeigename des RetailCatalog.

createTime

string (Timestamp format)

Nur Ausgabe. Zeitstempel für die Erstellung dieses Einzelhandelskatalogs.

updateTime

string (Timestamp format)

Nur Ausgabe. Der Aktualisierungszeitstempel.

resourceState

enum

Nur Ausgabe. Status des RetailCatalog.

labels

map (key: string, value: string)

Die Labels mit benutzerdefinierten Metadaten zum Organisieren Ihres „RetailCatalog“.

Labelschlüssel und -werte dürfen maximal 64 Zeichen (Unicode-Codepunkte) haben und dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten. Internationale Zeichen sind zulässig.

Weitere Informationen und Beispiele für Labels finden Sie unter https://goo.gl/xmQnxf.

Ein Objekt mit einer Liste der Paare „Schlüssel“: „Wert“. Beispiel: { "name": "wrench", "mass": "1.3kg", "count": "3" }

Methode: projects.locations.retailCatalogs.create

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/us-central1}/retailCatalogs

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfragetext

Der Anfragetext enthält eine Instanz von RetailCatalog.

Antworttext

Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von RetailCatalog.

Methode: projects.locations.retailCatalogs.get

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/us-central1/retailCatalogs/*}

Pfadparameter

Name String Pflichtangabe. RetailCatalog-Kennung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von RetailCatalog.

Methode: projects.locations.retailCatalogs.list

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/us-central1}/retailCatalogs

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfrageparameter

Filter String Optional. Ein Ausdruck zum Filtern der Ergebnisse der Anfrage.
pageToken String Optional. Ein Token, das eine Ergebnisseite identifiziert, die vom Server zurückgegeben werden soll.
pageSize integer Optional. Angeforderte Seitengröße. Der Server gibt möglicherweise weniger Elemente zurück, als angefordert. Wenn keine Angabe erfolgt, wählt der Server einen geeigneten Standardwert aus.
orderBy String Optional. Eine durch Kommas getrennte Liste von Feldern, nach denen sortiert werden soll. Die Sortierung erfolgt in aufsteigender Reihenfolge. Verwenden Sie „desc“ nach einem Feldnamen für eine absteigende Sortierung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur: JSON-Darstellung

{
  "retailCatalogs": [
    {
      object (RetailCatalog)
    }
  ],
  "nextPageToken": string
}

Methode: projects.locations.retailCatalogs.delete

HTTP-Anfrage

DELETE https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/us-central1/retailCatalogs/*}

Pfadparameter

Name String Pflichtangabe. RetailCatalog-Kennung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Operation.

Methode: projects.locations.retailCatalogs.importRetailProducts

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/us-central1/retailCatalogs/*}:importRetailProducts

Pfadparameter

Name String Pflichtangabe. RetailCatalog-Ressourcenname.

Anfragetext

JSON-Darstellung

{
  "gcsSource": { object(GcsSource) },
  "format": enum(Format)
}

Fields

gcsSource Objekt Pflichtangabe. Der Cloud Storage-Speicherort für die Eingabeinhalte. Es können mehrere Eingabeorte angegeben werden. Der Inhalt aller Eingabestandorte wird in einem Batch importiert. Unterstützte Dateiendungen: 1. JSONL-Datei Jede Zeile ist ein JSON-Format von RetailProductIoFormat.
2. Eine TXT-Datei. Jede Zeile ist die GTIN eines zu importierenden Produkts.
Format enum Pflichtangabe. Das Importdateiformat.

ENUM-Werte formatieren

FORMAT_UNSPECIFIED Sollte nicht verwendet werden.
FORMAT_TXT TXT-Format.
FORMAT_JSONL JSONL-Format.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Operation.

Ressource: projects.locations.retailProducts

JSON-Darstellung

{
  "name": string,
  "gtins": [string],
  "normalizedGtins": [string],
  "thirdPartyIds": [ { object(ThirdPartyId) }],
  "locale": string,
  "brand": string,
  "title": string,
  "productUri": string,
  "resourceState": enum(RetailResourceState),
   "labels": {
    string: string,
    ...
    }
   "createTime": string,
   "updateTime": string
}

Fields


name

String

Nur Ausgabe. Ressourcenname des RetailProductImage

displayName

String

Optional. Anzeigename des RetailProductImage.

sourceType

enum

Optional. Quelltyp

gcsUri

String

Optional. Cloud Storage-Speicherort des RetailProductImage. Sie sollte festgelegt werden, es sei denn, das Bild wird von Google bereitgestellt, z. B. wenn der Quelltyp SOURCE_TYPE_GOOGLE ist.

resourceState

enum

Nur Ausgabe. Status des RetailProductImage.

labels

map (key: string, value: string)

Die Labels mit benutzerdefinierten Metadaten zum Organisieren von „RetailProductImage“.

Labelschlüssel und -werte dürfen maximal 64 Zeichen (Unicode-Codepunkte) haben und dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten. Internationale Zeichen sind zulässig.

Weitere Informationen zu Labels und Beispiele finden Sie unter https://goo.gl/xmQnxf.

Ein Objekt mit einer Liste der Paare „Schlüssel“: „Wert“. Beispiel: { "name": "wrench", "mass": "1.3kg", "count": "3" }

createTime

string (Timestamp format)

Nur Ausgabe. Der Erstellungszeitstempel.

updateTime

string (Timestamp format)

Nur Ausgabe. Der Aktualisierungszeitstempel.

RetailThirdPartyId JSON-Darstellung

{
  "id": string,
  "owner": string
}

Fields

id String Die vom Einzelhändler oder Hersteller verwendete Drittanbieter-ID (z. B. SKU oder MPN).
Inhaber String Das Rechtssubjekt, das Inhaber der Drittanbieter-ID ist, z. B. der Hersteller oder der Einzelhändler, der dieses Produkt verkauft.

Methode: projects.locations.retailCatalogs.retailProducts.create

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*/retailCatalogs/*}/retailProducts

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfragetext

Der Anfragetext enthält eine Instanz von RetailProduct.

Antworttext

Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von RetailProduct.

Methode: projects.locations.retailCatalogs.retailProducts.get

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProducts/*

Pfadparameter

Name String Pflichtangabe. RetailProduct-Kennung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von RetailProduct.

Methode: projects.locations.retailCatalogs.retailProducts.list

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*/retailCatalogs/*}/retailProducts

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfrageparameter

Filter String Optional. Ein Ausdruck zum Filtern der Ergebnisse der Anfrage.
pageToken String Optional. Ein Token, das eine Ergebnisseite identifiziert, die vom Server zurückgegeben werden soll.
pageSize integer Optional. Angeforderte Seitengröße. Der Server gibt möglicherweise weniger Elemente zurück, als angefordert. Wenn keine Angabe erfolgt, wählt der Server einen geeigneten Standardwert aus.
orderBy String Optional. Eine durch Kommas getrennte Liste von Feldern, nach denen sortiert werden soll. Die Sortierung erfolgt in aufsteigender Reihenfolge. Verwenden Sie „desc“ nach einem Feldnamen für eine absteigende Sortierung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Bei Erfolg enthält der Antworttext Daten mit der folgenden Struktur: JSON-Darstellung

{
  "retailProducts": [
    {
      object (RetailProducts)
    }
  ],
  "nextPageToken": string
}

Methode: projects.locations.retailCatalogs.retailProducts.delete

HTTP-Anfrage

DELETE https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProducts/*

Pfadparameter

Name String Pflichtangabe. RetailProduct-Kennung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich ist, ist der Antworttext leer.

Ressource: projects.locations.retailProductImages

JSON-Darstellung

{
  "name": string,
  "displayName": string,
  "sourceType": enum(SourceType),
  "gcsUri": string,
  "resourceState": enum(RetailResourceState),
   "labels": {
    string: string,
    ...
    }
   "createTime": string,
   "updateTime": string
}

Fields


name

String

Nur Ausgabe. Ressourcenname des RetailProductImage

displayName

String

Optional. Anzeigename des RetailProductImage.

sourceType

enum

Optional. Quelltyp

gcsUri

String

Optional. Cloud Storage-Speicherort des RetailProductImage. Sie sollte festgelegt werden, es sei denn, das Bild wird von Google bereitgestellt, z. B. wenn der Quelltyp SOURCE_TYPE_GOOGLE ist.

resourceState

enum

Nur Ausgabe. Status des RetailProductImage.

Labels

map (key: string, value: string)

Die Labels mit benutzerdefinierten Metadaten zum Organisieren von „RetailProductImage“.

Labelschlüssel und -werte dürfen maximal 64 Zeichen (Unicode-Codepunkte) haben und dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten. Internationale Zeichen sind zulässig.

Weitere Informationen zu Labels und Beispiele finden Sie unter https://goo.gl/xmQnxf.

Ein Objekt mit einer Liste der Paare „Schlüssel“: „Wert“. Beispiel: { "name": "wrench", "mass": "1.3kg", "count": "3" }

createTime

string (Timestamp format)

Nur Ausgabe. Der Erstellungszeitstempel.

updateTime

string (Timestamp format)

Nur Ausgabe. Der Aktualisierungszeitstempel.

ENUM-Werte für „SourceType“

SOURCE_TYPE_UNSPECIFIED Unbekannte Datenquelle. Sollte nicht verwendet werden.
SOURCE_TYPE_FIXED_CAMERA Das Bild wird von einer fixierten Kamera aufgenommen.
SOURCE_TYPE_HAND_HELD_CAMERA Das Bild wurde mit einer Handkamera aufgenommen.
SOURCE_TYPE_CRAWLED Das Bild wird aus dem Web gecrawlt.
SOURCE_TYPE_SYSTEM_GENERATED Das Bild wurde aus einem Originalbild mit manuellem Labeling zugeschnitten.

Methode: projects.locations.retailCatalogs.retailProducts.retailProductImages.create

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*/retailCatalogs/*/retailProducts/*}/retailProductImages

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfragetext

Der Anfragetext enthält eine Instanz von RetailProductImage.

Antworttext

Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von RetailProductImage.

Methode: projects.locations.retailCatalogs.retailProducts.retailProductImages.get

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProducts/*/retailProductImages/*

Pfadparameter

Name String Pflichtangabe. RetailProductImage-Kennung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von RetailProductImage.

Methode: projects.locations.retailCatalogs.retailProducts.retailProductImages.list

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*/retailCatalogs/*/retailProducts/*}/retailProductImages

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfrageparameter

Filter String Optional. Ein Ausdruck zum Filtern der Ergebnisse der Anfrage.
pageToken String Optional. Ein Token, das eine Ergebnisseite identifiziert, die vom Server zurückgegeben werden soll.
pageSize integer Optional. Angeforderte Seitengröße. Der Server gibt möglicherweise weniger Elemente zurück, als angefordert. Wenn keine Angabe erfolgt, wählt der Server einen geeigneten Standardwert aus.
orderBy String Optional. Eine durch Kommas getrennte Liste von Feldern, nach denen sortiert werden soll. Die Sortierung erfolgt in aufsteigender Reihenfolge. Verwenden Sie „desc“ nach einem Feldnamen für eine absteigende Sortierung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich ist, enthält der Antworttext Daten mit folgender Struktur:

JSON-Darstellung

{
  "retailProductImages": [
    {
      object (RetailProductImages)
    }
  ],
  "nextPageToken": string
}

Methode: projects.locations.retailCatalogs.retailProducts.retailProductImages.delete

HTTP-Anfrage

DELETE https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProducts/*/retailProductImages/*

Pfadparameter

Name String Pflichtangabe. RetailProductImage-Kennung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich ist, ist der Antworttext leer.

Ressource: projects.locations.retailCatalogs.retailProductSets

JSON-Darstellung

{
  "name": string,
  "displayName": string,
  "retailProductIds": [string],
  "resourceState": enum(RetailResourceState),
   "labels": {
    string: string,
    ...
    }
   "createTime": string,
   "updateTime": string
}

Fields


name

String

Nur Ausgabe. Ressourcenname des RetailProductSet

displayName

String

Optional. Anzeigename des RetailProductSet.

retailProductIds []

String

Nur Ausgabe. Ressourcen-IDs von Produkten, die zu diesem RetailProductSet gehören. Die Produkte in einem RetailProductSet sollten sich im selben Katalog befinden.

resourceState

enum

Nur Ausgabe. Status des RetailProductSet.

labels

map (key: string, value: string)

Die Labels mit benutzerdefinierten Metadaten zum Organisieren Ihres RetailProductSet.

Labelschlüssel und -werte dürfen maximal 64 Zeichen (Unicode-Codepunkte) haben und dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten. Internationale Zeichen sind zulässig.

Weitere Informationen zu Labels und Beispiele finden Sie unter https://goo.gl/xmQnxf.

Ein Objekt mit einer Liste der Paare „Schlüssel“: „Wert“. Beispiel: { "name": "wrench", "mass": "1.3kg", "count": "3" }

createTime

string (Timestamp format)

Nur Ausgabe. Der Erstellungszeitstempel.

updateTime

string (Timestamp format)

Nur Ausgabe. Der Aktualisierungszeitstempel.

Methode: projects.locations.retailCatalogs.retailProductSets.create

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*/retailCatalogs/*}/retailProductSets

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfragetext

Der Anfragetext enthält eine Instanz von „RetailProductSet“.

Antworttext

Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von „RetailProductSet“.

Methode: projects.locations.retailCatalogs.retailProductSets.get

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProductSets/*

Pfadparameter

Name String Pflichtangabe. Kennzeichnung für RetailProductSet.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Bei Erfolg enthält der Antworttext eine Instanz von „RetailProductSet“.

Methode: projects.locations.retailCatalogs.retailProductSets.list

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*/retailCatalogs/*}/retailProductSets

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfrageparameter

Filter String Optional. Ein Ausdruck zum Filtern der Ergebnisse der Anfrage.
pageToken String Optional. Ein Token, das eine Ergebnisseite identifiziert, die vom Server zurückgegeben werden soll.
pageSize integer Optional. Angeforderte Seitengröße. Der Server gibt möglicherweise weniger Elemente zurück, als angefordert. Wenn keine Angabe erfolgt, wählt der Server einen geeigneten Standardwert aus.
orderBy String Optional. Eine durch Kommas getrennte Liste von Feldern, nach denen sortiert werden soll. Die Sortierung erfolgt in aufsteigender Reihenfolge. Verwenden Sie „desc“ nach einem Feldnamen für eine absteigende Sortierung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich ist, enthält der Antworttext Daten mit folgender Struktur:

JSON-Darstellung

{
  "retailProductSets": [
    {
      object (RetailProductSets)
    }
  ],
  "nextPageToken": string
}

Methode: projects.locations.retailCatalogs.retailProductSets.delete

HTTP-Anfrage

DELETE https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProductSets/*

Pfadparameter

Name String Pflichtangabe. Kennzeichnung für RetailProductSet.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich ist, ist der Antworttext leer.

Methode: projects.locations.retailCatalogs.retailProductSets.add

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProductSets/*}:remove

Pfadparameter

Name String Pflichtangabe. Ressourcenname von „RetailProductSet“.

Anfragetext

JSON-Darstellung

{
  "productIds": [string],
  "productFilter": string
}

Fields


productIds[ ]

String

Ressourcen-ID der hinzuzufügenden Einzelhandelsprodukte. Sie müssen alle zum selben RetailCatalog wie das angegebene Ziel-RetailProductSet gehören. In einer Anfrage können bis zu 200 RetailProducts-IDs angegeben werden. Kann nicht mit „productFilter“ verwendet werden.

productFilter

String

Ein Standardfilter, der auf alle RetailProducts im übergeordneten RetailCatalog angewendet wird. Es werden Elemente ausgewählt, die die Filterbedingungen erfüllen, und dem RetailProductSet hinzugefügt. Kann nicht mit „product_ids“ verwendet werden. Unterstützte Filter: https://google.aip.dev/160

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Operation.

Methode: projects.locations.retailCatalogs.retailProductSets.remove

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProductSets/*}:add

Pfadparameter

Name String Pflichtangabe. Ressourcenname von „RetailProductSet“.

Anfragetext

JSON-Darstellung

{
  "productIds": [string],
  "productFilter": string
}

Fields


productIds[ ]

String

Ressourcen-IDs der zu entfernenden Einzelhandelsprodukte. Wenn die angegebenen Einzelhandelsprodukte nicht zu diesem Einzelhandelsproduktset gehören, werden sie ignoriert. In einer Anfrage können bis zu 200 RetailProducts-IDs angegeben werden. Kann nicht mit „products_filter“ verwendet werden.

productFilter

String

Ein Standardfilter, der auf alle Einzelhandelsprodukte im angegebenen RetailProductSet angewendet wird. Dabei werden Elemente ausgewählt, die die Filterbedingungen erfüllen, und aus dem RetailProductSet entfernt. Kann nicht mit „product_ids“ verwendet werden. Unterstützte Filter:https://google.aip.dev/160

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Operation.

Ressource: projects.locations.retailCatalogs.retailProductRecognitionIndexes

JSON-Darstellung

{
  "name": string,
  "displayName": string,
  "description": string,
  "retailProductSet": [string],
   "resourceState": enum(RetailResourceState),
   "labels": {
    string: string,
    ...
    }
   "createTime": string,
   "updateTime": string
}

Fields


name

String

Nur Ausgabe. Ressourcenname der RetailProductRecognitionIndex-Ressource.

displayName

String

Optional. Anzeigename des RetailProductRecognitionIndex.

Beschreibung

String

Optional. Die Beschreibung des RetailProductRecognitionIndex.

retailProductSet[]

String

Optional. Der Ressourcenname des RetailProductSet, der zum Erstellen dieser Ressource verwendet werden soll. Wenn festgelegt, enthält der RetailProductRecognitionIndex nur Produkte aus dem angegebenen RetailProductSet. Wenn nicht festgelegt, werden alle Produkte im übergeordneten Katalog verwendet.

resourceState

enum

Nur Ausgabe. Status des RetailProductRecognitionIndex.

Labels

map (key: string, value: string)

Die Labels mit benutzerdefinierten Metadaten zum Organisieren des RetailProductRecognitionIndex.

Labelschlüssel und -werte dürfen maximal 64 Zeichen (Unicode-Codepunkte) haben und dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten. Internationale Zeichen sind zulässig.

Weitere Informationen zu Labels und Beispiele finden Sie unter https://goo.gl/xmQnxf.

Ein Objekt mit einer Liste der Paare „Schlüssel“: „Wert“. Beispiel: { "name": "wrench", "mass": "1.3kg", "count": "3" }

createTime

string (Timestamp format)

Nur Ausgabe. Der Erstellungszeitstempel.

updateTime

string (Timestamp format)

Nur Ausgabe. Der Aktualisierungszeitstempel.

Methode: projects.locations.retailCatalogs.retailProductRecognitionIndexes.create

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*/retailCatalogs/*}/retailProductRecognitionIndexes

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfragetext

Der Anfragetext enthält eine Instanz von RetailProductRecognitionIndex.

Antworttext

Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von RetailProductRecognitionIndex.

Methode: projects.locations.retailCatalogs.retailProductRecognitionIndexes.get

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProductRecognitionIndexes/*

Pfadparameter

Name String Pflichtangabe. RetailProductRecognitionIndex-Kennung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von RetailProductRecognitionIndex.

Methode: projects.locations.retailCatalogs.retailProductRecognitionIndexes.list

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*/retailCatalogs/*}/retailProductRecognitionIndexes

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfrageparameter

Filter String Optional. Ein Ausdruck zum Filtern der Ergebnisse der Anfrage.
pageToken String Optional. Ein Token, das eine Ergebnisseite identifiziert, die vom Server zurückgegeben werden soll.
pageSize integer Optional. Angeforderte Seitengröße. Der Server gibt möglicherweise weniger Elemente zurück, als angefordert. Wenn keine Angabe erfolgt, wählt der Server einen geeigneten Standardwert aus.
orderBy String Optional. Eine durch Kommas getrennte Liste von Feldern, nach denen sortiert werden soll. Die Sortierung erfolgt in aufsteigender Reihenfolge. Verwenden Sie „desc“ nach einem Feldnamen für eine absteigende Sortierung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich ist, enthält der Antworttext Daten mit folgender Struktur:

JSON-Darstellung

{
  "retailProductRecognitionIndexes": [
    {
      object (RetailProductRecognitionIndex)
    }
  ],
  "nextPageToken": string
}

Methode: projects.locations.retailCatalogs.retailProductRecognitionIndexes.delete

HTTP-Anfrage

DELETE https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailCatalogs/*/retailProductRecognitionIndexes/*

Pfadparameter

Name String Pflichtangabe. Kennung für ProductRecognitionIndex.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Operation.

Ressource: projects.locations.retailEndpoints

JSON-Darstellung

{
  "name": string,
  "displayName": string,
  "description": string,
  "deployedProductRecognitionIndex": string,
  "resourceState": enum(RetailResourceState),
  "productRecognitionConfig": { object(RetailProductRecognitionConfig) },
  "tagRecognitionConfig": { object(RetailTagRecognitionConfig) },
  "labels": {
    string: string,
    ...
   }
  "createTime": string,
  "updateTime": string
}

Fields


name

String

Nur Ausgabe. Ressourcenname der RetailEndpoint-Ressource.

displayName

String

Optional. Der Anzeigename des RetailEndpoint.

Beschreibung

String

Optional. Die Beschreibung des RetailEndpoint.

deployedProductRecognitionIndex

String

Nur Ausgabe. Ressourcenname des ProductRecognitionIndex, der auf diesem RetailEndpoint bereitgestellt wird.

productRecognitionConfig

Objekt

Optional. Konfiguration für die Produkterkennung.

tagRecognitionConfig

Objekt

Optional. Konfiguration für die Tagerkennung.

resourceState

enum

Nur Ausgabe. Status des RetailProductRecognitionIndex.

Labels

map (key: string, value: string)

Die Labels mit benutzerdefinierten Metadaten zum Organisieren des RetailProductRecognitionIndex.

Labelschlüssel und -werte dürfen maximal 64 Zeichen (Unicode-Codepunkte) haben und dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten. Internationale Zeichen sind zulässig.

Weitere Informationen zu Labels und Beispiele finden Sie unter https://goo.gl/xmQnxf.

Ein Objekt mit einer Liste der Paare „Schlüssel“: „Wert“. Beispiel: { "name": "wrench", "mass": "1.3kg", "count": "3" }

createTime

string (Timestamp format)

Nur Ausgabe. Der Erstellungszeitstempel.

updateTime

string (Timestamp format)

Nur Ausgabe. Der Aktualisierungszeitstempel.

RetailProductRecognitionConfig

JSON-Darstellung

{
  "productDetectionModel": string,
  "detectionConfidenceThreshold": float,
  "recognitionConfidenceThreshold": float,
  "additionalConfig": { object }
}

Fields

|

productDetectionModel String Pflichtangabe. Modell, das zum Erkennen von Produkten in Eingabebildern verwendet werden soll. Unterstützte Werte: „builtin/stable“ (Standardeinstellung) oder Name der Vertex AI-Modellressource.
detectionConfidenceThreshold float Optional. Konfidenzschwellenwert zum Filtern der Erkennungsergebnisse. Wenn nicht festgelegt, wird ein Systemstandardwert verwendet.
recognitionConfidenceThreshold float Optional. Konfidenzgrenzwert zum Filtern der Erkennungsergebnisse. Wenn nicht festgelegt, wird ein Systemstandardwert verwendet.
additionalConfig object (Struct format) Optional. Zusätzliche Konfigurationen für die Produkterkennung.

RetailTagRecognitionConfig

JSON-Darstellung

{
  "tagDetectionModel": string,
  "tagParsingModel": string,
  "detectionConfidenceThreshold": float,
  "parsingConfidenceThreshold": float,
  "additionalConfig": { object }
}

Fields

tagDetectionModel String Pflichtangabe. Modell, das zum Erkennen von Tags in Eingabebildern verwendet werden soll. Unterstützte Werte: Vertex AI-Modellressource.
tagParsingModel String Pflichtangabe. Modell zum Parsen von Text in erkannten Tags. Unterstützte Werte: Vertex AI-Modellressource.
detectionConfidenceThreshold float Optional. Konfidenzschwellenwert zum Filtern der Erkennungsergebnisse. Wenn nicht festgelegt, wird ein Systemstandardwert verwendet.
parsingConfidenceThreshold float Optional. Konfidenzgrenzwert zum Filtern der Ergebnisse der Textanalyse. Wenn nicht festgelegt, wird ein Systemstandardwert verwendet.
additionalConfig object (Struct format) Optional. Zusätzliche Konfigurationen für die Tag-Erkennung.

Methode: projects.locations.retailEndpoints.create

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*}/retailEndpoints

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfragetext

Der Anfragetext enthält eine Instanz von RetailEndpoint.

Antworttext

Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von RetailEndpoint.

Methode: projects.locations.retailEndpoints.get

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailEndpoints/*}

Pfadparameter

Name String Pflichtangabe. RetailEndpoint-Kennung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von RetailEndpoint.

Methode: projects.locations.retailEndpoints.list

HTTP-Anfrage

GET https://visionai.googleapis.com/v1alpha1/{parent=projects/*/locations/*}/retailEndpoints

Pfadparameter

Übergeordnetes Element String Pflichtangabe. Übergeordnete Kennung.

Anfrageparameter

Filter String Optional. Ein Ausdruck zum Filtern der Ergebnisse der Anfrage.
pageToken String Optional. Ein Token, das eine Ergebnisseite identifiziert, die vom Server zurückgegeben werden soll.
pageSize integer Optional. Angeforderte Seitengröße. Der Server gibt möglicherweise weniger Elemente zurück, als angefordert. Wenn keine Angabe erfolgt, wählt der Server einen geeigneten Standardwert aus.
orderBy String Optional. Eine durch Kommas getrennte Liste von Feldern, nach denen sortiert werden soll. Die Sortierung erfolgt in aufsteigender Reihenfolge. Verwenden Sie „desc“ nach einem Feldnamen für eine absteigende Sortierung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich ist, enthält der Antworttext Daten mit folgender Struktur:

JSON-Darstellung

{
  "retailEndpoints": [
    {
      object (RetailEndpoint)
    }
  ],
  "nextPageToken": string
}

Methode: projects.locations.retailEndpoints.delete

HTTP-Anfrage

DELETE https://visionai.googleapis.com/v1alpha1/{name=projects/*/locations/*/retailEndpoints/*

Pfadparameter

Name String Pflichtangabe. RetailEndpoint-Kennung.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich ist, ist der Antworttext leer.

Methode: projects.locations.retailEndpoints.deployRetailProductRecognitionIndex

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{retailEndpoint=projects/*/locations/*/retailEndpoints/*}:deployRetailProductRecognitionIndex

Pfadparameter

retailEndpoint String Pflichtangabe. Ressourcenname der RetailEndpoint-Ressource, in der die RetailProductRecognitionIndex bereitgestellt wird.

Anfragetext

JSON-Darstellung

{
  "retailProductRecognitionIndex": string,
}

Fields

retailProductRecognitionIndex String Pflichtangabe. Der Ressourcenname der zu implementierenden RetailProductRecognitionIndex.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Operation.

Methode: projects.locations.retailEndpoints.undeployRetailProductRecognitionIndex

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{retailEndpoint=projects/*/locations/*/retailEndpoints/*}:undeployRetailProductRecognitionIndex

Pfadparameter

retailEndpoint String Pflichtangabe. Ressourcenname der RetailEndpoint-Ressource, auf die die Deaktivierung angewendet werden soll.

Anfragetext

Der Anfragetext muss leer sein.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Operation.

Methode: projects.locations.retailEndpoints.batchAnalyze

HTTP-Anfrage

POST https://visionai.googleapis.com/v1alpha1/{retailEndpoint=projects/*/locations/*/retailEndpoints/*}:batchAnalyze

Pfadparameter

retailEndpoint String Pflichtangabe. Ressourcenname der RetailEndpoint, über die die Inferenzanfrage gesendet werden soll.

Anfragetext

JSON-Darstellung

{
  "gcsSource": string,
  "features": { object(Feature) },
  // Union field output can be only one of the following:
  "outputGcsDestination": string,
  "corpus": string,
  // End of list of possible types for union field output.
  "bigqueryTable": string
}

Fields

gcsSource String Pflichtangabe. Der Cloud Storage-Speicherort für die Eingabeinhalte. Es können mehrere Eingabeorte angegeben werden. Der Inhalt aller Eingabespeicherorte wird in einem Batch verarbeitet. Unterstützte Inhalte: TXT-Datei, jede Zeile ist der vollständige Pfad zu einem Bild. Pro Anfrage können maximal 50.000 Bilder unterstützt werden.
outputGcsDestination String Optional. Der Cloud Storage-Speicherort des Verzeichnisses, in das die Ausgabe geschrieben werden soll.
Korpus String Optional. Ressourcenname des Bild-Warehouse-Korpus. Wird bisher nicht unterstützt.
bigqueryTable String Optional. Ressourcenname der BigQuery-Tabelle für Anmerkungsexporte. Im Format „projects/*/datasets/*/tables/*“. Wenn diese Option festgelegt ist, werden auch Anmerkungen, die durch ML-Inferenz generiert wurden, in die angegebene BigQuery-Tabelle exportiert. Wird bisher nicht unterstützt.
features[] Object Pflichtangabe. Die Art der durchzuführenden ML-Inferenz.

Funktion

JSON-Darstellung

{
  "type": enum(Type),
  "productRecognitionConfig": object(RetailProductRecognitionConfig),
  "tagRecognitionConfig": object(RetailTagRecognitionConfig)
}

Fields

Typ enum Pflichtangabe. Der Featuretyp.
productRecognitionConfig Objekt Optional. Überschreibungen für die Produkterkennung pro Anfrage. Sie ist nur wirksam, wenn „type“ auf „TYPE_PRODUCT_RECOGNITION“ festgelegt ist.
tagRecognitionConfig Objekt Optional. Überschreibungen für die Tagerkennung pro Anfrage. Sie ist nur wirksam, wenn „type“ auf „TYPE_TAG_RECOGNITION“ festgelegt ist.

Antworttext

Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von Operation.

Typen

GcsSource

JSON-Darstellung

{
  "uris": [string]
}

Fields

uris[] String Pflichtangabe. Verweise auf Cloud Storage-Pfade

Typ

ENUM-Werte

TYPE_UNSPECIFIED Der Standardwert. Sollte nicht verwendet werden.
TYPE_PRODUCT_RECOGNITION Produkterkennung Muss auf einem RetailEndpoint mit bereitgestelltem RetailProductRecognitionIndex verwendet werden.
TYPE_TAG_RECOGNITION Tag-Erkennung und ‑Parsing Muss auf einer RetailEndpoint mit RetailTagRecognitionConfig verwendet werden.

RetailProductIoFormat

JSON-Darstellung

{
  "retailProduct": { object(RetailProduct) },
  "retailProductImages": [ { object(RetailProductImage) }]
}

Fields

retailProduct Objekt Pflichtangabe. RetailProduct zu importieren
retailProductImages[ ] Objekt Optional. RetailProductImages der zu importierenden RetailProduct.

RetailResourceState

ENUM-Werte

RETAIL_RESOURCE_STATE_UNSPECIFIED Der Standardwert. Sollte nicht verwendet werden.
RETAIL_RESOURCE_STATE_CREATING Status: Erstellung
RETAIL_RESOURCE_STATE_CREATED Status „Erstellt“
RETAIL_RESOURCE_STATE_UPDATING Status wird aktualisiert.
RETAIL_RESOURCE_STATE_DELETED Status gelöscht.
RETAIL_RESOURCE_STATE_ERROR Statusfehler.