Realiza una búsqueda de vectores de similitud en Spanner mediante la búsqueda de los vecinos K-más cercanos

En esta página, se describe cómo realizar una búsqueda de vectores de similitud en Spanner mediante el uso de las funciones de distancia coseno, distancia euclidiana y vector de producto punto para encontrar vecinos de K-más cercanos. Antes de leer esta página, es importante que comprendas los siguientes conceptos:

  • Distancia euclidiana: mide la distancia más corta entre dos vectores.
  • Distancia de coseno: Mide el coseno del ángulo entre dos vectores.
  • Producto de punto: Calcula el coseno del ángulo multiplicado por el producto de las magnitudes vectoriales correspondientes. Si sabes que todas las incorporaciones vectoriales de tu conjunto de datos están normalizadas, puedes usar DOT_PRODUCT() como función de distancia.
  • Vecinos K-más cercanos (KNN): Un algoritmo de aprendizaje automático supervisado que se usa para resolver problemas de clasificación o regresión.

Puedes usar funciones de distancia vectorial a fin de realizar búsquedas de vectores de vecinos K-más cercanos (KNN) para casos de uso como búsqueda de similitud o generación de recuperación aumentada. Spanner admite las funciones COSINE_DISTANCE(), EUCLIDEAN_DISTANCE() y DOT_PRODUCT(), que operan en incorporaciones vectoriales, lo que te permite encontrar la KNN de la incorporación de entrada.

Por ejemplo, después de generar y guardar tus datos operativos de Spanner como incorporaciones vectoriales, puedes proporcionar estas incorporaciones vectoriales como un parámetro de entrada en tu consulta para encontrar los vectores más cercanos en un espacio N-dimensional para buscar elementos semánticos similares o relacionados.

Las tres funciones de distancia toman los argumentos vector1 y vector2, que son del tipo array<>, y deben constar de las mismas dimensiones y la misma longitud. Para obtener más detalles sobre estas funciones, consulta lo siguiente:

Ejemplos

En los siguientes ejemplos, se muestra la búsqueda de KNN, la búsqueda de KNN en datos particionados y el uso de un índice secundario con KNN.

Todos los ejemplos usan EUCLIDEAN_DISTANCE(). También puedes usar COSINE_DISTANCE(). Además, si todas las incorporaciones vectoriales de tu conjunto de datos se normalizan, puedes usar DOT_PRODUCT() como función de distancia.

Considera una tabla Documents que tiene una columna (DocEmbedding) de incorporaciones de texto calculadas previamente desde la columna DocContents de bytes.

GoogleSQL

CREATE TABLE Documents (
UserId       INT64 NOT NULL,
DocId        INT64 NOT NULL,
Author       STRING(1024),
DocContents  BYTES,
DocEmbedding ARRAY<FLOAT32>
) PRIMARY KEY (UserId, DocId);

PostgreSQL

CREATE TABLE Documents (
UserId       bigint primary key,
DocId        bigint primary key,
Author       varchar(1024),
DocContents  bytea,
DocEmbedding float4[]
);

Si suponemos que una incorporación de entrada para “béisbol, pero no béisbol profesional” es el array [0.3, 0.3, 0.7, 0.7], puedes encontrar los cinco documentos más cercanos que coincidan con la siguiente consulta:

GoogleSQL

SELECT DocId, DocEmbedding FROM Documents
ORDER BY EUCLIDEAN_DISTANCE(DocEmbedding,
ARRAY<FLOAT32>[0.3, 0.3, 0.7, 0.8])
LIMIT 5;

PostgreSQL

SELECT DocId, DocEmbedding FROM Documents
ORDER BY spanner.euclidean_distance(DocEmbedding,
'{0.3, 0.3, 0.7, 0.8}'::float4[])
LIMIT 5;

Estos son los resultados esperados de este ejemplo:

Documents
+---------------------------+-----------------+
| DocId                     | DocEmbedding    |
+---------------------------+-----------------+
| 24                        | [8, ...]        |
+---------------------------+-----------------+
| 25                        | [6, ...]        |
+---------------------------+-----------------+
| 26                        | [3.2, ...]      |
+---------------------------+-----------------+
| 27                        | [38, ...]       |
+---------------------------+-----------------+
| 14229                     | [1.6, ...]      |
+---------------------------+-----------------+

Ejemplo 2: Búsqueda de KNN en datos particionados

Se puede modificar la consulta del ejemplo anterior si agregas condiciones a la cláusula WHERE para limitar la búsqueda vectorial a un subconjunto de tus datos. Una aplicación común de esto es buscar en datos particionados, como filas que pertenecen a un UserId específico.

GoogleSQL

SELECT UserId, DocId, DocEmbedding FROM Documents
WHERE UserId=18
ORDER BY EUCLIDEAN_DISTANCE(DocEmbedding,
ARRAY<FLOAT32>[0.3, 0.3, 0.7, 0.8])
LIMIT 5;

PostgreSQL

SELECT UserId, DocId, DocEmbedding FROM Documents
WHERE UserId=18
ORDER BY spanner.euclidean_distance(DocEmbedding,
'{0.3, 0.3, 0.7, 0.8}'::float4[])
LIMIT 5;

Estos son los resultados esperados de este ejemplo:

Documents
+-----------+-----------------+-----------------+
| UserId    | DocId           | DocEmbedding    |
+-----------+-----------------+-----------------+
| 18        | 234             | [12, ...]       |
+-----------+-----------------+-----------------+
| 18        | 12              | [1.6, ...]      |
+-----------+-----------------+-----------------+
| 18        | 321             | [22, ...]       |
+-----------+-----------------+-----------------+
| 18        | 432             | [3, ...]        |
+-----------+-----------------+-----------------+

Ejemplo 3: Búsqueda de KNN en rangos de índice secundario

Si el filtro de la cláusula WHERE que usas no forma parte de la clave primaria de la tabla, puedes crear un índice secundario para acelerar la operación con un análisis de solo índice.

GoogleSQL

CREATE INDEX DocsByAuthor
ON Documents(Author)
STORING (DocEmbedding);

SELECT Author, DocId, DocEmbedding FROM Documents
WHERE Author="Mark Twain"
ORDER BY EUCLIDEAN_DISTANCE(DocEmbedding,
   <embeddings for "book about the time traveling American">)
LIMIT 5;

PostgreSQL

CREATE INDEX DocsByAuthor
ON Documents(Author)
INCLUDE (DocEmbedding);

SELECT Author, DocId, DocEmbedding FROM Documents
WHERE Author="Mark Twain"
ORDER BY spanner.euclidean_distance(DocEmbedding,
   <embeddings for "that book about the time traveling American">)
LIMIT 5;

Estos son los resultados esperados de este ejemplo:

Documents
+------------+-----------------+-----------------+
| Author     | DocId           | DocEmbedding    |
+------------+-----------------+-----------------+
| Mark Twain | 234             | [12, ...]       |
+------------+-----------------+-----------------+
| Mark Twain | 12              | [1.6, ...]      |
+------------+-----------------+-----------------+
| Mark Twain | 321             | [22, ...]       |
+------------+-----------------+-----------------+
| Mark Twain | 432             | [3, ...]        |
+------------+-----------------+-----------------+
| Mark Twain | 375             | [9, ...]        |
+------------+-----------------+-----------------+

¿Qué sigue?