Realizar una búsqueda de similitud de vectores en Spanner buscando los vecinos más cercanos de K

En esta página, se describe cómo realizar la búsqueda de similitud de vectores en Spanner con las funciones de vectores de distancia coseno, distancia euclidiana y producto punto para encontrar los vecinos K-nearest. Antes de leer esta página, es importante que comprendas los siguientes conceptos:

  • Distancia euclidiana: mide la distancia más corta entre dos vectores.
  • Distancia cosenoidal: mide el coseno del ángulo entre dos vectores.
  • Producto escalar: Calcula el coseno del ángulo multiplicado por el producto de las magnitudes vectoriales correspondientes. Si sabes que todas las incorporaciones vectoriales en tu conjunto de datos normalizado, puedes usar DOT_PRODUCT() como función de distancia.
  • Vecinos más cercanos (KNN): un algoritmo de aprendizaje automático supervisado que se usa para resolver problemas de problemas de regresión.

Puedes usar funciones de distancia vectorial para realizar vecinos K-más cercanos (KNN) búsqueda de vectores para casos de uso como la búsqueda de similitud o la recuperación generación. Spanner admite COSINE_DISTANCE(), las funciones EUCLIDEAN_DISTANCE() y DOT_PRODUCT(), que operan en un vector lo que te permite encontrar el KNN de la incorporación de entrada.

Por ejemplo, después de generar y guardar tus datos operativos de Spanner como incorporaciones de vectores, puedes proporcionar estas incorporaciones de vectores como un parámetro de entrada en tu consulta para encontrar los vectores más cercanos en el espacio de N dimensiones y buscar elementos relacionados o semánticamente similares.

Las tres funciones de distancia toman los argumentos vector1 y vector2, que son del tipo array<>, y deben tener las mismas dimensiones y la misma longitud. Para obtener más detalles sobre estas funciones, consulta:

Ejemplos

En los siguientes ejemplos, se muestra la búsqueda de KNN, la búsqueda de KNN en datos particionados y el uso de un índice secundario con KNN.

Todos los ejemplos usan EUCLIDEAN_DISTANCE(). También puedes usar COSINE_DISTANCE() Además, si todas las embeddings de vectores de tu conjunto de datos están normalizadas, puedes usar DOT_PRODUCT() como una función de distancia.

Considera una tabla Documents que tiene una columna (DocEmbedding) de incorporaciones de texto precalculadas de la columna de bytes DocContents.

GoogleSQL

CREATE TABLE Documents (
UserId       INT64 NOT NULL,
DocId        INT64 NOT NULL,
Author       STRING(1024),
DocContents  BYTES,
DocEmbedding ARRAY<FLOAT32>
) PRIMARY KEY (UserId, DocId);

PostgreSQL

CREATE TABLE Documents (
UserId       bigint primary key,
DocId        bigint primary key,
Author       varchar(1024),
DocContents  bytea,
DocEmbedding float4[]
);

Suponiendo que una incorporación de entrada para “béisbol, pero no béisbol profesional” sea el array [0.3, 0.3, 0.7, 0.7], puedes encontrar los cinco documentos más cercanos que coincidan con la siguiente consulta:

GoogleSQL

SELECT DocId, DocEmbedding FROM Documents
ORDER BY EUCLIDEAN_DISTANCE(DocEmbedding,
ARRAY<FLOAT32>[0.3, 0.3, 0.7, 0.8])
LIMIT 5;

PostgreSQL

SELECT DocId, DocEmbedding FROM Documents
ORDER BY spanner.euclidean_distance(DocEmbedding,
'{0.3, 0.3, 0.7, 0.8}'::float4[])
LIMIT 5;

Estos son los resultados esperados de este ejemplo:

Documents
+---------------------------+-----------------+
| DocId                     | DocEmbedding    |
+---------------------------+-----------------+
| 24                        | [8, ...]        |
+---------------------------+-----------------+
| 25                        | [6, ...]        |
+---------------------------+-----------------+
| 26                        | [3.2, ...]      |
+---------------------------+-----------------+
| 27                        | [38, ...]       |
+---------------------------+-----------------+
| 14229                     | [1.6, ...]      |
+---------------------------+-----------------+

Ejemplo 2: Búsqueda de KNN en datos particionados

La consulta del ejemplo anterior puede modificarse agregando condiciones a la WHERE para limitar la búsqueda vectorial a un subconjunto de tus datos. Un problema común su aplicación es buscar datos particionados, como filas que pertenecen a un UserId específico.

GoogleSQL

SELECT UserId, DocId, DocEmbedding FROM Documents
WHERE UserId=18
ORDER BY EUCLIDEAN_DISTANCE(DocEmbedding,
ARRAY<FLOAT32>[0.3, 0.3, 0.7, 0.8])
LIMIT 5;

PostgreSQL

SELECT UserId, DocId, DocEmbedding FROM Documents
WHERE UserId=18
ORDER BY spanner.euclidean_distance(DocEmbedding,
'{0.3, 0.3, 0.7, 0.8}'::float4[])
LIMIT 5;

Estos son los resultados esperados de este ejemplo:

Documents
+-----------+-----------------+-----------------+
| UserId    | DocId           | DocEmbedding    |
+-----------+-----------------+-----------------+
| 18        | 234             | [12, ...]       |
+-----------+-----------------+-----------------+
| 18        | 12              | [1.6, ...]      |
+-----------+-----------------+-----------------+
| 18        | 321             | [22, ...]       |
+-----------+-----------------+-----------------+
| 18        | 432             | [3, ...]        |
+-----------+-----------------+-----------------+

Ejemplo 3: Búsqueda de KNN en rangos de índices secundarios

Si el filtro de la cláusula WHERE que usas no forma parte de la clave primaria de la tabla, puedes crear un índice secundario para acelerar la operación con una análisis de solo índices.

GoogleSQL

CREATE INDEX DocsByAuthor
ON Documents(Author)
STORING (DocEmbedding);

SELECT Author, DocId, DocEmbedding FROM Documents
WHERE Author="Mark Twain"
ORDER BY EUCLIDEAN_DISTANCE(DocEmbedding,
   <embeddings for "book about the time traveling American">)
LIMIT 5;

PostgreSQL

CREATE INDEX DocsByAuthor
ON Documents(Author)
INCLUDE (DocEmbedding);

SELECT Author, DocId, DocEmbedding FROM Documents
WHERE Author="Mark Twain"
ORDER BY spanner.euclidean_distance(DocEmbedding,
   <embeddings for "that book about the time traveling American">)
LIMIT 5;

Estos son los resultados esperados de este ejemplo:

Documents
+------------+-----------------+-----------------+
| Author     | DocId           | DocEmbedding    |
+------------+-----------------+-----------------+
| Mark Twain | 234             | [12, ...]       |
+------------+-----------------+-----------------+
| Mark Twain | 12              | [1.6, ...]      |
+------------+-----------------+-----------------+
| Mark Twain | 321             | [22, ...]       |
+------------+-----------------+-----------------+
| Mark Twain | 432             | [3, ...]        |
+------------+-----------------+-----------------+
| Mark Twain | 375             | [9, ...]        |
+------------+-----------------+-----------------+

¿Qué sigue?