Antwort vom LLM zurückgeben
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
In diesem Beispiel wird gezeigt, wie Sie eine Abrufabfrage ausführen, um eine Antwort vom LLM zu erhalten.
Weitere Informationen
Eine ausführliche Dokumentation, die dieses Codebeispiel enthält, finden Sie hier:
Codebeispiel
Nächste Schritte
Wenn Sie nach Codebeispielen für andere Google Cloud -Produkte suchen und filtern möchten, können Sie den Google Cloud -Beispielbrowser verwenden.
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],[],[],[],null,["# Return the response from the LLM\n\nThis sample demonstrates how to run a retrieval query to get a response from the LLM.\n\nExplore further\n---------------\n\n\nFor detailed documentation that includes this code sample, see the following:\n\n- [RAG Engine API](/vertex-ai/generative-ai/docs/model-reference/rag-api-v1)\n- [Use a Weaviate database with Vertex AI RAG Engine](/vertex-ai/generative-ai/docs/rag-engine/use-weaviate-db)\n- [Use Vertex AI Feature Store in Vertex AI RAG Engine](/vertex-ai/generative-ai/docs/rag-engine/use-feature-store-with-rag)\n- [Use Vertex AI Search as a retrieval backend using Vertex AI RAG Engine](/vertex-ai/generative-ai/docs/rag-engine/use-vertexai-search)\n- [Use Vertex AI Vector Search with Vertex AI RAG Engine](/vertex-ai/generative-ai/docs/rag-engine/use-vertexai-vector-search)\n\nCode sample\n-----------\n\n### Python\n\n\nBefore trying this sample, follow the Python setup instructions in the\n[Vertex AI quickstart using\nclient libraries](/vertex-ai/docs/start/client-libraries).\n\n\nFor more information, see the\n[Vertex AI Python API\nreference documentation](/python/docs/reference/aiplatform/latest).\n\n\nTo authenticate to Vertex AI, set up Application Default Credentials.\nFor more information, see\n\n[Set up authentication for a local development environment](/docs/authentication/set-up-adc-local-dev-environment).\n\n\n from vertexai import rag\n import https://cloud.google.com/python/docs/reference/vertexai/latest/\n\n # TODO(developer): Update and un-comment below lines\n # PROJECT_ID = \"your-project-id\"\n # corpus_name = \"projects/[PROJECT_ID]/locations/us-central1/ragCorpora/[rag_corpus_id]\"\n\n # Initialize Vertex AI API once per session\n https://cloud.google.com/python/docs/reference/vertexai/latest/.init(project=PROJECT_ID, location=\"us-central1\")\n\n response = rag.retrieval_query(\n rag_resources=[\n rag.RagResource(\n rag_corpus=corpus_name,\n # Optional: supply IDs from `rag.list_files()`.\n # rag_file_ids=[\"rag-file-1\", \"rag-file-2\", ...],\n )\n ],\n text=\"Hello World!\",\n rag_retrieval_config=rag.RagRetrievalConfig(\n top_k=10,\n filter=rag.utils.resources.Filter(vector_distance_threshold=0.5),\n ),\n )\n print(response)\n # Example response:\n # contexts {\n # contexts {\n # source_uri: \"gs://your-bucket-name/file.txt\"\n # text: \"....\n # ....\n\nWhat's next\n-----------\n\n\nTo search and filter code samples for other Google Cloud products, see the\n[Google Cloud sample browser](/docs/samples?product=generativeaionvertexai)."]]