Documentazione dell'API per il pacchetto generative_models
.
Corsi
Candidato
Un candidato di risposta generato dal modello.
ChatSession
La sessione di chat archivia la cronologia chat.
Contenuti
I contenuti in più parti di un messaggio.
Utilizzo:
response = model.generate_content(contents=[
Content(role="user", parts=[Part.from_text("Why is sky blue?")])
])
```
FinishReason
Il motivo per cui il modello ha smesso di generare token. Se è vuoto, il modello non ha smesso di generare i token.
FunctionDeclaration
Una rappresentazione della dichiarazione di una funzione.
Utilizzo: crea la dichiarazione della funzione e lo strumento:
get_current_weather_func = generative_models.FunctionDeclaration(
name="get_current_weather",
description="Get the current weather in a given location",
parameters={
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit",
]
}
},
"required": [
"location"
]
},
)
weather_tool = generative_models.Tool(
function_declarations=[get_current_weather_func],
)
```
Use tool in `GenerativeModel.generate_content`:
```
model = GenerativeModel("gemini-pro")
print(model.generate_content(
"What is the weather like in Boston?",
# You can specify tools when creating a model to avoid having to send them with every request.
tools=[weather_tool],
))
```
Use tool in chat:
```
model = GenerativeModel(
"gemini-pro",
# You can specify tools when creating a model to avoid having to send them with every request.
tools=[weather_tool],
)
chat = model.start_chat()
print(chat.send_message("What is the weather like in Boston?"))
print(chat.send_message(
Part.from_function_response(
name="get_current_weather",
response={
"content": {"weather_there": "super nice"},
}
),
))
```
GenerationConfig
Parametri per la generazione.
GenerationResponse
La risposta dal modello.
GenerativeModel
Inizializza GenerativeModel.
Utilizzo:
model = GenerativeModel("gemini-pro")
print(model.generate_content("Hello"))
```
HarmBlockThreshold
Livelli di soglia di blocco basati sulla probabilità.
HarmCategory
Categorie di danni che bloccano i contenuti.
Image
L'immagine che può essere inviata a un modello generativo.
Pezzo
Una parte di un messaggio Contenuti in più parti.
Utilizzo:
text_part = Part.from_text("Why is sky blue?")
image_part = Part.from_image(Image.load_from_file("image.jpg"))
video_part = Part.from_uri(uri="gs://.../video.mp4", mime_type="video/mp4")
function_response_part = Part.from_function_response(
name="get_current_weather",
response={
"content": {"weather_there": "super nice"},
}
)
response1 = model.generate_content([text_part, image_part])
response2 = model.generate_content(video_part)
response3 = chat.send_message(function_response_part)
```
ResponseValidationError
Classe base comune per tutte le eccezioni diverse dalle uscite.
SafetySetting
Parametri per la generazione.
Strumento
Una raccolta di funzioni che il modello può utilizzare per generare la risposta.
Utilizzo: crea lo strumento dalle dichiarazioni delle funzioni:
get_current_weather_func = generative_models.FunctionDeclaration(...)
weather_tool = generative_models.Tool(
function_declarations=[get_current_weather_func],
)
```
Use tool in `GenerativeModel.generate_content`:
```
model = GenerativeModel("gemini-pro")
print(model.generate_content(
"What is the weather like in Boston?",
# You can specify tools when creating a model to avoid having to send them with every request.
tools=[weather_tool],
))
```
Use tool in chat:
```
model = GenerativeModel(
"gemini-pro",
# You can specify tools when creating a model to avoid having to send them with every request.
tools=[weather_tool],
)
chat = model.start_chat()
print(chat.send_message("What is the weather like in Boston?"))
print(chat.send_message(
Part.from_function_response(
name="get_current_weather",
response={
"content": {"weather_there": "super nice"},
}
),
))
```