GenerativeModel(
model_name: str,
*,
generation_config: typing.Optional[
typing.Union[
vertexai.generative_models._generative_models.GenerationConfig,
typing.Dict[str, typing.Any],
]
] = None,
safety_settings: typing.Optional[
typing.Union[
typing.List[vertexai.generative_models._generative_models.SafetySetting],
typing.Dict[
google.cloud.aiplatform_v1beta1.types.content.HarmCategory,
google.cloud.aiplatform_v1beta1.types.content.SafetySetting.HarmBlockThreshold,
],
]
] = None,
tools: typing.Optional[
typing.List[vertexai.generative_models._generative_models.Tool]
] = None,
tool_config: typing.Optional[
vertexai.generative_models._generative_models.ToolConfig
] = None,
system_instruction: typing.Optional[
typing.Union[
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
typing.List[
typing.Union[
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
]
],
]
] = None
)
Inizializza GenerativeModel.
Utilizzo:
model = GenerativeModel("gemini-pro")
print(model.generate_content("Hello"))
```
Parametro |
|
---|---|
Nome | Description |
model_name |
str
Nome della risorsa del modello di Model Garden. In alternativa, è possibile fornire un nome di risorsa dell'endpoint del modello ottimizzato. |
Metodi
count_tokens
count_tokens(
contents: typing.Union[
typing.List[vertexai.generative_models._generative_models.Content],
typing.List[typing.Dict[str, typing.Any]],
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
typing.List[
typing.Union[
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
]
],
]
) -> google.cloud.aiplatform_v1beta1.types.prediction_service.CountTokensResponse
Conta i token.
Parametro | |
---|---|
Nome | Description |
contents |
typing.Union[typing.List[Content], typing.List[typing.Dict[str, typing.Any]], str, Image, Part, typing.List[typing.Union[str, Image, Part]]]
Contenuti da inviare al modello. Supporta un elenco di oggetti Content (per il passaggio di una conversazione a turni multipli) o un valore che può essere convertito in un singolo oggetto Content (il passaggio di un singolo messaggio). Supporta * str, Image, Part, * List[Union[str, Image, Part]], * List[Content] |
Restituisce | |
---|---|
Tipo | Description |
A CountTokensResponse object that has the following attributes |
total_tokens: il numero totale di token conteggiati in tutte le istanze della richiesta. total_billable_characters: il numero totale di caratteri fatturabili conteggiati in tutte le istanze della richiesta. |
count_tokens_async
count_tokens_async(
contents: typing.Union[
typing.List[vertexai.generative_models._generative_models.Content],
typing.List[typing.Dict[str, typing.Any]],
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
typing.List[
typing.Union[
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
]
],
]
) -> google.cloud.aiplatform_v1beta1.types.prediction_service.CountTokensResponse
Conta i token in modo asincrono.
Parametro | |
---|---|
Nome | Description |
contents |
typing.Union[typing.List[Content], typing.List[typing.Dict[str, typing.Any]], str, Image, Part, typing.List[typing.Union[str, Image, Part]]]
Contenuti da inviare al modello. Supporta un elenco di oggetti Content (per il passaggio di una conversazione a turni multipli) o un valore che può essere convertito in un singolo oggetto Content (il passaggio di un singolo messaggio). Supporta * str, Image, Part, * List[Union[str, Image, Part]], * List[Content] |
Restituisce | |
---|---|
Tipo | Description |
And awaitable for a CountTokensResponse object that has the following attributes |
total_tokens: il numero totale di token conteggiati in tutte le istanze della richiesta. total_billable_characters: il numero totale di caratteri fatturabili conteggiati in tutte le istanze della richiesta. |
generate_content
generate_content(
contents: typing.Union[
typing.List[vertexai.generative_models._generative_models.Content],
typing.List[typing.Dict[str, typing.Any]],
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
typing.List[
typing.Union[
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
]
],
],
*,
generation_config: typing.Optional[
typing.Union[
vertexai.generative_models._generative_models.GenerationConfig,
typing.Dict[str, typing.Any],
]
] = None,
safety_settings: typing.Optional[
typing.Union[
typing.List[vertexai.generative_models._generative_models.SafetySetting],
typing.Dict[
google.cloud.aiplatform_v1beta1.types.content.HarmCategory,
google.cloud.aiplatform_v1beta1.types.content.SafetySetting.HarmBlockThreshold,
],
]
] = None,
tools: typing.Optional[
typing.List[vertexai.generative_models._generative_models.Tool]
] = None,
tool_config: typing.Optional[
vertexai.generative_models._generative_models.ToolConfig
] = None,
stream: bool = False
) -> typing.Union[
vertexai.generative_models._generative_models.GenerationResponse,
typing.Iterable[vertexai.generative_models._generative_models.GenerationResponse],
]
Genera contenuti.
Parametro | |
---|---|
Nome | Description |
contents |
typing.Union[typing.List[Content], typing.List[typing.Dict[str, typing.Any]], str, Image, Part, typing.List[typing.Union[str, Image, Part]]]
Contenuti da inviare al modello. Supporta un elenco di oggetti Content (per il passaggio di una conversazione a turni multipli) o un valore che può essere convertito in un singolo oggetto Content (il passaggio di un singolo messaggio). Supporta * str, Image, Part, * List[Union[str, Image, Part]], * List[Content] |
generate_content_async
generate_content_async(
contents: typing.Union[
typing.List[vertexai.generative_models._generative_models.Content],
typing.List[typing.Dict[str, typing.Any]],
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
typing.List[
typing.Union[
str,
vertexai.generative_models._generative_models.Image,
vertexai.generative_models._generative_models.Part,
]
],
],
*,
generation_config: typing.Optional[
typing.Union[
vertexai.generative_models._generative_models.GenerationConfig,
typing.Dict[str, typing.Any],
]
] = None,
safety_settings: typing.Optional[
typing.Union[
typing.List[vertexai.generative_models._generative_models.SafetySetting],
typing.Dict[
google.cloud.aiplatform_v1beta1.types.content.HarmCategory,
google.cloud.aiplatform_v1beta1.types.content.SafetySetting.HarmBlockThreshold,
],
]
] = None,
tools: typing.Optional[
typing.List[vertexai.generative_models._generative_models.Tool]
] = None,
tool_config: typing.Optional[
vertexai.generative_models._generative_models.ToolConfig
] = None,
stream: bool = False
) -> typing.Union[
vertexai.generative_models._generative_models.GenerationResponse,
typing.AsyncIterable[
vertexai.generative_models._generative_models.GenerationResponse
],
]
Genera i contenuti in modo asincrono.
Parametro | |
---|---|
Nome | Description |
contents |
typing.Union[typing.List[Content], typing.List[typing.Dict[str, typing.Any]], str, Image, Part, typing.List[typing.Union[str, Image, Part]]]
Contenuti da inviare al modello. Supporta un elenco di oggetti Content (per il passaggio di una conversazione a turni multipli) o un valore che può essere convertito in un singolo oggetto Content (il passaggio di un singolo messaggio). Supporta * str, Image, Part, * List[Union[str, Image, Part]], * List[Content] |
start_chat
start_chat(
*,
history: typing.Optional[
typing.List[vertexai.generative_models._generative_models.Content]
] = None,
response_validation: bool = True,
responder: typing.Optional[
vertexai.generative_models._generative_models.AutomaticFunctionCallingResponder
] = None
) -> vertexai.generative_models._generative_models.ChatSession
Crea una sessione di chat stateful.