CodeChatSession(
model: vertexai.language_models.CodeChatModel,
context: typing.Optional[str] = None,
max_output_tokens: typing.Optional[int] = None,
temperature: typing.Optional[float] = None,
message_history: typing.Optional[
typing.List[vertexai.language_models.ChatMessage]
] = None,
stop_sequences: typing.Optional[typing.List[str]] = None,
)
CodeChatSession rappresenta una sessione di chat con un modello di linguaggio della chat di codice.
All'interno di una sessione di chat di codice, il modello mantiene il contesto e ricorda la conversazione precedente.
Proprietà
message_history
Elenco dei messaggi precedenti.
Metodi
send_message
send_message(
message: str,
*,
max_output_tokens: typing.Optional[int] = None,
temperature: typing.Optional[float] = None,
stop_sequences: typing.Optional[typing.List[str]] = None,
candidate_count: typing.Optional[int] = None
) -> vertexai.language_models.MultiCandidateTextGenerationResponse
Invia un messaggio al modello di chat di codice e riceve una risposta.
Parametro | |
---|---|
Nome | Description |
message |
str
Messaggio da inviare al modello |
send_message_async
send_message_async(
message: str,
*,
max_output_tokens: typing.Optional[int] = None,
temperature: typing.Optional[float] = None,
candidate_count: typing.Optional[int] = None
) -> vertexai.language_models.MultiCandidateTextGenerationResponse
Invia in modo asincrono un messaggio al modello di chat di codice e riceve una risposta.
Parametro | |
---|---|
Nome | Description |
message |
str
Messaggio da inviare al modello |
send_message_streaming
send_message_streaming(
message: str,
*,
max_output_tokens: typing.Optional[int] = None,
temperature: typing.Optional[float] = None,
stop_sequences: typing.Optional[typing.List[str]] = None
) -> typing.Iterator[vertexai.language_models.TextGenerationResponse]
Invia un messaggio al modello linguistico e riceve una risposta riprodotta in streaming.
La risposta viene aggiunta alla cronologia solo dopo che è stata letta per intero.
Parametro | |
---|---|
Nome | Description |
message |
str
Messaggio da inviare al modello |
send_message_streaming_async
send_message_streaming_async(
message: str,
*,
max_output_tokens: typing.Optional[int] = None,
temperature: typing.Optional[float] = None,
stop_sequences: typing.Optional[typing.List[str]] = None
) -> typing.AsyncIterator[vertexai.language_models.TextGenerationResponse]
Invia in modo asincrono un messaggio al modello linguistico e riceve una risposta trasmessa in streaming.
La risposta viene aggiunta alla cronologia solo dopo che è stata letta per intero.
Parametro | |
---|---|
Nome | Description |
message |
str
Messaggio da inviare al modello |