Sessione Chat del corso (1.50.0)

ChatSession(
    model
: vertexai.language_models.ChatModel,
    context
: typing.Optional[str] = None,
    examples
: typing.Optional[
        typing
.List[vertexai.language_models.InputOutputTextPair]
   
] = None,
    max_output_tokens
: typing.Optional[int] = None,
    temperature
: typing.Optional[float] = None,
    top_k
: typing.Optional[int] = None,
    top_p
: typing.Optional[float] = None,
    message_history
: typing.Optional[
        typing
.List[vertexai.language_models.ChatMessage]
   
] = None,
    stop_sequences
: typing.Optional[typing.List[str]] = None,
)

ChatSession rappresenta una sessione di chat con un modello linguistico.

All'interno di una sessione di chat, il modello mantiene il contesto e memorizza la conversazione precedente.

Proprietà

message_history

Elenco dei messaggi precedenti.

Metodi

send_message

send_message(
    message
: str,
   
*,
    max_output_tokens
: typing.Optional[int] = None,
    temperature
: typing.Optional[float] = None,
    top_k
: typing.Optional[int] = None,
    top_p
: typing.Optional[float] = None,
    stop_sequences
: typing.Optional[typing.List[str]] = None,
    candidate_count
: typing.Optional[int] = None,
    grounding_source
: typing.Optional[
        typing
.Union[
            vertexai
.language_models._language_models.WebSearch,
            vertexai
.language_models._language_models.VertexAISearch,
            vertexai
.language_models._language_models.InlineContext,
       
]
   
] = None
) -> vertexai.language_models.MultiCandidateTextGenerationResponse

Invia un messaggio al modello linguistico e riceve una risposta.

Parametro
Nome Description
message str

Messaggio da inviare al modello

send_message_async

send_message_async(
    message
: str,
   
*,
    max_output_tokens
: typing.Optional[int] = None,
    temperature
: typing.Optional[float] = None,
    top_k
: typing.Optional[int] = None,
    top_p
: typing.Optional[float] = None,
    stop_sequences
: typing.Optional[typing.List[str]] = None,
    candidate_count
: typing.Optional[int] = None,
    grounding_source
: typing.Optional[
        typing
.Union[
            vertexai
.language_models._language_models.WebSearch,
            vertexai
.language_models._language_models.VertexAISearch,
            vertexai
.language_models._language_models.InlineContext,
       
]
   
] = None
) -> vertexai.language_models.MultiCandidateTextGenerationResponse

Invia in modo asincrono un messaggio al modello linguistico e riceve una risposta.

Parametro
Nome Description
message str

Messaggio da inviare al modello

send_message_streaming

send_message_streaming(
    message
: str,
   
*,
    max_output_tokens
: typing.Optional[int] = None,
    temperature
: typing.Optional[float] = None,
    top_k
: typing.Optional[int] = None,
    top_p
: typing.Optional[float] = None,
    stop_sequences
: typing.Optional[typing.List[str]] = None
) -> typing.Iterator[vertexai.language_models.TextGenerationResponse]

Invia un messaggio al modello linguistico e riceve una risposta riprodotta in streaming.

La risposta viene aggiunta alla cronologia solo dopo che è stata letta per intero.

Parametro
Nome Description
message str

Messaggio da inviare al modello

send_message_streaming_async

send_message_streaming_async(
    message
: str,
   
*,
    max_output_tokens
: typing.Optional[int] = None,
    temperature
: typing.Optional[float] = None,
    top_k
: typing.Optional[int] = None,
    top_p
: typing.Optional[float] = None,
    stop_sequences
: typing.Optional[typing.List[str]] = None
) -> typing.AsyncIterator[vertexai.language_models.TextGenerationResponse]

Invia in modo asincrono un messaggio al modello linguistico e riceve una risposta trasmessa in streaming.

La risposta viene aggiunta alla cronologia solo dopo che è stata letta per intero.

Parametro
Nome Description
message str

Messaggio da inviare al modello