Gemini 2.5 Flash-Lite는 짧은 지연 시간 사용 사례에 최적화된 가장 균형 잡힌 Gemini 모델입니다. 이 모델은 다른 Gemini 2.5 모델을 유용하게 만드는 것과 동일한 기능(예: 다양한 예산으로 사고를 사용 설정하는 기능, Google 검색 및 코드 실행을 통한 그라운딩과 같은 도구에 연결, 멀티모달 입력, 100만 개 토큰 컨텍스트 길이)을 제공합니다.
Gemini 2.5 Flash-Lite에 관한 자세한 기술 정보(예: 성능 벤치마크, 학습 데이터 세트 정보, 지속가능성 관련 노력, 의도된 사용 및 제한사항, 윤리 및 안전에 대한 Google의 접근 방식)는 Gemini 2.5 모델에 관한 기술 보고서를 참고하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-07-08(UTC)"],[],[],null,["# Gemini 2.5 Flash-Lite is our most balanced Gemini model,\noptimized for low latency use cases. It comes with the same capabilities that\nmake other Gemini 2.5 models helpful, such as the ability to turn\nthinking on at different budgets, connecting to tools like\nGrounding with Google Search and code execution, multimodal input, and\na 1 million-token context length.\n\nFor even more detailed technical information on Gemini 2.5 Flash-Lite (such as\nperformance benchmarks, information on our training datasets, efforts on\nsustainability, intended usage and limitations, and our approach to ethics and\nsafety), see our [technical\nreport](https://storage.googleapis.com/deepmind-media/gemini/gemini_v2_5_report.pdf)\non our Gemini 2.5 models.\n\n\n[Try in Vertex AI](https://console.cloud.google.com/vertex-ai/generative/multimodal/create/text?model=gemini-2.5-flash-lite) [(Preview) Deploy example app](https://console.cloud.google.com/vertex-ai/studio/multimodal?suggestedPrompt=How%20does%20AI%20work&deploy=true&model=gemini-2.5-flash-lite)\nNote: To use the \"Deploy example app\" feature, you need a Google Cloud project with billing and Vertex AI API enabled."]]