Google의 Gemini 2.5 Flash는 필요할 때 속도를 제공하고, 여유가 있을 때 추론을 제공합니다.
- Google는 Gemini 2.5 Flash를 출시하여 경량 AI 모델의 더 빠르고 유연한 버전을 선보였습니다.
- 개발자는 Google AI Studio와 Vertex AI를 통해 Gemini API로 이를 시험해볼 수 있으며, 최종 사용자용 Gemini 앱에서도 사용할 수 있습니다.
- Gemini 2.0 Flash 기반으로 구축된 이번 버전은 더 강력한 추론을 제공하며 속도와 비용을 최적화하도록 설계되었습니다.
- 사용자는 시스템의 "사고" 정도를 제어하여 품질, 응답 시간, 비용을 균형있게 설정할 수 있습니다.
- "사고"를 끄더라도 Gemini 2.5 Flash는 전작보다 뛰어난 성능을 보이며, 켜면 품질이 개선되나 가격은 응답당 $0.004에서 $3.50로 증가합니다.
- 가격이 증가하면서도 여전히 비교 가능한 시스템보다 저렴하며, OpenAI의 o4-mini만이 유사한 가격 성능을 보입니다.
- Flash는 Google의 Gemini 2.5 하이브리드 모델 군을 확장합니다.
- Flash는 속도와 비용을 중시하며, Gemini 2.5 Pro는 풀스케일 추론과 멀티모달 지원을 요구하는 더 까다로운 작업을 목표로 합니다.
- Gemini 2.5 Pro는 현재 Google AI Studio와 Gemini Advanced 구독자에게 제공되며, 수학, 과학, 프로그래밍 작업에서 높은 성능을 보입니다.
- Pro는 더 높은 가격을 요구하며, 입력 토큰은 백만당 $1.25에서 $2.50까지 소요됩니다.
- Flash와 Pro는 개발자에게 속도, 비용, 추론 기능 측면에서 더 많은 유연성을 제공합니다. 이는 다양한 사용 사례를 위한 Google의 AI 옵션 확장 전략의 일환입니다.
3the-decoder.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.