Gemini 3.1 Flash Lite
โมเดล Gemini 3 ที่เร็วและประหยัดที่สุดของ Google
เร็วกว่า Gemini 2.5 Flash 2.5× • 363 โทเค็น/วินาที • บริบท 1M โทเค็น • ออกแบบมาเพื่อการขยายขนาด
คุณสมบัติของ Gemini 3.1 Flash Lite
ปรับให้เหมาะสมสำหรับความเร็ว ต้นทุน และงานการผลิตปริมาณสูง
โทเค็นแรกเร็วขึ้น 2.5×
Gemini 3.1 Flash Lite ทำเวลาถึงโทเค็นแรกได้เร็วกว่า Gemini 2.5 Flash 2.5 เท่า เหมาะสำหรับแอปพลิเคชันแบบเรียลไทม์และโต้ตอบ
ประสิทธิภาพต้นทุนสูงสุด
ราคาเพียงหนึ่งในแปดของ Gemini 3.1 Pro เป็นตัวเลือกที่ประหยัดที่สุดสำหรับการใช้งานในการผลิตปริมาณสูง
363 โทเค็นต่อวินาที
ทำความเร็วเอาต์พุต 363 โทเค็น/วินาที เร็วกว่า 249 โทเค็น/วินาทีของ Gemini 2.5 Flash ถึง 45% ขณะรักษาคุณภาพที่ใกล้เคียงหรือดีกว่า
รองรับอินพุตหลายรูปแบบครบถ้วน
รองรับอินพุตข้อความ รูปภาพ วิดีโอ เสียง และ PDF พร้อมหน้าต่างบริบท 1M โทเค็น เอาต์พุตเฉพาะข้อความ
ระดับการคิดแบบไดนามิก
การคิดแบบปรับตัวที่ปรับการคำนวณตามความซับซ้อนของงาน ตั้งแต่การตอบสนองทันทีไปจนถึงการใช้เหตุผลเชิงลึก
งาน Agentic ปริมาณสูง
ออกแบบมาสำหรับ agentic pipelines การดึงข้อมูลอย่างง่าย การจำแนกประเภท และการแปลในระดับขนาดใหญ่
ประสิทธิภาพของ Gemini 3.1 Flash Lite
เร็วและประหยัดที่สุดในซีรีส์ Gemini 3
ความเร็วและปริมาณงาน
ประสิทธิภาพต้นทุน
บริบทและหลายรูปแบบ
ความสามารถที่รองรับ
ผลการทดสอบ Gemini 3.1 Flash Lite
เหนือกว่า Gemini 2.5 Flash ในทุกการทดสอบหลัก — ด้วยต้นทุนที่ต่ำกว่า
| การทดสอบ | คะแนน | คำอธิบาย |
|---|---|---|
| Arena Elo | 1432 | การจัดอันดับความชอบของมนุษย์ (Arena.ai) — เหนือกว่าโมเดลในระดับเดียวกัน |
| ดัชนีความฉลาด | 34 | ดัชนีความฉลาด Artificial Analysis — +12 คะแนนจาก Gemini 2.5 Flash-Lite |
| GPQA Diamond | 86.9% | ความรู้วิทยาศาสตร์ระดับปริญญาเอก — เหนือกว่า Gemini 2.5 Flash (82.8%), Claude 4.5 Haiku (73.0%), GPT-5 mini (82.3%) |
| MMMU-Pro | 76.8% | ความเข้าใจและการใช้เหตุผลแบบหลายโหมด — เหนือกว่า Claude Opus 4.6, Kimi K2.5 และ GPT-5 mini (74.1%) |
| Video-MMMU | 84.8% | การเรียนรู้จากวิดีโอ — เหนือกว่า GPT-5 mini (82.5%) และ Grok 4.1 Fast (74.6%) |
| Humanity's Last Exam | 16.0% | การใช้เหตุผลทางวิชาการผ่านข้อความและหลายโหมด — ใกล้เคียงกับ GPT-5 mini (16.7%) |
| LiveCodeBench | 72.0% | การสร้างโค้ด (ม.ค.–พ.ค. 2025) — ดีกว่า Gemini 2.5 Flash-Lite (34.3%) ถึง 2× |
| SimpleQA ตรวจสอบแล้ว | 43.3% | ความแม่นยำของความรู้เชิงพารามิเตอร์ — ดีกว่า GPT-5 mini (9.5%) และ Claude 4.5 Haiku (5.5%) ถึง 4× |
| MMMLU (หลายภาษา) | 88.9% | ถาม-ตอบหลายภาษา — เหนือกว่า GPT-5 mini (84.9%), Claude 4.5 Haiku (83.0%), Grok 4.1 Fast (86.8%) |
| CharXiv Reasoning | 73.2% | การสังเคราะห์ข้อมูลจากกราฟซับซ้อน — เหนือกว่า Gemini 2.5 Flash (63.7%) และ Claude 4.5 Haiku (61.7%) |
| MRCR v2 (128k) | 60.1% | ประสิทธิภาพบริบทยาว (8 เข็ม, เฉลี่ย 128k) — เหนือกว่า GPT-5 mini (52.5%) และ Claude 4.5 Haiku (35.3%) |
| ความเร็วในการสร้างผลลัพธ์ | 363 tok/s | เร็วกว่า Gemini 2.5 Flash (249 tok/s) 45% — เร็วที่สุดในระดับราคาเดียวกัน |
| ราคาอินพุต | $0.25/1M | ต่อล้านโทเค็นอินพุต — แข่งขันได้กับ GPT-5 mini ($0.25/1M) |
| ราคาเอาต์พุต | $1.50/1M | ต่อล้านโทเค็นเอาต์พุต — ถูกกว่า Claude 4.5 Haiku ($5.00/1M) อย่างมาก |
ที่มา: Artificial Analysis & Arena.ai Leaderboard
เกี่ยวกับ Gemini 3.1 Flash Lite
Gemini 3.1 Flash Lite คือโมเดลที่เร็วและประหยัดที่สุดในซีรีส์ Gemini 3 ของ Google DeepMind เปิดตัวเมื่อ 3 มีนาคม 2026 ปรับให้เหมาะสมสำหรับงานที่ต้องการปริมาณงานสูงและไวต่อ latency เช่น การแปล การจำแนกประเภท และการดึงข้อมูลอย่างง่าย ด้วยปริมาณงาน 363 โทเค็น/วินาที และหน้าต่างบริบท 1M โทเค็น มอบประสิทธิภาพที่ยอดเยี่ยมในราคาเพียงเศษเสี้ยว
ประกาศสำคัญ: Gemini3.us เป็นแพลตฟอร์มชุมชนผู้ที่ชื่นชอบและนักพัฒนาอิสระ เราไม่ได้เป็นพันธมิตร ได้รับการรับรอง หรือเชื่อมต่ออย่างเป็นทางการกับ Google LLC เราให้การเข้าถึงแบบชำระเงินสำหรับบริการ Gemini API อย่างเป็นทางการของ Google เพื่อสนับสนุนโครงสร้างพื้นฐานและการดำเนินงานของเรา
เริ่มต้นกับ Gemini 3.1 Flash Lite
สัมผัสโมเดลที่เร็วและประหยัดที่สุดในซีรีส์ Gemini 3