Google tiết lộ mô hình Gemini AI hiệu quả

Google được thiết lập để tiết lộ một mô hình AI mới, Gemini 2.5 Flash, hứa hẹn hiệu suất mạnh mẽ trong khi ưu tiên hiệu quả. Mô hình này sẽ được tích hợp vào Vertex AI, nền tảng của Google để phát triển AI. Theo Google, Gemini 2.5 Flash cung cấp các khả năng tính toán "động và có thể kiểm soát", cho phép các nhà phát triển điều chỉnh thời gian xử lý theo độ phức tạp của các truy vấn của họ.
Trong một bài đăng trên blog được chia sẻ với TechCrunch, Google đã tuyên bố: "Bạn có thể điều chỉnh tốc độ, độ chính xác và cân bằng chi phí cho các nhu cầu cụ thể của bạn. Tính linh hoạt này là chìa khóa để tối ưu hóa hiệu suất flash trong các ứng dụng có khối lượng lớn, nhạy cảm với chi phí." Cách tiếp cận này đến vào thời điểm mà các chi phí liên quan đến các mô hình AI hàng đầu đang tăng lên. Các mô hình như Gemini 2.5 Flash, thân thiện với ngân sách hơn trong khi vẫn mang lại hiệu suất vững chắc, phục vụ như một sự thay thế hấp dẫn cho các tùy chọn đắt tiền hơn, mặc dù có một chút đánh đổi chính xác.
Gemini 2.5 Flash được phân loại thành một mô hình "lý luận", tương tự như O3-mini của Openai và R1 của Deepseek. Những mô hình này mất nhiều thời gian hơn để trả lời khi họ kiểm tra thực tế câu trả lời của họ, đảm bảo độ tin cậy. Google nhấn mạnh rằng 2.5 Flash đặc biệt phù hợp cho các ứng dụng "khối lượng lớn" và "thời gian thực", chẳng hạn như dịch vụ khách hàng và phân tích tài liệu.
Google mô tả 2.5 flash là một "mô hình công việc" trong bài đăng trên blog của họ, nói: "Nó được tối ưu hóa dành riêng cho độ trễ thấp và giảm chi phí. Đó là động cơ lý tưởng cho các trợ lý ảo đáp ứng và các công cụ tóm tắt thời gian thực trong đó hiệu quả ở quy mô là chìa khóa." Tuy nhiên, Google đã không công bố báo cáo an toàn hoặc kỹ thuật cho mô hình này, điều này khiến cho việc xác định điểm mạnh và điểm yếu của nó trở nên khó khăn hơn. Công ty đã đề cập trước đây với TechCrunch rằng họ không phát hành các báo cáo cho các mô hình mà nó cho là "thử nghiệm".
Vào thứ Tư, Google cũng đã tiết lộ kế hoạch mở rộng các mô hình Song Tử, bao gồm 2.5 flash, cho các môi trường tại chỗ bắt đầu trong quý thứ ba. Các mô hình này sẽ có sẵn trên Google Distributed Cloud (GDC), giải pháp tại chỗ của Google được thiết kế cho các máy khách có nhu cầu quản trị dữ liệu nghiêm ngặt. Google đang hợp tác với NVIDIA để làm cho các mô hình Gemini tương thích với các hệ thống NVIDIA Blackwell tuân thủ GDC, khách hàng có thể mua trực tiếp từ Google hoặc thông qua các kênh ưa thích khác.
Bài viết liên quan
Imagen 4 is Google’s newest AI image generator
Google has just unveiled its latest image-generating AI model, Imagen 4, promising users an even better visual experience than its predecessor, Imagen 3. Announced at Google I/O 20
Google's Gemini Code Assist Enhances AI Coding with New Agentic Capabilities
Gemini Code Assist, Google's AI-powered coding companion, is rolling out exciting new "agentic" features in a preview mode. At the recent Cloud Next conference, Google unveiled how
Google’s AI Futures Fund may have to tread carefully
Google’s New AI Investment Initiative: A Strategic Shift Amid Regulatory ScrutinyGoogle's recent announcement of an AI Futures Fund marks a bold move in the tech giant's ongoing qu
Nhận xét (0)
0/200
Google được thiết lập để tiết lộ một mô hình AI mới, Gemini 2.5 Flash, hứa hẹn hiệu suất mạnh mẽ trong khi ưu tiên hiệu quả. Mô hình này sẽ được tích hợp vào Vertex AI, nền tảng của Google để phát triển AI. Theo Google, Gemini 2.5 Flash cung cấp các khả năng tính toán "động và có thể kiểm soát", cho phép các nhà phát triển điều chỉnh thời gian xử lý theo độ phức tạp của các truy vấn của họ.
Trong một bài đăng trên blog được chia sẻ với TechCrunch, Google đã tuyên bố: "Bạn có thể điều chỉnh tốc độ, độ chính xác và cân bằng chi phí cho các nhu cầu cụ thể của bạn. Tính linh hoạt này là chìa khóa để tối ưu hóa hiệu suất flash trong các ứng dụng có khối lượng lớn, nhạy cảm với chi phí." Cách tiếp cận này đến vào thời điểm mà các chi phí liên quan đến các mô hình AI hàng đầu đang tăng lên. Các mô hình như Gemini 2.5 Flash, thân thiện với ngân sách hơn trong khi vẫn mang lại hiệu suất vững chắc, phục vụ như một sự thay thế hấp dẫn cho các tùy chọn đắt tiền hơn, mặc dù có một chút đánh đổi chính xác.
Gemini 2.5 Flash được phân loại thành một mô hình "lý luận", tương tự như O3-mini của Openai và R1 của Deepseek. Những mô hình này mất nhiều thời gian hơn để trả lời khi họ kiểm tra thực tế câu trả lời của họ, đảm bảo độ tin cậy. Google nhấn mạnh rằng 2.5 Flash đặc biệt phù hợp cho các ứng dụng "khối lượng lớn" và "thời gian thực", chẳng hạn như dịch vụ khách hàng và phân tích tài liệu.
Google mô tả 2.5 flash là một "mô hình công việc" trong bài đăng trên blog của họ, nói: "Nó được tối ưu hóa dành riêng cho độ trễ thấp và giảm chi phí. Đó là động cơ lý tưởng cho các trợ lý ảo đáp ứng và các công cụ tóm tắt thời gian thực trong đó hiệu quả ở quy mô là chìa khóa." Tuy nhiên, Google đã không công bố báo cáo an toàn hoặc kỹ thuật cho mô hình này, điều này khiến cho việc xác định điểm mạnh và điểm yếu của nó trở nên khó khăn hơn. Công ty đã đề cập trước đây với TechCrunch rằng họ không phát hành các báo cáo cho các mô hình mà nó cho là "thử nghiệm".
Vào thứ Tư, Google cũng đã tiết lộ kế hoạch mở rộng các mô hình Song Tử, bao gồm 2.5 flash, cho các môi trường tại chỗ bắt đầu trong quý thứ ba. Các mô hình này sẽ có sẵn trên Google Distributed Cloud (GDC), giải pháp tại chỗ của Google được thiết kế cho các máy khách có nhu cầu quản trị dữ liệu nghiêm ngặt. Google đang hợp tác với NVIDIA để làm cho các mô hình Gemini tương thích với các hệ thống NVIDIA Blackwell tuân thủ GDC, khách hàng có thể mua trực tiếp từ Google hoặc thông qua các kênh ưa thích khác.











