Open Codex, một trợ lý AI dòng lệnh nhẹ chuyển đổi ngôn ngữ tự nhiên thành lệnh shell, đang phát triển dựa trên phản hồi của cộng đồng. Mặc dù ban đầu được ra mắt với Phi-4-mini của Microsoft làm mô hình mặc định, các cuộc thảo luận cho thấy kế hoạch mở rộng hỗ trợ cho các mô hình ngôn ngữ cục bộ bổ sung, đặc biệt là Qwen 2.5.
Lựa Chọn Mô Hình Khơi Mào Thảo Luận Cộng Đồng
Việc chọn Phi-4-mini làm mô hình mặc định của Open Codex đã tạo ra nhiều thảo luận đáng kể giữa người dùng. Nhà phát triển, codingmoh, đã bảo vệ quyết định này bằng cách trích dẫn tỷ lệ chất lượng-kích thước ấn tượng của mô hình và hiệu suất mạnh mẽ trong các tác vụ suy luận nhiều bước, toán học, trích xuất dữ liệu có cấu trúc và hiểu mã. Tuy nhiên, các thành viên cộng đồng đã đề xuất các giải pháp thay thế phù hợp với xu hướng hiện tại.
Tôi đã chọn Phi làm mô hình mặc định vì, sau một số thử nghiệm, tôi thực sự ngạc nhiên về chất lượng cao so với kích thước và tốc độ của nó. Các phản hồi cảm thấy tốt hơn trong một số tác vụ suy luận nhưng lại chạy trên phần cứng ít tài nguyên hơn nhiều.
Nhiều người dùng đã chỉ ra Qwen 2.5 Coder như là tiêu chuẩn hiện tại cho các mô hình nhỏ, tập trung vào mã. Để đáp lại phản hồi này, nhà phát triển đã cam kết thêm hỗ trợ cho Qwen 2.5 tiếp theo, thừa nhận giá trị trong việc so sánh các mô hình khác nhau song song cho các tác vụ shell thực tế.
Thách Thức Tích Hợp Kỹ Thuật
Một số người dùng báo cáo vấn đề tương thích khi cố gắng sử dụng Open Codex với các mô hình nhỏ khác có sẵn thông qua Ollama, chẳng hạn như DeepSeek Coder v2. Điều này làm nổi bật các thách thức kỹ thuật trong việc hỗ trợ một hệ sinh thái đa dạng các mô hình ngôn ngữ cục bộ, mỗi mô hình có yêu cầu tài nguyên và khả năng khác nhau.
Sự tập trung của nhà phát triển vào các mô hình Phi dường như một phần được thúc đẩy bởi mối quan tâm về khả năng tiếp cận phần cứng. Bằng cách ưu tiên các mô hình có thể chạy hiệu quả trên phần cứng khiêm tốn (thậm chí được báo cáo là chạy trên Raspberry Pi đối với các phiên bản lượng tử hóa của Phi-1.5 và Phi-2), Open Codex duy trì cam kết thực sự cục bộ và dễ tiếp cận mà không yêu cầu phần cứng mạnh mẽ.
Tính năng Hiện tại và Dự kiến của Open Codex
Tính năng Hiện tại:
- Chuyển đổi từ Ngôn ngữ Tự nhiên sang Lệnh Shell sử dụng mô hình cục bộ
- Chế độ tương tác một lần
- Hỗ trợ đa nền tảng (macOS, Linux, Windows)
- Xác nhận lệnh trước khi thực thi
- Tích hợp bộ nhớ tạm
- Đầu ra terminal có màu
Tính năng Dự kiến:
- Chế độ tương tác, nhận biết ngữ cảnh
- Giao diện TUI với textual hoặc rich
- Hỗ trợ thêm cho các Mô hình OSS (bao gồm Qwen 2.5)
- Chế độ trò chuyện tương tác đầy đủ
- Hỗ trợ gọi hàm
- Đầu vào giọng nói thông qua Whisper
- Lịch sử lệnh và hoàn tác
- Hệ thống plugin cho quy trình làm việc
Xu Hướng Hướng Tới Công Cụ AI Cục Bộ
Open Codex đại diện cho xu hướng ngày càng tăng của các công cụ AI hoàn toàn cục bộ không yêu cầu khóa API hoặc kết nối đám mây. Cách tiếp cận này mang lại lợi thế về quyền riêng tư, chi phí và tùy chỉnh. Không giống như OpenAI Codex ban đầu đã truyền cảm hứng cho nó, Open Codex chạy hoàn toàn trên máy của người dùng.
Các cuộc thảo luận cộng đồng cũng tiết lộ rằng trong khi Codex của OpenAI gần đây đã hợp nhất hỗ trợ cho nhiều nhà cung cấp, Open Codex có thể đã được phát triển trước thay đổi này. Thời điểm này giải thích một số khác biệt về kiến trúc giữa hai hệ thống, mặc dù có tên gọi tương tự.
Khi các công cụ AI tiếp tục phát triển, sự cân bằng giữa khả năng mô hình và yêu cầu phần cứng vẫn là một cân nhắc quan trọng. Lộ trình của Open Codex bao gồm thêm hỗ trợ cho các mô hình nguồn mở bổ sung, chế độ trò chuyện tương tác, hỗ trợ gọi hàm, và thậm chí đầu vào giọng nói thông qua Whisper, cho thấy cam kết mở rộng chức năng trong khi vẫn duy trì cách tiếp cận ưu tiên cục bộ.
Tham khảo: Open Codex