Tin tức Gate News, ngày 9 tháng 3, sáng lập Eureka Labs và đồng sáng lập OpenAI Andrej Karpathy đã công bố dự án mã nguồn mở autoresearch vào ngày hôm qua (8 tháng 3), đóng gói độc lập quy trình tối ưu tự động của AI Agent trong dự án huấn luyện LLM nanochat để các nhà phát triển sử dụng. Dự án này theo mô hình thiết kế “người viết Markdown, AI viết mã”: nhà phát triển viết tệp program.md để xác định hướng nghiên cứu, AI Agent tự động chỉnh sửa mã train.py chứa mô hình GPT đầy đủ, bộ tối ưu Muon + AdamW và vòng lặp huấn luyện (khoảng 630 dòng). Mỗi lần thử nghiệm cố định chạy 5 phút, sử dụng số bit mỗi byte của tập xác thực (val_bpb) làm chỉ số đánh giá duy nhất, các cải tiến vượt qua mức cơ bản sẽ được giữ lại để gửi đi, còn nếu không sẽ bị loại bỏ. Theo nhịp này, mỗi giờ có thể chạy khoảng 12 lần thử nghiệm, một đêm có thể hoàn thành khoảng 100 lần. Ví dụ do Karpathy trình bày cho thấy, trong 83 lần thử nghiệm, có 15 lần mang lại cải tiến hiệu quả. Dự án chỉ cần một GPU NVIDIA (đã thử trên H100), dựa vào PyTorch và một số gói phần mềm nhỏ, mở mã theo giấy phép MIT. Hiện cộng đồng đã xuất hiện các nhánh phù hợp cho macOS và MLX.