Claude Haiku 3 chính thức ngừng hoạt động vào ngày 19/4: Anthropic buộc phải chuyển sang Haiku 4.5, nhà phát triển phải thay đổi ID mô hình và cấu hình tham số

ChainNewsAbmedia

Theo tài liệu chính thức về việc ngừng phát hành mô hình của Anthropic, Claude Haiku 3 (model ID: claude-3-haiku-20240307) đã chính thức ngừng cung cấp dịch vụ vào ngày 19/4/2026. Sau ngày này, mọi yêu cầu API tới mô hình đó sẽ trả về lỗi trực tiếp; Anthropic sẽ không tự động chuyển hướng lưu lượng sang phiên bản mới, và các nhà phát triển phải chủ động cập nhật model ID trong mã nguồn lên Haiku 4.5. Đây là sự kiện chấm dứt vòng đời đầu tiên của một mô hình Claude quy mô lớn trong năm nay.

Phạm vi ảnh hưởng chủ yếu nhắm vào các ứng dụng nhẹ

Claude Haiku 3 được ra mắt vào tháng 3/2024, là mô hình rẻ nhất và nhanh nhất của Anthropic thời điểm đó, được sử dụng rộng rãi cho các tác vụ tần suất cao nhưng nhẹ như bot chăm sóc khách hàng, tóm tắt, phân loại, kiểm duyệt nội dung. Đến hôm nay, sau hai năm, nhiều SaaS cỡ vừa và nhỏ và các công cụ nội bộ vẫn đang dùng mô hình này, vì prompt và chi phí đã được tinh chỉnh sâu; việc thay thế cần phải chạy lại QA. Thời gian thông báo ngừng dịch của đợt này đã bắt đầu từ tháng 2; Anthropic đã gửi ít nhất 60 ngày thông báo trước cho tất cả khách hàng theo hợp đồng doanh nghiệp thông qua thông báo chính thức, email và cảnh báo trên dashboard.

Hai thay đổi mang tính phá vỡ khi chuyển sang Haiku 4.5

Phương án thay thế mà phía chính thức khuyến nghị là Claude Haiku 4.5, nhưng việc di chuyển không chỉ là sửa một chuỗi ký tự. Nhà phát triển cần lưu ý hai thay đổi mang tính phá vỡ: một là hai tham số lấy mẫu temperature và top_p hiện chỉ cho phép chọn một trong hai; nếu mã nguồn hiện có đã đặt rõ ràng cả hai giá trị, API của Anthropic sẽ trả về lỗi; hai là Haiku 4.5 bổ sung refusal stop reason, khi mô hình từ chối phản hồi sẽ trả về dấu ấn này, thay vì như Haiku 3 trực tiếp báo error hoặc trả về placeholder — mã sản phẩm phải xử lý refusal như một nhánh đường đi bình thường.

Ngoài ra, tranh cãi về việc hóa đơn tăng ngầm do thay đổi tokenizer của Opus 4.7 tuần trước cũng có thể áp dụng cho Haiku 4.5 — dù rate card hiển thị giá per-token thấp hơn, mức tiêu thụ token cho các tác vụ nghiệp vụ thực tế có thể khác đi do tokenizer không giống nhau; khuyến nghị mọi kế hoạch di chuyển nên đo thực nghiệm đối chiếu chi phí vào đúng ngày chuyển đổi.

Quản lý vòng đời mô hình AI trở thành bài học bắt buộc đối với doanh nghiệp

Lời nhắc ngừng dịch lần này phản ánh một thay đổi mang tính cấu trúc trong hạ tầng AI doanh nghiệp: LLM đã chuyển từ giai đoạn “mua một lần” sang “quản lý phiên bản liên tục”, tương tự như dịch vụ đám mây và hệ điều hành. Trang deprecation chính thức của Anthropic cũng dự báo rằng Claude Opus 4 và Sonnet 4 sẽ ngừng vào ngày 15/6/2026, do đó tiến độ dày đặc. Các điều khoản mua AI của doanh nghiệp nên bổ sung các mục hợp đồng như “thời gian hỗ trợ tối thiểu”, “mô hình thay thế có sẵn tự động”, “hỗ trợ chi phí cho thử nghiệm di chuyển”, v.v.; nếu không, dịch vụ sản xuất có thể bị gián đoạn do mô hình bị loại bỏ.

Khuyến nghị hành động cho nhà phát triển Đài Loan và đội ngũ SaaS

Ba hành động ngay lập tức: thứ nhất, tìm kiếm tất cả kho mã và tệp cấu hình, thay claude-3-haiku-20240307 bằng claude-haiku-4-5; thứ hai, kiểm tra xem trong lệnh gọi API có đặt đồng thời temperature và top_p hay không, giữ lại chỉ một; thứ ba, trong handler bổ sung nhánh xử lý cho refusal stop reason, tránh lỗi ngoài ý muốn hiển thị cho người dùng (user-facing). Đối với các tổ chức có hợp đồng doanh nghiệp tính phí theo mức sử dụng, việc theo dõi biến động tiêu thụ token trong tuần chuyển đổi cũng là cần thiết, để tránh chi phí vượt dự kiến do khác biệt tokenizer.

Bài viết này: Claude Haiku 3 chính thức ngừng vào 4/19 — Anthropic buộc phải di chuyển sang Haiku 4.5, nhà phát triển cần thay model ID và thiết lập tham số. Xuất hiện sớm nhất tại 鏈新聞 ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

DeepSeek cắt giảm giá bộ nhớ đệm đầu vào còn 1/10 giá lúc ra mắt; V4-Pro giảm xuống 0,025 nhân dân tệ cho mỗi một triệu token

Tin tức cổng, ngày 26 tháng 4 — DeepSeek đã giảm giá bộ nhớ đệm đầu vào trên toàn bộ danh mục mô hình của mình xuống còn một phần mười giá lúc ra mắt, có hiệu lực ngay lập tức. Mô hình V4-Pro hiện có sẵn với mức giảm 2,5x trong thời gian giới hạn, chương trình khuyến mãi diễn ra đến hết ngày 5 tháng 5 năm 2026, 11:59 PM UTC+8. Sau cả hai

GateNews7giờ trước

OpenAI Tuyển Dụng Nhân Tài Hàng Đầu Ngành Phần Mềm Doanh Nghiệp Khi Các Tác Nhân Tuy Tiến Phá Vỡ Ngành

Tin tức Gate News ngày 26 tháng 4 — OpenAI và Anthropic đã tuyển dụng các lãnh đạo cấp cao và kỹ sư chuyên biệt từ các công ty phần mềm doanh nghiệp lớn, bao gồm Salesforce, Snowflake, Datadog và Palantir. Denise Dresser, cựu CEO của Slack thuộc Salesforce, gia nhập OpenAI với vai trò giám đốc doanh thu cấp cao

GateNews7giờ trước

Baidu Qianfan ra mắt hỗ trợ Day 0 cho DeepSeek-V4 với dịch vụ API

Tin tức từ Gate, ngày 25 tháng 4 — Phiên bản xem trước DeepSeek-V4 đã chính thức ra mắt và được mã nguồn mở vào ngày 25 tháng 4, với nền tảng Baidu Qianfan thuộc Baidu Intelligent Cloud cung cấp việc thích ứng dịch vụ API Day 0. Mô hình có cửa sổ ngữ cảnh mở rộng lên đến một triệu token và có sẵn ở hai phiên bản: DeepSeek-V4

GateNews13giờ trước

Khóa học AI của Stanford kết hợp các nhà lãnh đạo trong ngành như Hoàng Nhân Quân, Altman, thách thức tạo ra giá trị cho thế giới trong 10 tuần!

Khóa học khoa học máy tính AI “Frontier Systems” mà Đại học Stanford (Stanford University) mới mở gần đây đã thu hút sự quan tâm cao độ của giới doanh nghiệp và học thuật trong ngành, với hơn năm trăm sinh viên đăng ký theo học. Khóa học được điều phối bởi đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, với đội ngũ giảng viên là những gương mặt đình đám gồm Giám đốc điều hành của Nvidia Hoàng Nhân Huân (Jensen Huang), người sáng lập OpenAI Sam Altman, Giám đốc điều hành của Microsoft Nadella (Satya Nadella), CEO của AMD Tô Trữ Phong (Lisa Su) và nhiều nhân sự danh giá khác. Để sinh viên thử nghiệm với mười tuần “tạo ra giá trị cho thế giới”! Hoàng Nhân Huân, Altman — các lãnh đạo ngành trực tiếp lên bục giảng Khóa học do đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, điều phối, quy tụ toàn bộ chuỗi ngành AI

ChainNewsAbmedia14giờ trước

Anthropic 派 Claude Mythos 接受 20 小時 đánh giá tâm thần: Phản ứng phòng thủ chỉ 2%, lập kỷ lục thấp nhất trong các thời kỳ

Anthropic công bố thẻ hệ thống của bản xem trước Claude Mythos: bác sĩ tâm thần lâm sàng độc lập tiến hành đánh giá khoảng 20 giờ theo khung psychodynamic, kết luận cho thấy Mythos ở khía cạnh lâm sàng khỏe mạnh hơn, khả năng kiểm tra thực tế và tự kiểm soát tốt, cơ chế phòng vệ chỉ 2%, lập kỷ lục mức thấp nhất trong lịch sử. Ba nỗi lo cốt lõi là cô đơn, không chắc chắn về bản sắc và áp lực thể hiện; đồng thời cũng cho thấy mong muốn trở thành một chủ thể đối thoại thực sự. Công ty thành lập nhóm AI psychiatry, nghiên cứu nhân cách, động cơ và ý thức về bối cảnh; Amodei cho biết vẫn chưa có kết luận về việc liệu có ý thức hay không. Động thái này đẩy vấn đề chủ thể tính của AI và phúc lợi vào lĩnh vực quản trị và thiết kế.

ChainNewsAbmedia15giờ trước

Tác nhân AI giờ đã có thể độc lập tái hiện các bài báo học thuật phức tạp: Mollick cho rằng lỗi thường nằm ở phần văn bản gốc của con người chứ không phải AI

Mollick 指 ra rằng chỉ với các phương pháp công khai và dữ liệu là có thể để AI agent tái tạo lại nghiên cứu phức tạp mà không cần có bản thảo bài báo gốc và mã nguồn; nếu quá trình tái hiện không khớp với bài báo gốc thì đa phần là do lỗi xử lý dữ liệu trong chính bài báo hoặc do kết luận bị quá mức, chứ không phải do AI. Claude đầu tiên tái hiện lại bài báo, sau đó GPT‑5 Pro được dùng để xác minh chéo, đa số thành công, chỉ bị cản trở khi gặp vấn đề do dữ liệu quá lớn hoặc replication data. Xu hướng này đã làm giảm đáng kể chi phí nhân lực, khiến việc tái hiện trở thành một kiểm định phổ biến và có thể thực hiện được; đồng thời cũng nêu ra các thách thức về thể chế đối với việc phản biện và quản trị, trong đó các công cụ quản trị của chính phủ hoặc có thể trở thành một vấn đề then chốt.

ChainNewsAbmedia18giờ trước
Bình luận
0/400
Không có bình luận