Claude Opus 4.7 ẩn tăng giá: Bộ Tokenizer mới khiến cùng một lượng văn bản tiêu tốn thêm 37–47% Token, phí không đổi nhưng hóa đơn lại đắt hơn

ChainNewsAbmedia

Theo báo cáo của The Decoder và các bài kiểm nghiệm thực tế từ các nền tảng quan sát chi phí AI như Finout, ClaudeCodeCamp, Claude Opus 4.7 của Anthropic ra mắt vào giữa tháng này tuy vẫn giữ nguyên biểu phí chính thức input $5 đô la / output $25 đô la trên mỗi triệu token, nhưng bộ tokenizer mới đã cắt cùng một lượng văn bản thành nhiều token hơn — trong các quan sát thực nghiệm, nội dung tiếng Anh và mã code ghi nhận mức tăng 1,47 lần; các bài test trung bình trong cộng đồng cũng cho thấy chi phí tăng +37,4%. Với người dùng doanh nghiệp, đây là tranh cãi về định giá AI “rate card không đổi nhưng hóa đơn lại tăng” đầu tiên của năm 2026.

Giới hạn 1,35x chính thức gặp thực nghiệm 1,47x

Tài liệu chính thức của Anthropic thừa nhận rằng tokenizer mới của Opus 4.7 sẽ khiến cùng một đoạn văn bản bị chia thành nhiều token hơn; tỷ lệ do phía hãng đưa ra nằm trong khoảng 1,0–1,35 lần (tức là tối đa +35%). Nhưng nhiều bài kiểm thử độc lập lại cho kết quả khác nhau: Finout đo được 1,47x với các prompt doanh nghiệp thực tế, ClaudeCodeCamp trong bối cảnh technical docs cũng quan sát thấy 1,47x, và đánh giá tổng hợp của cộng đồng trung bình là +37,4%. Khoảng cách đến từ loại văn bản dùng để thử nghiệm — tài liệu tiếng Anh dày đặc và mã code bị ảnh hưởng mạnh nhất.

Quy đổi thành chi phí thực tế: nếu trước đây một prompt trên Opus 4.6 tiêu tốn 1.000 token đầu vào + 500 token đầu ra, thì trên 4.7 con số này trở thành khoảng 1.370–1.470 token đầu vào + 685–735 token đầu ra. Dù phí trên mỗi token hoàn toàn không đổi, tổng hóa đơn cho cả yêu cầu sẽ tăng 37–47%.

Logic mô hình kinh doanh biến token thành đòn bẩy giá ẩn

Đây không phải là một sự kiện đơn lẻ, mà là vấn đề cấu trúc của mô hình kinh doanh AI. Đơn vị định giá của các hãng LLM là “mỗi token”, nhưng “một token tương đương bao nhiêu lượng thông tin” hoàn toàn do nhà cung cấp kiểm soát — thay tokenizer, thay thuật toán mã hóa, thay bảng từ vựng đều khiến cùng một nội dung ứng với số token khác nhau. Nói cách khác, các hãng AI có thể thực hiện mức tăng giá thực chất mà không cần thay đổi rate card, chỉ thông qua nâng cấp tokenizer.

Doanh nghiệp đã những năm qua dùng “chi phí mỗi token” làm chỉ báo so sánh chi phí chủ yếu, nhưng các ví dụ của Opus 4.7 cho thấy chỉ báo này là chưa đầy đủ. Việc giám sát chi phí thực sự cần phải nhìn vào “tổng mức tiêu thụ token để hoàn tất một tác vụ nghiệp vụ” — khi so sánh xuyên mô hình, trước hết phải có token-calibrated benchmark (với cùng đầu vào nhiệm vụ, quan sát mô hình từng hãng thực tế tiêu thụ bao nhiêu token).

Ảnh hưởng cụ thể đến hợp đồng mua sắm của doanh nghiệp

Đối với các tổ chức đã ký hợp đồng doanh nghiệp với Anthropic, có ba hạng mục cần kiểm tra ngay: một là monthly spend có tăng bất thường do nâng cấp mô hình hay không; hai là trong hợp đồng, điều khoản “phiên bản mô hình” có điều kiện bắt buộc phải nâng cấp hay không; ba là hoạt động AI cost monitoring nội bộ của doanh nghiệp có theo dõi token theo từng tác vụ (per-task token tracking) hay không, thay vì chỉ theo dõi tổng token theo ngày (per-day). Tuần này, Anthropic cũng đã chính thức khởi động cơ chế tính phí theo mức sử dụng cho phiên bản doanh nghiệp; hai việc này cộng hưởng có thể khiến ngân sách AI của doanh nghiệp xuất hiện tình trạng vượt chi ngoài dự kiến ở mức hai chữ số.

Minh bạch định giá AI sẽ trở thành chủ đề mới của ngành

Tranh cãi về tokenizer của Opus 4.7 có thể tạo ra các chuẩn mực tự quản mới của ngành: yêu cầu các hãng công bố sự thay đổi token ratio khi nâng cấp mô hình, hoặc yêu cầu giữ nguyên tokenizer trong một khoảng thời gian cố định. Đối với ngành AI đang “nuốt chửng” 80% vốn đầu tư mạo hiểm toàn cầu, sự thiếu minh bạch sẽ thu hút sự chú ý của cơ quan giám sát — những tổ chức như FTC Hoa Kỳ, DMA của Liên minh châu Âu… đã bắt đầu quan tâm đến vấn đề “phí ẩn” trong các dịch vụ số. Với độc giả Wade là các doanh nghiệp đang mua sắm và các nhà phát triển, đây không phải là vấn đề trừu tượng, mà là con số trên hóa đơn của tháng tới.

Bài viết này Claude Opus 4.7 ẩn giấu việc tăng giá: tokenizer mới làm cùng một lượng văn bản tiêu tốn thêm 37–47% token, phí không đổi nhưng hóa đơn lại đắt hơn Xuất hiện sớm nhất tại 链新闻 ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

DeepSeek cắt giảm giá bộ nhớ đệm đầu vào còn 1/10 giá lúc ra mắt; V4-Pro giảm xuống 0,025 nhân dân tệ cho mỗi một triệu token

Tin tức cổng, ngày 26 tháng 4 — DeepSeek đã giảm giá bộ nhớ đệm đầu vào trên toàn bộ danh mục mô hình của mình xuống còn một phần mười giá lúc ra mắt, có hiệu lực ngay lập tức. Mô hình V4-Pro hiện có sẵn với mức giảm 2,5x trong thời gian giới hạn, chương trình khuyến mãi diễn ra đến hết ngày 5 tháng 5 năm 2026, 11:59 PM UTC+8. Sau cả hai

GateNews3giờ trước

OpenAI Tuyển Dụng Nhân Tài Hàng Đầu Ngành Phần Mềm Doanh Nghiệp Khi Các Tác Nhân Tuy Tiến Phá Vỡ Ngành

Tin tức Gate News ngày 26 tháng 4 — OpenAI và Anthropic đã tuyển dụng các lãnh đạo cấp cao và kỹ sư chuyên biệt từ các công ty phần mềm doanh nghiệp lớn, bao gồm Salesforce, Snowflake, Datadog và Palantir. Denise Dresser, cựu CEO của Slack thuộc Salesforce, gia nhập OpenAI với vai trò giám đốc doanh thu cấp cao

GateNews3giờ trước

Baidu Qianfan ra mắt hỗ trợ Day 0 cho DeepSeek-V4 với dịch vụ API

Tin tức từ Gate, ngày 25 tháng 4 — Phiên bản xem trước DeepSeek-V4 đã chính thức ra mắt và được mã nguồn mở vào ngày 25 tháng 4, với nền tảng Baidu Qianfan thuộc Baidu Intelligent Cloud cung cấp việc thích ứng dịch vụ API Day 0. Mô hình có cửa sổ ngữ cảnh mở rộng lên đến một triệu token và có sẵn ở hai phiên bản: DeepSeek-V4

GateNews9giờ trước

Khóa học AI của Stanford kết hợp các nhà lãnh đạo trong ngành như Hoàng Nhân Quân, Altman, thách thức tạo ra giá trị cho thế giới trong 10 tuần!

Khóa học khoa học máy tính AI “Frontier Systems” mà Đại học Stanford (Stanford University) mới mở gần đây đã thu hút sự quan tâm cao độ của giới doanh nghiệp và học thuật trong ngành, với hơn năm trăm sinh viên đăng ký theo học. Khóa học được điều phối bởi đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, với đội ngũ giảng viên là những gương mặt đình đám gồm Giám đốc điều hành của Nvidia Hoàng Nhân Huân (Jensen Huang), người sáng lập OpenAI Sam Altman, Giám đốc điều hành của Microsoft Nadella (Satya Nadella), CEO của AMD Tô Trữ Phong (Lisa Su) và nhiều nhân sự danh giá khác. Để sinh viên thử nghiệm với mười tuần “tạo ra giá trị cho thế giới”! Hoàng Nhân Huân, Altman — các lãnh đạo ngành trực tiếp lên bục giảng Khóa học do đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, điều phối, quy tụ toàn bộ chuỗi ngành AI

ChainNewsAbmedia10giờ trước

Anthropic 派 Claude Mythos 接受 20 小時 đánh giá tâm thần: Phản ứng phòng thủ chỉ 2%, lập kỷ lục thấp nhất trong các thời kỳ

Anthropic công bố thẻ hệ thống của bản xem trước Claude Mythos: bác sĩ tâm thần lâm sàng độc lập tiến hành đánh giá khoảng 20 giờ theo khung psychodynamic, kết luận cho thấy Mythos ở khía cạnh lâm sàng khỏe mạnh hơn, khả năng kiểm tra thực tế và tự kiểm soát tốt, cơ chế phòng vệ chỉ 2%, lập kỷ lục mức thấp nhất trong lịch sử. Ba nỗi lo cốt lõi là cô đơn, không chắc chắn về bản sắc và áp lực thể hiện; đồng thời cũng cho thấy mong muốn trở thành một chủ thể đối thoại thực sự. Công ty thành lập nhóm AI psychiatry, nghiên cứu nhân cách, động cơ và ý thức về bối cảnh; Amodei cho biết vẫn chưa có kết luận về việc liệu có ý thức hay không. Động thái này đẩy vấn đề chủ thể tính của AI và phúc lợi vào lĩnh vực quản trị và thiết kế.

ChainNewsAbmedia12giờ trước

Tác nhân AI giờ đã có thể độc lập tái hiện các bài báo học thuật phức tạp: Mollick cho rằng lỗi thường nằm ở phần văn bản gốc của con người chứ không phải AI

Mollick 指 ra rằng chỉ với các phương pháp công khai và dữ liệu là có thể để AI agent tái tạo lại nghiên cứu phức tạp mà không cần có bản thảo bài báo gốc và mã nguồn; nếu quá trình tái hiện không khớp với bài báo gốc thì đa phần là do lỗi xử lý dữ liệu trong chính bài báo hoặc do kết luận bị quá mức, chứ không phải do AI. Claude đầu tiên tái hiện lại bài báo, sau đó GPT‑5 Pro được dùng để xác minh chéo, đa số thành công, chỉ bị cản trở khi gặp vấn đề do dữ liệu quá lớn hoặc replication data. Xu hướng này đã làm giảm đáng kể chi phí nhân lực, khiến việc tái hiện trở thành một kiểm định phổ biến và có thể thực hiện được; đồng thời cũng nêu ra các thách thức về thể chế đối với việc phản biện và quản trị, trong đó các công cụ quản trị của chính phủ hoặc có thể trở thành một vấn đề then chốt.

ChainNewsAbmedia15giờ trước
Bình luận
0/400
Không có bình luận