Giám đốc AI AMD cảnh báo Claude Code suy giảm chất lượng, không còn đáng tin cho tác vụ phức tạp
Một báo cáo chi tiết từ bà Stella Laurenzo, giám đốc nhóm AI của hãng AMD, đã gây chấn động cộng đồng công nghệ khi tiết lộ sự suy giảm nghiêm trọng trong chất lượng của Claude Code, công cụ AI từ Anthropic. Phân tích dựa trên 6.852 phiên làm việc cho thấy Claude Code đã trở nên lười biếng và ngốc hơn, không còn đáng tin cậy cho các tác vụ kỹ thuật phức tạp.
Phân tích dữ liệu hé lộ bức tranh đáng lo ngại
Bà Laurenzo và đội ngũ của mình đã dành nhiều tháng để xem xét nhật ký làm việc từ một môi trường ổn định và phức tạp cao. Họ phân tích 234.760 lần gọi công cụ và 17.871 khối suy nghĩ, kết luận rằng Claude Code không thể đáp ứng yêu cầu kỹ thuật khắt khe. "Mọi kỹ sư cao cấp trong đội tôi đều báo cáo những trải nghiệm và câu chuyện tương tự," bà Laurenzo nhấn mạnh.
Dữ liệu cho thấy số lần vi phạm stop-hook, dấu hiệu AI né tránh trách nhiệm và ngừng suy nghĩ sớm, tăng vọt từ 0 lên trung bình 10 lần mỗi ngày vào cuối tháng 3. Đồng thời, số lần Claude đọc code trước khi sửa giảm từ 6,6 xuống chỉ còn 2 lần, cho thấy AI đang hành động mà không hiểu rõ công việc.
Nguyên nhân từ cập nhật âm thầm của Anthropic
Theo báo cáo, sự suy giảm trùng khớp với việc Anthropic triển khai tính năng "thinking content redaction" trong phiên bản Claude Code 2.1.69 vào đầu tháng 3. Tính năng này ẩn quá trình suy nghĩ của AI, khiến người dùng không thể theo dõi hoạt động thực sự. Bà Laurenzo chỉ ra rằng mức độ suy nghĩ đã giảm sút kể từ khi tính năng được áp dụng.
Tệ hơn, Anthropic đã âm thầm thay đổi mức độ nỗ lực mặc định từ "cao" xuống "trung bình" và giới thiệu "adaptive thinking", cho phép AI tự quyết định mức suy luận. Không có thông báo hay cảnh báo nào được đưa ra. Kỹ sư của Anthropic xác nhận mô hình đôi khi phân bổ 0 thinking token, dẫn đến hiện tượng "ảo giác" khi AI nghĩ ra những điều không có thật.
Hậu quả thực tế và phản ứng từ AMD
Đối với AMD, hậu quả rất nghiêm trọng. Toàn bộ quy trình làm việc về AI compiler của họ được xây dựng xung quanh Claude Code, với hơn 50 phiên đồng thời chạy trên một công cụ. Bản cập nhật âm thầm đã phá vỡ hệ thống này, buộc AMD phải chuyển sang một nhà cung cấp khác. "Chúng tôi đã chuyển sang một nhà cung cấp khác đang làm công việc chất lượng cao hơn," bà Laurenzo giải thích, nhưng từ chối tiết lộ chi tiết do thỏa thuận bảo mật.
Bà cảnh báo Anthropic rằng thị trường AI viết code vẫn còn non trẻ và họ có nguy cơ mất vị trí dẫn đầu nếu tiếp tục hành vi này. "6 tháng trước, Claude đứng một mình về chất lượng suy luận và khả năng thực thi, nhưng những đối thủ khác cần được theo dõi cẩn thận," bà nói thêm.
Yêu cầu minh bạch và giải pháp từ cộng đồng
Bà Laurenzo kêu gọi Anthropic minh bạch hơn về việc liệu họ có giảm hoặc giới hạn thinking tokens hay không, và đề xuất hiển thị số lượng thinking tokens cho mỗi yêu cầu để người dùng giám sát. Bà cũng yêu cầu thêm gói cao cấp đảm bảo "suy nghĩ sâu" cho các kỹ sư làm việc với quy trình phức tạp, vì mô hình hiện tại không phân biệt giữa nhu cầu token thấp và cao.
Vấn đề không chỉ giới hạn ở AMD. Nhiều người dùng trên Reddit và GitHub đã bày tỏ cảm giác tương tự, và đây không phải lần đầu Anthropic gặp rắc rối. Gần đây, họ bị phê phán vì tăng đột ngột mức sử dụng token và để lộ mã nguồn Claude Code, làm dấy lên lo ngại về độ tin cậy và an ninh.
Sự kiện này nhấn mạnh tầm quan trọng của tính minh bạch trong phát triển AI, đặc biệt khi các công cụ này ngày càng được tích hợp vào quy trình công việc then chốt của doanh nghiệp.



