logo
ISSN 2734-9020

Hơn 30 chuyên gia AI từ OpenAI và Google DeepMind ủng hộ Anthropic kiện Bộ Quốc phòng Mỹ

Thứ ba, 10/03/2026 - 09:29

Hơn 30 nhân viên từ OpenAI và Google DeepMind đã đệ trình văn bản pháp lý ủng hộ vụ kiện của Anthropic chống lại Bộ Quốc phòng Mỹ sau khi hãng AI này bị gắn mác rủi ro chuỗi cung ứng.

Hơn 30 nhân viên cấp cao từ OpenAI và Google DeepMind đã đệ trình một tuyên bố vào thứ Hai vừa qua, bày tỏ sự ủng hộ đối với vụ kiện của Anthropic chống lại Bộ Quốc phòng Hoa Kỳ (DOD). Động thái này diễn ra sau khi cơ quan liên bang này gắn mác Anthropic là một rủi ro chuỗi cung ứng, theo hồ sơ tòa án.

Bản tóm tắt pháp lý, với sự góp mặt của các chữ ký từ những nhân vật có ảnh hưởng như Jeff Dean, nhà khoa học trưởng của Google DeepMind, nêu rõ: “Việc chính phủ chỉ định Anthropic là rủi ro chuỗi cung ứng là một hành động lạm dụng quyền lực không đúng đắn và độc đoán, gây ra những hậu quả nghiêm trọng cho ngành công nghiệp của chúng ta”.

Cuối tuần trước, Lầu Năm Góc đã gắn mác Anthropic là rủi ro chuỗi cung ứng – một danh hiệu thường dành cho các đối thủ nước ngoài – sau khi hãng AI này từ chối cho phép Bộ Quốc phòng sử dụng công nghệ của mình cho mục đích giám sát hàng loạt người Mỹ hoặc kích hoạt vũ khí tự động. Bộ Quốc phòng lập luận rằng họ nên có quyền sử dụng AI cho bất kỳ mục đích “hợp pháp” nào và không bị hạn chế bởi một nhà thầu tư nhân.

Hơn 30 chuyên gia AI từ OpenAI và Google DeepMind ủng hộ Anthropic kiện Bộ Quốc phòng Mỹ- Ảnh 1.

Bản tóm tắt hỗ trợ Anthropic xuất hiện trên hồ sơ tòa án vài giờ sau khi nhà phát triển Claude đệ trình hai vụ kiện chống lại Bộ Quốc phòng và các cơ quan liên bang khác. Trong hồ sơ tòa án, các nhân viên của Google và OpenAI nhấn mạnh rằng nếu Lầu Năm Góc “không còn hài lòng với các điều khoản đã thỏa thuận trong hợp đồng với Anthropic”, cơ quan này có thể “đơn giản là hủy bỏ hợp đồng và mua dịch vụ từ một công ty AI hàng đầu khác”.

Trên thực tế, Bộ Quốc phòng đã ký một thỏa thuận với OpenAI ngay sau khi chỉ định Anthropic là rủi ro chuỗi cung ứng – một động thái mà nhiều nhân viên của nhà sản xuất ChatGPT đã phản đối. Bản tóm tắt cũng khẳng định rằng những “lằn ranh đỏ” mà Anthropic đưa ra là những mối lo ngại chính đáng, cần có những rào cản mạnh mẽ. Nếu không có luật công khai để quản lý việc sử dụng AI, các hạn chế về hợp đồng và kỹ thuật mà các nhà phát triển áp đặt lên hệ thống của họ là một biện pháp bảo vệ quan trọng chống lại việc lạm dụng thảm khốc.

“Nếu được phép tiếp diễn, nỗ lực trừng phạt một trong những công ty AI hàng đầu của Hoa Kỳ chắc chắn sẽ gây ra hậu quả cho năng lực cạnh tranh công nghiệp và khoa học của Hoa Kỳ trong lĩnh vực trí tuệ nhân tạo và hơn thế nữa”, bản tóm tắt viết. “Và nó sẽ làm giảm sự thảo luận cởi mở trong lĩnh vực của chúng ta về những rủi ro và lợi ích của các hệ thống AI hiện nay”. Nhiều nhân viên đã ký tuyên bố này cũng đã ký các thư ngỏ trong vài tuần qua, kêu gọi Bộ Quốc phòng rút lại nhãn hiệu này và kêu gọi các lãnh đạo công ty của họ ủng hộ Anthropic cũng như từ chối việc sử dụng hệ thống AI một cách đơn phương.

Max