Để đối phó với quan điểm cho rằng AI "mở" của mình đang hỗ trợ các đối thủ nước ngoài, Meta hôm nay thông báo rằng họ sẽ cung cấp loạt mô hình AI Llama cho các cơ quan và nhà thầu chính phủ Hoa Kỳ trong lĩnh vực an ninh quốc gia.
"Chúng tôi vui mừng xác nhận rằng chúng tôi đang cung cấp Llama cho các cơ quan chính phủ Mỹ, bao gồm cả những cơ quan đang làm việc trong lĩnh vực quốc phòng và an ninh quốc gia, cũng như các đối tác khu vực tư nhân hỗ trợ công việc của họ," Meta viết trong một bài đăng trên blog. "Chúng tôi đang hợp tác với nhiều công ty, bao gồm Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI và Snowflake để mang Llama đến các cơ quan chính phủ."
Ví dụ, Oracle đang sử dụng Llama để xử lý tài liệu bảo trì máy bay. Meta cho biết Scale AI đang tinh chỉnh Llama để hỗ trợ các nhiệm vụ cụ thể của đội ngũ an ninh quốc gia. Lockheed Martin đang cung cấp Llama cho các khách hàng quốc phòng của mình để sử dụng trong các trường hợp như tạo mã máy tính.
Chính Sách Đặc Biệt
Chính sách thông thường của Meta cấm các nhà phát triển sử dụng Llama cho bất kỳ dự án nào liên quan đến quân sự, chiến tranh hoặc hoạt động gián điệp. Tuy nhiên, công ty đã tạo ra một ngoại lệ trong trường hợp này, cũng như cho các cơ quan chính phủ tương tự ở Vương quốc Anh, Canada, Australia và New Zealand.
Tuần trước, Reuters đã báo cáo rằng các nhà khoa học nghiên cứu Trung Quốc có liên quan đến Quân đội Giải phóng Nhân dân (PLA) của Trung Quốc đã sử dụng một mô hình cũ hơn của Llama, Llama 2, để phát triển một công cụ cho các ứng dụng quốc phòng. Các nhà nghiên cứu Trung Quốc, bao gồm hai người có liên quan đến một nhóm R&D của PLA, đã tạo ra một chatbot tập trung vào quân sự nhằm thu thập và xử lý thông tin tình báo, cũng như cung cấp thông tin cho việc ra quyết định trong hoạt động.
Meta đã nói với Reuters rằng việc sử dụng mô hình "cũ và đơn lẻ" Llama là "không được phép" và trái với chính sách sử dụng của họ. Tuy nhiên, báo cáo này đã thổi bùng cuộc tranh luận về những lợi ích và rủi ro của AI mở.
Cuộc Tranh Luận Về AI và Quốc Phòng
Việc sử dụng AI, dù là "mở" hay "đóng", cho các mục đích quốc phòng đang gây tranh cãi. Theo một nghiên cứu gần đây từ tổ chức phi lợi nhuận AI Now Institute, AI hiện đang được triển khai cho tình báo quân sự, giám sát và trinh sát có thể gây ra nguy hiểm vì nó phụ thuộc vào dữ liệu cá nhân có thể bị xâm phạm và vũ khí hóa bởi các đối thủ. Nó cũng có những điểm yếu, như sự thiên lệch và xu hướng tạo ra thông tin sai lệch, mà hiện tại không có cách khắc phục, các tác giả cho biết và khuyến nghị tạo ra AI tách biệt và cách ly khỏi các mô hình "thương mại".
Nhân viên tại một số công ty công nghệ lớn, bao gồm Google và Microsoft, đã phản đối các hợp đồng của họ để xây dựng các công cụ và hạ tầng AI cho quân đội Hoa Kỳ.
Meta khẳng định rằng AI mở có thể thúc đẩy nghiên cứu quốc phòng trong khi thúc đẩy "lợi ích kinh tế và an ninh" của nước Mỹ. Tuy nhiên, quân đội Hoa Kỳ đã chậm chạp trong việc áp dụng công nghệ này — và nghi ngờ về lợi tức đầu tư (ROI) của nó. Đến nay, Quân đội Mỹ là nhánh duy nhất của lực lượng vũ trang Hoa Kỳ đã triển khai AI tạo sinh.
Kết Luận
Sự phát triển của AI mở và các ứng dụng quốc phòng đang tạo ra một bối cảnh phức tạp cho các công ty công nghệ và các cơ quan chính phủ. Trong khi Meta tìm cách mở rộng ảnh hưởng của Llama vào lĩnh vực an ninh quốc gia, các nhà nghiên cứu và người tiêu dùng sẽ cần theo dõi chặt chẽ các tác động tiềm tàng đối với an ninh và đạo đức trong việc sử dụng AI.