Anthropic hiện đang tìm kiếm những ứng viên có ít nhất 5 năm kinh nghiệm trong lĩnh vực phòng thủ, chống vũ khí hóa học và chất nổ. Đặc biệt, công ty yêu cầu chuyên gia phải có kiến thức sâu về các thiết bị phát tán phóng xạ (RDD).
Vai trò này nằm trong chiến lược "Red Teaming" (Kiểm thử tấn công giả lập). Trong đó, các chuyên gia sẽ đóng vai "kẻ xấu" để cố gắng thao túng AI, buộc nó đưa ra các chỉ thị có hại. Từ những lỗ hổng này, đội ngũ kỹ thuật sẽ tiến hành vá lỗi, đảm bảo mô hình không thể bị lợi dụng để tạo ra thông tin sinh học nguy hiểm. Trước đó, nghiên cứu của Anthropic từng cảnh báo rằng các mô hình ngôn ngữ lớn (LLM) có thể rút ngắn đáng kể thời gian tổng hợp vũ khí sinh học nếu không có sự kiểm soát chặt chẽ.
Không đứng ngoài cuộc đua an toàn, OpenAI – công ty đứng sau ChatGPT – cũng đang tuyển dụng các nhà nghiên cứu về rủi ro sinh học và hóa học. Công ty của Sam Altman sẵn sàng chi mức lương lên tới 455.000 USD (hơn 11 tỷ đồng) để thu hút những bộ óc hàng đầu.
Nhiệm vụ của các chuyên gia tại OpenAI là nghiên cứu mọi kịch bản mà AI tiên tiến có thể bị lạm dụng, từ đó phát triển các hệ thống ngăn chặn hành vi này ngay từ gốc. Việc các công ty AI tăng cường tuyển dụng cho thấy sự thừa nhận rằng các mô hình ngôn ngữ mạnh mẽ hiện nay hoàn toàn có thể vô tình cung cấp kiến thức kỹ thuật nhạy cảm nếu không có "hàng rào" bảo vệ thích hợp.
.jpg)
Logo của OpenAI và Anthropic hiển thị trên smartphone. Ảnh: VCG
Dù nỗ lực bảo mật của các hãng công nghệ là đáng ghi nhận, nhưng hướng đi này vẫn vấp phải không ít hoài nghi. Tiến sĩ Stephanie Hare, nhà nghiên cứu công nghệ kiêm MC chương trình AI Decoded của BBC, đã đặt ra một câu hỏi hóc búa: "Việc để AI tiếp xúc và xử lý thông tin nhạy cảm về hóa chất, chất nổ liệu có thực sự an toàn?"
Bà nhấn mạnh rằng hiện nay vẫn chưa có bất kỳ hiệp ước quốc tế hay quy định cụ thể nào điều chỉnh việc sử dụng AI trong các lĩnh vực nhạy cảm này. Phần lớn các hoạt động thử nghiệm và huấn luyện vẫn đang diễn ra ngoài tầm kiểm soát của các cơ quan quản lý nhà nước.
Dù còn nhiều tranh luận, giới chuyên gia đều đồng ý rằng việc doanh nghiệp tự chủ động kiểm soát kiến thức vũ khí của AI là cần thiết. Điều này cho thấy ngành công nghệ toàn cầu đang phải đối mặt với áp lực vô cùng lớn trong việc ngăn chặn các thảm họa tiềm tàng từ trí tuệ nhân tạo, đồng thời duy trì tính hữu ích của công cụ này cho các mục đích chính đáng như nghiên cứu và giáo dục.