Trong thời đại phát triển mạnh mẽ của trí tuệ nhân tạo (AI), các nhà lập pháp trên toàn thế giới đang tìm cách thiết lập các quy định nhằm kiểm soát và quản lý công nghệ này. Tuy nhiên, theo Martin Casado, một đối tác tại công ty đầu tư mạo hiểm Andreessen Horowitz (a16z), những nỗ lực pháp lý hiện tại của nhiều chính phủ đang mắc phải sai lầm cơ bản: họ tập trung vào viễn cảnh giả tưởng về AI tương lai hơn là nhận thức các rủi ro thực tế mà công nghệ AI mang lại. Quan điểm của Casado được đưa ra tại hội nghị TechCrunch Disrupt 2024, khi ông nhấn mạnh tầm quan trọng của việc hiểu rõ bản chất và tác động hiện tại của AI, thay vì điều chỉnh nó dựa trên những lo ngại mang tính hư cấu.
Theo Casado, một trong những rào cản lớn nhất hiện nay là chính phủ vẫn chưa đưa ra một định nghĩa rõ ràng về AI. "Các bạn có từng thấy những định nghĩa về AI trong các chính sách chưa? Chúng ta thậm chí không thể định nghĩa nó," ông chia sẻ với khán giả. Sự thiếu đồng thuận về cách xác định và phân loại AI đã khiến cho các quy định hiện có trở nên mơ hồ và khó áp dụng trong thực tiễn.
Casado cho rằng nhiều chính sách hiện tại quá tập trung vào những viễn cảnh mang tính giả tưởng về tương lai của AI, chẳng hạn như ý tưởng “công tắc ngắt khẩn cấp” để kiểm soát các mô hình AI lớn. Một ví dụ điển hình là dự luật SB 1047 tại California, gần đây đã bị Thống đốc Gavin Newsom phủ quyết. Dự luật này đề xuất một hệ thống tắt tự động cho các mô hình AI, nhưng Casado và nhiều nhà đầu tư khác lo ngại rằng ngôn ngữ trong dự luật quá mơ hồ, có thể gây cản trở cho ngành công nghiệp AI tại California hơn là kiểm soát nó hiệu quả.
Casado nhấn mạnh rằng các quy định nên tập trung vào rủi ro thực tế mà AI đang gây ra, thay vì những mối lo lắng về AI có thể trở thành một “quái vật” trong tương lai. Theo ông, AI cần được quản lý khác biệt so với các công nghệ khác, bởi lẽ nó có khả năng đưa ra các quyết định tự động và tự học hỏi, nhưng việc đưa ra các quy định chỉ dựa trên những mối đe dọa xa vời có thể gây tác động tiêu cực đến sự phát triển của ngành.
Ông cho rằng chúng ta cần xem xét AI hiện tại khác biệt như thế nào so với những công cụ công nghệ phổ biến, như Google hay các nền tảng internet khác. Điều này giúp xác định “rủi ro biên”, tức là những rủi ro bổ sung mà AI mang lại so với các công nghệ khác. Khi đã hiểu rõ rủi ro cụ thể, các nhà lập pháp có thể xây dựng các quy định phù hợp nhằm giảm thiểu những rủi ro này thay vì đưa ra các biện pháp quá chung chung.
Một trong những lý do nhiều người ủng hộ việc điều chỉnh AI sớm là dựa trên những bài học từ sự phát triển của internet và mạng xã hội. Khi Google và Facebook ra đời, ít ai lường trước được những tác động tiêu cực như sự độc quyền trong quảng cáo trực tuyến, thu thập dữ liệu cá nhân hay những vấn đề xã hội như bắt nạt trực tuyến và sự chia rẽ ý kiến. Những người ủng hộ quy định AI cho rằng, lẽ ra các công nghệ này nên được điều chỉnh từ sớm để tránh những hậu quả không mong muốn.
Casado không đồng ý với quan điểm này. Ông tin rằng chúng ta không thể dùng sai lầm trong quá khứ để áp dụng lên một công nghệ hoàn toàn khác. Thay vì tập trung vào những mối lo ngại về AI dựa trên thất bại của mạng xã hội, ông cho rằng chúng ta nên rút kinh nghiệm từ các ngành công nghệ khác và tạo ra một khung pháp lý mới phù hợp với tính chất riêng biệt của AI.
Casado cũng lưu ý rằng, hệ thống pháp lý hiện tại đã tồn tại trong nhiều thập kỷ và hoàn toàn có thể điều chỉnh được AI. Tại Mỹ, các cơ quan như Ủy ban Truyền thông Liên bang (FCC), Ủy ban Khoa học, Không gian và Công nghệ của Hạ viện đều có đủ khả năng và kinh nghiệm để đưa ra các chính sách quản lý công nghệ một cách hiệu quả.
Ông cho rằng, thay vì phải xây dựng một hệ thống pháp lý hoàn toàn mới cho AI, chúng ta có thể áp dụng những nguyên tắc điều tiết đã được phát triển qua nhiều năm. Theo Casado, đây là cách tiếp cận phù hợp hơn, đặc biệt trong bối cảnh AI vẫn đang trong giai đoạn phát triển và chưa đạt đến mức độ phức tạp như viễn cảnh mà nhiều nhà lập pháp hình dung.
Casado cảnh báo rằng, nếu các nhà lập pháp tiếp tục xây dựng những quy định dựa trên lo ngại về những tác động xa xôi và không rõ ràng, họ có thể tạo ra những rào cản lớn cho sự phát triển của ngành công nghiệp AI. Ông lo ngại rằng những chính sách không hợp lý sẽ khiến các startup và các công ty công nghệ lớn ngại đầu tư vào California, hay thậm chí là vào Mỹ, vì sợ phải đối mặt với những quy định bất hợp lý.
Đối với những người ủng hộ các quy định về AI, Casado có lời khuyên rằng họ nên tập trung vào việc giải quyết các vấn đề hiện hữu của công nghệ. “Nếu chúng ta đã sai lầm trong việc điều chỉnh mạng xã hội, không có lý do gì chúng ta phải áp dụng các biện pháp sửa chữa đó lên AI,” ông khẳng định.
Casado và nhiều chuyên gia khác tại Andreessen Horowitz cho rằng, thay vì vội vàng điều chỉnh AI, chúng ta cần một cách tiếp cận chậm rãi và cẩn trọng hơn. Bằng cách hiểu rõ các rủi ro cụ thể mà AI mang lại, các nhà lập pháp có thể tạo ra một môi trường pháp lý không chỉ bảo vệ người tiêu dùng mà còn thúc đẩy sự sáng tạo và phát triển của ngành công nghiệp AI.
AI là một công nghệ đầy tiềm năng, nhưng để khai thác tối đa tiềm năng này mà không gây ra những rủi ro không cần thiết, chúng ta cần sự hiểu biết sâu sắc và những quy định dựa trên thực tế hơn là những viễn cảnh viễn tưởng.