Google cho biết họ có kế hoạch triển khai các thay đổi đối với công cụ Tìm kiếm nhằm làm rõ hơn hình ảnh nào trong kết quả tìm kiếm được tạo ra hoặc chỉnh sửa bởi các công cụ trí tuệ nhân tạo (AI).
Trong vài tháng tới, Google sẽ bắt đầu đánh dấu các hình ảnh do AI tạo ra hoặc chỉnh sửa trong cửa sổ "Giới thiệu về hình ảnh này" trên Tìm kiếm, Google Lens và tính năng Circle to Search trên Android. Các thông báo tương tự cũng có thể được áp dụng cho các sản phẩm khác của Google, như YouTube, với nhiều thông tin hơn sẽ được Google chia sẻ vào cuối năm nay.
Điều quan trọng là chỉ những hình ảnh có chứa "metadata C2PA" mới được đánh dấu là do AI tạo ra hoặc chỉnh sửa trong công cụ Tìm kiếm. C2PA, viết tắt của Coalition for Content Provenance and Authenticity, là một tổ chức phát triển các tiêu chuẩn kỹ thuật nhằm truy xuất lịch sử của một hình ảnh, bao gồm thiết bị và phần mềm được sử dụng để chụp và/hoặc tạo ra nó.
Các công ty như Google, Amazon, Microsoft, OpenAI và Adobe là những thành viên hỗ trợ C2PA. Tuy nhiên, các tiêu chuẩn của C2PA vẫn chưa được áp dụng rộng rãi. Theo một bài báo gần đây của The Verge, C2PA đang gặp nhiều thách thức về sự chấp nhận và khả năng tương thích; chỉ có một số công cụ AI sáng tạo và máy ảnh của Leica và Sony hỗ trợ các tiêu chuẩn này.
Hơn nữa, metadata C2PA — giống như bất kỳ loại siêu dữ liệu nào — có thể bị xóa hoặc bị làm hỏng đến mức không thể đọc được. Các hình ảnh từ một số công cụ AI phổ biến hơn, chẳng hạn như Flux, công cụ mà chatbot Grok của xAI sử dụng để tạo hình ảnh, không có metadata C2PA đi kèm, một phần vì người tạo ra các công cụ này chưa đồng ý hỗ trợ tiêu chuẩn này.
Dù vậy, một số biện pháp kiểm soát vẫn tốt hơn là không có gì, trong bối cảnh deepfake tiếp tục lan rộng với tốc độ chóng mặt. Theo một ước tính, số vụ lừa đảo liên quan đến nội dung do AI tạo ra đã tăng 245% từ năm 2023 đến năm 2024. Deloitte dự đoán rằng thiệt hại liên quan đến deepfake sẽ tăng từ 12,3 tỷ USD vào năm 2023 lên 40 tỷ USD vào năm 2027.
Các khảo sát cho thấy phần lớn mọi người lo ngại về việc bị đánh lừa bởi deepfake và tiềm năng của AI trong việc thúc đẩy sự lan truyền của các thông tin sai lệch.
Các công ty như Fal.ai, một nền tảng lưu trữ các mô hình AI tạo phương tiện, đã huy động được 23 triệu USD từ Andreessen Horowitz và những nhà đầu tư khác. Đây chỉ là một ví dụ về sự phát triển nhanh chóng của các công cụ AI, làm nổi bật sự cần thiết của việc giám sát và kiểm soát để tránh những tác động tiêu cực mà chúng có thể mang lại.
Trong tương lai, việc Google sử dụng C2PA để đánh dấu hình ảnh sẽ giúp người dùng nhận biết và tránh bị lừa bởi những hình ảnh do AI tạo ra. Tuy nhiên, điều này cũng đặt ra câu hỏi về mức độ hiệu quả của các biện pháp bảo vệ khi mà metadata có thể bị can thiệp hoặc không có sẵn. Chỉ khi nào các tiêu chuẩn này được áp dụng rộng rãi hơn và trở nên không thể dễ dàng thao túng, chúng ta mới có thể hoàn toàn yên tâm về độ xác thực của nội dung trực tuyến.
Sự phát triển của AI không chỉ đặt ra thách thức cho Google mà còn cho tất cả các công ty công nghệ và người dùng internet trên toàn thế giới. Mặc dù Google đang tiên phong trong việc cố gắng giải quyết vấn đề này, nhưng cuộc chiến chống lại deepfake và các nội dung sai lệch khác sẽ cần sự hợp tác và nỗ lực của nhiều bên liên quan.
Với tốc độ phát triển của công nghệ, việc xác định và phân biệt giữa hình ảnh thật và hình ảnh do AI tạo ra sẽ trở thành một nhiệm vụ ngày càng phức tạp. Các công ty và người tiêu dùng đều cần trang bị kiến thức và công cụ để không bị mắc bẫy của các công nghệ lừa đảo và thông tin sai lệch. Google, cùng với những tên tuổi lớn khác, đang cố gắng tạo ra các công cụ và quy định để giảm thiểu rủi ro này, nhưng vẫn còn nhiều việc phải làm để đảm bảo một tương lai kỹ thuật số an toàn hơn.