Mới đây, OpenAI đã công bố mô hình AI mới nhất của mình, o1. Được quảng cáo là mô hình "lý luận," o1 có khả năng "suy nghĩ" lâu hơn trước khi trả lời các câu hỏi, phân tích vấn đề và kiểm tra tính chính xác của câu trả lời.
Dù o1 không phải là hoàn hảo — và OpenAI đã thừa nhận điều đó — nhưng mô hình này tỏ ra xuất sắc trong nhiều nhiệm vụ, đặc biệt là vật lý và toán học. Điều đáng lưu ý là o1 không cần phải có nhiều tham số hơn so với GPT-4o, mô hình hàng đầu trước đó của OpenAI. (Trong AI, "tham số" tương ứng với khả năng giải quyết vấn đề của mô hình.)
Sự xuất hiện của o1 đã khiến nhiều người đặt câu hỏi về quy định AI hiện tại. Dự luật SB 1047 của California, chẳng hạn, quy định các yêu cầu về an toàn đối với các mô hình AI có chi phí phát triển vượt qua một ngưỡng nhất định hoặc sử dụng sức mạnh tính toán cao. Tuy nhiên, o1 chứng minh rằng việc mở rộng sức mạnh tính toán không phải là cách duy nhất để cải thiện hiệu suất mô hình.
Jim Fan, giám đốc nghiên cứu tại Nvidia, cho rằng các hệ thống AI trong tương lai có thể dựa vào những "nhân lý luận" nhỏ hơn, dễ đào tạo hơn, thay vì những mô hình yêu cầu đào tạo tốn kém như Meta’s Llama 405B. Các nghiên cứu gần đây cho thấy những mô hình nhỏ như o1 có thể vượt trội nếu được cho thời gian "suy nghĩ" nhiều hơn.
Điều này đặt ra câu hỏi liệu các nhà lập pháp có nên điều chỉnh các quy định AI hiện tại không. Sara Hooker, trưởng phòng nghiên cứu của startup AI Cohere, cho biết:
"o1 chỉ ra rằng việc đánh giá quy định dựa trên sức mạnh tính toán là không đầy đủ. Điều này không tính đến tất cả những gì bạn có thể làm với suy luận hay cách vận hành của một mô hình. Điều quan trọng là chúng ta cần điều chỉnh các chính sách để phù hợp với thực tế hiện tại và các rủi ro có thể xảy ra trong tương lai."
Tuy nhiên, các dự luật hiện tại thường được thiết kế để dễ sửa đổi khi AI tiếp tục phát triển. Ví dụ, Dự luật của California sẽ cho phép Cơ quan Quản lý Chính phủ của bang điều chỉnh các ngưỡng tính toán để phù hợp với yêu cầu an toàn.
Phản hồi đầu tiên về o1: Max đã thu thập ý kiến từ các nhà nghiên cứu, nhà sáng lập startup, và các nhà đầu tư về o1, cùng với các thử nghiệm thực tế của mô hình này.
Sam Altman rút khỏi ủy ban an toàn: Sam Altman, giám đốc điều hành OpenAI, đã rút khỏi ủy ban của công ty, điều này có thể phản ánh sự lo ngại về khả năng ông hành động công bằng.
Slack công bố tính năng mới: Tại hội nghị Dreamforce, Slack đã giới thiệu các tính năng mới như tóm tắt cuộc họp bằng AI và tích hợp với các công cụ tạo hình ảnh và tìm kiếm web điều khiển bằng AI.
Google đánh dấu hình ảnh AI: Google sẽ sớm đánh dấu các hình ảnh do AI tạo ra hoặc chỉnh sửa trong kết quả tìm kiếm của mình để làm rõ nguồn gốc.
Mistral ra mắt tầng miễn phí: Mistral, startup AI của Pháp, đã ra mắt một tầng miễn phí cho phép các nhà phát triển thử nghiệm và xây dựng ứng dụng với các mô hình AI của họ.
Snap giới thiệu công cụ tạo video: Snapchat đã công bố một công cụ mới cho phép các nhà sáng tạo tạo video AI từ gợi ý văn bản và hình ảnh.
Intel ký thỏa thuận chip với AWS: Intel và AWS đã công bố thỏa thuận phát triển một chip AI mới sử dụng quy trình chế tạo chip tiên tiến của Intel.
Oprah phát sóng chương trình đặc biệt về AI: Oprah Winfrey đã tổ chức một chương trình đặc biệt về AI với các khách mời nổi tiếng như Sam Altman, Bill Gates, Marques Brownlee và Christopher Wray.
Chúng ta biết rằng AI có thể thuyết phục, nhưng liệu nó có thể làm giảm niềm tin vào các lý thuyết âm mưu không? Một nghiên cứu mới từ MIT và Cornell cho thấy rằng một chatbot nhẹ nhàng và kiên nhẫn có thể làm giảm niềm tin vào các lý thuyết âm mưu ít nhất trong vài tháng. Mặc dù không hoàn toàn có thể thay đổi quan điểm của những người tin vào các lý thuyết âm mưu cực đoan, nhưng cách tiếp cận này có thể hiệu quả hơn nếu được sử dụng khi người đó tiếp cận những lý thuyết này lần đầu.
Không phải là một mô hình mới, nhưng là một chuẩn mới: Eureka từ Microsoft. Eureka là tập hợp các chuẩn đánh giá mô hình AI, với mục tiêu kiểm tra các khả năng thường bị bỏ qua như kỹ năng điều hướng không gian thị giác. Các nhà nghiên cứu đã thử nghiệm Eureka trên các mô hình nổi bật như Claude của Anthropic, GPT-4o của OpenAI, và Llama của Meta, cho thấy không một mô hình nào đạt điểm cao trên tất cả các bài kiểm tra. Điều này chứng tỏ rằng cần có sự đổi mới liên tục và cải tiến có mục tiêu cho các mô hình AI.
California hạn chế bản sao kỹ thuật số: California đã thông qua hai luật mới, AB 2602 và AB 1836, nhằm hạn chế việc sử dụng bản sao kỹ thuật số AI.
Fal.ai huy động 23 triệu USD: Fal.ai, nền tảng AI tạo phương tiện, đã huy động thành công 23 triệu USD từ các nhà đầu tư lớn như Andreessen Horowitz.
LinkedIn cập nhật điều khoản dịch vụ: LinkedIn đã thay đổi điều khoản dịch vụ để phản hồi lại những nghi ngờ về việc thu thập dữ liệu người dùng cho đào tạo AI mà không thông báo.
Elon Musk nêu ba mối quan tâm chính về AI: Trong một cuộc phỏng vấn gần đây, Elon Musk đã chia sẻ ba vấn đề chính mà ông lo ngại về AI, bao gồm an toàn và tác động đến việc làm.
GPT-4o của OpenAI đã được cập nhật với các cải tiến về khả năng suy luận và xử lý các nhiệm vụ toán học phức tạp.
Google Cloud Next 2024: Sự kiện này mang đến các bản cập nhật quan trọng về sản phẩm và công nghệ của Google, với sự tập trung vào các giải pháp AI cho doanh nghiệp.
Hội nghị AI đầu tiên của Africa: Tổ chức tại Johannesburg, hội nghị này thu hút sự chú ý từ các nhà nghiên cứu và chuyên gia AI trên toàn cầu.
Hy vọng bạn đã nắm bắt được những thông tin quan trọng trong tuần qua về AI. Hãy theo dõi bản tin tiếp theo và nếu bạn có bất kỳ câu hỏi hay ý kiến nào, đừng ngần ngại chia sẻ!