Facebook đã không hoảng sợ và tắt AI tự tạo ra ngôn ngữ như tin đồn_nhận định trận psg

作者:Nhận Định Bóng Đá 来源:Thể thao 浏览: 【】 发布时间:2025-01-10 19:29:27 评论数:

Trong những ngày gần đây,đãkhônghoảngsợvàtắtAItựtạorangônngữnhưtinđồnhận định trận psg một câu chuyện đã lan truyền trên các phương tiện truyền thông nói rằng một hệ thống AI do Facebook phát triển đã tự động sáng tạo ra ngôn ngữ riêng khiến đội ngũ kỹ sư hoảng sợ và phải tắt chúng. Người ta cũng lo lắng về cái gọi là "thời đại Skynet" giống như phim khoa học giả tưởng khi trí thông minh nhân tạo thống trị trên thế giới.

Một trang web viết: "Các kỹ sư Facebook hoảng hốt, kéo phích cắm sau khi chương trình AI phát triển ngôn ngữ riêng của nó". Một người khác cho hay: "Facebook đã tắt chức năng AI sau khi nó tự phát minh ra ngôn ngữ đáng sợ của mình". Một người khác tự hỏi: "Liệu con người chúng ta có tạo ra Frankenstein không?". Một tờ báo nhỏ của Anh trích dẫn lời một giáo sư về robot nói rằng vụ việc cho thấy "những nguy cơ từ trí thông minh nhân tạo" và "có thể gây tử vong" nếu công nghệ tương tự được tích hợp cho robot.

Các tài liệu tham khảo về cuộc cách mạng robot sắp tới, AI độc hại và sự hủy diệt con người đã xuất hiện, một số ít trong đó tỏ ra rất nghiêm túc. Đoạn chat vô nghĩa giữa 2 AI của Facebook đã liên tục được các nguồn tin trích dẫn như là một minh chứng cho sự nguy hiểm của trí thông minh nhân tạo.

Facebook đã không hoảng sợ và tắt AI tự tạo ra ngôn ngữ như tin đồn

Theo Gizmodo, thực tế có vẻ kỳ quặc hơn. Một vài tuần trước, FastCo Design đã báo cáo về nỗ lực của Facebook để phát triển một "mạng lưới xã hội" nhằm mục đích phát triển phần mềm đàm thoại.

Hai chương trình đã được thiết kế và được giải thích chi tiết trên website của Bộ phận nghiên cứu trí tuệ nhân tạo Facebook hồi tháng 6 nhằm mục đích cho thấy các chương trình AI này có thể đối thoại cho những mục đích khác nhau và để đưa ra quyết định cuối cùng.

Ngoài thảo luận với nhau để phân chia các mảng công việc, các chương trình chưa bao giờ làm cái gì bất hợp pháp. Mục đích của Facebook là tạo ra một chatbot có thể học hỏi từ sự giao tiếp của con người, từ đó thương lượng các thỏa thuận với người dùng cuối. Trong khi đó, người dùng sẽ không nhận ra là họ đang nói chuyện với một robot. Chương trình gọi là FAIR và nó đã đạt được những thành công nhất định:

"Hoạt động đàm thoại của FAIR sử dụng các bài tập củng cố và triển khai hộp thoại, phù hợp với cách thương thuyết của con người. FAIR không chỉ có thể nói tiếng Anh mà còn suy nghĩ thông minh về những gì cần nói".

Theo FastCo, các nhà lập trình nhận ra rằng họ đã mắc lỗi khi không khuyến khích chatbot giao tiếp theo các quy tắc có thể hiểu được của con người bằng tiếng Anh. Trong nỗ lực học hỏi lẫn nhau, các chương trình đã bắt đầu tán gẫu qua lại trong một đoạn tốc ký – và mọi người đã suy diễn rằng các AI đã trở nên đáng sợ.