Họ đưa ra 20 nguyên tắc để hướng dẫn việc nghiên cứu AI trong tương lai. Những hướng dẫn này đã được hàng trăm chuyên gia tán thành,ựchiệnđúngnguyêntắcnàyrobotsẽkhôngthểlậtđổconngườbdkq y bao gồm Stephen Hawking và CEO của SpaceX – Elon Musk.
“Chúng tôi hy vọng rằng, những nguyên tắc này sẽ cung cấp chất liệu cho những thảo luận sôi nổi. Và đây cũng sẽ là những mục tiêu đầy tham vọng để khoa học sử dụng AI một cách hiệu quả để cải thiện cuộc sống con người trong những năm tới”, một trong những nhà khoa học nói.
Những chuyên gia tham gia soạn thảo nguyên tắc đang làm nhiều công việc khác nhau, từ viện sĩ, kĩ sư đến những đại diện của các công ty công nghệ, như đồng sáng lập của Google – Larry Page.
Những nguyên tắc này đã được công bố trên Future Of Life Institute.
Dưới đây là 20 nguyên tắc cần tuân thủ khi phát triển AI:
Những vấn đề nghiên cứu
1. Mục tiêu nghiên cứu: Mục tiêu của việc nghiên cứu AI là tạo ra trí thông minh có định hướng, ngoài trí thông minh hữu ích.
2. Nguồn quỹ nghiên cứu: Đầu tư cho AI nên được đảm bảo là để phục vụ cho những ứng dụng hữu ích trong việc phát triển AI, bằng cách trả lời các câu hỏi:
- Làm thế nào để cải thiện hệ thống AI trở nên mạnh mẽ, để chúng có thể làm tất cả những gì chúng ta muốn nhưng không xảy ra trục trặc?
- Làm sao để ngăn ngừa những rủi ro có thể xảy ra với AI?
- Nên đặt ra những giá trị gì để có áp thể áp dụng chung cho các AI?
3. Mối liên kết giữa khoa học và các chính sách: Nên có những sự trao đổi mang tính xây dựng và thẳng thắn giữa những nhà nghiên cứu AI và những người làm chính sách.
4. Văn hóa nghiên cứu: Nên xây dựng văn hóa hợp tác, tin tưởng, trong sạch giữa những nhà nghiên cứu và những người phát triển AI.
5. Tránh những cuộc chạy đua: Những nhóm phát triển AI nên hợp tác với nhau một cách lành mạnh và tránh vi phạm những nguyên tắc về an toàn.
AI có thể trở nên vô cùng nguy hiểm (Ảnh: Columbia Pictures)
Đạo đức và giá trị: