Các nước G7 ban hành quy tắc ứng xử AI: Báo cáo
Các quốc gia Nhóm Bảy (G7) sẽ thống nhất về quy tắc ứng xử AI tự nguyện cho các công ty phát triển AI làm tài liệu tham khảo nhằm giảm thiểu rủi ro và lợi ích của công nghệ.
Theo báo cáo của Reuters, Nhóm bảy nước công nghiệp (G7) dự kiến sẽ thống nhất về quy tắc ứng xử trí tuệ nhân tạo (AI) dành cho các nhà phát triển vào ngày 30 tháng 10.
Theo báo cáo, quy tắc này có 11 điểm nhằm mục đích thúc đẩy “AI an toàn, bảo mật và đáng tin cậy trên toàn thế giới” và giúp “nắm bắt” lợi ích của AI trong khi vẫn giải quyết và khắc phục các rủi ro mà nó gây ra.
Kế hoạch này được lãnh đạo G7 soạn thảo vào tháng 9. Nó cho biết họ cung cấp hướng dẫn hành động tự nguyện cho “các tổ chức đang phát triển hệ thống AI tiên tiến nhất, bao gồm các mô hình nền tảng tiên tiến nhất và hệ thống AI tổng hợp”.
Ngoài ra, nó gợi ý rằng các công ty nên công khai các báo cáo về khả năng, hạn chế, việc sử dụng và lạm dụng các hệ thống đang được xây dựng. Kiểm soát bảo mật mạnh mẽ cho các hệ thống nói trên cũng được khuyến nghị.
Các quốc gia tham gia G7 bao gồm Canada, Pháp, Đức, Ý, Nhật Bản, Vương quốc Anh, Hoa Kỳ và Liên minh châu Âu.
Cointelegraph đã liên hệ với G7 để xác nhận sự phát triển và thông tin bổ sung.
G7 năm nay diễn ra tại Hiroshima, Nhật Bản, với cuộc họp được tổ chức giữa tất cả các Bộ trưởng Công nghệ và Kỹ thuật số tham gia vào ngày 29 và 30 tháng 4.
Các chủ đề trong cuộc họp bao gồm các công nghệ mới nổi, cơ sở hạ tầng kỹ thuật số và AI, với một mục chương trình nghị sự dành riêng cho AI có trách nhiệm và quản trị AI toàn cầu.
Bộ quy tắc ứng xử AI của G7 được đưa ra khi các chính phủ trên toàn thế giới đang cố gắng điều hướng sự nổi lên của AI bằng các khả năng và mối quan tâm hữu ích của nó. EU là một trong những nước đầu tiên thiết lập các hướng dẫn với Đạo luật AI của EU mang tính bước ngoặt, dự thảo đầu tiên đã được thông qua vào tháng 6.
Vào ngày 26 tháng 10, Liên Hợp Quốc đã thành lập một ủy ban cố vấn gồm 39 thành viên để giải quyết các vấn đề liên quan đến quy định toàn cầu về AI.
Chính phủ Trung Quốc cũng đưa ra quy định về AI của riêng mình , bắt đầu có hiệu lực từ tháng 8.
Từ trong ngành, nhà phát triển chatbot AI nổi tiếng ChatGPT, OpenAI, đã thông báo rằng họ có kế hoạch thành lập một nhóm “chuẩn bị sẵn sàng” để đánh giá một loạt rủi ro liên quan đến AI.