Trang chủ / Tin tức 24h / Các nhà lập pháp EU kêu gọi AI ‘an toàn’ khi CEO của Google cảnh báo về sự phát triển nhanh chóng

Các nhà lập pháp EU kêu gọi AI ‘an toàn’ khi CEO của Google cảnh báo về sự phát triển nhanh chóng

Một nhóm các chính trị gia EU kêu gọi thành lập một mặt trận thống nhất trong việc phát triển trí tuệ nhân tạo trong khi các giám đốc điều hành công nghệ bày tỏ lo ngại về tác động xã hội của nó.

Hàng chục chính trị gia của Liên minh Châu Âu đã ký một lá thư kêu gọi phát triển trí tuệ nhân tạo “an toàn” khi Giám đốc điều hành của Google cảnh báo về việc phát hành công nghệ AI mạnh mẽ trước khi xã hội có cơ hội thích nghi.

Một bức thư ngỏ ngày 16 tháng 4 được chia sẻ trên Twitter bởi thành viên Nghị viện EU Dragoș Tudorache kêu gọi nỗ lực hợp tác và một bộ quy tắc chung về sự phát triển của AI .

Tudorache, cùng với 11 chính trị gia EU khác có tên trong bức thư, đã yêu cầu Chủ tịch Ủy ban Châu Âu Ursula von der Leyen và Tổng thống Hoa Kỳ Joe Biden triệu tập một hội nghị thượng đỉnh về AI và đồng ý về một bộ nguyên tắc quản lý để phát triển, kiểm soát và triển khai. của công nghệ.

“Những tiến bộ gần đây trong lĩnh vực trí tuệ nhân tạo (AI) đã chứng minh rằng tốc độ tiến bộ công nghệ nhanh hơn và khó đoán hơn so với dự đoán của các nhà hoạch định chính sách trên toàn thế giới,” bức thư viết.

“Chúng tôi đang di chuyển rất nhanh.”

Bức thư tiếp tục yêu cầu những người đứng đầu Hội đồng Thương mại và Công nghệ (TTC), một diễn đàn để Hoa Kỳ và EU điều phối các cách tiếp cận đối với các vấn đề kinh tế và công nghệ, đồng ý về một chương trình nghị sự sơ bộ cho hội nghị thượng đỉnh AI được đề xuất và để các công ty và quốc gia trên toàn thế giới “cố gắng đạt được tinh thần trách nhiệm ngày càng cao” trong khi phát triển AI.

“Thông điệp của chúng tôi gửi tới ngành công nghiệp, các nhà nghiên cứu và những người ra quyết định, ở Châu Âu và trên toàn thế giới, là sự phát triển của trí tuệ nhân tạo rất mạnh mẽ cho thấy sự cần thiết phải được chú ý và cân nhắc cẩn thận. Cùng nhau, chúng ta có thể lèo lái lịch sử đi đúng hướng,” bức thư viết.

Giám đốc điều hành Google Pichai Sundararajan, được biết đến nhiều hơn với tên Sundar Pichai, cũng bày tỏ sự thận trọng về sự phát triển nhanh chóng của AI trong một cuộc phỏng vấn ngày 16 tháng 4 trên CBS’ 60 Minutes, nói rằng xã hội có thể cần thời gian để thích nghi với công nghệ mới.

“Bạn không muốn đưa ra một công nghệ như thế này khi nó rất, rất mạnh bởi vì nó khiến xã hội không có thời gian để thích nghi. Tôi nghĩ đó là một quan điểm hợp lý,” ông nói.

Ông nói thêm: “Tốc độ mà chúng ta có thể suy nghĩ và thích ứng với tư cách là các thể chế xã hội so với tốc độ phát triển của công nghệ dường như có sự không phù hợp.

Tuy nhiên, Pichai cũng lưu ý rằng mặc dù có những nguyên nhân đáng lo ngại, nhưng ông cảm thấy “lạc quan” vì số lượng người lo lắng về tác động của AI quá sớm trong vòng đời của nó so với các tiến bộ kỹ thuật khác trong quá khứ.

“Tôi nghĩ rằng có những người có trách nhiệm đang cố gắng tìm ra cách tiếp cận công nghệ này và chúng tôi cũng vậy,” anh nói.

Liên minh Châu Âu đã xem xét AI với Đạo luật Trí tuệ Nhân tạo của mình, trong khi Ủy ban Bảo vệ Dữ liệu Châu Âu đã thành lập một lực lượng đặc nhiệm để kiểm tra chatbot AI tổng quát ChatGPT .

Bức thư của các chính trị gia EU lặp lại những lo ngại tương tự được đưa ra bởi hơn 2.600 nhà lãnh đạo và nhà nghiên cứu công nghệ , những người đã kêu gọi tạm dừng phát triển AI hơn nữa, vì lo ngại “những rủi ro sâu sắc đối với xã hội và nhân loại”.

Giám đốc điều hành Tesla , Elon Musk , đồng sáng lập Apple Steve Wozniak, và các CEO, CTO và nhà nghiên cứu AI khác nằm trong số những người ký tên vào bức thư, được công bố bởi viện nghiên cứu Future of Life Institute (FOLI) của Hoa Kỳ vào ngày 22 tháng 3.

Trong khi các chính trị gia EU đồng ý với “thông điệp cốt lõi” của bức thư FOLI và chia sẻ “một số lo ngại”, họ lại tỏ ra không đồng tình với “một số tuyên bố mang tính báo động hơn”.

Musk đã tiếp tục nhấn mạnh rủi ro mà ông tin rằng AI có thể gây ra trong cuộc phỏng vấn ngày 16 tháng 4 với Fox News, nói rằng giống như bất kỳ công nghệ nào khác, AI có khả năng bị lạm dụng nếu nó được phát triển với mục đích xấu.

Cùng chuyên mục