‘Baby AGI’ có thể trở thành hiện thực vào đầu năm 2025: Người sáng lập SingularityNET
Ben Goertzel cho biết: “Bộ công cụ hoàn chỉnh” để tạo tiền thân cho Trí tuệ nhân tạo tổng hợp hoạt động đầy đủ có thể chỉ còn khoảng một năm nữa.
Ben Goertzel, người sáng lập SingularityNET, tin rằng một khuôn khổ nguyên mẫu ban đầu cho Trí tuệ nhân tạo tổng hợp có thể sẽ hoạt động vào đầu năm tới.
Phát biểu tại lễ khai mạc Hội nghị thượng đỉnh AGI có lợi ở Panama vào ngày 27 tháng 2, Goertzel – người đã phổ biến thuật ngữ AGI – đã đưa ra một kế hoạch chi tiết cho sự phát triển của nó nhằm đảm bảo AGI không bị các tập đoàn hoặc chính phủ kiểm soát và sẽ giúp đỡ nhân loại hơn là gây hại cho nó. .
AGI là một khái niệm lý thuyết, nếu được thực hiện, sẽ phát triển một hệ thống AI có khả năng hoàn thành bất kỳ nhiệm vụ trí tuệ nào mà con người có thể thực hiện.
Kế hoạch của Goertzel kêu gọi sử dụng mã nguồn mở , cơ sở hạ tầng và quản trị phi tập trung, kiến trúc nhận thức mở, các thuật toán AGI đa dạng, dữ liệu được quản lý và có nguồn gốc hợp pháp, đồng thời đảm bảo mọi người từ khắp nơi trên thế giới đều được tham gia.
Goertzel nói với Cointelegraph trong một cuộc phỏng vấn rằng kế hoạch chi tiết sẽ củng cố mọi thứ “chúng tôi đang làm trong toàn bộ hệ sinh thái SingularityNET”.
Ông nói: “Chúng tôi đang xây dựng cơ sở hạ tầng AI phi tập trung không liên quan đến cách tiếp cận AI mà bạn có thể muốn thực hiện”, đồng thời lưu ý rằng mục tiêu là “thiên tài 12 tuổi đến từ Tajikistan” có thể góp phần tạo ra một bước đột phá.

Nhưng trong khi mạng được thiết kế để thúc đẩy sự cộng tác và những đóng góp khác nhau nhằm giúp đạt được AGI, Goertzel nói rằng “dự đoán tốt nhất” của anh ấy là dự án OpenCog Hyperon của riêng anh ấy “có thể là hệ thống tạo ra bước đột phá”.
Dự kiến phát hành dưới dạng Alpha vào tháng 4, Hyperon được mô tả trong một bài nghiên cứu với nhiều đồng tác giả là “một khuôn khổ cho AGI ở cấp độ con người và hơn thế nữa” kết hợp những ý tưởng, phần mềm và kỹ thuật mới nhất. OpenCog là một dự án AI nguồn mở được thành lập bởi Goertzel vào năm 2008 và được liên kết với SingularityNET.
Như anh ấy mô tả, Hyperon Alpha sẽ là một loại AGI nguyên mẫu sử dụng ngôn ngữ lập trình riêng có tên là Metta, sẽ mở cửa vào tháng 4 để các nhà phát triển nguồn mở có thể sử dụng nó để viết mã tốt hơn cho các ứng dụng AI khác nhau .
Nhấn Goertzel để biết thêm chi tiết, Cointelegraph hỏi liệu bản phát hành alpha có giống như một AGI sơ sinh có thể được phát triển thành AGI đầy đủ hay không.
“Chúng tôi sẽ có một bộ công cụ hoàn chỉnh để xây dựng AGI sơ sinh,” ông làm rõ và cho biết họ cần và sẽ mở rộng quy mô hệ thống một cách ồ ạt từ nay đến cuối năm nay.
“Để đạt được thứ mà tôi muốn gọi là AGI bé nhỏ, chúng tôi sẽ cần tăng tốc gấp hàng triệu lần.”
Ông nói: “Tôi nghĩ vào đầu năm 2025, chúng ta có thể có AGI con. Tôi nghĩ chúng ta có thể gọi nó là AGI của thai nhi nếu bạn muốn theo đuổi phép ẩn dụ đó”.
Goertzel ủng hộ phương pháp tiếp cận d/acc AGI của Vitalik Buterin
Goertzel cũng ủng hộ phương pháp tăng tốc phòng thủ (d/acc) của Vitalik Buterin để phát triển AI siêu thông minh.
Ý kiến về sự phát triển AGI hiện đang bị chia rẽ giữa những người theo chủ nghĩa tăng tốc (e/acc) muốn lao vào công nghệ vì lợi ích của nó và những người theo chủ nghĩa giảm tốc (decel), những người muốn làm chậm sự phát triển vì sợ những rủi ro hiện hữu.
Goertzel cho biết phương án trước có liên quan đến “Uber Alles của Thung lũng Silicon” về nó, trong khi phương án sau không có cơ hội thực tế xảy ra ngay cả khi đó là cách tiếp cận tốt nhất.
Thay vào đó, ông tán thành cách tiếp cận “chủ nghĩa tăng tốc phi tập trung” hoặc “chủ nghĩa tăng tốc phòng thủ” mà Buterin đề xuất vào tháng 11.
Ông nói, đẩy nhanh tiến độ thành AGI “có lẽ là điều tốt nhất chúng tôi có thể làm,” nhưng “chúng tôi không muốn quyền lực đối với AGI tập trung vào bất kỳ một đảng nào […] Và chúng tôi muốn chú ý đến nhiều điều tồi tệ khác nhau điều đó có thể xảy ra.”
Goertzel vừa viết một cuốn sách mới về AGI có tên Sự bùng nổ ý thức , trong đó lập luận rằng AGI sẽ mang lại những lợi ích to lớn và sẽ giải phóng con người khỏi công việc lặp đi lặp lại, chấm dứt mọi bệnh tật về thể chất và tinh thần, chữa khỏi bệnh lão hóa và có khả năng ngăn ngừa cái chết không chủ ý.
Mặc dù ông cho rằng những lợi ích này lớn hơn rủi ro nhưng AGI vẫn có thể gặp trục trặc ở một số khía cạnh.
Ông đã nêu ra một số rủi ro đó trong bài phát biểu của mình, bao gồm cả việc Trung Quốc và Hoa Kỳ đang phát triển “siêu AGI với mục tiêu là đánh bại kẻ khác” hoặc việc triển khai AGI phi đạo đức chỉ mang lại lợi ích cho giới thượng lưu toàn cầu và khiến người nghèo càng nghèo hơn.

Nắm bắt quy định, trong đó các công ty lớn vận động hành lang để có được các quy định có lợi cho họ hơn là người dân, là một khả năng chắc chắn.
Mặc dù ông cho rằng điều đó khó xảy ra, nhưng “nguy cơ mà Hollywood thích nói đến” về một AI lừa đảo cũng nằm trong giới hạn có thể xảy ra.
Ông nói: “Tôi cũng không nghĩ rằng chúng ta có thể hoàn toàn tự tin loại trừ bất cứ điều gì vì chúng ta đang đi vào lãnh thổ về cơ bản là chưa được biết đến”.