Bài viết Will Artificial Intelligence Save Humanity—Or End It? xuất hiện trên BitcoinEthereumNews.com. Tóm tắt Một hội thảo trực tuyến đã cho thấy sự chia rẽ sâu sắc giữa các nhà theo chủ nghĩa siêu nhânBài viết Will Artificial Intelligence Save Humanity—Or End It? xuất hiện trên BitcoinEthereumNews.com. Tóm tắt Một hội thảo trực tuyến đã cho thấy sự chia rẽ sâu sắc giữa các nhà theo chủ nghĩa siêu nhân

Trí Tuệ Nhân Tạo Sẽ Cứu Nhân Loại—Hay Kết Thúc Nó?

Tóm tắt

  • Một cuộc thảo luận trực tuyến đã cho thấy sự chia rẽ sâu sắc giữa các nhà siêu nhân và các nhà công nghệ về AGI.
  • Tác giả Eliezer Yudkowsky cảnh báo rằng các hệ thống AI "hộp đen" hiện tại khiến sự tuyệt chủng trở thành kết quả không thể tránh khỏi.
  • Max More cho rằng việc trì hoãn AGI có thể khiến nhân loại mất đi cơ hội tốt nhất để đánh bại lão hóa và ngăn chặn thảm họa dài hạn.

Một sự chia rẽ sâu sắc về tương lai của trí tuệ nhân tạo đã diễn ra trong tuần này khi bốn nhà công nghệ và nhà siêu nhân nổi tiếng tranh luận liệu việc xây dựng trí tuệ nhân tạo tổng quát, hay AGI, sẽ cứu nhân loại hay hủy diệt nó.

Cuộc thảo luận do tổ chức phi lợi nhuận Humanity+ tổ chức đã tập hợp một trong những người "bi quan về AI" nổi tiếng nhất, Eliezer Yudkowsky, người đã kêu gọi dừng phát triển AI tiên tiến, cùng với triết gia và nhà tương lai học Max More, nhà thần kinh học tính toán Anders Sandberg, và Chủ tịch danh dự Humanity+ Natasha Vita‑More.

Cuộc thảo luận của họ đã tiết lộ những bất đồng cơ bản về việc liệu AGI có thể phù hợp với sự sống còn của con người hay việc tạo ra nó sẽ khiến sự tuyệt chủng trở nên không thể tránh khỏi.

Vấn đề "hộp đen"

Yudkowsky cảnh báo rằng các hệ thống AI hiện đại về cơ bản không an toàn vì các quy trình ra quyết định bên trong của chúng không thể được hiểu hoặc kiểm soát hoàn toàn.

"Bất cứ thứ gì dạng hộp đen có lẽ sẽ kết thúc với những vấn đề tương tự đáng kể so với công nghệ hiện tại," Yudkowsky cảnh báo. Ông lập luận rằng nhân loại sẽ cần phải di chuyển "rất, rất xa khỏi các mô hình hiện tại" trước khi AI tiên tiến có thể được phát triển một cách an toàn.

Trí tuệ nhân tạo tổng quát đề cập đến một dạng AI có thể suy luận và học tập trên nhiều loại nhiệm vụ, thay vì được xây dựng cho một công việc duy nhất như tạo văn bản, hình ảnh hoặc video. AGI thường được liên kết với ý tưởng về kỳ dị công nghệ, bởi vì việc đạt đến trình độ thông minh đó có thể cho phép máy móc tự cải thiện nhanh hơn con người có thể theo kịp.

Yudkowsky đã chỉ ra sự tương tự về "máy tối đa hóa kẹp giấy" được phổ biến bởi triết gia Nick Bostrom để minh họa rủi ro. Thí nghiệm tư duy này có một AI giả định chuyển đổi tất cả vật chất có sẵn thành kẹp giấy, thúc đẩy sự ám ảnh của nó vào một mục tiêu duy nhất với cái giá của nhân loại. Việc thêm nhiều mục tiêu hơn, Yudkowsky nói, sẽ không cải thiện đáng kể tính bảo mật.

Đề cập đến tiêu đề cuốn sách gần đây của ông về AI, "If Anyone Builds It, Everyone Dies" (Nếu ai đó xây dựng nó, mọi người đều chết), ông nói, "Tiêu đề của chúng tôi không phải là nó có thể giết bạn," Yudkowsky nói. "Tiêu đề của chúng tôi là, nếu ai đó xây dựng nó, mọi người đều chết."

Nhưng More đã thách thức tiền đề rằng sự thận trọng cực độ mang lại kết quả an toàn nhất. Ông lập luận rằng AGI có thể cung cấp cho nhân loại cơ hội tốt nhất để vượt qua lão hóa và bệnh tật.

"Quan trọng nhất đối với tôi, là AGI có thể giúp chúng ta ngăn chặn sự tuyệt chủng của mọi người đang sống do lão hóa," More tuyên bố. "Tất cả chúng ta đang chết. Chúng ta đang tiến tới một thảm họa, từng người một." Ông cảnh báo rằng sự kiềm chế quá mức có thể đẩy các chính phủ hướng tới các biện pháp kiểm soát độc đoán như cách duy nhất để dừng phát triển AI trên toàn thế giới.

Sandberg đặt mình giữa hai진영, mô tả mình là "lạc quan hơn" trong khi vẫn thận trọng hơn những người siêu nhân lạc quan. Ông kể lại một trải nghiệm cá nhân trong đó ông gần như sử dụng một mô hình ngôn ngữ lớn để hỗ trợ thiết kế vũ khí sinh học, một tình huống mà ông mô tả là "kinh hoàng."

"Chúng ta đang đến một điểm mà việc khuếch đại các tác nhân độc hại cũng sẽ gây ra một mớ hỗn độn lớn," Sandberg nói. Tuy nhiên, ông lập luận rằng tính bảo mật một phần hoặc "gần đúng" có thể đạt được. Ông bác bỏ ý tưởng rằng tính bảo mật phải hoàn hảo mới có ý nghĩa, đề xuất rằng con người ít nhất có thể hội tụ về các giá trị chung tối thiểu như sự sống còn.

"Vì vậy, nếu bạn yêu cầu tính bảo mật hoàn hảo, bạn sẽ không có được nó. Và điều đó nghe rất tệ từ quan điểm đó," ông nói. "Mặt khác, tôi nghĩ chúng ta thực sự có thể có tính bảo mật gần đúng. Điều đó là đủ tốt."

Hoài nghi về sự liên kết

Vita-More chỉ trích cuộc tranh luận về sự liên kết rộng hơn, lập luận rằng khái niệm này giả định một mức độ đồng thuận không tồn tại ngay cả giữa những người cộng tác lâu năm.

"Khái niệm liên kết là một âm mưu Pollyanna," bà nói. "Nó sẽ không bao giờ được liên kết. Ý tôi là, ngay cả ở đây, tất cả chúng ta đều là người tốt. Chúng ta đã biết nhau hàng thập kỷ, và chúng ta không liên kết."

Bà mô tả tuyên bố của Yudkowsky rằng AGI chắc chắn sẽ giết chết mọi người là "tư duy tuyệt đối" không để chỗ cho các kết quả khác.

"Tôi có vấn đề với tuyên bố toàn diện rằng mọi người đều chết," bà nói. "Tiếp cận điều này như một nhà tương lai học và một người tư duy thực tế, nó không để lại hậu quả, không có lựa chọn thay thế, không có kịch bản nào khác. Đó chỉ là một tuyên bố thẳng thắn, và tôi tự hỏi liệu nó có phản ánh một loại tư duy tuyệt đối hay không."

Cuộc thảo luận bao gồm một cuộc tranh luận về việc liệu sự tích hợp chặt chẽ hơn giữa con người và máy móc có thể giảm thiểu rủi ro do AGI gây ra hay không—điều mà CEO Tesla Elon Musk đã đề xuất trong quá khứ. Yudkowsky bác bỏ ý tưởng về việc hợp nhất với AI, so sánh nó với "cố gắng hợp nhất với lò nướng bánh mì của bạn."

Sandberg và Vita-More lập luận rằng, khi các hệ thống AI trở nên có khả năng hơn, con người sẽ cần phải tích hợp hoặc hợp nhất chặt chẽ hơn với chúng để đối phó tốt hơn với thế giới sau AGI.

"Toàn bộ cuộc thảo luận này là một sự kiểm tra thực tế về chúng ta là ai với tư cách là con người," Vita-More nói.

Bản tin Daily Debrief

Bắt đầu mỗi ngày với những câu chuyện tin tức hàng đầu ngay bây giờ, cộng với các tính năng gốc, podcast, video và nhiều hơn nữa.

Nguồn: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

Tuyên bố miễn trừ trách nhiệm: Các bài viết được đăng lại trên trang này được lấy từ các nền tảng công khai và chỉ nhằm mục đích tham khảo. Các bài viết này không nhất thiết phản ánh quan điểm của MEXC. Mọi quyền sở hữu thuộc về tác giả gốc. Nếu bạn cho rằng bất kỳ nội dung nào vi phạm quyền của bên thứ ba, vui lòng liên hệ [email protected] để được gỡ bỏ. MEXC không đảm bảo về tính chính xác, đầy đủ hoặc kịp thời của các nội dung và không chịu trách nhiệm cho các hành động được thực hiện dựa trên thông tin cung cấp. Nội dung này không cấu thành lời khuyên tài chính, pháp lý hoặc chuyên môn khác, và cũng không được xem là khuyến nghị hoặc xác nhận từ MEXC.