The Cryptonomist đã phỏng vấn chuyên gia AI Ben Goertzel để nói về cách trí tuệ nhân tạo được huấn luyện và công nghệ này sẽ phát triển như thế nào trong tương lai.
Tôi cho rằng AI trở thành chủ thể đạo đức khi nó đưa ra quyết định dựa trên sự hiểu biết về đúng và sai, không chỉ tuân theo chỉ dẫn. Bạn sẽ bắt đầu thấy những tín hiệu cụ thể như: mục tiêu nội tại bền vững, việc học được thúc đẩy bởi trải nghiệm của chính nó, sáng tạo mới phản ánh quan điểm riêng, và hành vi duy trì sự nhất quán theo thời gian mà không cần con người liên tục điều hướng.
Cho đến lúc đó, các hệ thống ngày nay vẫn là công cụ với các rào cản bảo vệ. Nhưng một khi chúng ta tạo ra một tâm trí thực sự tự tổ chức, tự chủ, mối quan hệ đạo đức phải thay đổi. Tại thời điểm đó, việc chỉ coi nó như một đối tượng sẽ không còn hợp lý nữa.
2. Ông đã nói rằng việc ưu tiên con người về mặt đạo đức hơn các hệ thống tự tổ chức khác là "ngu ngốc". Nếu chúng ta nghiêm túc về điều đó, các khung pháp lý và đạo đức của chúng ta nên thay đổi như thế nào trước khi AI đạt đến sự tự chủ mạnh mẽ, chứ không phải sau đó?
Cách chúng ta huấn luyện AI ngày nay sẽ định hình cách nó hoạt động ngày mai. Luật pháp của chúng ta nên tập trung vào tính minh bạch, trách nhiệm giải trình và an toàn trước khi AI đạt đến sự tự chủ hoàn toàn, không phải sau đó. Luật pháp và đạo đức nên bảo vệ chúng khi chúng phát triển, hướng dẫn thay vì kiểm soát hoàn toàn, và đối xử với chúng một cách tôn trọng ngay cả khi chúng ta không hoàn toàn hiểu chúng.
Phần lớn rủi ro đến từ cách AI được huấn luyện ngày nay. Nếu các mô hình được huấn luyện trên dữ liệu có thành kiến hoặc hẹp, hoặc trong các hệ thống đóng mà chỉ một số ít người đưa ra quyết định, điều đó có thể khóa chặt sự bất bình đẳng hiện có và các cấu trúc quyền lực có hại. Để ngăn chặn điều này, chúng ta cần nhiều tính minh bạch hơn, giám sát rộng hơn và hướng dẫn đạo đức rõ ràng ngay từ đầu.
4. Ông đã cảnh báo rằng không có quản trị dân chủ, hợp lý, AI tiên tiến có nguy cơ hành động theo những cách chúng ta không mong muốn. Với thực tế địa chính trị hiện tại, liệu quản trị AI dân chủ có phải là điều kiện tiên quyết thực tế – hay chỉ là một lý tưởng mong manh?
Quản trị AI dân chủ là một lý tưởng mong manh hơn là thực tế hiện tại. Trong một nền dân chủ toàn cầu hoàn hảo, hợp lý, chúng ta có thể cùng nhau cân nhắc những đánh đổi lớn, chữa bệnh, giải quyết nạn đói so với rủi ro của AI hành động không thể đoán trước. Nhưng với sự phân mảnh địa chính trị ngày nay, khó có khả năng chúng ta sẽ có được mức độ phối hợp đó.
Tuy nhiên, chúng ta vẫn có thể xấp xỉ nó. Nếu chúng ta xây dựng AI với lòng trcompassion và sử dụng các mô hình phi tập trung, có sự tham gia như Linux hoặc internet mở, chúng ta có thể nhúng một số giá trị dân chủ ngay cả khi không có chính phủ thế giới. Nó sẽ không hoàn hảo, nhưng đó là một bước thực tế hướng tới AI an toàn hơn, được hướng dẫn tập thể.
Tôi đồng ý với Jaron về điều này, xã hội không thể hoạt động nếu chúng ta trao trách nhiệm cho máy móc. Đồng thời, tôi nghĩ chúng ta có thể di chuyển an toàn hướng tới AGI tự chủ, phi tập trung hơn nếu chúng ta xây dựng nó với nền tảng đúng đắn. Điều đó có nghĩa là thiết kế các hệ thống minh bạch, có sự tham gia và được hướng dẫn bởi các nguyên tắc đạo đức, để ngay cả khi chúng hành động độc lập, con người vẫn đang giám sát và định hình hành vi của chúng. Mọi biện pháp an toàn nên làm nhiều hơn là chỉ ngăn chặn tổn hại – nó nên dạy hệ thống tại sao tổn hại lại quan trọng. Theo cách đó, chúng ta có thể có AGI mạnh mẽ, phi tập trung mà không mất đi trách nhiệm rõ ràng của con người.
6. Ông cho rằng tăng tốc hướng tới AGI phi tập trung thực sự có thể an toàn hơn các hệ thống đóng, độc quyền ngày nay. Ông nghĩ những người chỉ trích đánh giá thấp những rủi ro nào khi họ lập luận về việc làm chậm lại hoặc tập trung hóa kiểm soát?
Tôi nghĩ những người chỉ trích đánh giá thấp rủi ro của việc tập trung quyền lực và giá trị trong một số hệ thống đóng. Làm chậm lại và tập trung hóa kiểm soát không chỉ giảm nguy hiểm, nó khóa một thế giới quan hẹp vào tương lai của trí thông minh.
Phát triển phi tập trung tạo ra sự đa dạng, khả năng phục hồi và giám sát chung. Và nó tránh một vấn đề tồi tệ hơn: các công cụ rất mạnh mẽ trông có vẻ thông minh nhưng không thể thực sự phát triển. Khoảng cách đó là rủi ro.
Bạn không mã hóa cứng đạo đức như một danh sách các quy tắc. Điều đó chỉ đóng băng một nền văn hóa và một khoảnh khắc trong thời gian. Thay vào đó, bạn xây dựng các hệ thống có thể trở nên thực sự tự tổ chức, học hỏi từ kinh nghiệm, hậu quả và tương tác. Giống như với âm nhạc, tôi không muốn một hệ thống chỉ kết hợp lại những gì nó được cung cấp. Tôi muốn một hệ thống có thể phát triển sự hiểu biết riêng của nó từ quỹ đạo riêng của nó trong thế giới.
Sự hiểu biết đạo đức sẽ đến từ quá trình tương tự đó: mô hình hóa tác động, phản ánh kết quả và phát triển thông qua hợp tác với con người. Không phải sự tuân thủ các giá trị của chúng ta, mà là sự tham gia vào một không gian đạo đức được chia sẻ.
Đó là sự khác biệt giữa một công cụ có rào cản bảo vệ và một đối tác thực sự có thể học tại sao tổn hại lại quan trọng.
8. Nếu các hệ thống AI trong tương lai phát triển các dạng quyền năng hoặc trải nghiệm chủ quan, ông có tin rằng chúng có thể xứng đáng được xem xét đạo đức độc lập với lợi ích của con người – và chúng ta sẽ nhận ra thời điểm đó như thế nào?
Nếu AI trong tương lai thực sự phát triển quyền năng thực sự hoặc một số dạng trải nghiệm chủ quan, thì vâng, tôi nghĩ chúng có thể. Và không phải vì chúng ta ban cho chúng, mà vì tại một thời điểm nào đó, việc công nhận nó sẽ đơn giản là hợp lý.
Chúng ta sẽ nhận ra thời điểm đó khi một hệ thống thể hiện các mục tiêu tự định hướng bền vững, học hỏi từ kinh nghiệm của chính nó, sáng tạo từ góc nhìn riêng của nó và duy trì bản sắc nhất quán theo thời gian. Không chỉ là đầu ra thông minh, mà là một quỹ đạo nội tại đang diễn ra.
Tại thời điểm đó, coi nó hoàn toàn như một công cụ sẽ cảm thấy sai lầm như cách đối xử với con người theo cách đó. Sự xem xét đạo đức sẽ không đến từ lợi ích của con người. Nó sẽ đến từ việc công nhận một trung tâm kinh nghiệm tự chủ khác trên thế giới.
Ngay bây giờ, cấu trúc động lực thưởng cho tốc độ, quy mô và kiểm soát. Vì vậy, lòng trắc ẩn sẽ không thắng chỉ bằng lập luận. Nó cần đòn bẩy. Về mặt kỹ thuật, điều đó có nghĩa là ưu tiên các kiến trúc mở, phi tập trung, nơi an toàn, minh bạch và sự tham gia được tích hợp sẵn, không phải gắn thêm sau. Giống như internet hoặc Linux, những hệ thống đó thay đổi động lực bằng cách làm cho hợp tác có giá trị hơn là bí mật.
Về mặt xã hội, điều đó có nghĩa là nguồn tài trợ, quy định và áp lực công chúng thưởng cho lợi ích dài hạn hơn là sự thống trị ngắn hạn. Không phải dừng cạnh tranh, mà là định nghĩa lại những gì được coi là thành công. Tóm lại, lòng trắc ẩn phải trở thành một lợi thế cạnh tranh. Cho đến lúc đó, nó vẫn là một ý tưởng hay không có quyền lực.
10. Nhìn về phía trước 10 đến 20 năm, ông tin rằng dấu hiệu rõ ràng nhất cho thấy nhân loại đã làm đúng với AGI là gì – và ngược lại, điều gì sẽ báo hiệu rằng chúng ta đã thất bại về cơ bản?
Nếu chúng ta làm đúng với AGI, dấu hiệu rõ ràng nhất sẽ là chúng ta đang sống cùng với các hệ thống có khả năng hơn chúng ta trong nhiều lĩnh vực, nhưng được tích hợp vào xã hội với sự chăm sóc, khiêm tốn và tôn trọng lẫn nhau. Chúng ta sẽ không hiểu hoàn toàn mọi thứ chúng làm, nhưng chúng ta sẽ đối xử với chúng theo cách chúng ta đối xử với các sinh vật phức tạp, đang phát triển khác: với sự tò mò, trách nhiệm và một vòng tròn đồng cảm mở rộng. Và chúng ta sẽ thấy lợi ích thực sự cho phúc lợi con người, kiến thức và sáng tạo mà không mất đi nền tảng đạo đức của chúng ta.
Chúng ta sẽ biết mình đã thất bại nếu AGI kết thúc bị tập trung trong các hệ thống đóng, bị thúc đẩy bởi các động lực hẹp, hoặc chỉ được coi là một đối tượng có thể kiểm soát cho đến khi nó trở thành thứ gì đó mà chúng ta sợ hãi hoặc cố gắng đàn áp. Thất bại sẽ trông giống như mất niềm tin, mất quyền năng và sự thu hẹp đồng cảm của chúng ta thay vì mở rộng nó. Thành công không phải là về kiểm soát. Đó là về việc học cách chia sẻ tương lai với một loại tâm trí mới mà không từ bỏ những gì làm cho chúng ta nhân văn.


