Luật về Robot của Asimov có còn hiệu quả vào năm 2018?

Luật về Robot của Asimov có còn hiệu quả vào năm 2018?
Đánh giá

Đã 76 năm kể từ khi nhà văn khoa học giả tưởng nổi tiếng Isaac Asimov viết cuốn Luật về Robot của ông . Vào thời điểm đó, họ chắc chắn phải có bằng chứng tương lai. Nhưng làm thế nào để làm tốt những quy tắc giữ trong một thế giới mà AI đã thâm nhập xã hội sâu sắc như vậy chúng tôi thậm chí không nhìn thấy nó nữa?

Được xuất bản lần đầu trong truyện ngắn Runaround , luật của Asimov là:

  • Một con robot không làm tổn thương con người hoặc, thông qua sự không hành động, cho phép con người đến để làm hại.
  • Một con robot phải tuân thủ các lệnh do con người trao cho nó, trừ khi các lệnh đó trái với Luật thứ nhất.
  • Robot phải bảo vệ sự tồn tại của chính nó miễn là việc bảo vệ như vậy không mâu thuẫn với Luật thứ nhất và thứ hai.

Trong gần một thế kỷ, Luật của Asimov dường như là một nơi tốt để bắt đầu khi điều chỉnh robot – Will Smith thậm chí còn làm một bộ phim về nó. Nhưng theo các chuyên gia , họ đơn giản không áp dụng cho AI hiện đại ngày nay.

Luật về Robot của Asimov có còn hiệu quả vào năm 2018

Tuy nhiên, ở đây chúng ta đang trên bờ vực bình thường hoá trí thông minh nhân tạo đến mức làm cho nó có vẻ ngu si đần độ . Thay vì cảm giác, điểm dừng tiếp theo của chương trình cường điệu trí tuệ nhân tạo là quy định. Các chính trị gia trên khắp thế giới đang kêu gọi các chuyên gia hàng đầu thế giới tư vấn cho họ về việc tiếp quản tự động hóa.

Vì vậy, các quy tắc cho trí tuệ nhân tạo sẽ như thế nào trong thế giới phi hư cấu?

Theo một báo cáo công bố tuần này của  Cambridge Consultants , có tiêu đề “AI: Hiểu và nắm bắt tiềm năng”, có năm lĩnh vực chính mà các quy định về AI cần giải quyết như:

  1. Trách nhiệm: Cần phải có một người cụ thể chịu trách nhiệm về những ảnh hưởng của hành vi của một hệ thống tự trị. Đây không chỉ là để khắc phục pháp lý mà còn cho việc cung cấp phản hồi, theo dõi kết quả và thực hiện thay đổi.
  2. Tính giải thích: Cần phải có khả năng giải thích cho những người bị ảnh hưởng (thường là người không chuyên trách) tại sao hành vi đó là như vậy.
  3. Độ chính xác: Các nguồn lỗi phải được xác định, giám sát, đánh giá và nếu thích hợp giảm thiểu hoặc loại bỏ.
  4. Tính minh bạch: Cần phải có khả năng để kiểm tra, đánh giá (công khai hoặc riêng tư), chỉ trích và thách thức các kết quả được tạo ra bởi một hệ thống tự trị. Kết quả kiểm toán và đánh giá cần được công khai và giải thích.
  5. Sự công bằng: Cách sử dụng dữ liệu phải hợp lý và tôn trọng sự riêng tư. Điều này sẽ giúp loại bỏ các thành kiến ​​và ngăn chặn các hành vi có vấn đề khác trở nên nhúng

Bạn cũng có thể sẽ nhận thấy rằng không có đề cập đến AI kiềm chế từ sự cố ý phá hủy con người. Điều này có thể bởi vì, tại thời điểm viết bài này, máy móc không có khả năng tự đưa ra những quyết định đó.

Đây là lý do tại sao bất kỳ một bộ quy tắc cho AI nên tập trung vào dự đoán tác hại, giảm thiểu rủi ro, và đảm bảo an toàn là một ưu tiên. Ví dụ, Google có các hướng dẫn để xử lý các máy học:

Chúng tôi đã vạch ra năm vấn đề mà chúng tôi cho rằng sẽ rất quan trọng khi chúng tôi áp dụng AI trong các tình huống tổng quát hơn. Tất cả đều là những tư tưởng chuyển tiếp, các câu hỏi nghiên cứu dài hạn – những vấn đề nhỏ ngày nay, nhưng quan trọng để giải quyết các hệ thống trong tương lai:

  1. Tránh tác động phụ tiêu cực: Làm thế nào chúng ta có thể đảm bảo rằng một hệ thống AI sẽ không làm gián đoạn môi trường của nó theo những cách tiêu cực trong khi theo đuổi các mục tiêu của nó, ví dụ như một robot làm sạch gõ trên bình vì nó có thể làm sạch nhanh hơn bằng cách làm như vậy?
  2. Tránh Thưởng Hacking: Làm thế nào chúng ta có thể tránh chơi game của các chức năng thưởng? Ví dụ, chúng tôi không muốn robot làm sạch này đơn giản che phủ các messes bằng vật liệu mà nó không thể nhìn thấy.
  3. Khả năng giám sát có thể mở rộng: Làm thế nào chúng ta có thể đảm bảo hiệu quả một hệ thống AI được tôn trọng các khía cạnh của mục tiêu quá đắt để được đánh giá thường xuyên trong quá trình đào tạo? Ví dụ, nếu hệ thống AI nhận phản hồi của con người khi thực hiện một nhiệm vụ, nó cần phải sử dụng phản hồi đó một cách hiệu quả bởi vì yêu cầu quá thường xuyên sẽ gây phiền nhiễu.
  4. Thăm dò an toàn: Làm thế nào để chúng tôi đảm bảo rằng một hệ thống AI không thực hiện các cuộc di chuyển khám phá với hậu quả rất tiêu cực? Ví dụ, có thể một robot làm sạch nên thử nghiệm với các chiến lược lau chùi, nhưng rõ ràng nó không nên cố gắng đặt một mop ướt trong ổ cắm điện.
  5. Sự mạnh mẽ đến sự phân bố Sự thay đổi: Làm thế nào để chúng ta đảm bảo rằng một hệ thống nhận thức về AI nhận ra và hoạt động mạnh mẽ khi nó ở trong môi trường rất khác với môi trường đào tạo của nó? Ví dụ, heuristics học cho một nhà máy làm việc có thể không đủ an toàn cho văn phòng.

Tương lai của AI không chỉ là vấn đề đối với các công ty như Google và Cambridge Consultantstuy nhiên, khi học máy trở thành một phần của nhiều thiết bị hơn – bao gồm đa số điện thoại thông minh và máy tính – những ảnh hưởng của nó sẽ trở nên trầm trọng hơn. Các mã phi đạo đức có thể lan truyền trong tự nhiên, đặc biệt là vì chúng ta biết rằng AI có thể được phát triển để tạo ra các thuật toán tốt hơn so với con người .

Rõ ràng là các vấn đề về luật lệ và đạo đức trong không gian AI không liên quan gì nhiều đến robot giết người, ngoại trừ các cỗ máy chiến tranh được tạo ra nhằm để sử dụng trong mục đích quân sự. Thay vào đó các chính phủ nên tập trung vào những nguy cơ mà AI có thể gây ra đối với con người. Tất nhiên, “không giết người” là một nguyên tắc tốt cho tất cả mọi người và máy móc dù là thông minh hay không.

Phản hồi lại cho ban quản trị sinhvienshare.com

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *