Chiến tranh rôbôt và những nguyên tắc về đạo lý
Chiến tranh thường gây tốn kém và đổ máu. Điều này giải thích tại sao Bộ Quốc phòng Mỹ muốn thay thế một phần ba các phương tiện vũ trang và vũ khí của mình bằng rôbôt vào năm 2015. Một sự thay đổi như vậy sẽ tiết kiệm được tiền, bởi vì các rôbôt có thể rẻ hơn nhiều để thay thế cho con người. Điều còn quan trọng hơn là nó sẽ làm cho việc tiến hành chiến tranh trở nên ít bị ám ảnh hơn, bởi không có ai than khóc cho một rôbôt.
Quân đội Mỹ đã đưa vào sử dụng các loại máy bay rôbôt được biết với cái tên những cỗ xe không người lái trên không (Unmanned Aerial Vehicles – UAV). Thàng 11 năm 2001, hai tên lửa được bắn đi từ một UAV mang tên Predator điều khiển từ xa đã giết chết hai trong số các chỉ huy quân đội của phiến quân Al-Qaeda. Nhưng trong khi các UAV và các thiết bị mặt đất tương tự, như rôbôt Sword mang súng máy chẳng hạn, thường được điều khiển từ xa bởi các nhà điều khiển chúng là con người, Lầu năm góc có vẻ như muốn gia tăng quyền tự chủ cho rôbôt, trong đó có khả năng tự quyết định khi nào thì sử dụng vũ khí chết người.
Để làm được điều này, Ronald Arkin, thuộc Viện Công nghệ Georgia tại Atlanta hiện đang triển khai một bộ các quy định ràng buộc đối với các rôbôt trên chiến trường nhằm đảm bảo rằng, chúng sẽ sử dụng các vũ khí chết người tuân thủ theo các nguyên tắc về đạo lý. Tiến sĩ Arkin tin tưởng rằng ở đây còn có một lý do khác nữa để đưa các rôbôt ra chiến trường, đó là vì chúng có khả năng hành động một cách nhân đạo hơn chính bản thân con người. Tâm lý căng thẳng sẽ không ảnh hưởng đến óc phán đoán của một rôbôt theo cách mà nó tác động tới những người lính.
Cách tiếp cận của ông là tạo nên một hệ thống các hành vi mang tên “Multidimensional Mathematical Decision-Space of Possible Behaviour Actions” (Không gian đa chiều quyết định chính xác các hành vi có thể xảy ra). Dựa trên các đầu vào bao gồm các dữ liệu radar và vị trí thực thi nhiệm vụ, các tin tức thu thập tình báo, hệ thống này chia tập hợp tất cả các hành động có thể xảy ra thành hai hạng mục: hợp với đạo lý và không hợp. Ở đây có những so sánh được rút ra giữa công trình của Tiến sĩ Arkin và Bộ luật nổi tiếng về rôbôt mang tên “Three Laws of Robotics” (Ba Định luật Rôbôt) được soạn thảo trong những năm 1950 của Nhà văn khoa học viễn tưởng Isaac Asimov, nhằm quy định hành vi của rôbôt. Nhưng trong khi các điều luật của Asimov nhằm mục đích ngăn chặn các rôbôt không gây hại cho con người trong bất cứ trường hợp nào, thì các quy định của Tiến sĩ Arkin lại chỉ để đảm bảo rằng chúng không giết người một cách phi đạo đức.
Đó là một mục tiêu tuyệt vời về mặt lý thuyết, nhưng ngay cả khi các quy định về đạo đức đã được gói trọn vào trong một chương trình phần mềm, thì những điều nguy hiểm vẫn còn tồn tại. Mặc dù một rôbôt hoàn toàn có lý trí có thể không nao núng trước những hỗn loạn và lộn xộn trên chiến trường, nó vẫn có thể phạm phải sai lầm. Các dữ liệu giám sát và tình báo cũng có thể sai lệch và các điều kiện, tình thế trên chiến trường có thể thay đổi. Đó cũng là vấn đề khó khăn đối với chính con người chứ không phải chỉ riêng đối với rôbôt.
Tiến sĩ Arkin đã bắt đầu tiến hành thăm dò các nhà hoạch định chính sách, các nhà nghiên cứu, các thành viên Chính phủ và các vị chỉ huy trong quân đội để đánh giá quan điểm của họ về việc sử dụng vũ khí chết người bởi các rôbôt tự trị. Và việc sáng tạo một rôbôt có lương tâm có thể mang lại cho các nhà chỉ huy nhiều hơn so với những gì họ dự kiến. Bởi trong một chừng mực nào đó, nó cho phép rôbôt quyền được từ chối một mệnh lệnh.








