Nguy cơ từ “robot sát thủ”

TRẦN ANH (BIÊN DỊCH)

Thứ năm, 06/09/2018 - 05:45 PM (GMT+7)
Font Size   |         Print

Một loại robot chiến đấu của quân đội Mỹ. Ảnh: THE CONVERSATION

Mới đây, LHQ đã có cuộc họp bàn về chủ đề “robot sát thủ” và những biện pháp nhằm kiểm soát loại vũ khí này. Được coi là hệ thống vũ khí tiên tiến trong tương lai được trang bị trí tuệ nhân tạo (AI), “robot sát thủ” hay còn gọi là vũ khí tự động, đang gây ra những cuộc tranh cãi trên toàn cầu về nguy cơ chúng có thể tự tiến hành một cuộc chiến tranh mà không cần sự can thiệp của con người.

Cảnh báo từ chuyên gia

Theo The New York Times, ngày 28-8 vừa qua tại thành phố Geneva (Thụy Sĩ), LHQ đã tổ chức một cuộc họp tại trụ sở của tổ chức này bàn về chủ đề “robot sát thủ”. Đây là lần thứ hai trong năm nay, LHQ có cuộc họp cùng chủ đề, với sự tham gia của chuyên gia đến từ hàng chục nước trên thế giới. Cuộc họp tập trung vào các hệ thống vũ khí sát thương tự động và tìm các biện pháp kiểm soát chúng.

Trong cuộc họp, các quan chức LHQ cho biết, về lý thuyết, trên thế giới chưa sản xuất các loại vũ khí điều khiển hoàn toàn bằng AI. Dù vậy, Tổ chức Ân xá quốc tế cùng một số chuyên gia cho rằng, LHQ cũng như các quốc gia trên thế giới nên cấm việc phát triển hệ thống vũ khí tự động nói chung vì loại vũ khí này có thể gây hậu quả không thể lường trước. Theo Tổ chức Ân xá quốc tế, với sự phát triển nhanh chóng của khoa học - công nghệ, “robot sát thủ” sẽ không còn là chuyện khoa học viễn tưởng, đồng thời cảnh báo những tiến bộ công nghệ đang vượt qua luật pháp quốc tế.

Các chuyên gia AI khẳng định, hiện hầu hết những công nghệ vũ khí tự động đều được sử dụng cho mục đích quốc phòng và có sự giám sát chặt chẽ của chính phủ các nước. Tuy nhiên, không loại trừ khả năng các tổ chức khủng bố cực đoan bằng cách nào đó có trong tay các loại vũ khí tự động để thực hiện các vụ tiến công.

Không chỉ vậy, trong thời đại internet, hoàn toàn có thể xảy ra nguy cơ hệ thống điều khiển các loại vũ khí tự động bị tin tặc thâm nhập và chiếm quyền kiểm soát, sau đó sử dụng vào các mục đích sai trái. Bằng việc sử dụng vũ khí tự động, các hoạt động tiến công với ý đồ xấu sẽ gây ra những thiệt hại khôn lường. Do đó, theo ông Amandeep Gill (Ấn Độ), Chủ tịch cuộc họp của LHQ, cần đưa ra một thỏa thuận về nguyên tắc cho các quốc gia cũng như định hướng phát triển các loại vũ khí này trên toàn thế giới.

Không phải năm nay, các chuyên gia về AI mới nhìn thấy những nguy cơ từ vũ khí tự động và tổ chức các cuộc họp nhằm đưa ra cảnh báo. Trước đó, năm 2015, một nhóm các nhà khoa học, nhà nghiên cứu và học giả, trong đó có nhà vật lý lý thuyết người Anh mới qua đời là Stephen Hawking và tỷ phú công nghệ người Nam Phi Elon Musk đã phản đối sự phát triển hệ thống vũ khí tự động. Thậm chí Tổng Giám đốc điều hành (CEO) của hãng Tesla còn cảnh báo, “AI là một rủi ro căn bản đối với sự tồn tại của văn minh nhân loại”. Vị doanh nhân này còn lo ngại AI nguy hiểm hơn cả vũ khí hạt nhân.

Năm 2017, trong khuôn khổ Hội nghị liên kết quốc tế về trí tuệ nhân tạo (IJCAI) diễn ra tại Melbourne (Australia), 116 nhà lãnh đạo hàng đầu trong lĩnh vực công nghệ đến từ 26 quốc gia cũng đã cùng ký một bản kiến nghị đệ trình lên LHQ cảnh báo về sự nguy hiểm của vũ khí quân sự tự động, đồng thời kêu gọi cấm sử dụng loại vũ khí này trên phạm vi quốc tế.

Máy bay không người lái có thể bị tin tặc khống chế để biến thành vũ khí cho khủng bố. Ảnh: IB TIMES

Nguy cơ chạy đua vũ trang

Những cảnh báo về nguy cơ từ “robot sát thủ” được đưa ra trong bối cảnh những năm gần đây, các cường quốc quân sự trên thế giới như Mỹ, Nga, Trung Quốc,… ồ ạt sản xuất các loại vũ khí này. Theo Le Monde, ước tính trong bốn năm qua, Chính phủ Mỹ đã chi hàng chục tỷ USD cho phát triển quốc phòng, trong đó có các dự án sản xuất vũ khí tự động như tên lửa có thể tự xác định mục tiêu tiến công, tàu truy lùng tàu ngầm và bám theo đối tượng trong phạm vi hàng nghìn km mà không cần có sự hỗ trợ của con người…

Ngoài Mỹ, Nga cũng là quốc gia “chịu chi” trong lĩnh vực này. Những năm gần đây, Nga phát triển toàn diện các loại thiết bị tự động như tàu thuyền, máy bay không người lái, robot chiến binh, thiết bị chống khủng bố... Tháng 4 vừa qua, một video về hệ thống phòng không tự động tại Syria do Nga sản xuất được đăng tải trên kênh Youtube của Bộ Quốc phòng nước này cho thấy sức mạnh của vũ khí Nga. Không chỉ hai nước kể trên, hằng năm Trung Quốc đều tổ chức các triển lãm và hội thao lớn, nhỏ về quốc phòng nhằm phô diễn những vũ khí tự động tối tân của nước này.

Theo nhiều chuyên gia về AI, việc chế tạo ồ ạt vũ khí tự động dựa trên AI và robot sẽ khiến các nước rơi vào tình trạng chạy đua sản xuất các loại vũ khí tinh vi nhất, có khả năng chiến đấu cao thay vì đề ra các giải pháp giải quyết các vấn đề kinh tế - xã hội, vốn là các mục đích ưu tiên của lĩnh vực ứng dụng AI. Trước nguy cơ chạy đua vũ trang, các chuyên gia cho rằng việc cấm sản xuất vũ khí tự động là hoàn toàn cần thiết.

Trong khi đó, Bộ Quốc phòng Nga nhận định, các loại vũ khí tự động cũng có ưu điểm nhất định. Các vũ khí như súng phòng không tự động, máy bay không người lái,... có thể thay thế con người ở những khu vực nguy hiểm. Thậm chí kết hợp AI, nhiều robot có thể tự đi tuần, đánh lạc hướng kẻ địch, có thể đảm nhận vai trò thay thế binh sĩ trên chiến trường. Đại diện Bộ Quốc phòng Anh cho biết, không cần thiết phải cấm sử dụng vũ khí tự động, vì các văn bản về nhân quyền quốc tế đã có quy định đầy đủ về cách sử dụng những vũ khí này. Nhà sáng lập Facebook Mark Zuckerberg cũng cho rằng, công chúng nên có cái nhìn tích cực hơn về việc sản xuất vũ khí sử dụng AI, bởi đây là bước phát triển tất yếu trong thời đại công nghệ tân tiến. Nhà sáng lập Facebook đồng thời đánh giá những người “có lương tâm” sẽ không kiềm chế sự phát triển của AI thông qua các quy chế giám sát.

Theo phân tích của The New York Times, hiệu ứng tích cực từ AI và robot trong đời sống xã hội và các lĩnh vực nhiều rủi ro như quân sự, quốc phòng là không thể phủ nhận. Song, cách thức kiểm soát việc chế tạo và sử dụng đúng mực các loại vũ khí tự động hiện đại là vấn đề vẫn còn nhiều tranh cãi, bởi nó tiềm ẩn nhiều nguy cơ to lớn. Vì thế trước vấn đề này, giới chức các nước cần áp dụng các giải pháp linh hoạt hơn.