Trung tâm Công nghệ thông tin và Truyền thông Nghệ AnTrung tâm Công nghệ thông tin và Truyền thông Nghệ An
Trang thông tin điện tử
Trung tâm Công nghệ thông tin và Truyền thông Nghệ An
Trí tuệ nhân tạo nguy hiểm hơn bom nguyên tử?
Thứ hai - 08/05/2023 10:511.5410
Các chuyên gia về trí tuệ nhân tạo (AI) đang đưa ra các cảnh báo nghiêm trọng về những mối nguy hiểm mà sự phát triển không kiểm soát của AI sẽ gây ra cho xã hội, hoặc thậm chí cho sự tồn vong của chính loài người.
Hiệu suất đáng kinh ngạc của mô hình AI đàm thoại tiên tiến, được OpenAI phát triển và ra mắt vào cuối tháng 11/2022 với tên gọi ChatGPT đã làm dấy lên kỳ vọng rằng, các hệ thống có khả năng phù hợp với khả năng nhận thức của con người, hoặc thậm chí sở hữu trí thông minh “siêu phàm”, có thể sớm trở thành hiện thực.
Khả năng hiểu ngôn ngữ của con người và sáng tạo ra những văn bản giống với cách con người thực hiện là mục tiêu lâu dài của việc nghiên cứu AI. Với sự ra đời của các mô hình ngôn ngữ lớn (Large Language Model - LLM), mục tiêu đó đang gần với hiện thực hơn bao giờ hết.
Về cốt lõi, ChatGPT là một mô hình AI đàm thoại mạnh mẽ, tận dụng điểm mạnh của các mô hình ngôn ngữ lớn để đưa ra các phản hồi, trả lời các câu hỏi, gợi ý giống như con người trong thời gian thực. Không giống như các chatbot truyền thống bị giới hạn bởi các phản hồi được lập trình sẵn, ChatGPT có thể hiểu và tạo ra vô số loại văn bản có tính sáng tạo và đôi khi cũng không hoàn toàn chính xác.
Tuy nhiên, các chuyên gia về AI đang lên tiếng cảnh báo nghiêm trọng về những mối nguy hiểm mà sự phát triển không kiểm soát của AI sẽ gây ra cho xã hội, hoặc thậm chí cho sự tồn vong của chính con người.
Nhiều cảnh báo được đưa ra về sự nguy hiểm của AI
Vào ngày 22 tháng 3 vừa qua, tỷ phú Elon Musk và nhóm hơn 1.000 chuyên gia công nghệ hàng đầu thế giới đã khởi động quá trình ký một bức thư ngỏ gửi Liên hợp quốc cảnh báo về nguy cơ AI phát triển không kiểm soát, bức thư ngỏ đã kết thúc bằng tuyên bố: “Vì vậy, chúng tôi kêu gọi tất cả các phòng thí nghiệm AI tạm dừng ngay việc đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất 6 tháng”.
Để chứng minh cho sự cần thiết phải dừng nghiên cứu các mô hình ChatGPT thế hệ tiếp theo, bức thư ngỏ lập luận:
“Các mô hình AI tiên tiến có thể đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên Trái đất và cần được lên kế hoạch và kiểm soát chặt chẽ. Tuy nhiên, việc này chưa được thực hiện, mặc dù những tháng gần đây đã chứng kiến các phòng thí nghiệm AI bị cuốn vào một cuộc chạy đua mất kiểm soát để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết mà không ai, kể cả những người tạo ra chúng có thể hiểu được, dự đoán hoặc kiểm soát một cách đáng tin cậy. Chúng ta nên tự hỏi liệu chúng ta có nên tự động hóa tất cả các công việc hay không? Chúng ta có nên phát triển những bộ óc nhân tạo thông minh hơn và có thể thay thế chúng ta không? Chúng ta có nên mạo hiểm để mất kiểm soát nền văn minh của chúng ta không?”
Trên thực tế đây không phải lần đầu tiên các nhà khoa học lên tiếng cảnh báo về viễn cảnh trí tuệ nhân tạo trở nên nguy hiểm đối với con người. Năm 2014, nhà vật lý lý thuyết nổi tiếng người Anh Stephen Hawking cho rằng: “Sự phát triển toàn diện của trí tuệ nhân tạo có thể sẽ hủy diệt loài người”. Ông cũng nhận định loài người sẽ bị trí tuệ nhân tạo hoàn toàn thay thế trong 500 năm nữa nếu không cẩn trọng trong quá trình nghiên cứu và phát triển công nghệ nguy hiểm này.
Mới đây, Eliezer Yudkowsky - nhà khoa học máy tính người Mỹ, được nhiều người coi là một trong những người sáng lập ra lĩnh vực AI thậm chí còn lo lắng hơn khi công bố một bài báo trên tờ Time của Mỹ có tựa đề “Tạm dừng phát triển AI là chưa đủ. Chúng ta cần đóng cửa tất cả”.
Theo đó, ông Eliezer Yudkowsky cho rằng, rất có thể sẽ xuất hiện một mô hình AI với trí thông minh siêu phàm. Lúc đó, con người trên Trái đất có nguy cơ sẽ chết theo đúng nghĩa đen. Không phải là “có thể xảy ra” mà “đó là điều hiển nhiên sẽ xảy ra”.
Nguy cơ tiềm ẩn của trí tuệ nhân tạo phụ thuộc vào cách mà nó được sử dụng. Ban đầu AI được phát triển để trợ giúp con người trong công việc, đặc biệt là với các công việc nhàm chán lặp đi lặp lại như phân loại hình ảnh, rà soát thông tin...
Tuy nhiên, với sự phát triển nhanh chóng của AI trong thời gian gần đây, các nhà khoa học và chuyên gia công nghệ lo ngại rằng nếu phát triển một cách không kiểm soát, hoặc được lập trình với mục đích không đúng đắn, trí tuệ nhân tạo có thể gây ra những hậu quả nghiêm trọng cho con người và xã hội.
Cần kiểm soát chặt chẽ sự phát triển của AI như kiểm soát bom nhiệt hạch
Cảnh tượng các nhà khoa học AI kêu gọi tạm dừng, hoặc thậm chí chấm dứt công việc đang tiến triển nhanh chóng trong lĩnh vực của họ không thể không nhắc nhở chúng ta về lịch sử của vũ khí hạt nhân.
Sức hủy diệt khủng khiếp của bom nguyên tử, thứ mà các nhà nghiên cứu khoa học đã tạo ra trong lịch sử cũng được xem là một ví dụ điển hình trong việc nghiên cứu và phát triển các công nghệ mới.
Năm 1949, một số nhà vật lý hạt nhân hàng đầu và những cựu chiến binh khác của dự án bom nguyên tử đã biểu tình từ chối tham gia dự án phát triển loại vũ khí dựa trên nhiệt hạch (“bom hydro”), do năng lượng giải phóng của loại bom này có thể lớn hơn 1.000 lần so với bom nguyên tử phân hạch.
Đa số các nhà khoa học đều chia sẻ quan điểm rằng, bom nhiệt hạch sẽ đe dọa chính tương lai của loài người. Nhân loại sẽ tốt hơn nếu không có loại siêu bom này.
Tuy nhiên, bên cạnh các ứng dụng quân sự gây ra mối đe dọa cho con người thì năng lượng nguyên tử, dưới dạng các lò phản ứng phân hạch đã mang lại lợi ích to lớn cho nhân loại. Năng lượng nhiệt hạch, lần đầu tiên được giải phóng ở dạng không kiểm soát được trong quả bom nhiệt hạch, hứa hẹn mang lại những lợi ích thậm chí còn lớn hơn.
Khi AI được phát triển đến trình độ có thể tự ra quyết định để đối phó với sự biến đổi của môi trường xung quanh hoặc tự tìm kiếm mục tiêu thay thế, hay mở rộng phạm vi mục tiêu thì có lẽ loài người sẽ không còn an toàn nữa.
Chẳng hạn, trong tương lai AI sẽ hỗ trợ các hệ thống quan trọng như điện lực, giao thông, y tế, tài chính..., nó có thể làm chủ và kiểm soát toàn bộ các hệ thống này và tự ra quyết định, thực hiện các quyết định đó trong các tình huống khẩn cấp. Khi AI được tích hợp thêm các mục đích mang tính “dã tâm” có chủ đích, nó có thể gây ra nhiều hậu quả nghiêm trọng như làm rối loạn hệ thống giao thông khi vô hiệu hóa hệ thống đèn giao thông hay ngắt điện hệ thống vận hành tàu điện đô thị, gây tai nạn liên hoàn, làm mất điện trên diện rộng...
Hãng phim Hollywood của Mỹ cũng đã cho ra đời nhiều bộ phim theo kịch bản này. Tuy nhiên, với công nghệ AI hiện nay, điều này không còn là viễn cảnh quá xa xôi mà hoàn toàn có thể trở thành hiện thực. Elon Musk tin rằng, nếu để AI phát triển không kiểm soát, đến mức nó có thể tự động hóa các quyết định mà không cần sự can thiệp của con người thì đây có thể là một nguy cơ cho sự tồn vong của con người.
Đó là lý do ông cùng hàng nghìn chuyên gia công nghệ ký vào bức thư yêu cầu tạm ngừng và kiểm soát chặt chẽ quá trình phát triển AI một cách minh bạch. Theo Elon Musk, các hệ thống trí tuệ nhân tạo rất phức tạp, khó hiểu và việc kiểm soát chúng là rất khó khăn. Nếu thiếu đi sự minh bạch, việc sử dụng trí tuệ nhân tạo cho các mục đích thiếu đạo đức, gây thiệt hại cho con người chắc chắn sẽ xảy ra.
AI có thể điều chỉnh hành vi của con người?
Giả sử, trong tương lai các hệ thống AI hoạt động trên cơ sở học sâu (Deep Learning) dần dần có được khả năng thao túng con người thông qua tình trạng tâm lý và sửa đổi hành vi. Học sâu có thể được xem là một lĩnh vực con của học máy (Machine Learning), ở đó các máy tính sẽ học và cải thiện chính nó thông qua các thuật toán. Học sâu được xây dựng dựa trên các khái niệm phức tạp hơn rất nhiều, chủ yếu hoạt động với các mạng nơ-ron nhân tạo để bắt chước khả năng tư duy và suy nghĩ của bộ não con người.
Trên thực tế, những hệ thống như vậy có thể nắm quyền kiểm soát xã hội. Với các hành vi không thể đoán trước của các hệ thống AI dựa trên học sâu, nếu không được kiểm soát chặt chẽ, nó có thể gây ra hậu quả thảm khốc cho nhân loại.
Trong tương lai, các quốc gia sẽ triển khai một mạng lưới các hệ thống AI có khả năng điều chỉnh hành vi vào các phương tiện truyền thông, hệ thống giáo dục và các lĩnh vực khác để “tối ưu hóa” xã hội. Quá trình này lúc đầu có thể mang lại hiệu quả nhưng chúng sẽ nhanh chóng vượt khỏi tầm kiểm soát của con người và dẫn đến hỗn loạn xã hội.
Nhiều ứng dụng AI được tối ưu hóa để điều chỉnh hành vi của con người, bao gồm các chatbot được sử dụng trong tâm lý trị liệu. Trong nhiều trường hợp khác, chẳng hạn như trong giáo dục trẻ em, các ứng dụng AI có tác dụng điều chỉnh hành vi mạnh mẽ.
Cũng giống như bất kỳ công nghệ nào khác, mỗi ứng dụng AI đều có những lợi ích cũng như những mối nguy hiểm tiềm ẩn. Hiện nay, hiệu suất của các hệ thống AI vẫn đang được kiểm soát bởi con người.
Tuy nhiên, sự phát triển của AI đã mở ra một chiều hướng hoàn toàn mới. Một bài báo gần đây trên Tạp chí Forbes của chuyên gia AI nổi tiếng Lance Eliot, trong đó ông trình bày chi tiết một số cách khác nhau mà chatbot và các ứng dụng AI khác có thể thao túng tâm lý con người ngay cả khi họ không có dự định làm như vậy.
Mặt khác, việc điều chỉnh hành vi và tinh thần có chủ ý bằng các hệ thống AI là một lĩnh vực đang phát triển nhanh chóng, với ứng dụng đang diễn ra trong nhiều bối cảnh khác nhau.
Chẳng hạn, các hệ thống E-Learning tiên tiến dựa trên AI cũng có thể được coi là một hình thức điều chỉnh hành vi. Thật vậy, các ứng dụng AI trong lĩnh vực giáo dục có xu hướng dựa trên các mô hình học tập của con người theo chủ nghĩa hành vi. Các hệ thống giảng dạy AI tiên tiến được thiết kế để tối ưu hóa các phản ứng và kết quả hoạt động của trẻ, lập hồ sơ cá nhân cho từng trẻ, đánh giá sự tiến bộ của trẻ trong thời gian thực và điều chỉnh hoạt động của trẻ cho phù hợp.
Một ví dụ khác là sự phổ biến của các chatbot AI nhằm giúp con người từ bỏ thuốc lá hoặc ma túy, tập thể dục đúng cách, áp dụng các thói quen lành mạnh hơn.
Không còn nghi ngờ gì nữa, hệ thống AI thực sự hoạt động tốt hơn con người trong nhiều bối cảnh cụ thể. Ngoài ra, AI không ngừng cải thiện. Nhưng quá trình mở rộng và tích hợp các hệ thống AI đang diễn ra sẽ đưa chúng ta đến đâu, đặc biệt là khi nó dẫn đến những khả năng toàn diện và mạnh mẽ hơn bao giờ hết để định hình tư duy và hành vi của con người?
Trong lịch sử loài người, những nỗ lực nhằm tối ưu hóa hoàn toàn một xã hội dưới dạng một siêu hệ thống hoạt động theo những tiêu chí nghiêm ngặt thường dẫn đến thảm họa.
Theo bức thư ngỏ được trích dẫn ở trên, hầu hết các chuyên gia trong lĩnh vực AI đều đồng ý rằng, các ứng dụng AI phải luôn diễn ra dưới sự giám sát của con người và sự phát triển cũng như ứng dụng của AI phải được điều hành bởi trí tuệ con người.
Sự phổ biến của AI dựa trên học sâu ngày càng xâm nhập vào nhiều lĩnh vực hoạt động của con người và xu hướng tích hợp các hệ thống đó vào các hệ thống phân cấp của xã hội sẽ gây ra các rủi ro to lớn cho xã hội.
Vấn đề đặt ra ở đây là trong trường hợp một siêu hệ thống AI gặp trục trặc, đe dọa gây ra những hậu quả thảm khốc, thì ai hoặc cái gì sẽ can thiệp để ngăn chặn nó?
Trong bộ phim khoa học viễn tưởng nổi tiếng của Stanley Kubrick có tên: “2001: A Space Odyssey”(tạm dịch: “2001: Chuyến du hành vào không gian”), phi hành gia sống sót đã can thiệp hệ thống vào giây phút cuối cùng để tắt hệ thống AI. Nhưng liệu phi hành gia có làm được điều đó nếu hệ thống AI trước đó đã điều chỉnh hành vi của anh ta để anh ta không làm như vậy?
Thực ra, việc cố gắng hạn chế sự phát triển của AI là không hợp lý. Điều đó sẽ có hại và phản tác dụng. Nhưng chúng ta phải nhận ra rằng, những mối nguy hiểm phát sinh từ sự phát triển nhanh chóng của các hệ thống AI vào hầu hết mọi lĩnh vực hoạt động của con người phải được kiềm chế bằng quy định phù hợp và sự giám sát của con người.
Cũng giống như bất kỳ công nghệ nào khác, AI rất hữu dụng trong cải thiện chất lượng công việc, cuộc sống của con người, có thể được sử dụng cho mục đích tốt hoặc xấu. Vì vậy, điều tối quan trọng là chúng ta cần phải kiểm soát chặt chẽ công nghệ này để chúng không vượt ra ngoài tầm kiểm soát và trở thành nguy cơ thay thế con người trong tương lai./.