Những đột phá sau đây trong công nghệ trí tuệ nhân tạo có thể đe dọa tương lai của nhân loại

Thứ ba - 16/01/2024 08:47 2.064 0
Trí tuệ nhân tạo (AI) đang phát triển với tốc độ chóng mặt, năm 2024 được dự đoán sẽ là một năm bùng nổ với nhiều đột phá mới. Trong số đó, có ba đột phá được cho là đáng sợ nhất, bởi những tiềm năng tiêu cực mà chúng mang lại.
 
Dù năm 2023 đã chứng kiến những bước tiến mang tính bước ngoặt trong lĩnh vực AI, nhưng đó chỉ là mở đầu cho những điều còn lớn lao hơn. Năm 2024 dự báo sẽ mở ra những đột phá đáng sợ, trong đó có thể bao gồm cả trí tuệ nhân tạo tổng hợp (AGI), phổ biến các loại rô-bốt sát thủ tích hợp AI và công nghệ deepfake chân thực đến mức khó phân biệt.

AI đã xuất hiện trong nhiều thập kỷ, nhưng năm 2023 mới thực sự là bước ngoặt của công nghệ rùng rợn này. ChatGPT của OpenAI đã tạo ra AI dễ tiếp cận và thực tế cho đại chúng. Tuy nhiên, AI có một lịch sử đầy thăng trầm, và công nghệ ngày nay được xây dựng trên nền tảng những thí nghiệm thất bại trong quá khứ.
 
Anh minh hoa
Ảnh minh hoạ.
Hầu hết những đổi mới trong lĩnh vực AI đều hướng đến mục đích cải thiện các lĩnh vực như chẩn đoán y tế và khám phá khoa học. Ví dụ, một mô hình AI có thể phân tích chụp X-quang để xác định bạn có nguy cơ cao mắc bệnh ung thư phổi hay không.

Trong giai đoạn COVID-19, các nhà khoa học cũng đã xây dựng một thuật toán có thể chẩn đoán vi-rút bằng cách lắng nghe những khác biệt nhỏ trong tiếng ho của người bệnh. AI cũng được sử dụng để thiết kế các thí nghiệm về vật lý lượng tử vượt ngoài sức tưởng tượng của con người.

Tuy nhiên, không phải tất cả những đột phá trong công nghệ đều hướng đến lợi ích cho con người. Sau đây là 3 đột phá trong công nghệ AI đáng sợ nhất có thể xảy ra trong năm 2024:

Trí tuệ nhân tạo tổng hợp có thể gây ra những hậu quả đáng sợ

Trí tuệ nhân tạo tổng hợp (Artificial General Intelligence: AGI) là một dạng AI có khả năng thông minh ngang bằng hoặc vượt trội hơn con người, có thể suy nghĩ, tự học, giải quyết vấn đề phức tạp và thích nghi với các hoàn cảnh mới.

Nếu AGI được phát triển thành công, nó có thể dẫn đến một cuộc cách mạng trong nhiều lĩnh vực, từ kinh tế đến quân sự. Tuy nhiên, AGI cũng có thể gây ra những hậu quả đáng sợ, chẳng hạn như gây ra thất nghiệp hàng loạt, chiến tranh do rô-bốt hoặc thậm chí là sự diệt vong của nhân loại.

Trong khi đó, Q* là tên một mô hình AI mới được phát triển bởi công ty OpenAI (Mỹ), được cho là có tiềm năng đạt được mức độ AGI.

Thông tin về mô hình Q* vẫn còn khá hạn chế, nhưng theo các nguồn tin, mô hình này có thể giải quyết các bài toán, có khả năng suy luận và nhận thức vấn đề tốt hơn nhiều so với các mô hình AI hiện tại. Ngoài ra, Q* được đào tạo trên một tập dữ liệu khổng lồ, bao gồm văn bản, hình ảnh và mã. Điều này cho phép mô hình học hỏi và thích nghi với các hoàn cảnh mới một cách nhanh chóng.

Chúng ta vẫn chưa biết chắc chắn lý do tại sao Giám đốc điều hành (CEO) Sam Altman của OpenAI bị sa thải rồi được phục hồi chức vào cuối năm 2023 vừa qua. Tuy nhiên, một số thông tin nội bộ cho thấy có liên quan đến công nghệ tiên tiến có thể đe dọa tương lai nhân loại.

Theo hãng tin Reuters, hệ thống Q* của OpenAI có thể đại diện cho bước đột phá mang tính bước ngoặt trong lĩnh vực AGI. Mặc dù thông tin về hệ thống bí ẩn này còn rất hạn chế, nhưng nếu những tin đồn là sự thật, Q* có thể nâng khả năng của AI lên một tầm cao mới.

AGI là một điểm bùng phát giả định, hay còn được gọi là “Điểm kỳ dị”, nơi mà AI trở nên thông minh hơn con người. Các thế hệ AI hiện tại vẫn tụt hậu trong những lĩnh vực mà con người vượt trội, chẳng hạn như suy luận theo ngữ cảnh và khả năng sáng tạo thực sự. Hầu hết các nội dung do AI tạo ra chỉ đơn giản là lấy lại dữ liệu được đào tạo.

Nhưng các nhà khoa học cho rằng AGI có khả năng thực hiện tốt hơn con người trong một số công việc nhất định. Nó cũng có thể bị vũ khí hóa và sử dụng để tạo ra những mầm bệnh nguy hiểm hơn, tiến hành các cuộc tấn công mạng quy mô lớn hoặc thao túng hàng loạt.

Việc hướng đến AGI từ lâu chỉ xuất hiện trong truyện khoa học viễn tưởng và nhiều nhà khoa học tin rằng chúng ta sẽ không bao giờ đạt tới điểm đó. Tuy nhiên việc OpenAI đạt được bước ngoặt này chắc chắn sẽ là một cú sốc, nhưng không phải là không có khả năng.

Chúng ta biết rằng, vào tháng 2 năm 2023, Sam Altman đã đặt nền tảng cho AGI bằng cách vạch ra hướng tiếp cận của OpenAI trong một bài đăng trên blog. Bên cạnh đó, các chuyên gia bắt đầu dự đoán về một bước đột phá sắp xảy ra, bao gồm CEO của công ty chuyên sản xuất bộ xử lý Nvidia (Mỹ), Jensen Huang, người cho biết vào tháng 11 năm 2023 rằng AGI có thể đạt được trong vòng 5 năm tới.

Liệu năm 2024 có phải là năm đột phá của AGI? Chỉ có thời gian mới trả lời được câu hỏi này.

Phổ biến các loại rô-bốt sát thủ được hỗ trợ bởi AI

Các chính phủ trên thế giới đang ngày càng đưa AI vào các công cụ chiến tranh. Vào ngày 22 tháng 11 vừa qua, chính phủ Mỹ thông báo rằng 47 quốc gia đã tán thành một tuyên bố về việc sử dụng AI có trách nhiệm trong quân đội. Tại sao cần một tuyên bố như vậy? Bởi vì việc sử dụng “vô trách nhiệm” là một viễn cảnh đáng lo ngại và đáng sợ. Ví dụ, chúng ta đã chứng kiến ​​những chiếc máy bay không người lái AI bị cáo buộc truy lùng binh lính ở Libya mà không có sự can thiệp của con người.

AI đang ngày càng đóng vai trò quan trọng trong quân đội. AI có khả năng nhận dạng các mẫu, tự học, đưa ra dự đoán hoặc đề xuất trong bối cảnh quân sự và cuộc đua vũ trang AI đã bắt đầu. Trong năm 2024, AI không chỉ có thể được sử dụng trong hệ thống vũ khí mà còn có thể được ứng dụng trong logistics, hỗ trợ ra quyết định, nghiên cứu và phát triển.

Ví dụ, trong năm 2022, AI đã tạo ra 40.000 vũ khí hóa học giả định mới. Các đơn vị khác nhau của quân đội Mỹ đã đặt hàng máy bay không người lái có khả năng nhận dạng mục tiêu và theo dõi chiến trường tốt hơn con người. Theo Đài phát thanh công cộng NPR (Mỹ), trong cuộc chiến gần đây nhất giữa Israel và Hamas, Israel đã sử dụng AI để xác định mục tiêu nhanh hơn con người ít nhất 50 lần.

Nhưng một trong những lĩnh vực phát triển đáng lo ngại nhất là Hệ thống vũ khí tự động gây chết người (LAWS) - hay rô-bốt sát thủ. Nhiều nhà khoa học và công nghệ hàng đầu đã lên tiếng cảnh báo về nguy cơ của rô-bốt sát thủ, bao gồm nhà vật lý lý thuyết Stephen Hawking vào năm 2015 và tỷ phú Elon Musk vào năm 2017, nhưng công nghệ này vẫn chưa xuất hiện hàng loạt.

Mặc dù rô-bốt sát thủ chưa xuất hiện hàng loạt, nhưng một số diễn biến đáng lo ngại cho thấy năm 2024 có thể là bước đột phá của chúng.

Trong cuộc chiến tại Ukraine, Nga bị cáo buộc triển khai máy bay không người lái Zala KYB-UAV có khả năng tự động nhận diện và tấn công mục tiêu theo báo cáo của Bản tin của các nhà khoa học nguyên tử (The Bulletin of the Atomic Scientists).

Trong khi đó, theo tờ Australian Financial Review cho biết, Úc cũng phát triển Ghost Shark, một hệ thống tàu ngầm tự động và chuẩn bị sản xuất hàng loạt.

Mức chi tiêu cho AI của các quốc gia trên thế giới cũng là một dấu hiệu. Theo Reuters, chi tiêu cho AI của Trung Quốc tăng từ 11,6 triệu USD năm 2010 lên 141 triệu USD năm 2019. Một phần nguyên nhân là do Trung Quốc đang cạnh tranh với Mỹ trong việc triển khai LAWS.

Những ví dụ này cho thấy AI đang mang đến những thay đổi đáng kể cho chiến tranh. Cuộc đua phát triển AI quân sự ngày càng gay gắt, đòi hỏi nhiều quốc gia phải quan tâm đến việc cân nhắc sử dụng AI một cách có trách nhiệm để tránh những hậu quả khôn lường.

Sử dụng AI để tạo ra video deepfake vô cùng chân thực để thao túng cử tri trong các cuộc bầu cử

Deepfake là loại công nghệ cho phép thay đổi khuôn mặt, giọng nói và cử chỉ của một người trong video thành người khác, khiến nó trông và nghe không thể phân biệt được với thực tế.

Trong bối cảnh bầu cử, những deepfake siêu thực tế này có thể được sử dụng theo nhiều cách để thao túng cử tri, bao gồm:

Làm mất uy tín ứng cử viên: Tạo video deepfake của ứng cử viên đang đưa ra phát ngôn xấu, phân biệt chủng tộc hoặc xúc phạm để làm giảm uy tín của họ trong mắt cử tri.

Ủng hộ ứng cử viên khác: Tạo video deepfake của các nhân vật nổi tiếng hoặc người có uy tín ủng hộ một ứng cử viên cụ thể, cho dù trên thực tế họ không hề làm điều đó.

Tạo tin đồn thất thiệt: Tạo video deepfake của ứng cử viên tham gia vào hoạt động bất hợp pháp hoặc sai trái để gieo rắc nghi ngờ và hủy hoại danh tiếng của họ.

Gây mất lòng tin bầu cử: Tạo video deepfake về gian lận bầu cử để đánh mất lòng tin của công chúng vào tính chính xác của kết quả bầu cử.

Sự nguy hiểm của việc sử dụng những video deepfake vô cùng chân thực để thao túng cử tri trong các cuộc bầu cử nằm ở tính chân thực đáng kinh ngạc của chúng. Những video này có thể khiến người xem tin rằng họ đang chứng kiến một sự kiện thực tế, ngay cả khi nó hoàn toàn được dàn dựng. Điều này có thể gây rắc rối nghiêm trọng cho nền dân chủ, vì nó có thể ảnh hưởng đến cách cử tri đi bầu và kết quả của các cuộc bầu cử.

Việc phát hiện và ngăn chặn việc sử dụng deepfake trong các cuộc bầu cử là một thách thức lớn. Công nghệ phát hiện deepfake đang được phát triển, nhưng nó vẫn chưa hoàn hảo. Các quốc gia đang bắt đầu ban hành luật để chống lại việc sử dụng deepfake cho mục đích sai trái, nhưng chưa rõ những luật này có hiệu quả đến mức nào.

Điều này sẽ khiến cho việc phân biệt sự thật và hư cấu bằng mắt thường trở nên gần như bất khả thi. Mặc dù một số công cụ có thể giúp phát hiện deepfake, nhưng chúng vẫn chưa phổ biến. Ví dụ, Intel đã phát triển một công cụ phát hiện deepfake theo thời gian thực hoạt động bằng cách sử dụng AI để phân tích lưu lượng máu. Tuy nhiên, theo BBC, công cụ này có tên FakeCatcher, cho đến nay vẫn cho kết quả không ổn định.

Điều quan trọng nhất là nâng cao nhận thức của công chúng về sự tồn tại của deepfake. Người dân cần biết rằng video họ xem hay nghe trên mạng xã hội có thể không phải là thật, và họ cần cẩn thận trước những thông tin có vẻ đáng ngờ. Bằng cách giáo dục công chúng, chúng ta có thể hy vọng giảm bớt tác động của deepfake đến các cuộc bầu cử trong tương lai.

Tác giả: Phan Văn Hoà

Nguồn tin: Báo Nghệ An điện tử

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây