Tạo niềm tin cho người dùng vào các sản phẩm AI tạo sinh

Thứ ba - 21/05/2024 11:21 99 0
Để tăng niềm tin của người dùng vào công nghệ AI tạo sinh cần giảm thiểu nội dung không chính xác hoặc gây hiểu lầm do các mô hình ngôn ngữ lớn tạo ra.
AI tạo sinh ngày càng trở nên phổ biến, làm thay đổi cách sống và làm việc của con người. Theo một nghiên cứu do công ty PwC thực hiện, AI có thể đóng góp tới 15,7 nghìn tỷ USD cho nền kinh tế toàn cầu vào năm 2030. Báo cáo của Forbes Advisor cho thấy 97% chủ doanh nghiệp tin rằng ChatGPT sẽ giúp ích cho hoạt động kinh doanh của họ.
1

Tuy nhiên, người dùng cũng có những cảm nhận khác nhau về “cuộc cách mạng” AI tạo sinh. Ví dụ, chỉ 46% người Mỹ quan tâm và hào hứng với AI. Khi người dùng có sự nghi ngờ thì sẽ gây cản trở việc áp dụng AI. Để tăng niềm tin của người dùng vào công nghệ này cần một số cách để giảm thiểu nội dung không chính xác hoặc gây hiểu lầm do những mô hình ngôn ngữ lớn (LLM) tạo ra. Vậy những cách này là gì? Làm thế nào các công ty có thể tạo ra những sản phẩm mà người dùng không chỉ yêu thích mà còn tin tưởng?

Ảo giác

Các mô hình ngôn ngữ lớn (LLM) có thể đưa ra những câu trả lời có vẻ thuyết phục, nhưng thực tế, chúng không thể hiểu ý nghĩa của những câu trả lời đó được như con người. Các LLM được đào tạo thông qua lượng dữ liệu khổng lồ từ nhiều nguồn khác nhau nhưng chúng không thể tự thực hiện bất kỳ tra cứu hay tham khảo nào từ các nguồn thông tin bên ngoài những thứ được "đào tạo".

Điều này nghĩa là một LLM có thể đưa ra những đáp án lại không chính xác hoặc không có căn cứ so với bối cảnh đầu vào. Những câu trả lời như vậy được gọi là "ảo giác".

Ở một mức độ nào đó, "ảo giác" trong các LLM là điều không thể tránh khỏi. Tuy nhiên, con người vẫn cần các LLM có được những phản hồi đúng và phù hợp với thực tế.

Dù rằng, việc giải quyết những vấn đề như vậy trong các sản phẩm GenAI là một thách thức chưa có hồi kết. Tuy nhiên vẫn có nhiều cách để đảm bảo niềm tin cho người dùng trong khi vẫn khai thác tính sáng tạo và tiềm năng của AI.

Bổ sung nguồn thông tin thực tế

Cách giúp giảm thiểu "ảo giác" là đào tạo LLM bằng những kiến thức có cơ sở thực tế, đặt LLM vào bối những cảnh cụ thể. Đây gọi là quá trình Grounding.

Về mặt triển khai, tạo tăng cường truy xuất (Retrieval Augmented Generation – RAG) là cách phổ biến nhất được sử dụng hiện nay để grounding các LLM. Hiện nay, trên thị trường có sẵn rất nhiều giải pháp RAG sử dụng kho dữ liệu tùy chỉnh.

Grounding sẽ rất hữu ích cho việc đánh giá và xác thực chất lượng phản hồi của LLM. Đây cũng điều quan trọng trong thử nghiệm các ứng dụng AI tạo sinh trước khi triển khai . Trong trường hợp không có tập dữ liệu nền tảng thì sẽ không có cách nào để “so sánh” các phản hồi của LLM xem liệu chúng có dựa trên thực tế hay không. Vì vậy, việc lựa chọn RAG phù hợp và tập dữ liệu nền tảng phù hợp là rất quan trọng để cải thiện tính thực tế của ứng dụng GenAI.

Cần cung cấp đa dạng bối cảnh cho AI

Để khai thác tiềm năng của AI tạo sinh cần một lượng dữ liệu rất lớn, đa dạng và phù hợp cho quá trình đào tạo mô hình. Đây là một thách thức đối với các nhà phát triển cũng như lãnh đạo doanh nghiệp, bởi việc thu thập và chuẩn bị dữ liệu thường khó khăn và tốn nhiều nguồn lực.

Trước đây, các ứng dụng máy tính không thể thực hiện một tác vụ trừ khi con người cung cấp hướng dẫn rõ ràng về cách hoàn thành tác vụ đó. Những hướng dẫn đó được gọi là “lập trình”.

Các hệ thống AI tạo sinh linh hoạt hơn vì chúng dựa vào công nghệ học máy, không yêu cầu lập trình rõ ràng. Thay vào đó, con người cung cấp cho máy tính quyền truy cập vào lượng lớn dữ liệu. Các máy móc tự đào tạo để nhận ra các mẫu trong dữ liệu đó và quan trọng nhất là đưa ra kết luận từ những thông tin chúng đã học hỏi được. AI chỉ hữu ích khi có dữ liệu mà AI được đào tạo.

Sử dụng các giới hạn

Để giảm "ảo giác" cho AI tạo sinh, ngoài grounding còn có nhiều kỹ thuật khác như sử dụng kết hợp với các mô hình được tinh chỉnh với RAG; yêu cầu LLM tự đánh giá kết quả đầu ra của chính mình...

Tuy nhiên, không có phương pháp nào là tuyệt đối không có sai lầm. Do đó, việc giám sát và đánh giá các hệ thống AI tạo sinh là rất quan trọng để giảm thiểu các những tác động về mặt đạo đức cũng như thực tiễn. Ví dụ, những dự đoán không chính xác có thể tiềm ẩn những nguy cơ đe dọa đến tính mạng trong các lĩnh vực như khoa học y tế, dược học, thiết kế xe tự hành, thực thi pháp luật hoặc quản lý thảm họa.

Những nỗ lực giảm ảo giác bằng cách cải thiện tính xác thực và minh bạch sẽ giúp gia tăng niềm tin của người dùng vào các sản phẩm AI. Mặc dù AI có thể là một công cụ tuyệt vời để cách mạng hóa cách tất cả chúng ta sống và làm việc nhưng cuối cùng, nó vẫn không thể thay thế khả năng phán đoán của con người.

Tài liệu tham khảo

1. hackernoon.com

2. adobe.com

Tác giả: Hạnh Tâm

Nguồn tin: Tạp chí điện tử Thông tin và Truyền thông

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây