Trung tâm Công nghệ thông tin và Truyền thông Nghệ AnTrung tâm Công nghệ thông tin và Truyền thông Nghệ An
Trang thông tin điện tử
Trung tâm Công nghệ thông tin và Truyền thông Nghệ An
Ngăn chặn nội dung giả mạo do AI tạo ra: Các mạng xã hội đã thực sự mạnh mẽ?
Thứ tư - 02/10/2024 15:446120
Kể từ khi trí tuệ nhân tạo (AI) trở nên phổ biến, việc tạo ra nội dung giả mạo và lan truyền thông tin sai lệch trên mạng xã hội đã gia tăng nhanh chóng. Ngày nay, bất kỳ ai có máy tính và chỉ cần dành ra vài giờ nghiên cứu hướng dẫn đều có thể tạo ra những nội dung giả mạo về bất kỳ ai.
Mặc dù một số quốc gia đã ban hành các quy định nhằm hạn chế tình trạng này, nhưng hiệu quả vẫn bị hạn chế bởi khả năng đăng nội dung ẩn danh. Vậy, chúng ta có thể làm gì khi ngay cả các ứng cử viên tổng thống Hoa Kỳ cũng có thể vô tình chia sẻ thông tin giả mạo do AI tạo ra?
Phần lớn trách nhiệm kiểm soát nội dung trên các nền tảng mạng xã hội (MXH) huộc về các công ty công nghệ. Trong những năm gần đây, các công ty này đã áp dụng nhiều chính sách nhằm giảm thiểu rủi ro từ tin tức giả mạo do AI tạo ra.
Tuy nhiên, câu hỏi đặt ra là: Liệu những biện pháp này có đủ mạnh mẽ? Và liệu các chính sách này có thể vô tình gây tổn hại cho xã hội, chẳng hạn như vi phạm quyền tự do ngôn luận?
Tại sao nội dung giả mạo do AI tạo ra lại là một vấn nạn lớn?
Chúng ta đang chứng kiến sự gia tăng đáng kể việc sử dụng AI để tạo ra thông tin giả nhằm làm suy giảm lòng tin vào các quy trình dân chủ, chẳng hạn như bầu cử. Deepfake do AI tạo ra có thể rất chân thực, biến video và âm thanh thành công cụ mạnh mẽ để phá hoại danh tiếng và thao túng dư luận. Phạm vi tiếp cận rộng lớn của MXH khiến nội dung giả mạo có thể lan truyền rất nhanh, tiếp cận được rất nhiều người chỉ trong thời gian ngắn.
Ví dụ, trong năm nay, hàng ngàn cử tri Đảng Dân chủ ở New Hampshire đã nhận được các cuộc gọi kêu gọi không đi bỏ phiếu. Giọng nói được cho là của Tổng thống Joe Biden, thông báo rằng cuộc bầu cử sơ bộ sắp tới sẽ là một chiến thắng dễ dàng và khuyên họ nên giữ phiếu bầu của mình cho những cuộc bầu cử có sự cạnh tranh gay gắt hơn trong tương lai.
Hay tại Bangladesh, một video deepfake ghi lại cảnh hai nữ chính trị gia đối lập mặc đồ bơi nơi công cộng đã gây tranh cãi trong một xã hội mà phụ nữ phải ăn mặc kín đáo.
Đây chỉ là phần nổi của tảng băng chìm - các nhà nghiên cứu ước tính rằng có hơn nửa triệu video deepfake đã được lưu hành trên MXH trong năm 2023. Và với sự phát triển nhanh chóng của công nghệ này, vấn đề sẽ ngày càng trở nên nghiêm trọng hơn.
Các nền tảng MXH đang làm gì để ngăn chặn?
Hầu hết các công ty truyền thông xã hội lớn đều đã thực hiện các biện pháp nhằm đối phó với sự gia tăng của nội dung giả mạo và thông tin sai lệch.
Meta, chủ sở hữu của Facebook và Instagram, sử dụng kết hợp các giải pháp công nghệ và con người. Họ sử dụng các thuật toán để quét toàn bộ nội dung và gắn nhãn "Thông tin AI" cho các nội dung được xác định là do AI tạo ra và cảnh báo rằng nội dung do AI tạo ra có thể không phải là sự thật.
Đồng thời, công ty sử dụng nhân lực và các dịch vụ kiểm chứng của bên thứ ba để kiểm tra và gắn cờ nội dung theo cách thủ công, ưu tiên hiển thị các nguồn tin cậy và uy tín trên nền tảng.
Trong khi đó, X (trước đây là Twitter) áp dụng cách tiếp cận dựa vào người dùng. Họ sử dụng hệ thống Community Notes (Ghi chú cộng đồng), cho phép người dùng trả phí đánh dấu và chú thích các nội dung mà họ cho là dễ gây hiểu lầm. Nền tảng này cũng đã từng có các biện pháp cấm người dùng khi phát hiện họ lan truyền thông tin sai sự thật về các chính trị gia.
YouTube, thuộc sở hữu của Google, chủ động xóa các nội dung gây hiểu lầm hoặc có khả năng gây hại. Đối với các nội dung không vi phạm rõ ràng quy tắc nhưng vẫn tiềm ẩn rủi ro, YouTube sẽ thực hiện các biện pháp nhằm giảm khả năng những video này xuất hiện trong danh sách đề xuất. Tương tự như Meta, YouTube sử dụng kết hợp giữa sự kiểm duyệt của con người và thuật toán học máy để quản lý nội dung.
TikTok, thuộc sở hữu của ByteDance, sử dụng công nghệ chứng nhận nội dung (content credentials) để phát hiện các nội dung do AI tạo ra dưới dạng văn bản, video, hoặc âm thanh. Khi những nội dung này xuất hiện trên nguồn cấp dữ liệu của người dùng, hệ thống sẽ tự động áp dụng cảnh báo. Ngoài ra, người dùng cũng phải tự xác nhận nếu nội dung họ tải lên có chứa video, hình ảnh, hoặc âm thanh được tạo ra bởi AI và khẳng định rằng nội dung đó không nhằm mục đích gây hiểu lầm hoặc gây hại.
Cần sự hợp tác toàn diện để giải quyết vấn đề
Dù các nền tảng MXH đã triển khai nhiều biện pháp, nhưng nội dung giả mạo do AI tạo ra vẫn tiếp tục được lan truyền rộng rãi, cho thấy còn rất nhiều việc cần làm.
Bên cạnh các biện pháp công nghệ và quy định của chính phủ, giáo dục được cho là đóng vai trò quan trọng trong việc chống lại xu hướng này.
Nếu chúng ta không muốn sống trong một thế giới “hậu sự thật”, nơi mọi thứ ta nhìn thấy đều có thể bị nghi ngờ, thì việc phát triển kỹ năng tư duy phản biện để nhận diện thông tin thật - giả sẽ là giải pháp lâu dài.
Cuộc chiến chống lại nội dung giả mạo và thông tin sai lệch là một quá trình liên tục, đòi hỏi sự hợp tác giữa các nhà cung cấp nội dung, nhà điều hành nền tảng, nhà lập pháp, nhà giáo dục và chính chúng ta - với tư cách là người dùng và người tiêu thụ thông tin trực tuyến.
Điều đáng lo ngại là các công cụ AI ngày càng tinh vi, với khả năng tạo ra những nội dung giả mạo thuyết phục hơn, chắc chắn sẽ xuất hiện trong tương lai. Điều này có nghĩa là việc phát triển và triển khai các phương pháp hiệu quả để đối phó với những rủi ro này sẽ trở thành một trong những thách thức cấp bách nhất mà xã hội phải đối mặt trong những năm tới./.