Kiểm soát mặt trái của trí tuệ nhân tạo

Để hoạt động được, AI cần một “bộ não” gọi là mô hình AI - tức là hệ thống mô hình toán học và thuật toán được huấn luyện bằng khối lượng dữ liệu khổng lồ. Chính mô hình này cho phép máy học các quy luật, phân tích thông tin, đưa ra dự đoán hoặc tạo ra nội dung mới…

Hỏi: Mô hình trí tuệ nhân tạo (AI) là gì và hiện nay có những loại mô hình nào phổ biến?

Đáp: Để hoạt động được, AI cần một “bộ não” gọi là mô hình AI - tức là hệ thống mô hình toán học và thuật toán được huấn luyện bằng khối lượng dữ liệu khổng lồ. Chính mô hình này cho phép máy học các quy luật, phân tích thông tin, đưa ra dự đoán hoặc tạo ra nội dung mới…

Dựa theo đầu vào và đầu ra, các mô hình AI hiện nay có thể được chia thành nhiều nhóm. Nhóm phổ biến nhất hiện nay là text-to-text, trong đó người dùng nhập vào văn bản và AI sẽ tạo ra văn bản phản hồi phù hợp (các chatbot như ChatGPT, Gemini, Claude…). Nhóm text-to-image có đầu vào là mô tả bằng chữ, đầu ra là hình ảnh do AI tạo ra (Midjourney, DALL·E…).

Tiếp theo là nhóm text-to-audio, biến văn bản thành giọng nói hoặc hiệu ứng âm thanh; nhóm image-to-text, sử dụng hình ảnh làm đầu vào để AI tạo ra phần mô tả hoặc phân tích; nhóm image-toimage biến đổi hình ảnh thành hình ảnh khác, thường dùng cho các tác vụ như phục chế, chuyển đổi phong cách; nhóm image-to-video, AI sẽ tạo video chuyển động giả lập dựa trên ảnh tĩnh; nhóm video-to-text cho phép phân tích hoặc tóm tắt nội dung từ video, được ứng dụng trong hệ thống trích xuất thông tin, chú thích video hoặc phân tích dữ liệu giám sát.

Một nhóm đặc biệt mạnh mẽ hiện nay là text-to-video cho phép chuyển văn bản thành video. Với loại mô hình này, người dùng chỉ cần nhập một đoạn mô tả ngắn, hệ thống AI sẽ tạo ra video phù hợp về bối cảnh, hành động, ánh sáng, thậm chí cả góc quay.

Các công cụ nổi bật như Pika Labs, Sora (OpenAI) và gần đây, cộng đồng công nghệ toàn cầu trong đó có Việt Nam đặc biệt chú ý đến Veo 3, một công cụ do Google DeepMind phát triển. Các đoạn clip do Veo 3 tạo ra chân thực gần như tuyệt đối tiệm cận trình độ của các nhà làm phim chuyên nghiệp, khiến không ít người trầm trồ.

Việc tạo video trở nên dễ như viết một đoạn văn đã khiến xuất hiện không ít nội dung “rác” được tạo ra chỉ nhằm gây chú ý, trong đó có cả video mang tính giật gân, sử dụng ngôn từ dung tục hoặc chứa thông tin sai lệch. Nguy hiểm hơn, các công cụ như Veo 3, mặc dù không phải công cụ deepfake chuyên biệt, vẫn có thể bị lợi dụng để tạo ra hình ảnh hoặc giọng nói giả mạo người thật một cách tinh vi dễ dàng đánh lừa người xem, gây tổn hại đến danh tiếng cá nhân, an ninh thông tin và trật tự xã hội, làm gia tăng nguy cơ lừa đảo trên không gian mạng (Deepfake - là những công nghệ ứng dụng AI để tạo hình ảnh, video âm thanh giả mạo giống như thật khiến người dùng khó phân biệt...).

Đáng lo hơn, rất nhiều nội dung xuyên tạc, sai lệch được tạo ra và lan truyền với tốc độ chóng mặt, len lỏi khắp mạng xã hội nhưng không có kiểm chứng và kiểm soát. Đối tượng dễ tiếp cận nhất, lại dễ bị tổn thương nhất là trẻ em và thanh thiếu niên thường thiếu kỹ năng phân biệt thật giả, cho nên rất dễ tiếp nhận nội dung độc hại, để lại hệ lụy lâu dài về nhận thức và hành vi.

Hỏi: Trước sự phát triển nhanh chóng của công cụ như Veo 3, đâu là giải pháp để hạn chế có hiệu quả việc sử dụng AI vào mục đích sai lệch?

Đáp: Có thể thấy, hệ thống quản lý và pháp luật hiện nay vẫn đang chậm hơn nhịp phát triển của công nghệ AI, tạo ra không ít khoảng trống pháp lý và rủi ro khó lường. Điều này đòi hỏi phải sớm xây dựng khung quản lý chủ động, linh hoạt và đồng bộ; đồng thời nâng cao nhận thức cộng đồng trong việc sử dụng AI một cách có trách nhiệm.

Việc để AI phát triển có trách nhiệm trước hết phụ thuộc chính vào chúng ta - những người tạo ra, quản lý và sử dụng nó. Quan điểm đổi mới sáng tạo và quản lý không nên được xem là hai thái cực đối đầu, mà là hai mặt của một tiến trình đã được đề cập nhiều lần. Vì vậy, một mặt cần cởi mở để khuyến khích phát triển công nghệ, mặt khác cần chủ động thiết lập những nguyên tắc đạo đức và hành lang pháp lý phù hợp với bối cảnh mới.

Tại Việt Nam, bên cạnh việc tiếp tục hoàn thiện thể chế, một số giải pháp đã được đề cập trong thời gian gần đây như đề xuất của Ủy ban Đạo đức AI thuộc Hiệp hội Phần mềm và Dịch vụ công nghệ thông tin Việt Nam (VINASA) về việc xây dựng Bộ quy chuẩn đạo đức AI, nhằm xác lập giới hạn hành vi cho cả nhà phát triển lẫn người sử dụng.

Cùng với đó là ý tưởng hình thành bộ ngôn ngữ dữ liệu mở chuẩn quốc gia, với mục tiêu giúp các nhà phát triển AI trong và ngoài nước có căn cứ tuân thủ theo yếu tố chính trị, bối cảnh văn hóa, pháp lý, lịch sử của Việt Nam.

Đề xuất phân loại và dán nhãn đối với các sản phẩm AI cũng là ý tưởng khả thi. Nhãn AI nên trở thành yêu cầu bắt buộc và có thể phân theo nhiều cấp độ can thiệp: từ chỉnh sửa một phần đến sản xuất hoàn toàn, hay theo nội dung như đã áp dụng cho các chương trình trò chơi và phim ảnh.

Cùng với đó là việc thiết lập cơ chế hậu kiểm rõ ràng, gắn trách nhiệm đến cùng. Dưới góc nhìn xã hội, việc giáo dục kỹ năng số cho toàn dân, nhất là trẻ em và thanh thiếu niên là thiết yếu; giúp trang bị khả năng nhận diện nội dung độc hại, thực hành quy tắc kiểm chứng thông tin chính là những giải pháp căn cơ trong một xã hội ngày càng nhiễu loạn bởi nội dung ảo.

Theo QĐND
BÌNH LUẬN

Bạn còn 500/500 ký tự

Bạn vui lòng nhập từ 5 ký tự trở lên !!!

Tin mới