An toàn AI, Việt Nam không thể chờ các công ty công nghệ Trung Quốc hay Mỹ, cảnh báo cao độ về khai thác dữ liệu

(Myiq.vn) – Theo GS. Toby Walsh – Đại học New South Wales (Australia), trong quá khứ, nhiều quốc gia đang phát triển đã trải qua giai đoạn bị đô hộ về mặt vật lý. Nếu không cẩn thận trong thời đại AI, các quốc gia này có thể sẽ trải qua giai đoạn “đô hộ số”. Dữ liệu sẽ bị khai thác, và sẽ trở thành nguồn lực rẻ tiền.

Trả lời phỏng vấn bên lề toạ đàm “AI vì nhân loại” trong khuôn khổ Tuần lễ Khoa học – Công nghệ VinFuture 2025, GS. Toby Walsh – Đại học New South Wales (Australia) đã có những chia sẻ về tác động của AI trên toàn cầu và dành những lời khuyên đặc biệt cho Việt Nam.

Đạo đức và an toàn AI: Việt Nam không thể chờ các công ty công nghệ Trung Quốc hay Mỹ “bảo vệ”

Thưa GS. Toby Walsh, sử dụng AI có trách nhiệm nên là việc được thực hiện tự nguyện hay bắt buộc? Và thực tế thì chúng ta nên ứng xử như thế nào với AI?

– Tôi tin chắc rằng việc sử dụng AI có trách nhiệm nên là bắt buộc. Hiện nay có nhiều động cơ lệch lạc, với số tiền khổng lồ được tạo ra nhờ AI, và cách duy nhất để đảm bảo hành vi đúng đắn là áp dụng các quy định nghiêm ngặt, để lợi ích cộng đồng luôn được cân bằng với lợi ích thương mại.

GS. Toby Walsh cho rằng Việt Nam chủ động bảo vệ giá trị và văn hoá trước làn sóng AI. Ảnh NT

Vấn đề cốt lõi khi AI mắc sai lầm là chúng ta không thể bắt AI chịu trách nhiệm. AI không phải là con người và đây là lỗ hổng trong mọi hệ thống pháp luật trên thế giới. Chỉ con người mới bị chịu trách nhiệm cho các quyết định và hành động của mình.

Điều này đặt ra một thách thức: Chúng ta sẽ bắt ai chịu trách nhiệm? Câu trả lời là phải bắt các công ty triển khai và vận hành hệ thống AI chịu trách nhiệm về hậu quả mà những “cỗ máy” này gây ra.

Lời khuyên của GS là gì khi Việt Nam đang trong quá trình soạn thảo Luật trí tuệ nhân tạo?

– Có nhiều trường hợp không cần ban hành luật mới. Chúng ta đã có luật về quyền riêng tư, đã có luật cạnh tranh. Những luật hiện có này cũng áp dụng cho không gian số, giống như cách áp dụng trong đời sống thực. Điều quan trọng là phải thi hành những luật này một cách nghiêm ngặt trong môi trường số, như chúng ta đã làm với môi trường vật lý.

Tuy nhiên, sẽ xuất hiện một số rủi ro mới, và chúng ta bắt đầu thấy điều đó. Con người bắt đầu thiết lập mối quan hệ với AI, sử dụng AI như những nhà trị liệu, và đôi khi sẽ gây hại cho người dùng, vì vậy chúng ta cần lưu ý.

Chúng ta luôn bắt các nhà sản xuất chịu trách nhiệm khi họ ra sản phẩm. Ví dụ, nếu các công ty AI phát hành sản phẩm AI gây hại cho con người, họ cũng phải chịu trách nhiệm.

Một vấn đề rất đáng chú ý, đó là làm thế nào để AI không gây tác hại độc hại đến trẻ nhỏ, và tạo môi trường an toàn cho trẻ nhỏ mỗi khi AI xuất hiện?

– Tôi nghĩ rằng chúng ta chưa rút ra nhiều bài học từ mạng xã hội. Nhiều quốc gia giờ đây mới bắt đầu nhận ra rằng mạng xã hội mang lại lợi ích lớn nhưng cũng có nhiều tác hại, đặc biệt ảnh hưởng tới sức khỏe tinh thần, mức độ lo âu và nhận thức sai lệch về ngoại hình của giới trẻ, nhất là các bạn nữ.

Nhiều quốc gia đã bắt đầu triển khai các biện pháp để giải quyết vấn đề này. Ở Australia, từ ngày 10/12, quy định về độ tuổi sử dụng mạng xã hội sẽ có hiệu lực. Tôi cho rằng, chúng ta cũng cần những biện pháp tương tự cho AI. Chúng ta đang xây dựng những công cụ có thể mang lại tác động tích cực nhưng cũng có thể gây tác hại tương tự, và chúng ta cần bảo vệ trí tuệ và tâm hồn các em khỏi những tác động tiêu cực này.

Thứ trưởng Bùi Thế Duy: Trí tuệ nhân tạo như hạ tầng chiến lược, giống như điện và Internet

Bên cạnh đó, tôi hy vọng các quốc gia cũng sẽ ban hành các quy định quản lý nghiêm ngặt mạng xã hội, từ đó tạo ra một môi trường thật sự an toàn cho mọi người khi sử dụng AI.

AI ứng dụng trong nhiều lĩnh vực, giúp cải thiện chất lượng cuộc sống của chúng ta. Trong y tế, AI giúp phát hiện các loại thuốc mới. Trong giáo dục, AI cũng mang lại nhiều lợi ích tích cực.

Tuy nhiên, trao quyền tiếp cập AI mà không có biện pháp bảo vệ đầy đủ là quá rủi ro. Chúng ta đã thấy những vụ kiện ở Mỹ, cha mẹ kiện các hãng công nghệ, đã khiến con cái họ tự tử sau khi tương tác với các chatbot AI. Mặc dù tỷ lệ người dùng ChatGPT gặp các vấn đề về sức khỏe tâm thần chỉ chiếm vài phần trăm, nhưng với hàng trăm triệu người dùng, con số thực tế lên tới hàng trăm nghìn người.

Theo đánh giá của GS, với những quốc gia đang phát triển như Việt Nam thì đâu là những thách thức đối với vấn đề đạo đức và an ninh an toàn trong việc phát triển AI? Giáo sư có khuyến nghị gì cho Việt Nam để đạt được mục tiêu trong chiến lược AI đã đặt ra – đạt top đầu khu vực và thế giới về nghiên cứu và làm chủ AI?

– Tôi rất vui khi Việt Nam là một trong số quốc gia tiên phong sẽ có Luật chuyên biệt về Trí tuệ nhân tạo. Điều này quan trọng bởi mỗi quốc gia đều có giá trị và văn hóa riêng, và cần luật pháp để bảo vệ những giá trị đó.

Giá trị và văn hóa của Việt Nam khác với Australia, khác với Trung Quốc, và khác với Mỹ. Chúng ta không thể trông chờ các công ty công nghệ từ Trung Quốc hay Mỹ sẽ tự động bảo vệ văn hóa, ngôn ngữ Việt Nam. Những điều đó phải do chính Việt Nam chủ động bảo vệ.

Tôi rất lưu ý rằng, trong quá khứ, nhiều quốc gia đang phát triển đã trải qua giai đoạn bị đô hộ về mặt vật lý. Nếu không cẩn thận, chúng ta có thể sẽ trải qua giai đoạn “đô hộ số”. Dữ liệu của các bạn sẽ bị khai thác, và các bạn sẽ trở thành nguồn lực rẻ tiền.

Điều này có nguy cơ xảy ra nếu các quốc gia đang phát triển phát triển ngành AI theo cách chỉ khai thác dữ liệu mà không kiểm soát cũng như bảo vệ quyền lợi của mình.

Việt Nam cần bảo vệ dữ liệu ra sao, ứng xử thế nào trước vấn nạn tình trạng lừa đảo do AI gây ra

Vậy làm thế nào để bảo vệ dữ liệu, thưa GS?

– Hãy đầu tư vào con người. Nâng cao kỹ năng cho mọi người, đảm bảo họ có hiểu biết về AI. Hỗ trợ các doanh nhân, doanh nghiệp AI, hỗ trợ các trường đại học. Hãy tham gia một cách chủ động. Thay vì chờ đợi các quốc gia khác chuyển giao công nghệ hay định hướng cho chúng ta, chúng ta phải chủ động và làm chủ công nghệ.

GS. Toby Walsh đưa ra lời khuyên xử lý tình trạng lừa đảo do AI gây ra ở Việt Nam.

Thứ hai, chúng ta cần vận động mạnh mẽ các nền tảng mạng xã hội để họ tạo ra môi trường an toàn cho người dùng tại Việt Nam, đồng thời không ảnh hưởng đến nền dân chủ của đất nước.

Trên thực tế, có rất nhiều ví dụ cho thấy các nội dung trên mạng xã hội đã tác động đến kết quả bầu cử, gây chia rẽ nội bộ các quốc gia và thậm chí kích động khủng bố.

Thời gian qua, Việt Nam có rất nhiều chính sách để đẩy mạnh AI, nhưng cũng đang phải đối mặt với một vấn nạn, đó là tình trạng lừa đảo do AI gây ra. Vậy theo GS, Việt Nam nên xử lý tình trạng này như thế nào? Lời khuyên của giáo sư dành cho những người đang sử dụng AI hiện nay để làm sao đảm bảo an toàn và bảo vệ dữ liệu cho bản thân là gì?

– Với từng cá nhân, tôi nghĩ cách đơn giản nhất là xác minh thông tin. Ví dụ, khi nhận được một cuộc điện thoại hay email, chẳng hạn từ ngân hàng, chúng ta cần đối chiếu lại: có thể gọi lại cho số thuê bao đó hoặc liên hệ trực tiếp ngân hàng để xác thực thông tin.

Ngày nay, có rất nhiều email giả, số điện thoại giả, thậm chí cuộc gọi qua Zoom cũng có thể bị giả mạo. Những thủ đoạn lừa đảo này rất đơn giản, không tốn kém mà cũng không mất nhiều thời gian.

Trong gia đình tôi, chúng tôi còn có một cách bảo mật riêng: Một “câu hỏi mật” chỉ người trong nhà mới biết, ví dụ như tên chú thỏ cưng ở nhà. Điều này đảm bảo rằng thông tin quan trọng chỉ được giữ trong gia đình và không bị lộ ra ngoài.

Việt Nam cũng đã đưa giáo dục AI vào trong giáo dục phổ thông, vậy trong quá trình đó thì cần chú ý những gì?

– AI thay đổi nội dung cần dạy và cách thức dạy học. Nó ảnh hưởng đến những kỹ năng quan trọng trong tương lai, như tư duy phản biện, kỹ năng giao tiếp, trí tuệ xã hội và trí tuệ cảm xúc. Những kỹ năng này sẽ trở nên thiết yếu.

AI có thể hỗ trợ việc giảng dạy các kỹ năng này, ví dụ như làm gia sư cá nhân, trợ lý ôn tập cá nhân, mang đến những công cụ giáo dục rất hiệu quả nhờ ứng dụng AI.

Post a Comment

0 Comments