Cần quy định rõ hơn về năng lực, kinh nghiệm để đảm bảo có nguồn nhân lực công nghệ số chất lượng
(BĐ) - Tiếp tục chương trình Kỳ họp thứ 8, Quốc hội khóa XV, sáng 30.11, Quốc hội thảo luận ở hội trường về dự án Luật Công nghiệp công nghệ số.
Tham gia góp ý dự án Luật, đại biểu (ĐB) Nguyễn Văn Cảnh (Đoàn ĐBQH tỉnh Bình Định) phát biểu, mặc dù trí tuệ nhân tạo (AI) mang lại nhiều lợi ích trong hầu hết các lĩnh vực, nhưng vẫn có một số ngành mà việc áp dụng AI có thể không phù hợp hoặc cần thận trọng, như:
Lĩnh vực y tế (AI có thể không hiểu đầy đủ tất cả các yếu tố phức tạp trong cơ thể con người như sự tương tác giữa các bệnh lý, tác dụng phụ của thuốc, hoặc các yếu tố cá nhân như di truyền).
Lĩnh vực giáo dục và đào tạo (các kỹ năng mềm như giao tiếp, cảm thông và tư duy sáng tạo).
Lĩnh vực pháp lý, khi ra quyết định quan trọng (vì nhiều yếu tố trong luật pháp có tính chủ quan, cần hiểu biết sâu rộng và sự cảm thông với các tình huống cụ thể).
Ngành nghệ thuật sáng tạo (không chỉ là về kỹ thuật mà còn là sự truyền tải cảm xúc và thông điệp, điều mà AI khó có thể thực hiện một cách tự nhiên).
Quản lý nhân sự và tuyển dụng (quyết định quan trọng về con người như thăng chức, khen thưởng, sa thải. AI cũng có thể bị sai lệch trong việc phân tích các yếu tố không chính thức như văn hóa tổ chức).
Quản lý tài nguyên thiên nhiên và bảo vệ môi trường (cần phải được thực hiện một cách cân nhắc và có sự tham gia của cộng đồng, các chuyên gia và chính sách).
Quản lý các tình huống khẩn cấp hoặc tình huống đạo đức phức tạp như cứu hộ trong thiên tai, chiến tranh (các quyết định đôi khi cần có sự linh hoạt và phản ứng nhanh, dựa trên tình huống thực tế).
Các lĩnh vực có sự tương tác mạnh mẽ với các vấn đề đạo đức như giám sát công cộng, theo dõi và phân tích hành vi con người (có thể dẫn đến các vi phạm quyền riêng tư và tự do cá nhân).
ĐB Nguyễn Văn Cảnh tham gia góp ý về dự án Luật Công nghiệp công nghệ số. Ảnh: Đoàn ĐBQH tỉnh
ĐB Cảnh cho rằng, những điều vừa nêu trên là được lấy ra hoàn toàn từ ứng dụng AI. Khi đặt câu hỏi “trí tuệ nhân tạo nên sử dụng hạn chế trong lĩnh vực nào”, chỉ sau vài giây ứng dụng đã đưa ra một bài viết khá đầy đủ.
“Từ ví dụ này cho thấy về tốc độ thì AI có thể cho ra kết quả nhanh gấp cả ngàn lần con người. Tuy nhiên, hiệu quả công việc không chỉ dựa trên tốc độ hoàn thành mà còn dựa vào mức độ hoàn thiện công việc nên nhiều lĩnh vực, chúng ta cũng chưa thể tính toán được AI hay con người làm tốt hơn, đặc biệt là các lĩnh vực, bộ phận khó kiểm soát được kết quả công việc, chất lượng công việc có dựa vào yếu tố đạo đức trong quá trình thực hiện”, ĐB Cảnh phát biểu.
Theo ĐB Cảnh, AI là ngành mới nên những khái niệm cần được làm rõ trước khi đưa ra các quy định về AI. Tại khoản 10, Điều 3 có quy định "AI là công nghệ số mô phỏng trí thông minh của con người nhằm mục đích đưa ra nội dung, dự báo, đề xuất, quyết định dựa trên tập hợp các mục tiêu do con người xác định".
Việc để AI đưa ra nội dung, dự báo, đề xuất hay được ra quyết định thì phải dựa trên mức độ rủi ro đối với sức khỏe người dùng, cộng đồng, tài sản của cá nhân, tổ chức, quốc gia từ dự báo, đề xuất, quyết định đó. AI là lĩnh vực mới, thế giới đang quan tâm, nghiên cứu. Để đi cùng với thế giới trong lĩnh vực này, theo ĐB Cảnh, những khái niệm về AI, ứng dụng AI, quản lý rủi ro về AI cũng cần tiếp thu, học tập, sử dụng từ những gì thế giới đã tạo ra, đang sử dụng.
Theo ĐB Cảnh, thế giới chia rủi ro AI làm 4 mức độ, gồm: Rủi ro không thể chấp nhận được (Unacceptable risk) - là khi việc sử dụng AI bị coi là mối đe dọa rõ ràng đối với an ninh, sinh kế và quyền của con người. Rủi ro cao (High-risk) - là đối với cơ sở hạ tầng quan trọng có thể gây nguy hiểm đến tính mạng và sức khỏe của người dân như giao thông, phẫu thuật trong y tế, phân loại hồ sơ ứng viên trong quản lý nhân sự, các chương trình giám sát cộng đồng. Rủi ro hạn chế (Limited-risk) là như ChatGPT có khả năng tạo ra văn bản, hình ảnh, mã hóa, âm thanh và các sản phẩm truyền thông khác..., có thông báo tới người dùng là sản phẩm do máy móc tạo ra, không phải con người, để người dùng có thể đưa ra quyết định sáng suốt. Rủi ro tối thiểu hoặc không có rủi ro (Minimal or no risk) - như trò chơi điện tử có AI hỗ trợ hoặc bộ lọc thư rác, hỗ trợ đọc, dịch giọng nói, văn bản.
“Riêng AI hỗ trợ học tập thì đề nghị ngành giáo dục phân biệt rủi ro trong ứng dụng AI vào dạy: Toán, Lý, Hóa, Ngoại Ngữ phải so với dạy Văn, Lịch Sử, Địa Lý, Giáo dục Công dân”, ĐB Cảnh đề nghị cơ quan soạn thảo quan tâm để hoàn thiện Điều 65 dự thảo Luật.
ĐB Cảnh cũng đề nghị cần làm rõ một số khái niệm sâu hơn của AI là Học máy (Machine Learning); Học sâu (Deep Learning). Phân biệt rõ các khái niệm này sẽ dễ đánh giá mức độ rủi ro khi đưa AI vào các ngành, lĩnh vực, sản phẩm.
Ngoài ra, ĐB Cảnh cũng đề nghị cần giải thích thêm về khái niệm “Sản phẩm AI”: ChatGPT. Đây là một sản phẩm giúp trả lời câu hỏi, viết văn bản và hỗ trợ các tác vụ ngôn ngữ tự nhiên. Sản phẩm ứng dụng AI như xe tự lái. Hệ thống trí tuệ nhân tạo như hệ thống AI được sử dụng để phân tích ảnh y tế và hỗ trợ bác sĩ chẩn đoán bệnh, hay hệ thống AI phân tích dữ liệu tài chính để dự đoán xu hướng thị trường hoặc phát hiện gian lận.
Về thu hút, sử dụng nhân tài công nghệ số được quy định tại điểm a, khoản 5, Điều 27, dự án Luật Công nghiệp công nghệ số có quy định: "Nhân tài công nghệ số là nhân lực công nghệ số chất lượng cao, có kiến thức sâu rộng, kinh nghiệm đa dạng, đóng góp nổi bật và tầm ảnh hưởng toàn cầu trong lĩnh vực công nghệ số". Theo ĐB Cảnh, quy định như vậy thì chúng ta khó mà tìm ra được nhân lực trong lĩnh vực công nghệ số, nếu tìm được, thu hút được cũng khó sử dụng vì số lượng quá ít. Vì vậy, ĐB Cảnh đề nghị cần quy định rõ hơn về năng lực, kinh nghiệm để đảm bảo có nguồn nhân lực chất lượng rất cao nhưng cũng đảm bảo thu hút đủ số lượng cần thiết để phát triển công nghiệp, công nghệ số.
NGUYỄN HÂN - P.PHƯƠNG