Ngân hàng Nhà nước vừa công bố Dự thảo Thông tư quy định về an toàn, quản lý rủi ro và điều kiện triển khai ứng dụng trí tuệ nhân tạo trong ngành ngân hàng.

Trong thời gian qua, các đơn vị trong ngành Ngân hàng đã đẩy mạnh ứng dụng AI trong nhiều nghiệp vụ như: AI dùng để chấm điểm tín dụng (Credit Scoring), thẩm định cho vay, phát hiện gian lận thanh toán, tư vấn tự động (chatbot), eKYC...

Tuy nhiên, việc triển khai AI cũng phát sinh những rủi ro, thách thức về an ninh, an toàn hệ thống thông tin; rủi ro về mô hình thuật toán có thể dẫn đến sai lệch/thiên lệch dữ liệu đầu ra; có thể xâm phạm quyền riêng tư dữ liệu khách hàng từ đó tác động đến quyền, lợi ích hợp pháp của tổ chức, cá nhân.

Như vậy, việc xây dựng Thông tư quy định về yêu cầu an toàn, quản lý rủi ro và điều kiện triển khai ứng dụng trí tuệ nhân tạo trong ngành Ngân hàng là cần thiết nhằm thiết lập khung yêu cầu tối thiểu về an toàn, quản lý rủi ro và điều kiện triển khai đối với việc ứng dụng AI trong hoạt động ngân hàng, làm cơ sở thống nhất để các tổ chức tín dụng triển khai và cơ quan quản lý giám sát, đồng thời thúc đẩy việc ứng dụng AI trong hoạt động ngân hàng.

Ngoài ra, Thông tư sẽ kiểm soát, giảm thiểu rủi ro phát sinh từ các ứng dụng AI trong các hoạt động nghiệp vụ ngân hàng (như chấm điểm tín dụng, thẩm định cho vay, eKYC, phát hiện gian lận, tư vấn/hỗ trợ ra quyết định), qua đó góp phần bảo đảm an toàn hoạt động ngân hàng và bảo vệ quyền, lợi ích hợp pháp của tổ chức, cá nhân có liên quan.

Dự thảo Thông tư quy định trước khi đưa hệ thống trí tuệ nhân tạo vào vận hành chính thức, đơn vị phải tuân thủ quy định của pháp luật về trí tuệ nhân tạo và hoàn thành hồ sơ được phê duyệt theo thẩm quyền, bao gồm: hồ sơ phân loại rủi ro; kết quả kiểm tra, đánh giá an toàn thông tin; đánh giá tác động đối với hệ thống rủi ro cao; kế hoạch vận hành an toàn và điều kiện dừng, khôi phục hệ thống. Đồng thời, đơn vị phải thiết lập các tiêu chí triển khai (độ chính xác, độ tin cậy, hiệu năng, kết quả đánh giá an toàn thông tin) và xây dựng kế hoạch triển khai chi tiết, bao gồm phương án chuyển đổi dữ liệu và phục hồi khi xảy ra sự cố.

Dự thảo Thông tư quy định các yêu cầu về minh bạch thông tin khi triển khai hệ thống trí tuệ nhân tạo tương tác với khách hàng; bảo đảm quyền được xem xét lại bởi con người đối với các quyết định được đưa ra hoàn toàn tự động; thiết lập cơ chế tiếp nhận, xử lý khiếu nại và cung cấp thông tin giải thích phù hợp đối với các quyết định của hệ thống trí tuệ nhân tạo.

Khi triển khai các hệ thống trí tuệ nhân tạo tương tác trực tiếp với khách hàng (như chatbot, trợ lý ảo, tổng đài tự động), đơn vị phải thông báo cho khách hàng biết việc đang tương tác với hệ thống trí tuệ nhân tạo ngay từ khi bắt đầu phiên làm việc hoặc hội thoại. Trường hợp đơn vị sử dụng hệ thống trí tuệ nhân tạo để tạo ra hình ảnh, âm thanh, video hoặc nội dung khác có thể gây nhầm lẫn với nội dung do con người tạo ra, đơn vị phải công bố rõ ràng rằng nội dung đó được tạo ra bởi trí tuệ nhân tạo. Đơn vị có trách nhiệm cung cấp thông tin hướng dẫn sử dụng và nêu rõ các giới hạn của hệ thống trí tuệ nhân tạo để khách hàng sử dụng đúng mục đích và phù hợp.

Trường hợp đơn vị sử dụng hệ thống trí tuệ nhân tạo để nhận diện cảm xúc hoặc phân loại sinh trắc học, đơn vị chỉ được thực hiện khi có mục đích cụ thể, cơ sở pháp lý hợp lệ và phải thông báo cho khách hàng biết về hoạt động của hệ thống đó trước khi xử lý dữ liệu. Việc xử lý dữ liệu trong các trường hợp này phải xác định rõ phạm vi sử dụng, thời gian lưu trữ, biện pháp bảo vệ dữ liệu và tuân thủ đầy đủ các quy định của pháp luật về bảo vệ dữ liệu, bảo vệ dữ liệu cá nhân.

Thu Trang