Sau sự cố Deloitte phải phát hành lại báo cáo trị giá 440.000 USD gửi chính phủ Úc do lỗi nghiêm trọng từ trí tuệ nhân tạo (AI), các đối thủ trong nhóm “Big 4” gồm EY, KPMG, PwC cùng Boston Consulting Group (BCG) nhanh chóng lên tiếng khẳng định họ có các quy trình kiểm soát chặt chẽ để tránh sai sót tương tự.

Deloitte hiện đối mặt áp lực lớn sau khi bản báo cáo gốc chứa ba tài liệu tham khảo không có thật và một trích dẫn bị bịa đặt từ phán quyết của Tòa án Liên bang. Phiên bản được sửa đổi đã loại bỏ hơn chục trích dẫn sai và chỉnh lại danh mục tài liệu, dù phần khuyến nghị vẫn giữ nguyên.

Vụ việc đã thu hút sự chú ý quốc tế, trở thành ví dụ điển hình về “ảo giác” (hallucination) - khi AI “bịa” thông tin như thật. Dư luận và giới chuyên gia đang yêu cầu chính phủ của Thủ tướng Anthony Albanese phải bắt buộc các nhà tư vấn tiết lộ khi nào họ sử dụng AI trong các hợp đồng với Nhà nước.

Big 4 đua nhau chứng minh mình “dùng AI có trách nhiệm”

EY khẳng định mọi kết quả do AI tạo ra đều phải được nhân viên đánh giá kỹ trước khi sử dụng. KPMG cho biết họ có “Khung AI tin cậy” cùng “Sổ đăng ký AI” công khai về các công cụ đang dùng trong dịch vụ, kể cả với khách hàng chính phủ.

BCG nhấn mạnh mọi sản phẩm tư vấn đều trải qua “kiểm duyệt lãnh đạo nghiêm ngặt”, trong khi PwC nhấn mạnh họ tuân thủ nguyên tắc “humans in the loop” - con người luôn chịu trách nhiệm cuối cùng cho sản phẩm có AI tham gia.

Trái lại, Deloitte và McKinsey - hai hãng thường tự hào về năng lực AI của mình - từ chối bình luận. Deloitte đã đồng ý hoàn lại một phần chi phí cho Bộ Việc làm và Quan hệ Lao động Úc.

deloitte afr
Deloitte vướng bê bối do AI "bịa thông tin" khi viết báo cáo. Ảnh: AFR

Tại phiên điều trần trước Thượng viện, ông Gordon de Brouwer - người đứng đầu Cơ quan Công vụ Úc - nhấn mạnh: “AI không chịu trách nhiệm cho công việc của bạn. Chính bạn phải chịu trách nhiệm”.

Thượng nghị sĩ Greens Barbara Pocock yêu cầu chính phủ buộc các nhà thầu tư vấn công khai khi sử dụng AI và xác minh mọi nội dung do AI tạo ra. Bà chỉ trích: “Đây không chỉ là sự bất cẩn nhân tạo, mà là hành vi cẩu thả có chủ ý… Công việc của Deloitte còn không đạt nổi tiêu chuẩn của một bài kiểm tra năm nhất đại học... Nếu các nhà thầu được thuê làm việc cho chính phủ lại tiếp tục thuê AI làm thay thì rõ ràng cần phải kiểm tra. Đó không phải là yêu cầu quá đáng”.

Bà Pocock đã trình dự luật cấm các nhà thầu có hành vi phi đạo đức tham gia hợp đồng với chính phủ trong 5 năm và kêu gọi yêu cầu hoàn tiền toàn bộ từ Deloitte.

AI hỗ trợ chứ không thay thế con người

Các hãng tư vấn nhỏ hơn cũng nhanh chóng lên tiếng để trấn an khách hàng. David Gumley, Giám đốc công ty ADAPTOVATE, cho biết họ đang dùng AI để nâng cao hiệu quả, nhưng nó không bao giờ thay thế chuyên môn của con người.

Một chuyên gia tư vấn khác, Lisa Carlin - điều hành công ty một thành viên The Turbochargers - cho rằng các hãng tư vấn cần có chính sách công khai về việc sử dụng AI, giải thích rõ cách công nghệ này được áp dụng trong công việc của họ, nhưng không nhất thiết phải tiết lộ chi tiết về công nghệ được dùng.

“AI giờ đây đã trở thành một phần của các công cụ kinh doanh tiêu chuẩn, giống như Excel, nhưng công ty vẫn phải chịu hoàn toàn trách nhiệm trong việc quản lý rủi ro”, bà Carlin nói. “Tính minh bạch nên thể hiện ở cấp độ chính sách, chứ không phải trong từng báo cáo vì điều khách hàng cần là sự tin tưởng rằng công ty có biện pháp kiểm soát chặt chẽ, chứ không phải dòng cảnh báo ở mỗi trang”.

Carlin tư vấn cho các khách hàng doanh nghiệp về chiến lược và ứng dụng AI. Bà nhấn mạnh mọi chi tiết trong báo cáo cần được kiểm tra cẩn thận trước khi gửi cho khách hàng, dù nội dung đó được tạo ra bằng cách nào.

“Các công ty cần có quy trình kiểm định chất lượng riêng cho AI và đánh giá rủi ro rõ ràng”, bà nói thêm. “Không thể lấy lý do ‘AI tạo ra’ để biện hộ. Tư vấn viên phải chịu trách nhiệm về sản phẩm của mình, giống như với công việc của một nhân viên tập sự”.

(Theo AFR)

Nguồn: https://vietnamnet.vn/4-ong-lon-kiem-toan-len-tieng-sau-su-co-ai-nghiem-trong-tai-deloitte-2451266.html