10 Rủi ro bảo mật bạn cần biết khi sử dụng AI cho công việc
Tóm lại Đến giữa năm 2025, AI sẽ được tích hợp sâu vào các hoạt động tại nơi làm việc, nhưng việc sử dụng rộng rãi - đặc biệt là thông qua các công cụ không an toàn - đã làm tăng đáng kể rủi ro an ninh mạng, thúc đẩy các yêu cầu cấp thiết về quản trị dữ liệu, kiểm soát quyền truy cập và chính sách bảo mật dành riêng cho AI tốt hơn.
Đến giữa năm 2025, trí tuệ nhân tạo không còn là khái niệm tương lai tại nơi làm việc nữa. Nó được nhúng vào quy trình làm việc hàng ngày trên khắp các bộ phận tiếp thị, pháp lý, kỹ thuật, hỗ trợ khách hàng, nhân sự, v.v. Các mô hình AI hiện hỗ trợ soạn thảo tài liệu, tạo báo cáo, mã hóa và thậm chí tự động hóa hỗ trợ trò chuyện nội bộ. Nhưng khi sự phụ thuộc vào AI tăng lên, bối cảnh rủi ro cũng tăng theo.
Một báo cáo bởi Cybersecurity Ventures dự đoán chi phí tội phạm mạng toàn cầu sẽ đạt 10.5 nghìn tỷ đô la vào năm 2025 , phản ánh mức tăng 38% hằng năm về các vi phạm liên quan đến AI so với năm trước. Nguồn tin đó ước tính khoảng 64% các nhóm doanh nghiệp sử dụng AI tạo sinh ở một số khả năng, trong khi chỉ có 21% các tổ chức này có chính sách xử lý dữ liệu chính thức.
Những con số này không chỉ là tin đồn trong ngành mà còn chỉ ra sự gia tăng mức độ phơi bày ở quy mô lớn. Với hầu hết các nhóm vẫn dựa vào các công cụ AI công khai hoặc miễn phí, nhu cầu nâng cao nhận thức về bảo mật AI đang trở nên cấp thiết.
Dưới đây là 10 rủi ro bảo mật quan trọng mà các nhóm gặp phải khi sử dụng AI tại nơi làm việc. Mỗi phần giải thích bản chất của rủi ro, cách thức hoạt động, lý do tại sao rủi ro gây nguy hiểm và nơi thường xuất hiện nhất. Những mối đe dọa này đã ảnh hưởng đến các tổ chức thực tế vào năm 2025.
Rò rỉ đầu vào thông qua lời nhắc
Một trong những lỗ hổng bảo mật thường gặp nhất bắt đầu từ bước đầu tiên: chính lời nhắc. Trong các bộ phận tiếp thị, nhân sự, pháp lý và dịch vụ khách hàng, nhân viên thường dán các tài liệu nhạy cảm, email của khách hàng hoặc mã nội bộ vào các công cụ AI để soạn thảo phản hồi nhanh chóng. Mặc dù điều này có vẻ hiệu quả, nhưng hầu hết các nền tảng đều lưu trữ ít nhất một số dữ liệu này trên các máy chủ phụ trợ, nơi dữ liệu có thể được ghi lại, lập chỉ mục hoặc sử dụng để cải thiện các mô hình. Theo một báo cáo năm 2025 của Varonis, 99% các công ty thừa nhận chia sẻ dữ liệu bí mật hoặc dữ liệu khách hàng với AI dịch vụ mà không áp dụng biện pháp kiểm soát an ninh nội bộ.
Khi dữ liệu của công ty nhập vào các nền tảng của bên thứ ba, dữ liệu này thường bị ảnh hưởng bởi các chính sách lưu giữ và quyền truy cập của nhân viên mà nhiều công ty không kiểm soát hoàn toàn. Ngay cả các chế độ "riêng tư" cũng có thể lưu trữ các đoạn để gỡ lỗi. Điều này làm tăng rủi ro pháp lý—đặc biệt là theo GDPR, HIPAA và các luật tương tự. Để giảm thiểu rủi ro, các công ty hiện sử dụng bộ lọc để xóa dữ liệu nhạy cảm trước khi gửi đến các công cụ AI và đặt ra các quy tắc rõ ràng hơn về những gì có thể chia sẻ.
Lưu trữ dữ liệu ẩn trong Nhật ký AI
Nhiều dịch vụ AI lưu giữ hồ sơ chi tiết về lời nhắc và đầu ra của người dùng, ngay cả sau khi người dùng xóa chúng. Báo cáo về mối đe dọa dữ liệu Thales năm 2025 đã được ghi nhận 45% các tổ chức đã gặp phải sự cố bảo mật liên quan đến dữ liệu còn sót lại trong nhật ký AI.
Điều này đặc biệt quan trọng trong các lĩnh vực như tài chính, luật và chăm sóc sức khỏe, nơi mà ngay cả hồ sơ tạm thời về tên, thông tin tài khoản hoặc lịch sử bệnh án cũng có thể vi phạm các thỏa thuận tuân thủ. Một số công ty cho rằng việc xóa dữ liệu ở giao diện là đủ; trên thực tế, các hệ thống phụ trợ thường lưu trữ các bản sao trong nhiều ngày hoặc nhiều tuần, đặc biệt là khi được sử dụng để tối ưu hóa hoặc đào tạo.
Các nhóm muốn tránh sai lầm này đang ngày càng chuyển sang các gói doanh nghiệp có thỏa thuận lưu giữ dữ liệu nghiêm ngặt và triển khai các công cụ xác nhận xóa dữ liệu phụ trợ, thay vì dựa vào các nút chuyển đổi bảng điều khiển mơ hồ có nội dung "xóa lịch sử".
Mô hình trôi dạt qua học tập trên dữ liệu nhạy cảm
Không giống như phần mềm truyền thống, nhiều nền tảng AI cải thiện phản hồi của chúng bằng cách học hỏi từ thông tin đầu vào của người dùng. Điều đó có nghĩa là lời nhắc chứa ngôn ngữ pháp lý, chiến lược khách hàng hoặc mã độc quyền duy nhất có thể ảnh hưởng đến kết quả đầu ra trong tương lai được cung cấp cho người dùng không liên quan. Chỉ số AI Stanford 2025 cho thấy mức tăng trưởng 56% so với cùng kỳ năm trước trong các trường hợp được báo cáo khi dữ liệu cụ thể của công ty vô tình xuất hiện ở các đầu ra khác.
Trong các ngành công nghiệp mà lợi thế cạnh tranh phụ thuộc vào IP, ngay cả rò rỉ nhỏ cũng có thể gây tổn hại đến doanh thu và danh tiếng. Vì việc học diễn ra tự động trừ khi bị vô hiệu hóa cụ thể, nhiều công ty hiện đang yêu cầu triển khai cục bộ hoặc các mô hình riêng biệt không lưu giữ dữ liệu người dùng hoặc học từ các đầu vào nhạy cảm.
Lừa đảo và gian lận do AI tạo ra
AI đã khiến các cuộc tấn công lừa đảo nhanh hơn, thuyết phục hơn và khó phát hiện hơn nhiều. Vào năm 2025, DMARC báo cáo mức tăng đột biến 4000% trong các chiến dịch lừa đảo do AI tạo ra, nhiều chiến dịch trong số đó sử dụng các mẫu ngôn ngữ nội bộ xác thực được thu thập từ dữ liệu bị rò rỉ hoặc dữ liệu công ty công khai. Theo đối với Hoxhunt, các vụ lừa đảo deepfake dựa trên giọng nói đã tăng 15% trong năm nay , với thiệt hại trung bình cho mỗi cuộc tấn công lên tới gần 4.88 triệu đô la.
Những cuộc tấn công này thường bắt chước các mẫu giọng nói và phong cách giao tiếp của giám đốc điều hành chính xác đến mức đào tạo bảo mật truyền thống không còn ngăn cản được chúng nữa. Để bảo vệ mình, các công ty đang mở rộng các công cụ xác minh giọng nói, thực thi các kênh xác nhận thứ cấp cho các phê duyệt có rủi ro cao và đào tạo nhân viên đánh dấu ngôn ngữ đáng ngờ, ngay cả khi nó có vẻ được trau chuốt và không có lỗi.
Kiểm soát yếu đối với API riêng tư
Trong quá trình triển khai các công cụ mới, nhiều nhóm kết nối các mô hình AI với các hệ thống như bảng điều khiển hoặc CRM bằng API với mức bảo vệ tối thiểu. Các tích hợp này thường bỏ qua các hoạt động chính như luân chuyển mã thông báo, giới hạn tỷ lệ hoặc quyền dành riêng cho người dùng. Nếu mã thông báo bị rò rỉ—hoặc bị đoán—kẻ tấn công có thể lấy cắp dữ liệu hoặc thao túng các hệ thống được kết nối trước khi bất kỳ ai nhận thấy.
Rủi ro này không phải là lý thuyết. Một gần đây Nghiên cứu của Akamai phát hiện ra rằng 84% chuyên gia bảo mật đã báo cáo sự cố bảo mật API trong năm qua. Và gần một nửa số tổ chức đã chứng kiến vi phạm dữ liệu vì mã thông báo API bị lộ. Trong một trường hợp, các nhà nghiên cứu tìm thấy hơn 18,000 bí mật API bị lộ trong kho lưu trữ công khai .
Vì những cầu nối API này chạy âm thầm trong nền, các công ty thường chỉ phát hiện ra vi phạm sau khi có hành vi kỳ lạ trong phân tích hoặc hồ sơ khách hàng. Để ngăn chặn điều này, các công ty hàng đầu đang thắt chặt kiểm soát bằng cách áp dụng thời hạn sử dụng token ngắn, chạy thử nghiệm thâm nhập thường xuyên trên các điểm cuối được kết nối với AI và lưu nhật ký kiểm tra chi tiết về mọi hoạt động của API.
Áp dụng AI Shadow trong Teams
Đến năm 2025, việc sử dụng AI trái phép - được gọi là "AI bóng tối" - đã trở nên phổ biến. Nghiên cứu của Zluri phát hiện ra rằng 80% doanh nghiệp sử dụng AI xảy ra thông qua các công cụ không được bộ phận CNTT chấp thuận.
Nhân viên thường chuyển sang các tiện ích mở rộng trình duyệt có thể tải xuống, trình tạo mã thấp hoặc chatbot AI công khai để đáp ứng nhu cầu tức thời. Các công cụ này có thể gửi dữ liệu nội bộ đến các máy chủ chưa được xác minh, thiếu mã hóa hoặc thu thập nhật ký sử dụng ẩn khỏi tổ chức. Nếu không có khả năng hiển thị dữ liệu được chia sẻ, các công ty không thể thực thi tuân thủ hoặc duy trì quyền kiểm soát.
Để chống lại điều này, nhiều công ty hiện triển khai các giải pháp giám sát nội bộ đánh dấu các dịch vụ không xác định. Họ cũng duy trì danh sách được quản lý của các công cụ AI được chấp thuận và yêu cầu nhân viên chỉ tham gia thông qua các kênh được phê duyệt đi kèm với môi trường an toàn.
Tiêm nhanh và mẫu được thao tác
Tiêm nhắc xảy ra khi ai đó nhúng các hướng dẫn có hại vào các mẫu nhắc nhở được chia sẻ hoặc các đầu vào bên ngoài—ẩn trong văn bản hợp lệ. Ví dụ, một nhắc nhở được thiết kế để "tóm tắt email mới nhất của khách hàng" có thể bị thay đổi để trích xuất toàn bộ lịch sử luồng hoặc vô tình tiết lộ nội dung bí mật. OWASP 2025 GenAI Security Top 10 liệt kê lỗi tiêm nhắc là lỗ hổng hàng đầu , cảnh báo rằng dữ liệu do người dùng cung cấp—đặc biệt khi kết hợp với dữ liệu bên ngoài—có thể dễ dàng ghi đè lên các hướng dẫn hệ thống và bỏ qua các biện pháp bảo vệ.
Các tổ chức dựa vào thư viện nhắc nhở nội bộ mà không có sự giám sát thích hợp có nguy cơ gặp phải các vấn đề liên tiếp: dữ liệu không mong muốn bị lộ, đầu ra gây hiểu lầm hoặc quy trình làm việc bị hỏng. Vấn đề này thường phát sinh trong các hệ thống quản lý kiến thức và phản hồi tự động của khách hàng hoặc pháp lý được xây dựng trên các mẫu nhắc nhở. Để chống lại mối đe dọa, các chuyên gia khuyên bạn nên áp dụng quy trình quản trị theo lớp: kiểm tra tập trung tất cả các mẫu nhắc nhở trước khi triển khai, khử trùng các đầu vào bên ngoài khi có thể và kiểm tra các nhắc nhở trong các môi trường bị cô lập để đảm bảo không có hướng dẫn ẩn nào lọt qua.
Các vấn đề tuân thủ từ các đầu ra chưa được xác minh
Trí tuệ nhân tạo tạo ra thường cung cấp văn bản được trau chuốt—nhưng những đầu ra này có thể không đầy đủ, không chính xác hoặc thậm chí không tuân thủ các quy định. Điều này đặc biệt nguy hiểm trong các lĩnh vực tài chính, pháp lý hoặc chăm sóc sức khỏe, nơi những lỗi nhỏ hoặc ngôn ngữ gây hiểu lầm có thể dẫn đến tiền phạt hoặc trách nhiệm pháp lý.
Theo Khảo sát năm 2025 của ISACA, 83% doanh nghiệp báo cáo AI tạo sinh được sử dụng hàng ngày , nhưng chỉ có 31% có chính sách AI nội bộ chính thức. Đáng báo động là 64% chuyên gia bày tỏ mối quan ngại nghiêm trọng về việc sử dụng sai mục đích—nhưng chỉ có 18% tổ chức đầu tư vào các biện pháp bảo vệ như phát hiện deepfake hoặc đánh giá tuân thủ.
Vì các mô hình AI không hiểu được sắc thái pháp lý, nhiều công ty hiện nay yêu cầu phải có sự tuân thủ của con người hoặc đánh giá pháp lý đối với bất kỳ nội dung nào do AI tạo ra trước khi sử dụng công khai. Bước đó đảm bảo các khiếu nại đáp ứng các tiêu chuẩn quy định và tránh gây hiểu lầm cho khách hàng hoặc người dùng.
Rủi ro của Plugin của bên thứ ba
Nhiều nền tảng AI cung cấp các plugin của bên thứ ba kết nối với email, lịch, cơ sở dữ liệu và các hệ thống khác. Các plugin này thường không có các đánh giá bảo mật nghiêm ngặt và Báo cáo bảo mật AI của Check Point Research năm 2025 phát hiện ra rằng cứ 1 lời nhắc AI thì có 80 lời nhắc có nguy cơ rò rỉ cao dữ liệu nhạy cảm—một số rủi ro đó bắt nguồn từ các tương tác được hỗ trợ bởi plugin. Check Point cũng cảnh báo rằng các công cụ AI trái phép và tích hợp cấu hình sai nằm trong số các mối đe dọa mới nổi hàng đầu đối với tính toàn vẹn dữ liệu của doanh nghiệp.
Khi được cài đặt mà không được xem xét, các plugin có thể truy cập vào các đầu vào, đầu ra và thông tin xác thực liên quan của bạn. Chúng có thể gửi thông tin đó đến các máy chủ bên ngoài nằm ngoài sự giám sát của công ty, đôi khi không có mã hóa hoặc ghi nhật ký truy cập phù hợp.
Hiện nay, một số công ty yêu cầu kiểm tra plugin trước khi triển khai, chỉ cho phép các plugin được liệt kê trong danh sách trắng và giám sát việc truyền dữ liệu được liên kết với tích hợp AI đang hoạt động để đảm bảo không có dữ liệu nào rời khỏi môi trường được kiểm soát.
Thiếu quyền truy cập quản lý trong các công cụ AI
Nhiều tổ chức dựa vào các tài khoản AI được chia sẻ mà không có quyền cụ thể của người dùng, khiến việc theo dõi ai đã gửi lời nhắc nào hoặc truy cập vào đầu ra nào trở nên bất khả thi. Báo cáo Varonis năm 2025 phân tích 1,000 môi trường đám mây phát hiện ra rằng 98% các công ty đã sử dụng các ứng dụng AI chưa được xác minh hoặc trái phép và 88% duy trì người dùng ma với quyền truy cập kéo dài vào các hệ thống nhạy cảm (nguồn). Những phát hiện này nhấn mạnh rằng hầu hết các công ty đều phải đối mặt với các lỗ hổng quản trị có thể dẫn đến rò rỉ dữ liệu không thể theo dõi.
Khi quyền truy cập cá nhân không được theo dõi, việc sử dụng sai dữ liệu nội bộ—cho dù là vô tình hay cố ý—thường không được chú ý trong thời gian dài. Thông tin đăng nhập được chia sẻ làm mờ đi trách nhiệm và làm phức tạp phản ứng sự cố khi vi phạm xảy ra. Để giải quyết vấn đề này, các công ty đang chuyển sang các nền tảng AI thực thi các quyền chi tiết, nhật ký hoạt động ở cấp độ nhắc nhở và quy kết người dùng. Mức độ kiểm soát này giúp phát hiện hành vi bất thường, thu hồi quyền truy cập không hoạt động hoặc trái phép kịp thời và theo dõi mọi hoạt động dữ liệu trở lại một cá nhân cụ thể.
Làm gì bây giờ
Hãy xem cách các nhóm của bạn thực sự sử dụng AI hàng ngày. Vạch ra các công cụ xử lý dữ liệu riêng tư và xem ai có thể truy cập chúng. Đặt ra các quy tắc rõ ràng về những gì có thể chia sẻ với các hệ thống AI và xây dựng một danh sách kiểm tra đơn giản: xoay vòng các mã thông báo API, xóa các plugin không sử dụng và xác nhận rằng bất kỳ công cụ nào lưu trữ dữ liệu đều có tùy chọn xóa thực sự. Hầu hết các vi phạm xảy ra vì các công ty cho rằng "ai đó khác đang theo dõi". Trên thực tế, bảo mật bắt đầu từ những bước nhỏ mà bạn thực hiện ngay hôm nay.
Tuyên bố miễn trừ trách nhiệm: Mọi thông tin trong bài viết đều thể hiện quan điểm của tác giả và không liên quan đến nền tảng. Bài viết này không nhằm mục đích tham khảo để đưa ra quyết định đầu tư.
Bạn cũng có thể thích
Các cặp giao dịch ký quỹ spot mới — LA/USDT
AINUSDT hiện đã mở giao dịch futures và bot giao dịch
Bitget phát hành Báo cáo Định giá Quỹ Bảo Vệ tháng 06/2025
TANSSIUSDT hiện đã mở giao dịch futures và bot giao dịch
Thịnh hành
ThêmGiá tiền điện tử
Thêm








