Sự kiện Cloud Next 2024 của Google tuy đã kết thúc, nhưng nhiều tin tức quan trọng vẫn tiếp tục được hé lộ.

Một trong số đó có thể chính là thông tin quan trọng nhất, ít nhất là từ khía cạnh bảo mật. Đó là việc Google dùng mô hình ngôn ngữ lớn AI để bảo vệ người dùng Gmail.

Nguy cơ bảo mật chính tính năng này nhắm vào là việc AI tạo sinh đã trở nên tốt đến mức nó đã làm cuộc tấn công dễ dàng hơn cho tin tặc. Điều này đã dẫn đến sự gia tăng đột biến về số lượng và độ tinh vi của các cuộc tấn công lừa đảo.

Việc truy cập vào tài khoản Gmail và Drive là mục tiêu hàng đầu của giới tin tặc bởi chúng chứa một kho dữ liệu khổng lồ dễ dàng khai thác cho các mục đích xấu.

Cuộc cách mạng về bảo mật trong Gmail dựa trên AI

Giải pháp của Google đơn giản về mặt ý tưởng nhưng lại đầy thách thức về mặt kỹ thuật.

"Chúng tôi đã xây dựng các mô hình ngôn ngữ lớn (LLM) tùy chỉnh để chống lại các cuộc tấn công", công ty này cho biết. Được triển khai lần đầu tiên vào cuối năm 2023, các mô hình này hiện đang "mang lại kết quả tốt", theo Google.

Các LLM tùy chỉnh này được huấn luyện trên "nguồn dữ liệu thư rác và lừa đảo mới và nguy hiểm nhất" bởi vì khả năng độc đáo của LLM là xác định các nội dung tương tự về mặt ngữ nghĩa.

Với lượng người dùng Google Workspace khổng lồ (lên đến 3 tỷ), "kết quả thu được rất ấn tượng và các LLM sẽ ngày càng hoàn thiện hơn", theo phát ngôn viên của Google cho biết.

  • 20% thư rác bị chặn trong Gmail nhờ sử dụng LLM
  • Số lượng thư rác do người dùng Gmail báo cáo được xem xét mỗi ngày tăng 1.000%
  • Thời gian phản hồi khi xử lý các cuộc tấn công thư rác và lừa đảo mới trong Drive nhanh hơn 90%
Google vừa công bố nhiều tính năng bảo mật dùng AI

Mặt tích cực của hàng rào bảo mật AI

Gần đây có nhiều bàn tán về mô hình ngôn ngữ lớn Gemini của Google. Không phải tất cả chúng đều là những lời khen ngợi, thậm chí là ngược lại.

Nhiều chuyên gia gần đây đã cảnh báo về những lo ngại liên quan đến các trợ lý AI của Google. Mặc dù những lo ngại của họ là có lý do, cũng có nhiều nhà bình luận đang hùa theo phong trào “AI là xấu xa”. Do đó, tin tức của ứng dụng LLM vào bảo mật là một khía cạnh tích cực.

Theo Google, ngoài khả năng phát hiện phần mềm độc hại gấp đôi so với các sản phẩm chống virus và bảo mật của bên thứ ba thông thường, những giải pháp bảo vệ bằng AI này còn ngăn chặn 99,9% thư rác.

Mặc dù đó vốn là một con số khá ấn tượng, một người phát ngôn của Google đã nói rằng Google đang rất tập trung để giải quyết 0,1% còn lại.

10 triệu khách hàng trả phí sẽ được cung cấp bộ công cụ bảo mật AI mới

Ngoài những cập nhật bảo mật cho hơn 3 tỷ người dùng Google Workspace và 10 triệu khách hàng trả phí Gmail và Drive, Google cũng đã công bố một tính năng bảo mật AI tùy chọn.

Công cụ này sinh ra nhằm giải quyết một yêu cầu phổ biến của khách hàng Workspace, đó là bảo vệ bí mật dữ liệu chứa trong các tập tin. Google đã xây dựng một công cụ để tự động phân loại và bảo vệ dữ liệu nhạy cảm như vậy.

“Việc bảo vệ dữ liệu mật dễ thấy thì đơn giản,” Google cho biết, “nhưng việc bảo vệ dữ liệu nhạy cảm không lường trước thì lại rất khó.”

Lý do khiến nhiều khách hàng yêu cầu hỗ trợ là vì nhiều người trong số họ hiện đang thực hiện cùng một công việc theo cách thủ công. Bộ công cụ AI mới sẽ “tìm ra những dữ liệu nhạy cảm ẩn này và đưa ra các đề xuất để tăng cường bảo mật, và tất cả có thể tự động triển khai chỉ với một vài cú nhấp chuột đơn giản,” Google cho biết thêm.

Bộ công cụ này có thể được tinh chỉnh cho nhu cầu của từng khách hàng với chi phí 10 USD/người dùng mỗi tháng và có thể được thêm vào hầu hết các gói Workspace.

Theo Forbes.

Chia sẻ bài viết này