Dự án mã nguồn mở OpenClaw – trước đây được biết đến với các tên gọi MoltBot hay ClawdBot – đã chính thức trở thành dự án có tốc độ tăng trưởng nhanh nhất trên GitHub. Chỉ trong vòng chưa đầy một tuần, số lượng ngôi sao (stars) của dự án này đã nhảy vọt từ 7.800 lên hơn 113.000, vượt xa mọi kỷ lục tăng trưởng trước đó trong cộng đồng lập trình. Về bản chất, OpenClaw được ví như một phiên bản “Claude có đôi tay“, tận dụng sức mạnh ngôn ngữ của mô hình Claude từ Anthropic để thực hiện các tác vụ thực tế thay vì chỉ dừng lại ở việc trả lời văn bản.
Công cụ này có khả năng kết nối trực tiếp với email, tệp tin, các nền tảng nhắn tin và công cụ hệ thống, tạo ra những định danh phi nhân tính (non-human identities) hoạt động bền bỉ. OpenClaw không chỉ đọc và viết tệp, nó còn có thể thực thi lệnh terminal, chạy mã nguồn, duyệt web và điều khiển trình duyệt theo yêu cầu của người dùng. Tuy nhiên, sự phổ biến thần tốc này cũng kéo theo những lo ngại sâu sắc về an ninh mạng, khi các lộ trình truy cập của AI thường nằm ngoài tầm kiểm soát của các hệ thống quản trị định danh và truy cập (IAM) truyền thống.
Sức hút từ khả năng tự vận hành và tốc độ tăng trưởng kỷ lục
Sự bùng nổ của OpenClaw đến từ khả năng giải quyết các luồng công việc phức tạp mà những chatbot thông thường không thể đảm nhiệm. Thay vì chỉ đưa ra lời khuyên, AI agent này trực tiếp tham gia vào hệ thống để thực hiện hóa các câu lệnh. Peter Steinberger, người sáng lập dự án, đã áp dụng phương pháp vibe-coding và lập trình bầy đàn (swarm programming) để duy trì tốc độ cập nhật tính năng ở mức chóng mặt. Điều này cho phép các lỗ hổng bảo mật hoặc yêu cầu tính năng mới được xử lý chỉ trong vài giờ thay vì vài tuần.
Dưới đây là bảng so sánh sự tăng trưởng và quy mô của OpenClaw so với các tiêu chuẩn thông thường trong ngành phần mềm:
| Chỉ số phát triển | Thông số ấn tượng của OpenClaw |
|---|---|
| Tốc độ tăng trưởng sao GitHub | Từ 7.800 lên 113.000+ trong 1 tuần |
| Tỷ lệ chấp nhận trung bình | Tăng trưởng khoảng 56% mỗi ngày |
| Cộng đồng đóng góp | Hơn 350 cộng tác viên và hàng nghìn bản vá |
| Khả năng tích hợp | Email, WhatsApp, Gmail, Telegram, Calendar |
Mặc dù quy trình cài đặt đòi hỏi kiến thức kỹ thuật nhất định, OpenClaw vẫn thu hút được lượng người dùng khổng lồ nhờ tính linh hoạt. Tuy nhiên, việc trao cho một hệ thống AI quyền truy cập ưu tiên vào các ứng dụng cục bộ và kênh trò chuyện cá nhân là một con dao hai lưỡi. Các chuyên gia bảo mật từ Pillar Security đã cảnh báo rằng những kẻ tấn công đang tích cực quét các cổng mặc định của OpenClaw để tìm cách vượt qua xác thực và chiếm quyền điều khiển.
Những rủi ro bảo mật tiềm ẩn từ mô hình định danh phi nhân tính
Mối đe dọa lớn nhất đối với doanh nghiệp khi sử dụng OpenClaw không nằm ở lỗi phần mềm, mà ở chính cách thức nó vận hành. Chuyên gia Simon Willison gọi đây là “bộ ba chết chóc” (lethal trifecta) trong bảo mật AI, bao gồm:
- Khả năng truy cập vào dữ liệu nhạy cảm của người dùng hoặc doanh nghiệp.
- Tiếp xúc trực tiếp với các nội dung không đáng tin cậy từ môi trường bên ngoài (như email hoặc trang web).
- Quyền hạn giao tiếp ra bên ngoài để gửi dữ liệu hoặc thực thi lệnh.
Khi hội tụ đủ ba yếu tố này, AI agent trở thành mục tiêu lý tưởng cho các cuộc tấn công prompt injection. Ví dụ, một email rác được gửi đến có thể chứa các câu lệnh ẩn, yêu cầu OpenClaw trích xuất toàn bộ khóa API hoặc xóa các tệp tin quan trọng trên máy chủ mà người dùng không hề hay biết. Nguy hiểm hơn, rủi ro từ chuỗi cung ứng luôn hiện hữu khi chỉ cần một bản cập nhật độc hại hoặc một tài khoản cộng tác viên bị chiếm quyền, mã độc có thể được phát tán đến hơn 300.000 người dùng đang cài đặt công cụ này.
Bên cạnh đó, việc nhân viên tự ý cài đặt OpenClaw để hỗ trợ công việc đang tạo ra một làn sóng Shadow IT (Công nghệ thông tin bóng ma) mới. Theo Token Security, khoảng 22% nhân viên tại các khách hàng của họ đã sử dụng công cụ này, tạo ra những lỗ hổng nằm ngoài tầm kiểm soát của bộ phận bảo mật doanh nghiệp.
Quản trị bóng ma AI và chiến lược thích nghi cho doanh nghiệp
Thay vì tìm cách ngăn cấm hoàn toàn sự đổi mới, các doanh nghiệp cần tập trung vào việc thiết lập các rào cản kỹ thuật và quy trình quản trị chặt chẽ. Việc hiểu rõ những gì đang chạy trong mạng nội bộ và giám sát quyền hạn của các định danh phi nhân tính là bước đi tiên quyết. Các chuyên gia khuyến nghị nên triển khai OpenClaw hoặc các AI agent tương tự trong môi trường container cô lập để hạn chế khả năng tiếp cận trực tiếp với tài nguyên hệ thống quan trọng.
Chiến lược hiệu quả nhất hiện nay là xây dựng một “con đường lát gạch” (paved road) – cung cấp các dịch vụ AI được phê duyệt và bảo mật sẵn để nhân viên sử dụng. Điều này giúp thúc đẩy năng suất lao động mà vẫn đảm bảo tách biệt giữa môi trường cá nhân và môi trường doanh nghiệp. Peter Steinberger cũng khuyến khích người dùng áp dụng mô hình bảo mật chia sẻ: bắt đầu với quyền truy cập nhỏ nhất có thể và chỉ mở rộng khi đã thực sự tin tưởng vào hành vi của mô hình. Trong kỷ nguyên của các tác vụ tự động, sự thận trọng có chủ đích chính là chìa khóa để tận dụng sức mạnh công nghệ mà không phải trả giá bằng sự an toàn của dữ liệu.
Kết luận, OpenClaw đại diện cho một bước tiến lớn trong khả năng hỗ trợ công việc của AI, nhưng nó cũng đặt ra những thách thức chưa từng có về quản trị rủi ro. Để khai thác hiệu quả công cụ này, doanh nghiệp cần chủ động kiểm soát các điểm chạm dữ liệu, ưu tiên sử dụng các môi trường thực thi an toàn và không bao giờ bỏ qua việc giám sát các định danh AI trong hệ thống.
Câu hỏi thường gặp
OpenClaw là gì và tại sao nó lại được gọi là “Claude có đôi tay”?
OpenClaw là một AI agent mã nguồn mở sử dụng mô hình ngôn ngữ Claude. Nó được gọi như vậy vì không chỉ trò chuyện mà còn có khả năng thực thi các hành động thực tế như chạy lệnh terminal, quản lý tệp tin và điều khiển trình duyệt để hoàn thành công việc.
Rủi ro lớn nhất khi nhân viên sử dụng OpenClaw tại văn phòng là gì?
Rủi ro lớn nhất là Shadow IT và tấn công prompt injection. AI có thể bị lừa thông qua các dữ liệu bên ngoài (như email độc hại) để thực hiện các hành động gây hại như đánh cắp khóa API hoặc xóa dữ liệu mà người quản lý không hề biết.
Làm thế nào để doanh nghiệp sử dụng AI agent một cách an toàn?
Doanh nghiệp nên cô lập AI trong các môi trường an toàn (sandbox/containers), giới hạn quyền truy cập dữ liệu ở mức tối thiểu và tập trung quản lý các định danh phi nhân tính tương tự như cách quản lý tài khoản người dùng thông thường.

