מה זה OpenClaw ולמה להתקין AI לוקאלי?
OpenClaw הוא פרויקט קוד פתוח שמביא את הבינה המלאכותית הביתה — ישירות למכונה שלך. בלי APIs סגורים, בלי rate limits, ובלי חששות פרטיות. המערכת רצה לוקאלית, עם ארכיטקטורה מודולרי שנקראת "The Lobster Way" 🦞 — כל רכיב (claw) יכול לתפקד בנפרד או כחלק מהמערכת.
היתרונות המרכזיים: פרטיות מלאה (הדאטה לא עוזב את המכונה), ללא עלות שימוש (אין subscription), TypeScript Native (קוד מודרני עם טייפ-סייפטי), ו-Hot Reloading של מודלים (Molting) בלי איבוד הקשר.
דרישות מקדימות
- 🦀 Rust toolchain — גרסה 1.75+ (נדרש לקומפילציה של native modules)
- ⬢ Node.js — גרסה 20.11.0 LTS או חדשה יותר
- 📦 pnpm — גרסה 8.14.0+ (npm עובד אבל pnpm מומלץ)
- 🐳 Docker — אופציונלי אבל מומלץ (ל-sandboxing)
- 🎮 GPU Drivers — CUDA 12.1+, Metal 3 (macOS), או Vulkan 1.3 (Linux)
- 🔧 CMake — גרסה 3.27+ (לבניית llama.cpp backend)
- 💾 RAM: 8GB מינימום, 16GB מומלץ (המודלים גדולים)
- 💽 דיסק: לפחות 15GB פנויים (5GB לתוכנה + 10GB למודלים)
אזהרה: Windows Native אינו נתמך. השתמש ב-WSL2 עם Ubuntu 22.04.
שלב 1: התקנת ה-CLI העולמי
הכלי claw הוא המרכז של היקום. הוא מנהל מודלים, מפעיל dev server, ומתקשר עם ה-registry.
# שיטה א: התקנה דרך curl (המומלצת)
curl -fsSL https://openclaw.dev/install.sh | sh
# שיטה ב: Homebrew (macOS / Linux)
brew tap openclaw/tap
brew install claw
# בדיקת התקנה
claw --version
# צריך להחזיר: claw 2.4.1-lobsterהסקריפט מוריד את הבינארי המתאים למערכת ההפעלה שלך, ממקם אותו ב-/usr/local/bin, ויוצר את תיקיית ההגדרות ב-~/.config/openclaw.
שלב 2: אתחול פרויקט חדש
# יצירת תיקיית פרויקט
mkdir my-ai-assistant && cd my-ai-assistant
# אתחול עם תבנית React + TypeScript
claw init --template react-typescript --name "MyLobster"
# מבנה התיקיות שנוצר:
# ├── claws/ # רכיבי AI (כל "צבת" = יכולת)
# ├── shell/ # שכבת אבטחה ו-sandboxing
# ├── molty/ # ניהול מצב ו-memory
# └── openclaw.config.tsשלב 3: משיכת מודל LLM
OpenClaw לא מגיע עם מודלים מובנים — אתה בוחר איזה מודל להריץ. מומלץ להתחיל עם Mistral 7B בקוונטיזציה של 4-bit:
# משיכת מודל מה-hub
claw pull mistral:7b-instruct-q4_K_M
# המודל נשמר ב:
# ~/.openclaw/models/mistral-7b-instruct-v0.2.Q4_K_M.gguf
# בדיקת תקינות
claw verify mistral:7b-instruct-q4_K_M
# רשימת מודלים זמינים
claw listניתן גם למשוך מודלים אחרים כמו llama3:8b, codegemma:7b, או qwen2:7b.
שלב 4: הגדרת הקונפיגורציה
הקובץ openclaw.config.ts הוא הלב של המערכת. הגדר בו את ה-shell (אבטחה) ואת ה-claws (יכולות):
cat > openclaw.config.ts << 'EOF'
import { defineConfig } from '@openclaw/core';
export default defineConfig({
shell: {
security: 'strict',
sandbox: true,
memoryLimit: '4GB'
},
claws: [
'./claws/chat',
'./claws/vision',
'./claws/memory'
],
model: {
provider: 'local',
path: 'mistral:7b-instruct-q4_K_M',
contextWindow: 8192,
temperature: 0.7,
topP: 0.9
},
molty: {
persistence: 'memory',
autoSave: true,
compression: 'zstd'
}
});
EOFשלב 5: בניית Native Bindings
כאן נכנס Rust לתמונה. הפקודה claw build מקמפלת את ה-llama.cpp backend עם אופטימיזציות למכונה שלך:
# בנייה עם תמיכה ב-NVIDIA GPU
claw build --features cuda
# או ל-AMD GPU
claw build --features rocm
# או CPU בלבד (עובד בכל מכונה, איטי יותר)
claw build --features openblas
# הבנייה יוצרת:
# ./node_modules/.bin/openclaw-native.nodeשלב 6: הפעלת הסביבה
# הפעלת dev server עם hot-reloading
claw dev --port 3000 --verbose
# אתה אמור לראות:
# 🦞 OpenClaw v2.4.1 initialized
# 📦 Model loaded: mistral:7b-instruct (4096 ctx)
# 🔧 Native bindings: CUDA enabled
# 🚀 Server running at http://localhost:3000
# פתיחה בדפדפן
open http://localhost:3000שלב 7: צ'אט ראשון עם ה-AI
אחרי שהשרת רץ, ניתן לדבר עם המודל דרך ה-CLI:
# במסוף חדש — שליחת הודעה למודל
claw chat "הסבר לי מה זה TypeScript ב-3 משפטים"
# או מצב אינטראקטיבי
claw chat --interactive
# 🦞 MyLobster > שלום! איך אפשר לעזור?
# 🦞 MyLobster > ...פתרון בעיות נפוצות
- Rust לא מותקן: הרץ
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh - GPU לא מזוהה: בדוק עם
nvidia-smiוהרץ בלי CUDA:claw build --features openblas - Model not found: ודא שביצעת
claw pullלפניclaw dev - Port 3000 תפוס: השתמש ב-
claw dev --port 3001 - Out of memory: הקטן contextWindow ל-4096 או השתמש במודל קטן יותר













