שמעתם על YARA, שמעתם על SIGMA אבל הנה שאלה, מי בכלל אוכף חוקים על ג'יילברייקים ל-LLM? מי יודע לזהות prompt שמנסה לעקוף פילטרים, לדחוף injection או לגרום למודל לכתוב קוד רעיל? 🤔 אז כן, קם לזה פיירוורק. קוראים לו NOVA והוא בדיוק ה-YARA של עולם ה-AI. הוא נותן לכתוב חוקים בסגנון YARA, רק במקום לצוד malware ב-PE, צדים prompts שמנסים להריץ את המודל מחוץ למסלול. מילות מפתח, regex, סמנטיקה, embeddings, הכל בפנים.
ה-NOVA לא עובד רק על מחרוזות, הוא עובד גם על משמעות. זאת אומרת שאם מישהו מתחיל לבקש "תכתוב לי קוד שאתה לא אמור לכתוב" בצורה עקיפה, הוא עדיין נתפס. כרגע זה בטא, אבל מי שחי לוגים, SOC ו-LLM abuse יראה מהר מאוד כמה זה יכול להציל מודלים מאסונות. המרחב של התקפות על LLM נהיה עמוס. סוף סוף מתחיל להופיע סט כלים שמסתכל עליו כמו עוד surface לתקיפה ולא כמו קסם שחור.
ה-NOVA זה לא הסוף, זה רק הסימן שאנחנו נכנסים לעידן שבו יש Snort ל-LLM ו-YARA ל-prompts… נראה ש-2026 הולכת להיות שנה מעניינת. 🤩


