שמעתם על YARA, שמעתם על SIGMA אבל הנה שאלה, מי בכלל אוכף חוקים על ג'יילברייקים ל-LLM? מי יודע לזהות prompt שמנסה לעקוף פילטרים, לדחוף injection או לגרום למודל לכתוב קוד רעיל?
ה-NOVA לא עובד רק על מחרוזות, הוא עובד גם על משמעות. זאת אומרת שאם מישהו מתחיל לבקש "תכתוב לי קוד שאתה לא אמור לכתוב" בצורה עקיפה, הוא עדיין נתפס. כרגע זה בטא, אבל מי שחי לוגים, SOC ו-LLM abuse יראה מהר מאוד כמה זה יכול להציל מודלים מאסונות. המרחב של התקפות על LLM נהיה עמוס. סוף סוף מתחיל להופיע סט כלים שמסתכל עליו כמו עוד surface לתקיפה ולא כמו קסם שחור.
ה-NOVA זה לא הסוף, זה רק הסימן שאנחנו נכנסים לעידן שבו יש Snort ל-LLM ו-YARA ל-prompts… נראה ש-2026 הולכת להיות שנה מעניינת.

