לפני שעה וקצת OpenAI הכריזו על ChatGPT Agent. סוכן חכם שיידע לבצע פעולות במקומכם, אתם רק תצטרכו להגיד מה אתם רוצים שיקרה והוא ידאג לכל השאר.
לדוגמא, הסוכן יעבור לכם על המיילים, יבנה לכם מצגות, יקבע לכם פגישות וכדו'. אבל לא רק…
הוא יכול לעשות גם מעבר לזה הסוכן יוכל לבצע עבורכם רכישות באתרים, להז* לכם טיסות, להתחבר בשמכם לאתרים שונים ועוד.
We don’t know exactly what the impacts are going to be, but bad actors may try to “trick” users’ AI agents into giving private information they shouldn’t and take actions they shouldn’t, in ways we can’t predict.
אז מה עושים?
ב-OpenAI מדגישים כי הם הגדירו המון בקרות והגנות כדי למנוע ניצול לרעה, לדוגמא: אישור של משתמש לפעולות רגישות, אפשרות לצפות בכל הפעולות שהסוכן מבצע בזמן אמת, סירוב אוטומטי של הסוכן לביצוע פעולות רגישות מדי ועוד.
אבל הצד של OpenAI בתהליך הוא רק צד אחד, הצד השני הוא המשתמש, שבחוסר אחריות או בחוסר מודעות יכול לגלות שבוצעו בשמו פעולות שונות, שתוקפים הצליחו להתל בסוכן שלו כדי לגנוב מידע ארגוני רגיש ועוד.
סם אלטמן מציין שהוא יסביר למשפחה שלו על הטכנולוגיה החדשה אבל גם על הסיכונים ועל האחריות הכרוכה בשימוש בה, זה כולל בין היתר, מעקב צמוד על הפעולות של הסוכן, מינימום הרשאות לשירותים שונים ועוד.
בקיצור, הטכנולוגיה מתקדמת, מהר מאד, והיא לא מחכה לאנשי הסייבר שישימו הגנות בכל פינה.
אם לא תהיו פרואקטיביים ומודעים לסיכון אתם והארגון שלכם תישארו מאחור וזה יקרה מהר משחשבתם.
המציאות משתנה לנו מול העיניים, וגם מרחב הסייבר צריך להתאים את עצמו – לקצב, לטכנולוגיה ולסיכונים החדשים.