האם עולם הסייבר צריך להתכונן למתקפות מבוססות AI על תשתיות קריטיות?

למאמר הבא
ESET

עם העלייה ההולכת וגדלה בחשיבותה של הבינה המלאכותית (AI), אנשים משקיעים מאמצים אדירים לאיתור דרכים בהן הבינה המלאכותית תוכל לשמש אותם ולתמוך במאמצים שלהם, ממש כפי שחברות עושות בימים אלה. בתחום אבטחת הסייבר, בינה מלאכותית יכולה לשמש ככלי מועיל אך גם ככלי מזיק – היא יכולה לסייע ביצירת כלי הגנת סייבר טובים יותר, אך גם בעקיפה של אותן ההגנות.

אחד החששות העיקריים הוא עלייה בכמות של מתקפות סייבר על תשתיות קריטיות. בתחום התשתיות הקריטיות, כמו יצירת ואספקת חשמל, בתי חולים, מרכזים רפואיים ושרשרת האספקה העולמית, ניתן לכלול גם שרשראות אספקה דיגיטליות ואת האינטרנט עצמו. התשתיות הקריטיות הן כל המערכות, הרשתות והנכסים שחיוניים לתפקודה של אומה (על פי הצרכים, המשאבים ורמת ההתפתחות שלה), כך שהמשכיות הפעילות שלהם נחוצה כדי להבטיח את שימור הביטחון, הכלכלה ובריאות או ביטחון הציבור של המדינה.

הרעיון הכללי שעומד מאחורי תקיפה הוא פגיעה בפעילות העסקית היומיומית, כך שכלי AI אפקטיבי עשוי, באופן היפותטי, לסייע לגורמים זדוניים לבצע מתקפות או להגדיל את מאגר התוקפים הפוטנציאליים באמצעות הפיכת כתיבת הקוד של הנוזקה למטלה קלה יותר. עם זאת, לא כולם חושבים שזה נכון.

תפקידה של הבינה המלאכותית – האם פריצות יכולות להפוך לקלות יותר?

על פי ראיון שבוצע עם קמרון קאמפ, אחד מחוקרי האבטחה של ESET, אנחנו עדיין די רחוקים מ״נוזקה שנוצרה במלואה ע״י AI״, אף על פי ש-ChatGPT עושה עבודה די טובה בהצעה של קוד, ויוצר דוגמאות וקטעי קוד, מאתר תקלות בהם, משפר אותם ואף כותב תיעוד לקטעי הקוד האלה באופן אוטומטי.

הוא הסכים ש-ChatGPT יכול לשמש ככלי סיוע למפתחים, ולכן יוכל לסייע בשלב הראשון של יצירת נוזקה, אך זה עדיין רחוק – מכיוון שכרגע השירות לא נותן תוצאות ״עמוקות״ מספיק, מבצע טעויות, מוסר תשובות לא-מדויקות ואינו אמין במיוחד למטלות רציניות.

עם זאת, מר קאמפ ציין שלושה תחומים שבהם מודלי שפה עשויים לסייע:

1. מתקפות פישינג משכנעות יותר – החל מאיסוף מידע מכמות גדולה יותר של מקורות נתונים ועד שילוב ביניהם כדי ליצור הודעות דוא״ל מותאמת אישית, שבהן יהיה קשה יותר לזהות סימנים לכוונות זדוניות, נראה שלמשתמשים יהיה הרבה יותר קשה להימנע ממתקפות הנדסה חברתית. בנוסף, כיום אנשים יכולים לזהות הודעות פישינג באמצעות שגיאות שפה ברורות, אך להודעות שייווצרו ע״י בינה מלאכותית יהיה תחביר משכנע יותר.
מתקפות פישינג מכוון (Spear Phishing) עשויות להיות אפילו יותר משכנעות ולהגיע כהודעות דוא״ל או אסמס שמותאמות באופן אישי לקורבן ועשויות לכלול טריגרים רגשיים אישיים – כשיצירה של הודעות כאלה תהיה קלה יותר הודות לעזרה של הבינה המלאכותית. עם העלייה הצפויה של כלים ליצירת מלל בשפות שונות, יהיה קל יותר לפעול בשיטות כאלה וההיקף שלהן יגדל כך שתקיפה של תשתיות קריטיות במספר מדינות במקביל תוכל לתת תוצאות משמעותיות לתוקפים.

2. אוטומציה של משא ומתן על כופר – כמעט ואי אפשר למצוא מפעילי כופרות עם לשון חלקלקה, אך עם קצת עזרה בנושא התקשורת הבין-אישית מצד ChatGPT, העומס על התוקפים יכול לרדת באמצעות הפיכת המשא ומתן לבעל חזות לגיטימית יותר. כך למעשה התוקפים יעשו פחות טעויות, מה שיקשה על המגינים לזהות את השמות והמיקומים של מפעילי הכופרה.
בנוסף, עם ההפיכה של יצירת קטעי וידאו ודיבור לפשוטה יותר באמצעות AI, הגורמים הזדוניים יכולים להתחזות לכל אדם ולהסוות את זהותם האמיתית באופן יעיל יותר. למעשה, החששות בנוגע לבינה מלאכותית הגיעו לתפוצה רחבה כל כך, עד כדי שמומחים רבים בתחום הזה מעוניינים לקבוע תנאים בחוזה שלהם שיאסרו שימוש ביצירות שלהם למטרות AI.

3. הונאות טלפוניות איכותיות יותר – עם ההפיכה של יצירת שפה טבעית לפשוטה יותר, תוקפים יוכלו להישמע כאילו הם מתגוררים באזור שלכם או שהם רוצים בטובתכם. זהו אחד מהשלבים הראשונים בהונאה: דיבור באופן בטוח בעצמו כך שהתוקף יישמע כאילו הוא ״משלכם״.
כל עוד התוקפים יצליחו לגרום לקולו של אדם להישמע טבעי, הם יוכלו לשטות בקורבנות שלהם בקלות. אך נכון להיום, הבעיה בתוכן שנוצר בבינה מלאכותית היא שהוא מרגיש מלאכותי, כלומר – אף על פי שהקולות, הסרטונים או הטקסט נראים לגיטימיים, עדיין יש בהם טעויות או בעיות ספציפיות פשוטות לזיהוי, וניתן לראות זאת באופן שבו ChatGPT טוען טענות שגויות או מגיב באופן שנראה כמו סיכום של דף מוויקיפדיה.

עם זאת, למרות כל החסרונות של בינה מלאכותית יוצרת, ניתן להשתמש בה לסיעור מוחות כדי ליצור בסיס לעבודה מסוימת, אף על פי שעדיין יש לבדוק את נכונותו של המידע שנמסר למשתמש בכלי כזה.

הקרב בין תשתיות קריטיות ובין בינה מלאכותית – חקיקה חדשה

בינה מלאכותית מתחילה למלא חלק חשוב יותר ויותר באבטחת סייבר, ולכן עסקים וממשלות יצטרכו להתאים את עצמם לכלי AI ולהשתמש בהם – מכיוון שפושעי סייבר יעשו בדיוק את אותו הדבר. על פי דוח שפורסם ביולי 2022 ע״י Acumen Research and Consulting, שוק הבינה המלאכותית עמד על 14.9 מיליארד דולר ב-2021, וצפוי להגיע להיקף של 133.8 מיליארד דולר עד 2030.

הודות לשימוש ההולך וגובר ב״אינטרנט של הדברים״ (IoT) ומכשירים מקושרים אחרים, שירותי אבטחה מבוססי-ענן יוכלו לספק הזדמנויות חדשות לשימוש ב-AI. מערכות אנטי-וירוס, הגנה מפני אובדן נתונים, זיהוי הונאות, ניהול זהויות וגישה, זיהוי ומניעת פריצות וניהול סיכונים וציות (Compliance) משתמשות כבר היום בכלים כמו למידת מכונה כדי ליצור הגנה עמידה יותר.

מהצד השני של המטבע, גם גורמים זדוניים עשויים להשתמש בבינה מלאכותית לתועלתם. ההיצע הגדול מאוד של כלי AI חכמים מאפשר לפושעי סייבר להשתמש בהם כדי לזהות תבניות במערכות מחשבים שיחשפו נקודות חולשה בתוכנות או בכלי אבטחה וכך יוכלו לאפשר להם לנצל לרעה את נקודות החולשה החדשות שנחשפו.

אם כן, נראה שתשתיות קריטיות עשויות להפוך לאחת מהמטרות של מתקפות סייבר מבוססות AI. במצב בו בינה מלאכותית תוקפת אותן ומגינה עליהן, ייווצר מצב של ״תיקו״ בו גורמי אבטחה וממשלות יצטרכו לנהוג באופן חכם יותר. כבר עכשיו האיחוד האירופי מנסה להעריך את הסיכונים באמצעות חקיקת חוק הבינה המלאכותית של האיחוד האירופי (EU AI Act), כדי לפקח על השימוש בו באירופה ולסווג כלי AI שונים על פי מידת הסיכון הנשקפת מהם, במדד שנע בין ״נמוך״ ל״לא מתקבל על הדעת״. מחויבויות שונות יוטלו על ממשלות וחברות שישתמשו בכלים האלה, כתלות במידת הסיכון של כל אחד מהם.

חלק מכלי ה-AI האלה עשויים להיות מוגדרים ככלים ברמת סיכון גבוה, כמו אלה שמשמשים בתשתיות קריטיות. ככל הנראה, הגופים שמשתמשים בכלי AI מסוכנים כמו אלה יחויבו לעמוד בהערכות סיכונים מקיפות, לתעד את הפעילויות שלהם ולהפוך את נתוניהם לזמינים עבור בחינה של הרשויות. אם חברה מסוימת אינה עומדת בחוקים, הקנס שיוטל עליה צפוי לעמוד על כ-30 מיליון יורו או עד ל-6 אחוזים מגובה הרווחים הגלובלי שלהם.

לקבלת הצעת מחיר לפתרון הגנה לארגון ניתן ליצור איתנו קשר: