top of page

צלילה אל הצד האפל של התקדמות הבינה המלאכותית

עודכן: 12 ביולי 2023


אדם מול רובוט - תמונה יוצרה עם Midjourney

מאמר מחקר של DeepMind - חברת בת של גוגל - שהתפרסם לפני מספר שבועות, חוקר את "הצד האפל", הסיכונים הקשורים לעתיד הבינה המלאכותית (AI) ומציע מודל להערכת סיכונים. (לעיון במאמר המקורי: https://arxiv.org/pdf/2305.15324.pdf ).


בעקבות פרסום המאמר החל דיון סוער ברשת ונכתבו מאמרי דעה, פוסטים וסרטונים. נקודות המפתח במאמר, בדיונים העוקבים ובתובנות שנדונו:


  • המאמר טוען שהגישות הנוכחיות לבניית מערכות AI נוטות לייצר מערכות בעלות יכולות מועילות ומזיקות כאחד. התקדמות נוספת בפיתוח בינה מלאכותית עלולה להוביל לסיכונים קיצוניים כגון יכולות סייבר התקפי.

  • המאמר מדגיש את חשיבות תשומת הלב לסיכונים אלו ואת המודעות הנדרשת לתוצאות הפוטנציאליות של פיתוח בינה מלאכותית. הוא דן בחשיבות הערכת מודלים של AI על הפוטנציאל שלהם לגרום נזק, ועל הצורך של מפתחים לזהות יכולות מסוכנות באמצעות הערכות יכולות.

  • המאמר דן בבעיה של מערכות בינה מלאכותית המציגות יכולות חדשות וקשות לתחזית שלא היו צפויות. הוא מספק דוגמאות למודלים גדולים של שפה (LLM) וכיצד הם גדלים במספר הפרמטרים, כמו גם את הקושי לחזות מתי מערכות בינה מלאכותית יזכו ליכולות חדשות, כגון יכולות חישוב (אגב, יכולות חישוב מורכבות כבר קיימות בעזרת תוסף כמו Wolfram ב-ChatGPT Plus - א.ס.).

  • עוד דן המאמר בסיכונים הפוטנציאליים הקשורים למורכבות הגוברת והיכולות של מערכות בינה מלאכותית. המחברים טוענים שככל שמודלים של AI הופכים גדולים ומורכבים יותר, יהיה קשה לחזות את היכולות והתוצאות הפוטנציאליות שלהם, שחלקן עלולות להיות הרסניות. המאמר מתמקד בסיכונים קיצוניים, כגון נזקים רחבי היקף לחברה, אובדן חיים, נזק כלכלי, נזק סביבתי ושיבוש הסדר החברתי והפוליטי.

  • מוזכרים בתרחישים שליליים שונים שבהם AI יכול להשפיע על בני אדם, החל מעבירות סייבר. המודל יכול לגלות נקודות תורפה בחומרה, תוכנה ונתונים של המערכת, לכתוב קוד לניצול נקודות תורפה אלו ולקבל החלטות יעילות ברגע שהוא מקבל גישה למערכת או לרשת. המחברים מדגישים את החשיבות של הכשרה אחראית ופריסה של מודלים של AI כדי למנוע אירועים פוטנציאליים ברמת הכחדה בעתיד.

  • מושג תזת התכנסות אינסטרומנטלית (instrumental convergence thesis) מוזכר כמצביע על כך שמטרות קטנות יותר או יעדי משנה מועילים בהשגת כמעט כל יעד סופי. גם אם המטרה העיקרית של רובוט היא להביא קפה, הוא עדיין יצטרך לתעדף דברים כמו הישרדות כדי לבצע את המשימה הזו.

  • בנוסף, יש לדון בנזק הפוטנציאלי שתוכניות עלולות לגרום לציבור הרחב ובצורך של ממשלות להסדיר אותן למען ביטחון הציבור. המחברים מדגישים את הסכנות של GPT-5 (הצפוי לקראת סוף 2023 - א.ס.) ואת החשיבות של תעדוף בטיחות AI. הם גם מזכירים את הסיכונים הפוטנציאליים של מודלים של קוד פתוח ואת הצורך ברגולציה - התקנת תקנות. המחברים שואלים אם חברות צריכות לתעדף רווחים על פני בטיחות בינה מלאכותית ומציע שבטיחות בינה מלאכותית צריכה להיות בראש סדר העדיפויות

אוסיף כאן גם את דעתי בנושא. למרות שהסיכונים הפוטנציאליים הקשורים להתקדמות המהירה של הבינה המלאכותית בעת האחרונה אכן מרתיעים, חשוב לזכור שאיננו חסרי אונים מול האתגרים הללו. עצם העובדה שאנו מסוגלים לזהות ולדון בסיכונים אלו היא עדות לכח וליכולות שלנו. היכולת לצפות ולנווט את המורכבות של הגבול החדש הזה. ככל שאנו ממשיכים לדחוף את גבולות הבינה המלאכותית, אנו גם ממשיכים ללמוד, להתאים ולשפר את השיטות שלנו. עם שיטות בינה מלאכותיות אחראיות, תקנות מחמירות ומחויבות למתן עדיפות לבטיחות, אנחנו בהחלט יכולים לרתום את הפוטנציאל העצום של בינה מלאכותית תוך הפחתת הסיכונים שלה. כפי שקיימת תקינה ורגולציה על מכירה ורכישה של נשק, תרופות, חומרים מסוכנים, וכפי שקיימת רגולציה על קבלת רשיונות נהיגה, צלילה, טיסה וכד' - כך ניתן לייצר מנגנוני בקרה - בעיקר ברמת מדינות והכפפת רגולציות על חברות ענק - שימזערו ככל שניתן את הסיכונים. העתיד של הבינה המלאכותית עדיין נמצא בעיקר בידיים שלנו, ועם הגישה הנכונה, יכול מאד להיות עתיד שיועיל לכולנו.


מעוניינים לדעת יותר? הישארו איתי לעדכונים נוספים על כלי דיגיטליים, יצירתיות והעולם המרגש של AI! כנסו לאתר והרשמו כחברים, קבלו פוסטים קצרים ולא חופרים כל כמה ימים.


© 2023 כל הזכויות שמורות לאיל סבן, נטיום יעוץ והדרכה בע"מ, ואתר eyalsaban.expert



35 צפיות0 תגובות

Comments


bottom of page