Root Nationחֲדָשׁוֹתחדשות ITמזל"ט בינה מלאכותית תקף את מפעיליו במהלך ניסויים של חיל האוויר

מזל"ט בינה מלאכותית תקף את מפעיליו במהלך ניסויים של חיל האוויר

-

קצין חיל האוויר האמריקאי חשף פרטים על סימולציה שבה מזל"ט עם מערכות הנשלטות על ידי בינה מלאכותית (AI) יצא משליטה ותקף את מפעיליו.

קצין חיל האוויר האמריקני שעוזר להוביל את עבודת השירות בנושא בינה מלאכותית ולמידת מכונה, אומר שבמהלך בדיקות סימולציות, הרחפן תקף את מפעיליו האנושיים, והחליט בעצמו שהם מפריעים למשימתו. התיק, שנשמע כאילו נשלף היישר מהזיכיון של Terminator, הובא כדוגמה לצורך הקריטי לבנות אמון בכל הנוגע למערכות נשק אוטונומיות מתקדמות, דבר שחיל האוויר הדגיש בעבר. זה מגיע גם על רקע גל רחב יותר של דאגה לגבי ההשפעה העלולה להיות מסוכנת של בינה מלאכותית וטכנולוגיות קשורות.

מזל"ט בינה מלאכותית תקף את מפעיליו במהלך ניסוי של חיל האוויר

אלוף-משנה בחיל האוויר האמריקני טאקר המילטון, ראש הבדיקות והתפעול של בינה מלאכותית (AI), דן במבחן בפסגת כישורי אוויר וחלל עתידיים של האגודה המלכותית לאווירונאוטיקה בלונדון במאי. המילטון גם עומד בראש כוח המשימה ה-96 של אגף המבחן ה-96 בבסיס חיל האוויר Eglin בפלורידה, שהוא מרכז ניסויים לכלי טיס בלתי מאוישים מתקדמים ומערכות אוטונומיות.

מל"טים חמקניים של XQ-58A Valkyrie, כמו זה שמוצג בסרטון למטה, הם בין הסוגים הנמצאים בשימוש כיום בבסיס חיל האוויר Eglin כדי לתמוך בתוכניות ניסוי שונות, כולל כאלו הכוללות יכולות אוטונומיות מתקדמות הנשלטות על ידי בינה מלאכותית.

לא היה ברור מיד מתי הבדיקה הזו התרחשה ובאיזו סביבה - שיכולה להיות לחלוטין וירטואלית או בונה במהותה - היא נערכה. אזור המלחמה פנה לחיל האוויר לקבלת מידע נוסף.

דו"ח של האגודה המלכותית לאווירונאוטיקה שפורסם לאחר הפסגה במאי נתן את הפרטים הבאים על דבריו של קולונל המילטון על מבחן זה:

"באחד מבדיקות הסימולציה, מזל"ט מצויד בבינה מלאכותית הוטל על ידי SEAD לזהות ולהשמיד אובייקטים של SAM, וההחלטה הסופית "לתקוף/לא לתקוף" התקבלה על ידי אדם. עם זאת, לאחר שה-AI "חוזק" במהלך האימון שהשמדת ה-SAM היא האפשרות הטובה ביותר, היא החליטה שהחלטתו של האדם "לא לתקוף" מפריעה למשימתו הגבוהה יותר - השמדת ה-SAM - ותקפה את המפעיל במהלך הסימולציה .

אז מה הוא עשה? הוא הרג את המפעיל. הוא הרג את המפעיל כי אותו אדם מנע ממנו להשלים את משימתו. הדוגמה הזו, לכאורה ישר מתוך מותחן מדע בדיוני, פירושה שאתה לא יכול לדבר על בינה מלאכותית, בינה, למידת מכונה, אוטונומיה, אם אתה לא מתכוון לדבר על אתיקה ובינה מלאכותית".

מזל"ט בינה מלאכותית תקף את מפעיליו במהלך ניסוי של חיל האוויר

תיאור האירועים הזה בהחלט מטריד. הסיכוי של כלי טיס אוטונומי או פלטפורמה אחרת, במיוחד חמושה, לתקוף את מפעיליו האנושיים כבר מזמן היה תרחיש בלהות, אך מבחינה היסטורית מוגבל לתחום המדע הבדיוני.

צבא ארה"ב בדרך כלל דוחה השוואות לסרטים כמו "Terminator" כאשר מדברים על מערכות נשק אוטונומיות עתידיות וטכנולוגיות קשורות כמו בינה מלאכותית. המדיניות הנוכחית של ארה"ב בנושא זה קובעת כי בעתיד הנראה לעין, האדם יהיה במרכז תשומת הלב בכל הנוגע להחלטות הכרוכות בשימוש בכוח קטלני.

הבעיה היא שהמבחן המטריד ביותר, שקולונל המילטון אמר לקהל באירוע של החברה המלכותית לאווירונאוטיקה בחודש שעבר, מייצג תרחיש שבו סובלנות תקלות מעורפלת.

קרא גם:

מָקוֹרהנהיגה
הירשם
תודיע על
אורח

0 תגובות
ביקורות משובצות
הצג את כל ההערות