Root NationסטטטיטכנולוגיותOpenAI Project Q*: מה זה ומדוע הפרויקט מעורר דאגה

OpenAI Project Q*: מה זה ומדוע הפרויקט מעורר דאגה

-

מסתורי פרויקט ש* מ-OpenAI מעורר דאגה בקרב מומחים. האם הוא באמת יכול להיות מסוכן לאנושות? מה ידוע עליו? לאחר שסם אלטמן פוטר מלכתחילה בשבוע שעבר והוא והצוות כמעט עברו לגור Microsoft, ואז הוא אכן חזר למקום העבודה שלו (על זה כתבנו כאן), OpenAI שוב בחדשות. הפעם בגלל מה שכמה חוקרים מכנים איום אפשרי על האנושות. כן, קראתם נכון, איום על האנושות.

המהפך האמיתי בעולם הטכנולוגיה נגרם על ידי Project Q* - פרויקט לא ידוע של בינה מלאכותית כללית (AGI) - מבוטא Q-Star. למרות שפרויקט זה נמצא בשלביו הראשונים, הוא נחשב לפורץ דרך באמת בפיתוחי AGI. עם זאת, יש הרואים בכך סכנה לאנושות.

לפרויקט סודי של בינה מלאכותית שפותחה על ידי מעבדת הבינה המלאכותית המפורסמת OpenAI יש פוטנציאל לחולל מהפכה בטכנולוגיה ובחברה בכלל. אבל זה גם מעלה כמה שאלות אתיות לגבי הסיכונים. ככל שמתגלים פרטים על היכולות המדהימות של Project Q*, צצות יותר ויותר ספקולציות לגבי המשמעות של זה לגבי עתיד האנושות.

- פרסום -

מעניין גם: היסטוריה של OpenAI: מה זה היה ומה צפוי לחברה

מהי בינה כללית מלאכותית (AGI)?

כדי להבין את ההייפ סביב פרויקט Q* (Q-Star), בואו ננסה קודם כל להבין על מה הרעיון של בינה כללית מלאכותית (AGI). בעוד שמערכות הבינה המלאכותית הנוכחיות מצטיינות במשימות צרות וספציפיות כמו משחק שח או יצירת תמונות, בינה מלאכותית כללית מתייחסת למכונות שיכולות ללמוד ולחשוב ברמה אנושית בתחומים רבים. כלומר, הם יכולים ללמוד כמו ילדים קטנים בבית הספר, למשל, את יסודות המתמטיקה, כימיה, ביולוגיה וכו'.

בינה מלאכותית כללית (AGI) היא סוג של בינה מכונה שיכולה לחקות באופן היפותטי אינטליגנציה או התנהגות אנושית, עם היכולת ללמוד וליישם את הפוטנציאל הזה כדי לפתור מגוון בעיות. AGI נקראת גם בינה מלאכותית חזקה, בינה מלאכותית מלאה או בינה מלאכותית ברמת האדם. בינה מלאכותית כללית שונה מבינה מלאכותית חלשה או צרה, המסוגלת לבצע רק משימות ספציפיות או מיוחדות במסגרת פרמטרים נתונים. ZHI תוכל לפתור באופן עצמאי בעיות מורכבות שונות מתחומי ידע שונים.

יצירת בינה מלאכותית היא המוקד העיקרי של מחקר בינה מלאכותית על ידי חברות כמו DeepMind ו-Anthropic. CSI הוא נושא פופולרי מאוד בספרות המדע הבדיוני ועשוי לעצב מחקר עתידי. יש הטוענים שאפשר ליצור UCI בתוך שנים או עשורים, בעוד שאחרים טוענים שזה יכול לקחת מאה או יותר. אבל יש מי שמאמין שזה לעולם לא יושג. חלקם ראו את ההתחלה של URI ב-GPT-3, אך נראה שהוא עדיין רחוק מלעמוד בקריטריונים הבסיסיים.

יצירת הבינה המלאכותית (AGI) נחשבת על ידי החוקרים לגביע הקדוש של הבינה המלאכותית, אפשרות תיאורטית ששבה את דמיונם זה מכבר. לכן, הופעתו של פרויקט כמו OpenAI Project Q* גרמה לתהודה גדולה בעולם חקר האלגוריתמים של בינה מלאכותית. למרות שכולם מבינים שאלו רק הצעדים הראשונים, כמעט באופן עיוור, לעולם שבו לבינה מלאכותית יהיו יכולות זהות לבני אדם, או אפילו גבוהות יותר.

- פרסום -

מעניין גם: הכול על Microsoft טייס משנה: העתיד או הדרך הלא נכונה?

מהו Project Q*?

Project Q* אינו אלגוריתם טיפוסי מכיוון שהוא מודל בינה מלאכותית שמתקרב יותר ויותר למודל הבינה הכללית המלאכותית (AGI). המשמעות היא שבניגוד ל-ChatGPT, Project Q* מציג חשיבה וכישורי קוגניטיביים טובים יותר בהשוואה לאלגוריתמים אחרים. ChatGPT מגיב כיום לשאילתות על סמך כמות עצומה של חומר עובדתי, אבל עם AGI, מודל הבינה המלאכותית ילמד היגיון ויכולת לחשוב ולהבין בעצמו. כבר ידוע שפרויקט Q* מסוגל לפתור בעיות מתמטיות פשוטות שלא היו חלק מחומר ההדרכה שלו. בכך, חלק מהחוקרים רואים צעד משמעותי לקראת יצירת בינה מלאכותית כללית (AGI). OpenAI מגדירה AGI כמערכות בינה מלאכותית שהן חכמות יותר מבני אדם.

הפיתוח של פרויקט Q* מנוהל על ידי המדען הראשי של OpenAI, איליה סוצקבר, והבסיס שלו זכה לביסוס על ידי החוקרים יעקב פחוצקי ושמעון סידור.

היכולת של אלגוריתם לפתור בעיות מתמטיות בעצמו, גם אם בעיות אלו לא היו חלק ממערך נתוני האימון, נחשבת לפריצת דרך בתחום הבינה המלאכותית. חילוקי דעות בצוות בנוגע לפרויקט זה קשורים להדחתו הזמנית של מנכ"ל OpenAI, סם אלטמן. ידוע כי לפני שאלטמן פוטר, קבוצת חוקרי חברה שלחה מכתב לדירקטוריון שהזהירה מפני גילוי בינה מלאכותית שעלולה להוות איום על האנושות. המכתב הזה, שלפי הדיווחים דן באלגוריתם Project Q*, צוין כאחד הגורמים שהובילו לפיטוריו של אלטמן. עם זאת, היכולות של Project Q* והסיכונים הפוטנציאליים שהוא עלול להוות אינם מובנים במלואם מכיוון שהפרטים אינם ידועים. שום דבר לא פורסם לציבור הרחב.

בעיקרו של דבר, Project Q* היא שיטת לימוד חיזוק נטולת מודלים היוצאת מהמודלים המסורתיים בכך שהיא לא דורשת ידע מוקדם על הסביבה. במקום זאת, הוא לומד באמצעות ניסיון, תוך התאמת פעולות המבוססות על פרסים ועונשים. מומחים טכניים מאמינים שפרויקט Q* יוכל להשיג יכולות יוצאות דופן על ידי רכישת יכולות דומות ליכולות הקוגניטיביות האנושיות.

עם זאת, תכונה זו היא המרשימה ביותר במודל החדש של בינה מלאכותית שמדאיגה חוקרים ומבקרים ומעלה את חששותיהם לגבי היישומים האמיתיים של הטכנולוגיה והסיכונים הבסיסיים הכרוכים בכך. ממה כל כך מפחדים מדענים וחוקרים? בוא נבין את זה.

מעניין גם: כיצד לעדכן את המכשירים הביתיים שלך לתמיכה ב-Wi-Fi 6

הם מפחדים מהלא נודע

בני אדם תמיד פחדו מהלא נודע, מהלא ניתן לדעת. זוהי המהות האנושית, תכונה של אופי ואורח חיינו.

- פרסום -

עולם הטכנולוגיה למד על Project Q* בנובמבר 2023 לאחר רויטרס דיווח על מכתב פנימי שנכתב על ידי חוקרי OpenAI מודאגים. תוכנו של המכתב היה מעורפל, אך לפי הדיווחים הוא ניתח ברצינות את היכולות של פרויקט Q*. כפי שציינתי לעיל, יש אפילו ספקולציות שהמכתב הזה הוא שגרם להתפטרותו של סם אלטמן.

גילוי נפיץ זה הוליד השערות שונות בנוגע לאופיו של פרויקט Q*. מדענים הציעו שזה יכול להיות מודל מהפכני של שפה טבעית עבור AI. סוג של ממציא אלגוריתמים חדשים שייצרו אותם לצורות אחרות של AI, או משהו אחר לגמרי בתחום הזה.

ההערות הפרובוקטיביות של אלטמן על בינה מלאכותית כללית כ"עובד הממוצע" כבר העלו חששות לגבי ביטחון תעסוקתי והתרחבות בלתי ניתנת לעצירה של השפעתה של AI. האלגוריתם המסתורי הזה מוגדר כאבן דרך בפיתוח של בינה כללית מלאכותית (AGI). עם זאת, כולם מבינים שאבן דרך זו היא יקרה. וזה לא קשור לכסף עכשיו. רמת המיומנויות הקוגניטיביות שמבטיח דגם הבינה המלאכותית החדש נושאת איתה אי ודאות. מדעני OpenAI מבטיחים של-AI תהיה חשיבה ברמת האדם. וזה אומר שאנחנו לא יכולים לדעת הרבה דברים ולחזות את ההשלכות. וככל שלא ידוע יותר, קשה יותר להתכונן לשלוט או לתקן אותו. כלומר, האלגוריתם החדש מסוגל לשיפור ופיתוח עצמי. כבר ראינו את זה איפשהו...

מעניין גם: Windows 12: מה תהיה מערכת ההפעלה החדשה

פרטים מדהימים על היכולות של Project Q*

כשהחל לצוץ מידע נוסף, זה זעזע חוקרים רבים. אינדיקציות מוקדמות היו שלפרויקט Q* יש כישרון מדהים במתמטיקה. בניגוד למחשבון שמבצע חישובים מכניים, Project Q* יכול כביכול להשתמש בלוגיקה ובהיגיון כדי לפתור בעיות מתמטיות מורכבות. יכולת מתמטית זו להכליל מרמזת על התפתחות אינטליגנציה רחבה.

אימון אוטונומי של Project Q*, ללא מערכי הנתונים הספציפיים המשמשים לאימון AI טיפוסיים, יהיה גם צעד ענק קדימה. עדיין לא ידוע אם Project Q* שלט במיומנויות אחרות. אבל היכולות המתמטיות שלו כל כך מדהימות בפני עצמן שהן מבלבלות אפילו חוקרים מנוסים.

קרא גם: פרויקט המוח האנושי: ניסיון לחקות את המוח האנושי

הדרך לדומיננטיות של Project Q*?

ישנם תרחישים אופטימיים ופסימיים בעניין זה. אופטימיסטים יאמרו שפרויקט Q* יכול להיות הניצוץ שמוביל לפריצת דרך טכנולוגית. ככל שהמערכת משתפרת באופן רקורסיבי, האינטליגנציה העל-טבעית שלה יכולה לעזור לפתור כמה מהבעיות החשובות ביותר של האנושות, החל משינויי אקלים ועד לבקרת מחלות. Project Q* יכול להפוך עבודה משעממת לאוטומטית ולפנות את הזמן הפנוי שלנו לפעילויות אחרות.

למרות שיש הרבה יותר אפשרויות פסימיות. לפעמים, הם די סבירים ויש להם משמעות מסוימת.

אובדן מקומות עבודה

שינויים מהירים בהתפתחות הטכנולוגיה יכולים לעלות על ההסתגלות האישית של אנשים. זה יוביל לאובדן של דור אחד או יותר שלא יוכלו לרכוש את הכישורים או הידע הדרושים כדי להסתגל למציאות חדשה. כלומר, זה, בתורו, אומר שפחות אנשים יוכלו לשמור על מקום עבודתם. הוא יבוצע במקום זאת על ידי מכונות, מערכות אוטומטיות ורובוטים. עם זאת, התשובה אינה כה ברורה כשמדובר במומחים מוסמכים. בנוסף, עשויים להופיע מקצועות חדשים הקשורים ספציפית לפיתוח אלגוריתמים של בינה מלאכותית. אבל עדיין יש סיכונים, ולאנושות אין זכות להתעלם מהם.

הסכנה של כוח בלתי מבוקר

אם בינה מלאכותית כל כך חזקה כמו פרויקט Q* נופלת לידיהם של בעלי כוונות מרושעות, היא מסתכנת בתוצאות קטסטרופליות על האנושות. גם ללא כוונת זדון, רמת קבלת ההחלטות של Project Q* יכולה להוביל לתוצאות מזיקות, מה שמדגיש את החשיבות הקריטית של הערכה זהירה של היישום שלו.

אם Project Q* מותאם בצורה גרועה לצרכים אנושיים, הוא עלול לגרום נזק עם היכולת שלו למקסם כמה מדדים שרירותיים. או שהוא עשוי להיות בעל ממד פוליטי, כמו שימוש לפיקוח או דיכוי של המדינה. דיון פתוח סביב ניתוח ההשפעה של פרויקט Q* יעזור להגדיר תרחישים אפשריים לפיתוח ה-ZHI.

האם אנחנו צפויים לעימות של "אדם נגד מכונה"?

הוליווד כבר יצרה תרחישים רבים של עימות כזה בסרטיה. כולנו זוכרים את SkyNet המפורסם ואת ההשלכות של גילוי כזה. אולי חוקרי OpenAI צריכים לצפות בסרט הזה שוב?

האנושות צריכה לקבל אותות ואתגרים ולהיות מוכנה למה שעלול לקרות. מודל של בינה מלאכותית המסוגל לחשוב כמו אדם עשוי להפוך יום אחד לאויב שלנו. רבים יטענו שבעתיד המדענים יידעו בדיוק כיצד לשמור על המצב בשליטה. אבל כשזה מגיע למכונות, אי אפשר לשלול לחלוטין את האפשרות שהן ינסו להשתלט על בני אדם.

מעניין גם: לא כל מה שאנו מכנים AI הוא למעשה בינה מלאכותית. הנה מה שאתה צריך לדעת

מדוע OpenAI שותקת?

למרות הטירוף של העניין הציבורי בפרויקט Q*, הנהלת OpenAI שומרת על שתיקה לגבי הפרטים הספציפיים של האלגוריתם. אבל הדליפה הפנימית מראה על מתחים גוברים במעבדה על רקע סדרי עדיפויות ופתיחות של פיתוחים. בעוד שמקורבים רבים ב-OpenAI תומכים ביצירת Project Q*, מבקרים טוענים שהשקיפות תפסה את המושב האחורי להאצת ההתקדמות המדעית בכל מחיר. וכמה חוקרים מודאגים מכך שכוח מדהים ניתן למערכות שמטרותיהן לא בהכרח עולות בקנה אחד עם ערכים ואתיקה אנושיים. חוקרים אלה מאמינים כי דיונים סביב פיקוח ואחריות הפכו מושתקים בצורה מסוכנת. הם דורשים יותר פרסום ופרטים.

כיוצרי Project Q*, על OpenAI להבין שיש להם טכנולוגיה שיכולה להרחיב מאוד את אפשרויות הפיתוח של החברה, או להרוס אותה ללא רחמים. חידושים משמעותיים כאלה ראויים לשקיפות הרבה יותר כדי לבנות אמון הציבור. כל מנבא של עידן המכונה חייב לשקול בזהירות את הסיכונים לצד היתרונות. והמפתחים של Project Q* צריכים להראות מספיק חוכמה ואכפתיות כדי להכניס בבטחה את החברה לעידן חדש של בינה מלאכותית כללית שעשוי להגיע מוקדם יותר ממה שאי פעם דמיינו.

כדי שהבינה המלאכותית הכללית תהיה שימושית ובטוחה עבור האנושות, יש לוודא שהיא פועלת בצורה בטוחה, אתית ובהתאם לערכים ולמטרות האנושות. הדבר מצריך פיתוח ויישום של פעולות רגולטוריות, תקנים, כללים ופרוטוקולים מתאימים אשר ישלטו וירסנו את הפעולות וההתנהגות של ה-CSI. בנוסף, יש לסלק את האיומים והסיכונים הפוטנציאליים הקשורים להתעללות, תאונות, אי התאמה, מניפולציות וסכסוכים שעלולים להוביל להשמדת האנושות. בינתיים, משקיעים ו Microsoft מחכה בקוצר רוח למוצר סחיר שיוכל לייצר רווח, שללא ספק מתנגש עם הצורך לפעול באחריות. נקווה שהשכל הישר ינצח.

קרא גם: