עיקרי חדשנות סטיבן הוקינג, אילון מאסק וביל גייטס מזהירים מפני בינה מלאכותית

סטיבן הוקינג, אילון מאסק וביל גייטס מזהירים מפני בינה מלאכותית

איזה סרט לראות?
 
סטיבן הוקינג, אילון מאסק וביל גייטס. (צילום: Getty Images)



כמה מסרטי המדע בדיוני הפופולריים ביותר- 2001: אודיסיאה בחלל, שליחות קטלנית, מטריקס, התעלות, אקס מכינה , ורבים אחרים - התבססו על התפיסה שהבינה המלאכותית תתפתח לנקודה בה האנושות לא תוכל לשלוט ביצירותיה שלה, ותוביל לפטירתה של כל הציוויליזציה שלנו. החשש הזה מפני צמיחה מהירה של הטכנולוגיה והתלות הגוברת שלנו בו בהחלט מוצדקים, לאור היכולות של מכונות קיימות שנבנו למטרות צבאיות.

כבר עתה, לטכנולוגיה הייתה השפעה משמעותית על הלחימה מאז החלה מלחמת עירק בשנת 2001. מזל'טים בלתי מאוישים מספקים מעקב מתמשך והתקפות מהירות על מטרות, ורובוטים קטנים משמשים לפירוק נשק מאולתר. הצבא נמצא כרגע מימון מחקר כדי לייצר יותר רובוטים אוטונומיים ומודעים לעצמם כדי להפחית את הצורך של חיילים אנושיים לסכן את חייהם. מייסד בוסטון דינמיקס, מארק רייבר, פרסם סרטון המציג גובה מטר מפחיד בגובה שישה מטרים, 320 קילו. רובוט אנושי בשם אטלס, רץ בחופשיות ביער. החברה, שהייתה נקנה על ידי גוגל בשנת 2013 ומקבל כספי מענקים ממשרד הביטחון, עובד על פיתוח גרסה זריזה עוד יותר.

[מוגן- iframe id = f3ad9cb5d88743d09a7e6c45b1a9b09b-35584880-78363900 ″ info = https: //www.youtube.com/embed/NwrjAa1SgjQ רוחב = 560 ″ גובה = 315 ″ frameborder = 0 screen מסך מותר =]

הסכנות הטמונות בטכנולוגיה כה עוצמתית עוררו השראה בכמה מנהיגים בקהילה המדעית להשמיע דאגות מבינה מלאכותית.

הצלחה ביצירת AI תהיה האירוע הגדול ביותר בהיסטוריה האנושית, כתב סטיבן הוקינג במאמר הופיע ב העצמאי בשנת 2014. למרבה הצער, זה יכול להיות גם האחרון, אלא אם כן נלמד כיצד להימנע מהסיכונים. בטווח הקרוב, צבאיות עולמיות שוקלות מערכות נשק אוטונומיות שיכולות לבחור ולמנוע מטרות. פרופסור הוקינג הוסיף בשנת 2014 ראיון עם BBC , בני אדם, מוגבלים על ידי אבולוציה ביולוגית איטית, לא יכלו להתחרות והיו מוחלפים על ידי A.I.

הטכנולוגיה שתיאר מר הוקינג כבר החלה בכמה צורות, החל מדענים אמריקאים באמצעות מחשבים להזנת אלגוריתמים לחזות את האסטרטגיות הצבאיות של קיצוניים אסלאמיים לחברות כמו בוסטון דינמיקה שבנו רובוטים ניידים בהצלחה , משתפר בהתמדה בכל אב-טיפוס שהם יוצרים.

מר הוקינג הצטרף לאחרונה לאילון מאסק, סטיב ווזניאק ומאות אחרים בהוצאת מכתב שנחשף בכנס הבינלאומי המשותף בחודש שעבר בבואנוס איירס, ארגנטינה. המכתב מזהיר כי בינה מלאכותית עלולה להיות מסוכנת יותר מנשק גרעיני.

הדילמה האתית של הקניית אחריות מוסרית לרובוטים דורשת בטיחות קפדנית ואמצעי מניעה שאינם בטיחותיים, או שהאיומים משמעותיים מכדי לסכן.

אילון מאסק כינה את הסיכוי לבינה מלאכותית האיום הקיומי הגדול ביותר שלנו בשנת 2014 ראיון עם תלמידי MIT בסימפוזיון המאה AeroAstro. אני נוטה יותר ויותר לחשוב שצריך להיות פיקוח רגולטורי כלשהו, ​​אולי ברמה הלאומית והבינלאומית, רק כדי לוודא שלא נעשה משהו טיפשי מאוד. מר מאסק מציין את החלטתו להשקיע בחברת הבינה המלאכותית, DeepMind, כ- אומר פשוט לפקוח עין על המתרחש בבינה מלאכותית. אני חושב שיש תוצאה מסוכנת שם.

מייסד מייקרוסופט ביל גייטס הביע גם חשש מבינה מלאכותית. במהלך מושב שאלות ותשובות בנושא Reddit בינואר 2015, אמר מר גייטס, אני במחנה שדואג למודיעין-על. ראשית המכונות יעשו עבורנו הרבה עבודות ולא יהיו סופר אינטליגנטיות. זה אמור להיות חיובי אם נצליח. כמה עשורים לאחר מכן אף שהמודיעין חזק דיו כדי להוות דאגה. אני מסכים עם אילון מאסק וכמה אחרים בעניין ולא מבין מדוע אנשים מסוימים אינם מודאגים.

האיומים שמנוסמים על ידי הוקינג, מאסק ושערים הם אמיתיים וראויים לתשומת ליבנו המיידית, למרות היתרונות העצומים שבינה מלאכותית עשויה להביא לאנושות. ככל שטכנולוגיית הרובוט עולה בהתמדה לעבר ההתקדמות הדרושה להקל על יישום נרחב, מתברר שרובוטים הולכים להיות במצבים שמציבים מספר דרכי פעולה. הדילמה האתית של הקניית אחריות מוסרית לרובוטים דורשת בטיחות קפדנית ואמצעי מניעה שאינם בטיחותיים, או שהאיומים משמעותיים מכדי לסכן.

מאמרים שאולי תאהבו :