תחומים:

בחר הכל

משפטים

כללי

הנדסה

חיי הקמפוס

ASV

מערכות קוונטיות

תחבורה חכמה

רכב אוטונומי

קול קורא

מכונת הנשמה

COVID-19

מטא-חומרים...

הנדסת חשמל

הנדסה מכנית

אולטרה-סגול

אולטרה-סגול

RoboBoat

MRI

קטגוריות:

בחר הכל

פרס

ברכות

כנס

מחקר

מחקר בפקולטה

פוקוס

חדשות

NEWS

מה מעניין אותך?

כל הנושאים
Remote sensing of waves
AI
Cyber Security
Geophysical and environmental fluid dynamics
exotic mechanics
Environmental implications
environment
drone
Deep learning
CO2 storage
Health
chemical oxidation
Biomimicry
Biomimetics
Biomedical
Bioelectronics
Beetles
groundwater
Hemodynamics and Biomechanics
Radio Physics and Engineering
nanotechnologies
Optics
optical nanosensors
oil and natural gas
nanomaterials
Numerical models
numerical modelling
Nanoelectronics
Nonlinear optics
Molecular Electronics
Nanophotonics
Metamaterials
Mechanical Engineering
Interfacial Phenomena
materials for water
איך ליירט ציוץ בזמן?

מחקר

13.02.2019
איך ליירט ציוץ בזמן?

ד״ר דן ימין מהפקולטה להנדסה באוניברסיטת תל אביב, מפתח מערכת שיודעת לזהות מראש את הפוטנציאל הויראלי של ציוץ בטוויטר, ולא פחות חשוב: לנטרל אותו.

  • מחקר
  • הנדסת תעשייה

במעבדה לחקר ויראליות בראשותו של ד"ר דן ימיןLEMA, עוסקים בעיקר באפליקציות רפואיות הנוגעות להתפשטות מחלות מידבקות.

 

ד"ר ימין מצא במחקריו כי לא רק מחלות יכולות להיות מידבקות, אלא גם התפשטות של תופעות עם פוטנציאל ויראלי לרבות שיווק ויראלי, וירוסי מחשב, ואפילו התנהגויות עם היבטים חברתיים מידבקים.

 

שנאה זה מידבק

"בזמן שהותי באוניברסיטת ייל במסגרת הפוסט דוקטוקט, נחרדתי לגלות שאנחנו מפסידים באופן ניכר במערך ההסברה בקמפוסים בארה"ב. נתקלתי לעיתים תכופות בדיונים לא מאוזנים בלשון המעטה, חד גוניים, שטופי שנאה אודות ישראל, אפילו בקרב גורמים בקהילה היהודית. באחד הימים רוסס גרפיטי של צלב קרס במרכז היהודי של האוניברסיטה. לצערי, לאיש לא היה אכפת. ניסיתי להבין כיצד יתכן שזה כל כך לא פופולרי לאהוד את ישראל. הבנתי, בדיעבד שהתעמולה המסיבית כנגד ישראל, ובפרט ברשתות החברתיות נותנת את אותותיה. הבנתי, ששנאה זה מידבק" מספר ד"ר ימין.

 

סיכול ציוצים ויראלים

בשנים האחרונות אנו עדים לעלייה ניכרת בציוצים אנטי ישראליים ע"י ארגונים כמו BDS ומשתמשים פרטיים. מטרת העל של המחקר הנה יצירת מערכת "כיפת ברזל של ציוצים". בדומה למערכת כיפת ברזל, ברור לכול כי לא ניתן ולא צריך לסכל כל ציוץ. מידי יום, מופצים עשרות אלפי ציוצים הקשורים לישראל. רק חלק קטן מהם יהיה ויראלי ויתפשט ברשת החברתית. 

 

במסגרת עבודת התיזה של יוגב מטלון ואופיר מגדסי ובשיתוף עם אדם אלמוזלינו מבוסטון, ארה"ב, פיתחו החוקרים סט של אלגוריתמים שבאמצעותם הצליחו לחזות איזה ציוץ פרו ישראלי או אנטי ישראלי יהיה ויראלי. בשלב השני של המחקר הם ירצו לנסות ולהציע מכניזם לציוץ תגובה אפקטיבית. מסביר דן "כלומר, נרצה להציע מכניזם לתגובה שתמזער את ההשפעה של ציוץ אנטי ישראלי ותגביר את ההשפעה של ציוץ פרו ישראלי. שאיפתנו היא לתרום מערכת כזו למרכז לעניינים אסטרטגים או לארגון פרו ישראל כדוגמת stand with us שאיתם יצרנו קשר לאחרונה. ברור שישנם לא מעט אתגרים בפרויקט שכזה". 

 

לזהות ציוץ רלוונטי

הרשת החברתית בנויה מקבוצות הומוגניות. כלומר, ברור שרוב חברי דומים לי, ולכן ציוץ פרו ישראלי שיופץ במהרה בין חברי יהיה בבחינת "שכנוע המשוכנעים" וככזה, לא נרצה להגדירו כויראלי. בנוסף, גם אם איתרנו ציוץ אנטי ישראלי עם פוטנציאל להיות ויראלי, ייתכן שהתגובה שלנו כנגדו עלולה לשמש כחרב פיפיות ודווקא להגביר את תפוצתו המזיקה ברשת. אתגר נוסף הוא זיהוי ציוצים רלוונטיים מבין מאות מיליוני ציוצים המופצים מידי יום. לדוגמה, ראשי התיבות SJP משמשים כקיצור של Students for Justice in Palestine, אבל גם של Sarah Jessica Parker.

 

עולם הרשתות החברתיות הוא חדש ומתחדש ורב בו הנסתר על הידוע. בכוחו של מחקר כזה לשפר את הבנתנו אודות המבנה וההתהוות של רשת חברתית, את גורמי ההשפעה ברשת, השפעה של התפשטות רגשות ברשת ועוד מגוון רחב של שאלות. 

 

אלה שמתאהבים בבעיה הם אלה שממציאים לה פתרון

מידת האחריות האנושית באינטראקציה עם מערכות אוטומטיות

מחקר

10.02.2019
מידת האחריות האנושית בהפעלת מערכות אוטומטיות

ניר דואר פיתח מודלים ומדדים שיאפשרו לכמת בצורה אובייקטיבית את "אחריות" האדם המפעיל או מפקח על מערכות אוטומטיות מתקדמות

  • מחקר
  • הנדסת תעשייה

קביעת מידת האחריות האנושית באינטראקציה אנושית עם מערכות אוטומטיות מהווה כיום נושא "חם" וחשוב ביותר. זאת לאור ההתפתחויות במכוניות אוטונומיות, מערכות מתקדמות ברפואה, כלי נשק צבאיים אוטונומיים, ויישומי AI באופן כללי.

 

מערכות אוטומציה מתקדמות

אוטומציה מתקדמת עוסקת באיסוף מידע והערכה, בקבלת החלטות ואף ביישום פעולות נבחרות. בעבר האוטומציה רק החליפה (באופן מלא או חלקי) פעולות אשר התבצעו על ידי האדם, אך כיום היא מאפשרת יכולות ניתוח ויישום פעולות החורגים מגבול היכולת האנושית. 

 

אולם, בעת אינטראקציה עם מערכות אוטומציה מתקדמות, הופכת מידת האחריות האנושית ללא ברורה ונוצר פער ביכולת להגדיר ולכמת מהי בעצם האחריות התורמת של האדם לתוצאות הנגרמות. הבנת מידת אחריות האנוש חשובה במיוחד כאשר פעולת המערכות יכולה להוביל לפגיעה פיזית באנשים, כמו בכלי רכב אוטונומיים, חדרי בקרה במפעלים המערבים חומרים מסוכנים, ובפרט במערכות נשק אוטונומיות שזהו ייעודן.

 

לכמת את האחריות

עד היום, תחום אחריות האנוש באינטראקציה עם אוטומציה נידון מהצדדים הפילוסופיים, האתיים והמשפטיים בלבד בזמן שניר דואר, דוקטורנט במחלקה להנדסת תעשייה, תחת הנחייתו של פרופ' יואכים מאייר, בוחן אותו לראשונה מתוך זווית ראייה של הנדסה קוגניטיבית. ניר ופרופ' מאייר מפתחים מודלים ומדדים מתמטיים-סטטיסטים המאפשרים לכמת בצורה אובייקטיבית את "אחריות" האדם המפעיל או מפקח על מערכות  אוטומטיות מתקדמות. בנוסף לפיתוח תאורטי, הם  מבצעים ניסויי מעבדה נרחבים, בהשתתפות עשרות סטודנטים מהמחלקה להנדסת תעשייה, בהם הם בוחנים עד כמה התאוריה שהם פיתחו יכולה לחזות  התנהגויות אנושיות בפועל.

 

המודל התיאורטי לכימות אחריות (ResQu) של אינטראקציה אנושית במערכות אוטומטיות שניר פיתח מתבסס על  תורת האינפורמציה. הניתוח מגלה שבפועל במקרים רבים האחריות התורמת של האדם הינה נמוכה, גם כאשר לכאורה מוקצים לאדם תפקידים מרכזיים. לפיכך, המדיניות המקובלת כיום של שמירה על "אדם בחוג", ושימוש בבקרה אנושית משמעותית, הינה מטעה ולמעשה לא יכולה להכווין את קביעת המדיניות על האופן בו נכון לערב בני אדם בתפעול ובקרה של אוטומציה מתקדמת.

 

"מודל האחריות שלנו יכול לשמש בעת קבלת החלטות לגבי עיצוב המערכת ולסייע לקביעת מדיניות ולהחלטות משפטיות בנוגע לאחריות אנושית באינטראקציה עם מערכות אוטומטיות מתקדמות" מסביר ניר. "הדרישה להשאיר לאדם תפקיד בתפעול או בקרה של מערכת אוטומטית לא מבטיחה שבפועל תהיה לו יכולת תרומה משמעותית. המחקר שלנו מראה שלאדם יש אחריות תורמת רק במקרה שיש לו יכולת מסוימת המשלימה או עולה על זו של המערכת האוטונומית, באמצעות איזשהו יתרון אנושי מובהק או מקור מידע ייחודי אחר שלמערכת הממוחשבת אין".

 

הניסויים שלנו הראו שכאשר אנשים  נעזרים באוטומציה מתקדמת שיש לה יכולת העולה בהרבה על  שלהם, הם נוטים להתערב יותר מהנדרש, מבצעים שגיאות, ולמעשה פוגעים ברמת הביצועים המיטבית שיכלה לספק המערכת האוטומטית לולא מעורבותם.

 

נשאיר אתכם עם שאלה למחשבה: מה תהיה אחריות האדם כשהיתרון האנושי יישחק. עם התפתחות טכנולוגיות AI, המעורבות האנושית המשמעותית במערכות אוטונומיות תלך ותפחת, כמו גם היכולת האנושית לפקח עליהן, ואז, מה יהיה הטעם להכניס לתמונה אדם אם תפקידו העיקרי יהיה רק לחטוף את האשמה במקרה של תקלה?

 

עוד על המחקר של ניר דואר

לכתבה בעיתון הארץ

אלה שמתאהבים בבעיה הם אלה שממציאים לה פתרון

אוניברסיטת תל אביב עושה כל מאמץ לכבד זכויות יוצרים. אם בבעלותך זכויות יוצרים בתכנים שנמצאים פה ו/או השימוש
שנעשה בתכנים אלה לדעתך מפר זכויות, נא לפנות בהקדם לכתובת שכאן >>