טקס הענקת תארים מרגש ומרשים!

אחד הארועים המרגשים והטובים שקרו בשנה קשה זו

אירועי הענקת התארים שנערכו ב 24 לספטמבר, והתקיימו באולם סמולש ואודיטוריום ובכיכר המרכזית של הקמפוס.

בוגרי ובוגרות הפקולטה להנדסה, חגגו עם קהל רב. שכלל בני משפחה, חברים, חברי סגל אקדמי ומנהלי של הפקולטה ואורחים.

בהשתתפות הדקאן, ראשי היחידות, מרצים ואנשי מנהל, עלו הבוגרים לקבל את התעודות.

המפגשים היו מרגשים ממש כמו המעמד עצמו.

 

מצורפים קישורים לצפיה והורדה של תמונות מהטקס עבור הבוגרים ומתענינים:

תמונות מהטקס המרכזי

הנדסת חשמל

הנדסה מכנית

הנדסה ביו רפואית

הנדסת תעשיה וניהול

הנדסת חומרים

מדעים דיגיטליים להייטק

 

הפקולטה להנדסה מברכת את כל הבוגרים והבוגרות בהצלחה רבה בבנית הקריירה, ובחיים.

מחבקת את תושבי הצפון והדרום ומחזקת את כוחות הביטחון ששומרים על ביטחון המדינה בימים קשים אלו ומתפללת ומייחלת להשבת כל החטופים.

 

Physical Electronics Seminar -Passive value estimation using eye-tracking

סמינר שמיעה לתלמידי תואר שני ושלישי

15 באוקטובר 2024, 15:00 
zoom  
   Physical Electronics Seminar  -Passive value estimation using eye-tracking

 

  -סמינר זה יחשב כסמינר שמיעה לתלמידי תואר שני ושלישי-  This Seminar Is Considered A Hearing Seminar For Msc/Phd Students-

 

 

EE Seminar: Is BERT Blind? Exploring the Effect of Vision-and-Language Pretraining on Visual Language Understanding

13 באוקטובר 2024, 15:00 
אולם 011, בניין כיתות-חשמל  

Electrical Engineering Systems Seminar

 

Speaker: Michael Fiman

M.Sc. student under the supervision of Prof. Hadar Averbuch-Elor

 

Sunday, 13th October 2024, at 15:00

Room 011, Kitot Building, Faculty of Engineering

 

Is BERT Blind? Exploring the Effect of Vision-and-Language Pretraining on Visual Language Understanding

Abstract

Most humans use visual imagination to understand and reason about language, but models such as BERT reason about language using knowledge acquired during text-only pretraining. In this work, we investigate whether vision-and-language pretraining can improve performance on text-only tasks that involve implicit visual reasoning, focusing primarily on zero-shot probing methods. We propose a suite of visual language understanding (VLU) tasks for probing the visual reasoning abilities of text encoder models, as well as various non-visual natural language understanding (NLU) tasks for comparison. We also contribute a novel zero-shot knowledge probing method, Stroop probing, for applying models such as CLIP to text-only tasks without needing a prediction head such as the masked language modeling head of models like BERT. We show that SOTA multimodally trained text encoders outperform unimodally trained text encoders on the VLU tasks while being underperformed by them on the NLU tasks, lending new context to previously mixed results regarding the NLU capabilities of multimodal models. We conclude that exposure to images during pretraining affords inherent visual reasoning knowledge that is reflected in language-only tasks that require implicit visual reasoning. Our findings bear importance in the broader context of multimodal learning, providing principled guidelines for the choice of text encoders used in such contexts.

השתתפות בסמינר תיתן קרדיט שמיעה = עפ"י רישום שם מלא + מספר ת.ז. בדף הנוכחות שיועבר באולם במהלך הסמינר

EE Seminar: Extreme Rotation In The Wild

09 באוקטובר 2024, 15:00 
אולם 011, בניין כיתות-חשמל  

Electrical Engineering Systems Seminar

 

Speaker: Hana Bezalel

M.Sc. student under the supervision of Prof. Hadar Averbuch-Elor

 

Wednesday, 9th October 2024, at 15:00

Room 011, Kitot Building, Faculty of Engineering

Extreme Rotation In The Wild

 

Abstract

We present a technique and benchmark dataset for estimating the relative 3D rotation between a pair of Internet images captured in an extreme setting, where the images have limited or non-overlapping field of views. 

Prior work targeting extreme rotation estimation assume constrained 3D environments and emulate perspective images by cropping regions from panoramic views. However, real images captured in the wild are highly diverse, exhibiting variation in both appearance and camera intrinsics.

In this work, we propose a Transformer-based method for estimating relative rotations in extreme real-world settings, and contribute the ExtremeLandmarkPairs dataset, assembled from scene-level Internet photo collections.

Our evaluation demonstrates that our approach succeeds in estimating the relative rotations in a wide variety of extreme-view Internet image pairs, outperforming various baselines, including dedicated rotation estimation techniques and contemporary 3D reconstruction methods.

 

השתתפות בסמינר תיתן קרדיט שמיעה = עפ"י רישום שם מלא + מספר ת.ז. בדף הנוכחות שיועבר באולם במהלך הסמינר

 

EE Zoom seminar: FlowPicClip: Language Supervision Improves Network Traffic Classification

25 בספטמבר 2024, 15:00 
סמינר זום  

Electrical Engineering Systems ZOOM Seminar

 

Speaker: Daniel Shalev

M.Sc. student under the supervision of Prof. Yuval Shavitt

 

Wednesday, 25th September 2024, at 15:00

 

Join Zoom Meeting
Meeting ID: 838 1626 9262
Passcode: 026367

FlowPicClip: Language Supervision Improves Network Traffic Classification

Abstract

Traffic classification has gained much attention in the past decade, and using deep learning proved to exhibit good performance.  However, the lack of large labeled datasets pushed research to explore few-shots learning approaches where only a few labeled samples per class are available, and usage of augmentation techniques tailored to the domain of network traffic was proved as a viable solution.

In this paper, we demonstrate that it is possible to improve the performance of augmentations using a different approach. Our solution simplifies preprocessing and reduces training time, while effectively utilizing small amounts of training data. Furthermore, it proves to be highly effective in few-shot scenarios, demonstrating robust results when tested on disjoint datasets, specifically the UCDAVIS19 and ISCX datasets. Inspired by the recent breakthroughs in integrating image and text data, particularly the CLIP model by OpenAI, we introduce FlowPicClip. This model harnesses the power of contrastive learning with FlowPics and their labels as text sentences. By leveraging Large Language Model (LLM) encoders FlowPicClip aligns network traffic representations with their textual descriptions.  We demonstrate 2.75% and 1.4% improvements over the best published results on the UCDavis19-Human and ISCX datasets for classification tasks, along with 7.7% and 6.2% improvements in few-shot classification on these datasets.

השתתפות בסמינר תיתן קרדיט שמיעה = עפ"י רישום בצ'ט של שם מלא + מספר ת.ז.

 

 

 

 

 

 

 

 

 

 

 

 

EE Zoom Seminar: Score-based diffusion priors for multi-target detection

29 בספטמבר 2024, 14:00 
סמינר זום  

Electrical Engineering Systems ZOOM Seminar

 

Speaker: Alon Zabatani

M.Sc. student under the supervision of Dr. Tamir Bendory

 

Sunday, 29th September 2024, at 14:00

Join Zoom Meeting

 

Meeting ID: 499 580 0099
Passcode: fRRt8A

 

Score-based diffusion priors for multi-target detection

Abstract

Multi-target detection (MTD) is the problem of estimating an image from a large, noisy measurement that contains randomly translated and rotated copies of the image. Motivated by the single-particle cryo-electron microscopy technology, we design data-driven diffusion priors for the MTD problem, derived from score-based stochastic differential equations models. We then integrate the prior into the approximate expectation-maximization algorithm. In particular, our method alternates between an expectation step that approximates the expected log-likelihood and a maximization step that balances the approximated log-likelihood with the learned log-prior. We show on two datasets that adding the data-driven prior substantially reduces the estimation error, in particular in high noise regimes.

 

השתתפות בסמינר תיתן קרדיט שמיעה = עפ"י רישום בצ'ט של שם מלא + מספר ת.ז.

 

פאנל עם בעלי מקצוע בתחומי ה-AI

26 בספטמבר 2024, 17:00 - 18:00 
 
פאנל עם בעלי מקצוע בתחומי ה-AI

חברת NVIDIA מזמינה אתכן ואתכם לצפות בפאנל מיוחד של בעלי מקצוע שונים בתחומי AI בו יספרו על מסלול הקריירה שלהם, הלימודים וההסמכות שעשו בדרך.

בין הפאנליסטים - יזם סטארטאפ, פרופסור באקדמיה (וגם יזם סטארטאפ), מגייסת באנבידיה, ראש מחלקת למידת מכונה ומדעי נתונים. 
בואו לשמוע את סיפורי הקריירה הייחודיים של הפאנליסטים שלנו, וקבלו תובנות יקרות ערך, טיפים וטריקים להצלחה בתחום.

גלו אלו קורסים והסמכות  AI של NVIDIA  חשובים בעיצוב הקריירה וההשתלבות שלכם בתעשייה.
ההשתתפות פתוחה לכולם: סטודנטים, בוגרים טריים ובעלי ניסיון כאחד.

הוובינר יתקיים אונליין בשפה האנגלית ביום חמישי, 26 לספטמבר, בשעה 17:00 זמן ישראל.

 

להרשמה

 

על זכייתה בפרס אינטל העולמית לשנת 2024

17 ספטמבר 2024
מור

ד״ר מור גבע, מרצה בכירה בבית הספר למדעי המחשב, בפקולטה למדעים מדויקים, נבחרה לאחת מהזוכות במסגרת התוכנית היוקרתית "כוכבים עולים" של אינטל העולמית לשנת 2024.

הפרס מוענק לחוקרים וחוקרות בתחילת דרכם האקדמית, המובילים מחקרים פורצי דרך בתחומי הטכנולוגיה, אשר צפויים לחולל מהפכה בתעשיית ההייטק.

גבע מובילה קבוצת מחקר חדשה בתחום הבינה המלאכותית, שעוסקת בפתרון אתגרים בסיסיים של פרשנות, ידע והסקה של מודלי שפה גדולים.

מחקרה מתמקד בפיתוח שיטות חדשות לניתוח החישוב של מודלים מתקדמים וחקירת מבני הידע ואופן ההסקה שלהם.

אחד מההישגים הבולטים של גבע הוא פיתוח מערכת ה- Patchscopes בשיתוף פעולה עם Google Research, המאפשרת תרגום של ייצוגים פנימיים של מודלים לשפה טבעית.

לדבריה של גבע, "המחקר שלנו מצביע על כך שמודלי שפה גדולים לא תמיד מצליחים לקודד קשרים בין פרטי מידע שונים, מה שמשפיע על יכולות ההסקה שלהם ועל יכולתנו לעדכן את הידע של המודלים."

הפרס מהווה הוכרה למאמציה של גבע בקידום תחום הבינה המלאכותית ומסמן את פועלה המתמשך להעלאת הייצוג של נשים ומיעוטים בתחומי המדע וההנדסה.

<< למידע נוסף אודות הפרס הנחשק >>

 

מתוך העיתונות על זכייתה של ד"ר מור גבע בפרס אינטל העולמית:

https://tech.walla.co.il/item/3693072

https://www.ice.co.il/career/news/article/1031097

https://www.geektime.co.il/flash/mor-geva-intel-prize/...

פרופ' פבל גינזבורג מביה"ס להנדסת חשמל הוא בין הזוכים בפרס שר העלייה והקליטה לעולים הפרס עבור תרומה יוצאת דופן לחברה ולמדינה בתקופת מלחמת "חרבות ברזל".  יוענק לפרופ' פבל גינזבורג  ע"י נשיא המדינה.

 

עמודים

אוניברסיטת תל אביב עושה כל מאמץ לכבד זכויות יוצרים. אם בבעלותך זכויות יוצרים בתכנים שנמצאים פה ו/או השימוש שנעשה בתכנים אלה לדעתך מפר זכויות
שנעשה בתכנים אלה לדעתך מפר זכויות נא לפנות בהקדם לכתובת שכאן >>