Attention (בינה מלאכותית)

מתוך testwiki
גרסה מ־00:21, 4 במרץ 2025 מאת imported>Shahf14 (הסרת קטגוריה למידת מכונה ישנה תת קטגוריה למידה עמוקה)
(הבדל) → הגרסה הקודמת | הגרסה האחרונה (הבדל) | הגרסה הבאה ← (הבדל)
קפיצה לניווט קפיצה לחיפוש

קובץ:Attention-animated.webmAttention (בעברית: קשב) היא טכניקה המשמשת לשיפור ביצועים באימון של רשתות נוירונים, שנועדה לחקות קשב קוגניטיבי באמצעות חיזוק המידע הרלוונטי ביותר מתוך כלל המידע, והחלשת המידע הפחות רלוונטי. המטרה היא לאפשר לרשת הנוירונים להתרכז במידע החשוב גם אם הוא מהווה רק חלק קטן מהמידע.

טכניקות דמויות attention הופיעו עוד בשנות התשעים בתור multiplicative modules אך הגרסה המודרנית הופיעה בשנת 2017 במאמר "Attention Is All You Need".[1] מאז פרסום המאמר, השימוש בטכניקה התפשט, והיום היא מהווה טכניקה מרכזית באימון של רשתות נוירונים.

אופן פעולה

השימוש ב-attention יכול לעזור ליצור הקשר, למשל במשפט "מיכאל הכי מהיר בגן, ראו כמה מהר הוא רץ" ה-attention יכול להבין שהמילה "הוא" היא מאזכר למיכאל שהוזכר בתחילת המשפט. Attention יכול גם לשמש לקישור של תמונות לטקסט, כמו במודלים גנרטיביים מסוג מודל דיפוזיה, כך שאפשר להגיד למודל לייצר תמונה של קוף בחליפת חלל לדוגמה.

Attention-qkv.png
Self-Attention (קשב עצמי) X- מטריצה בגודל 4x300 המייצגת קידוד של המשפט כולו QW - משקולות של הquery, KW- משקולות של הkey ,VW - משקולות של הvalue

השמות query, key ו - value נועדו לדמות את המונחים מ - sql. אפשר להאיץ את מהירות החישוב מאוד על ידי הרצת כמה ראשי attention במקביל.

קישורים חיצוניים

הערות שוליים

תבנית:הערות שוליים תבנית:בינה מלאכותית