שיעור הגמר הציבורי Relu
מחשב ליניארי מתוקשר: 'max(features, 0)'.
ראה: https://en.wikipedia.org/wiki/Rectifier_(neural_networks) שימוש לדוגמה: >>> tf.nn.relu([-2., 0., -0., 3.]).numpy() array([ 0., 0., -0., 3.], dtype=float32)
קבועים
חוּט | OP_NAME | השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow |
שיטות ציבוריות
פלט <T> | הפעלות () |
פלט <T> | asOutput () מחזירה את הידית הסמלית של הטנזור. |
סטטי <T מרחיב את TType > Relu <T> |
שיטות בירושה
קבועים
מחרוזת סופית סטטית ציבורית OP_NAME
השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow
ערך קבוע: "Relu"
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של הטנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.