الطبقة العامة AdaGrad
محسن يقوم بتنفيذ خوارزمية Adagrad.
Adagrad هو مُحسِّن بمعدلات تعلم خاصة بالمعلمات، والتي يتم تكييفها وفقًا لعدد مرات تحديث المعلمة أثناء التدريب. كلما زاد عدد التحديثات التي تتلقاها المعلمة، كانت التحديثات أصغر.
الثوابت
خيط | المجمع | |
يطفو | INITIAL_ACCUMULATOR_DEFAULT | |
يطفو | LEARNING_RATE_DEFAULT |
الثوابت الموروثة
خيط | VARIABLE_V2 |
المقاولون العامون
الأساليب العامة
خيط | getOptimizerName () احصل على اسم المحسن. |
خيط | إلى سلسلة () |
الطرق الموروثة
مرجع سابق | ApplyGradients (القائمة< GradAndVar <؟ تمتد TType >> gradsAndVars، اسم السلسلة) يطبق التدرجات على المتغيرات |
<T يمتد TType > القائمة< GradAndVar <?>> | |
سلسلة ثابتة | createName ( الإخراج <؟ يمتد TType > متغير، String SlotName) ينشئ اسمًا من خلال الجمع بين اسم المتغير واسم الفتحة |
سلسلة مجردة | getOptimizerName () احصل على اسم المحسن. |
<T يمتد TType > اختياري< متغير <T>> | |
العمليات النهائية | جيتف () الحصول على مثيل Ops الخاص بـ Optimizer |
مرجع سابق | |
مرجع سابق |
منطقية | يساوي (كائن arg0) |
الدرجة النهائية<?> | الحصول على كلاس () |
كثافة العمليات | رمز التجزئة () |
الفراغ النهائي | إعلام () |
الفراغ النهائي | إعلام الكل () |
خيط | إلى سلسلة () |
الفراغ النهائي | انتظر (طويل arg0، int arg1) |
الفراغ النهائي | انتظر (طويل arg0) |
الفراغ النهائي | انتظر () |
الثوابت
تراكم السلسلة النهائية الثابتة العامة
القيمة الثابتة: "المراكم"
التعويم النهائي الثابت العام INITIAL_ACCUMULATOR_DEFAULT
القيمة الثابتة: 0.01
التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT
القيمة الثابتة: 0.001
المقاولون العامون
AdaGrad العام (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGrad
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
AdaGrad العام (الرسم البياني ، معدل التعلم العائم، قيمة التراكم الأولية العائمة)
يقوم بإنشاء محسن AdaGrad
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
معدل التعليم | معدل التعلم |
initialAccumulatorValue | يجب أن تكون القيمة المبدئية للمراكم غير سالبة. |
رميات
غير الشرعيين استثناء حجة | إذا كانت القيمة الأولية للتراكم سلبية |
---|
AdaGrad العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGrad
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم المُحسِّن هذا (الافتراضي هو "Adagrad") |
معدل التعليم | معدل التعلم |
AdaGrad العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية العائمة)
يقوم بإنشاء محسن AdaGrad
حدود
رسم بياني | الرسم البياني TensorFlow |
---|---|
اسم | اسم المُحسِّن هذا (الافتراضي هو "Adagrad") |
معدل التعليم | معدل التعلم |
initialAccumulatorValue | يجب أن تكون القيمة المبدئية للمراكم غير سالبة. |
رميات
غير الشرعيين استثناء حجة | إذا كانت القيمة الأولية للتراكم سلبية |
---|
الأساليب العامة
سلسلة getOptimizerName () العامة
احصل على اسم المحسن.
عائدات
- اسم المحسن.