AdaGrad

الطبقة العامة AdaGrad

محسن يقوم بتنفيذ خوارزمية Adagrad.

Adagrad هو مُحسِّن بمعدلات تعلم خاصة بالمعلمات، والتي يتم تكييفها وفقًا لعدد مرات تحديث المعلمة أثناء التدريب. كلما زاد عدد التحديثات التي تتلقاها المعلمة، كانت التحديثات أصغر.

الثوابت

الثوابت الموروثة

org.tensorflow.framework.optimizers.Optimizer
خيط VARIABLE_V2

المقاولون العامون

AdaGrad (الرسم البياني )
يقوم بإنشاء محسن AdaGrad
AdaGrad (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGrad
AdaGrad (الرسم البياني ، معدل التعلم العائم، قيمة التراكم الأولية العائمة)
يقوم بإنشاء محسن AdaGrad
AdaGrad (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGrad
AdaGrad (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية العائمة)
يقوم بإنشاء محسن AdaGrad

الأساليب العامة

خيط
getOptimizerName ()
احصل على اسم المحسن.
خيط

الطرق الموروثة

org.tensorflow.framework.optimizers.Optimizer
مرجع سابق
ApplyGradients (القائمة< GradAndVar <؟ تمتد TType >> gradsAndVars، اسم السلسلة)
يطبق التدرجات على المتغيرات
<T يمتد TType > القائمة< GradAndVar <?>>
حساب التدرجات (خسارة المعامل <?>)
يحسب التدرجات على أساس معامل الخسارة.
سلسلة ثابتة
createName ( الإخراج <؟ يمتد TType > متغير، String SlotName)
ينشئ اسمًا من خلال الجمع بين اسم المتغير واسم الفتحة
سلسلة مجردة
getOptimizerName ()
احصل على اسم المحسن.
<T يمتد TType > اختياري< متغير <T>>
getSlot ( الإخراج <T> فار، اسم فتحة السلسلة)
يحصل على الفتحة المرتبطة بالمتغير المحدد واسم الفتحة.
العمليات النهائية
جيتف ()
الحصول على مثيل Ops الخاص بـ Optimizer
مرجع سابق
تقليل (خسارة المعامل <?>)
تقليل الخسارة عن طريق تحديث المتغيرات
مرجع سابق
تقليل (خسارة المعامل <?>، اسم السلسلة)
تقليل الخسارة عن طريق تحديث المتغيرات
منطقية
يساوي (كائن arg0)
الدرجة النهائية<?>
الحصول على كلاس ()
كثافة العمليات
رمز التجزئة ()
الفراغ النهائي
إعلام ()
الفراغ النهائي
إعلام الكل ()
خيط
إلى سلسلة ()
الفراغ النهائي
انتظر (طويل arg0، int arg1)
الفراغ النهائي
انتظر (طويل arg0)
الفراغ النهائي
انتظر ()

الثوابت

تراكم السلسلة النهائية الثابتة العامة

القيمة الثابتة: "المراكم"

التعويم النهائي الثابت العام INITIAL_ACCUMULATOR_DEFAULT

القيمة الثابتة: 0.01

التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT

القيمة الثابتة: 0.001

المقاولون العامون

AdaGrad العام (الرسم البياني )

يقوم بإنشاء محسن AdaGrad

حدود
رسم بياني الرسم البياني TensorFlow

AdaGrad العام (الرسم البياني ، معدل التعلم العائم)

يقوم بإنشاء محسن AdaGrad

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم

AdaGrad العام (الرسم البياني ، معدل التعلم العائم، قيمة التراكم الأولية العائمة)

يقوم بإنشاء محسن AdaGrad

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم
initialAccumulatorValue يجب أن تكون القيمة المبدئية للمراكم غير سالبة.
رميات
غير الشرعيين استثناء حجة إذا كانت القيمة الأولية للتراكم سلبية

AdaGrad العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)

يقوم بإنشاء محسن AdaGrad

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم المُحسِّن هذا (الافتراضي هو "Adagrad")
معدل التعليم معدل التعلم

AdaGrad العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية العائمة)

يقوم بإنشاء محسن AdaGrad

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم المُحسِّن هذا (الافتراضي هو "Adagrad")
معدل التعليم معدل التعلم
initialAccumulatorValue يجب أن تكون القيمة المبدئية للمراكم غير سالبة.
رميات
غير الشرعيين استثناء حجة إذا كانت القيمة الأولية للتراكم سلبية

الأساليب العامة

سلسلة getOptimizerName () العامة

احصل على اسم المحسن.

عائدات
  • اسم المحسن.

سلسلة عامة إلى سلسلة ()