AdaGrad

AdaGrad ชั้นเรียนสาธารณะ

เครื่องมือเพิ่มประสิทธิภาพที่ใช้อัลกอริทึม Adagrad

Adagrad เป็นเครื่องมือเพิ่มประสิทธิภาพที่มีอัตราการเรียนรู้เฉพาะพารามิเตอร์ ซึ่งได้รับการปรับให้สัมพันธ์กับความถี่ที่พารามิเตอร์ได้รับการอัปเดตระหว่างการฝึก ยิ่งได้รับพารามิเตอร์การอัพเดตมากเท่าใด การอัพเดตก็จะยิ่งน้อยลงเท่านั้น

ค่าคงที่

ค่าคงที่ที่สืบทอดมา

org.tensorflow.framework.optimizers.Optimizer
สตริง ตัวแปร_V2

คอนสตรัคชั่นสาธารณะ

AdaGrad ( กราฟ กราฟ)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad
AdaGrad ( กราฟกราฟ , อัตราการเรียนรู้แบบลอยตัว)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad
AdaGrad ( กราฟ กราฟ, อัตราการเรียนรู้แบบลอยตัว, ค่าตัวสะสมเริ่มต้นแบบลอยตัว)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad
AdaGrad ( กราฟ กราฟ ชื่อสตริง อัตราการเรียนรู้แบบลอยตัว)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad
AdaGrad ( กราฟ กราฟ ชื่อสตริง อัตราการเรียนรู้แบบลอยตัว ค่าตัวสะสมเริ่มต้นแบบลอยตัว)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad

วิธีการสาธารณะ

สตริง
getOptimizerName ()
รับชื่อของเครื่องมือเพิ่มประสิทธิภาพ
สตริง

วิธีการสืบทอด

org.tensorflow.framework.optimizers.Optimizer
ปฏิบัติการ
ApplyGradients (รายการ < GradAndVar <? ขยาย TType >> gradsAndVars ชื่อสตริง)
ใช้การไล่ระดับสีกับตัวแปร
<T ขยาย TType > รายการ < GradAndVar <?>>
computeGradients ( ตัวดำเนินการ <?> สูญเสีย)
คำนวณการไล่ระดับสีตามตัวถูกดำเนินการที่สูญเสีย
สตริงแบบคงที่
createName ( เอาต์พุต <? ขยาย TType > ตัวแปร, String slotName)
สร้างชื่อโดยรวมชื่อตัวแปรและชื่อสล็อต
สตริงที่เป็นนามธรรม
getOptimizerName ()
รับชื่อของเครื่องมือเพิ่มประสิทธิภาพ
<T ขยาย TType > ตัวเลือก < ตัวแปร <T>>
getSlot ( เอาต์พุต <T> var, String slotName)
รับช่องที่เกี่ยวข้องกับตัวแปรและชื่อช่องที่ระบุ
ปฏิบัติการสุดท้าย
getTF ()
รับอินสแตนซ์ Ops ของ Optimizer
ปฏิบัติการ
ย่อเล็กสุด ( ตัวดำเนินการ <?> การสูญเสีย)
ลดการสูญเสียให้เหลือน้อยที่สุดด้วยการอัพเดตตัวแปร
ปฏิบัติการ
ย่อเล็กสุด ( ตัวดำเนินการ <?> การสูญเสีย ชื่อสตริง)
ลดการสูญเสียให้เหลือน้อยที่สุดด้วยการอัพเดตตัวแปร
บูลีน
เท่ากับ (วัตถุ arg0)
คลาสสุดท้าย<?>
รับคลาส ()
ภายใน
แฮชโค้ด ()
โมฆะสุดท้าย
แจ้ง ()
โมฆะสุดท้าย
แจ้งทั้งหมด ()
สตริง
toString ()
โมฆะสุดท้าย
รอสักครู่ (ยาว arg0, int arg1)
โมฆะสุดท้าย
รอ (ยาว arg0)
โมฆะสุดท้าย
รอ ()

ค่าคงที่

ACCUMULATOR สตริงสุดท้ายแบบคงที่สาธารณะ

ค่าคงที่: "ตัวสะสม"

โฟลตสุดท้ายคงสาธารณะ INITIAL_ACCUMULATOR_DEFAULT

ค่าคงที่: 0.01

โฟลตสุดท้ายแบบคงที่สาธารณะ LEARNING_RATE_DEFAULT

ค่าคงที่: 0.001

คอนสตรัคชั่นสาธารณะ

AdaGrad สาธารณะ ( กราฟ กราฟ)

สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad

พารามิเตอร์
กราฟ กราฟ TensorFlow

AdaGrad สาธารณะ ( กราฟ กราฟ, อัตราการเรียนรู้แบบลอยตัว)

สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad

พารามิเตอร์
กราฟ กราฟ TensorFlow
อัตราการเรียนรู้ อัตราการเรียนรู้

AdaGrad สาธารณะ ( กราฟ กราฟ, อัตราการเรียนรู้แบบลอยตัว, ค่าเริ่มต้นตัวสะสมลอยตัว)

สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad

พารามิเตอร์
กราฟ กราฟ TensorFlow
อัตราการเรียนรู้ อัตราการเรียนรู้
ค่าตัวสะสมเริ่มต้น ค่าเริ่มต้นสำหรับตัวสะสมจะต้องไม่เป็นลบ
ขว้าง
ข้อยกเว้นอาร์กิวเมนต์ที่ผิดกฎหมาย ถ้า InitialAccumulatorValue เป็นลบ

AdaGrad สาธารณะ ( กราฟ กราฟ ชื่อสตริง อัตราการเรียนรู้แบบลอยตัว)

สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad

พารามิเตอร์
กราฟ กราฟ TensorFlow
ชื่อ ชื่อของเครื่องมือเพิ่มประสิทธิภาพนี้ (ค่าเริ่มต้นคือ 'Adagrad')
อัตราการเรียนรู้ อัตราการเรียนรู้

AdaGrad สาธารณะ ( กราฟ กราฟ, ชื่อสตริง, อัตราการเรียนรู้แบบลอยตัว, ค่าเริ่มต้นตัวสะสมลอยตัว)

สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad

พารามิเตอร์
กราฟ กราฟ TensorFlow
ชื่อ ชื่อของเครื่องมือเพิ่มประสิทธิภาพนี้ (ค่าเริ่มต้นคือ 'Adagrad')
อัตราการเรียนรู้ อัตราการเรียนรู้
ค่าตัวสะสมเริ่มต้น ค่าเริ่มต้นสำหรับตัวสะสมจะต้องไม่เป็นลบ
ขว้าง
ข้อยกเว้นอาร์กิวเมนต์ที่ผิดกฎหมาย ถ้า InitialAccumulatorValue เป็นลบ

วิธีการสาธารณะ

สตริงสาธารณะ getOptimizerName ()

รับชื่อของเครื่องมือเพิ่มประสิทธิภาพ

การส่งคืน
  • ชื่อเครื่องมือเพิ่มประสิทธิภาพ

สตริงสาธารณะ toString ()