เครื่องมือเพิ่มประสิทธิภาพที่ใช้อัลกอริทึม Adagrad
Adagrad เป็นเครื่องมือเพิ่มประสิทธิภาพที่มีอัตราการเรียนรู้เฉพาะพารามิเตอร์ ซึ่งได้รับการปรับให้สัมพันธ์กับความถี่ที่พารามิเตอร์ได้รับการอัปเดตระหว่างการฝึก ยิ่งได้รับพารามิเตอร์การอัพเดตมากเท่าใด การอัพเดตก็จะยิ่งน้อยลงเท่านั้น
ค่าคงที่
สตริง | ตัวสะสม | |
ลอย | INITIAL_ACCUMULATOR_DEFAULT | |
ลอย | LEARNING_RATE_DEFAULT |
ค่าคงที่ที่สืบทอดมา
สตริง | ตัวแปร_V2 |
คอนสตรัคชั่นสาธารณะ
วิธีการสาธารณะ
สตริง | getOptimizerName () รับชื่อของเครื่องมือเพิ่มประสิทธิภาพ |
สตริง | toString () |
วิธีการสืบทอด
ปฏิบัติการ | ApplyGradients (รายการ < GradAndVar <? ขยาย TType >> gradsAndVars ชื่อสตริง) ใช้การไล่ระดับสีกับตัวแปร |
<T ขยาย TType > รายการ < GradAndVar <?>> | |
สตริงแบบคงที่ | createName ( เอาต์พุต <? ขยาย TType > ตัวแปร, String slotName) สร้างชื่อโดยรวมชื่อตัวแปรและชื่อสล็อต |
สตริงที่เป็นนามธรรม | getOptimizerName () รับชื่อของเครื่องมือเพิ่มประสิทธิภาพ |
<T ขยาย TType > ตัวเลือก < ตัวแปร <T>> | |
ปฏิบัติการสุดท้าย | getTF () รับอินสแตนซ์ Ops ของ Optimizer |
ปฏิบัติการ | |
ปฏิบัติการ | ย่อเล็กสุด ( ตัวดำเนินการ <?> การสูญเสีย ชื่อสตริง) ลดการสูญเสียให้เหลือน้อยที่สุดด้วยการอัพเดตตัวแปร |
บูลีน | เท่ากับ (วัตถุ arg0) |
คลาสสุดท้าย<?> | รับคลาส () |
ภายใน | แฮชโค้ด () |
โมฆะสุดท้าย | แจ้ง () |
โมฆะสุดท้าย | แจ้งทั้งหมด () |
สตริง | toString () |
โมฆะสุดท้าย | รอสักครู่ (ยาว arg0, int arg1) |
โมฆะสุดท้าย | รอ (ยาว arg0) |
โมฆะสุดท้าย | รอ () |
ค่าคงที่
ACCUMULATOR สตริงสุดท้ายแบบคงที่สาธารณะ
โฟลตสุดท้ายคงสาธารณะ INITIAL_ACCUMULATOR_DEFAULT
โฟลตสุดท้ายแบบคงที่สาธารณะ LEARNING_RATE_DEFAULT
คอนสตรัคชั่นสาธารณะ
AdaGrad สาธารณะ ( กราฟ กราฟ)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad
พารามิเตอร์
กราฟ | กราฟ TensorFlow |
---|
AdaGrad สาธารณะ ( กราฟ กราฟ, อัตราการเรียนรู้แบบลอยตัว)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad
พารามิเตอร์
กราฟ | กราฟ TensorFlow |
---|---|
อัตราการเรียนรู้ | อัตราการเรียนรู้ |
AdaGrad สาธารณะ ( กราฟ กราฟ, อัตราการเรียนรู้แบบลอยตัว, ค่าเริ่มต้นตัวสะสมลอยตัว)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad
พารามิเตอร์
กราฟ | กราฟ TensorFlow |
---|---|
อัตราการเรียนรู้ | อัตราการเรียนรู้ |
ค่าตัวสะสมเริ่มต้น | ค่าเริ่มต้นสำหรับตัวสะสมจะต้องไม่เป็นลบ |
ขว้าง
ข้อยกเว้นอาร์กิวเมนต์ที่ผิดกฎหมาย | ถ้า InitialAccumulatorValue เป็นลบ |
---|
AdaGrad สาธารณะ ( กราฟ กราฟ ชื่อสตริง อัตราการเรียนรู้แบบลอยตัว)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad
พารามิเตอร์
กราฟ | กราฟ TensorFlow |
---|---|
ชื่อ | ชื่อของเครื่องมือเพิ่มประสิทธิภาพนี้ (ค่าเริ่มต้นคือ 'Adagrad') |
อัตราการเรียนรู้ | อัตราการเรียนรู้ |
AdaGrad สาธารณะ ( กราฟ กราฟ, ชื่อสตริง, อัตราการเรียนรู้แบบลอยตัว, ค่าเริ่มต้นตัวสะสมลอยตัว)
สร้างเครื่องมือเพิ่มประสิทธิภาพ AdaGrad
พารามิเตอร์
กราฟ | กราฟ TensorFlow |
---|---|
ชื่อ | ชื่อของเครื่องมือเพิ่มประสิทธิภาพนี้ (ค่าเริ่มต้นคือ 'Adagrad') |
อัตราการเรียนรู้ | อัตราการเรียนรู้ |
ค่าตัวสะสมเริ่มต้น | ค่าเริ่มต้นสำหรับตัวสะสมจะต้องไม่เป็นลบ |
ขว้าง
ข้อยกเว้นอาร์กิวเมนต์ที่ผิดกฎหมาย | ถ้า InitialAccumulatorValue เป็นลบ |
---|
วิธีการสาธารณะ
สตริงสาธารณะ getOptimizerName ()
รับชื่อของเครื่องมือเพิ่มประสิทธิภาพ
การส่งคืน
- ชื่อเครื่องมือเพิ่มประสิทธิภาพ