SoftmaxCrossEntropyWithLogits

SoftmaxCrossEntropyWithLogits คลาสสาธารณะ

คอนสตรัคชั่นสาธารณะ

วิธีการสาธารณะ

คงที่ <T ขยาย TNumber , U ขยาย TNumber > ตัวถูกดำเนินการ <T>
softmaxCrossEntropyWithLogits (ขอบเขต ขอบเขต , ป้ายกำกับ Operand <U>, การบันทึก Operand <T>, แกน int)
คำนวณเอนโทรปีข้าม softmax ระหว่าง logits และ labels

วิธีการสืบทอด

บูลีน
เท่ากับ (วัตถุ arg0)
คลาสสุดท้าย<?>
รับคลาส ()
ภายใน
แฮชโค้ด ()
โมฆะสุดท้าย
แจ้ง ()
โมฆะสุดท้าย
แจ้งทั้งหมด ()
สตริง
toString ()
โมฆะสุดท้าย
รอสักครู่ (ยาว arg0, int arg1)
โมฆะสุดท้าย
รอ (ยาว arg0)
โมฆะสุดท้าย
รอ ()

คอนสตรัคชั่นสาธารณะ

SoftmaxCrossEntropyWithLogits สาธารณะ ()

วิธีการสาธารณะ

ตัวดำเนิน การคงที่สาธารณะ <T> softmaxCrossEntropyWithLogits (ขอบเขต ขอบเขต , ป้ายกำกับตัวดำเนิน การ <U>, ตัว ดำเนิน การ <T> บันทึก, แกน int)

คำนวณเอนโทรปีข้าม softmax ระหว่าง logits และ labels

วัดข้อผิดพลาดของความน่าจะเป็นในงานการจำแนกประเภทแบบแยกซึ่งคลาสไม่เกิดร่วมกัน (แต่ละรายการอยู่ในคลาสเดียวเท่านั้น) ตัวอย่างเช่น รูปภาพ CIFAR-10 แต่ละรูปจะมีป้ายกำกับเพียงป้ายกำกับเดียวเท่านั้น รูปภาพอาจเป็นสุนัขหรือรถบรรทุกก็ได้ แต่ไม่ใช่ทั้งสองอย่าง

บันทึก:

แม้ว่าคลาสจะแยกจากกัน แต่ก็ไม่จำเป็นต้องมีความน่าจะเป็น สิ่งที่ต้องทำก็แค่แต่ละแถวของ labels เป็นการแจกแจงความน่าจะเป็นที่ถูกต้อง หากไม่เป็นเช่นนั้น การคำนวณการไล่ระดับสีจะไม่ถูกต้อง

หากใช้ labels พิเศษ (โดยที่คลาสเดียวเท่านั้นเป็นจริงในแต่ละครั้ง) โปรดดู ERROR(/org.tensorflow.op.NnOps#sparseSoftmaxCrossEntropyWithLogits)

การใช้งาน:

   Operand<TFloat32> logits =
       tf.constant(new float[][] { {4.0F, 2.0F, 1.0F}, {0.0F, 5.0F, 1.0F} } );
   Operand<TFloat32> labels =
       tf.constant(new float[][] { {1.0F, 0.0F, 0.0F}, {0.0F, 0.8F, 0.2F} } );
   Operand<TFloat32> output =
       tf.nn.softmaxCrossEntropyWithLogits(labels, logits, -1);
   // output Shape = [2]
   // dataType = FLOAT (1)
   // values { 0.169846, 0.824745 }
 

การเผยแพร่ย้อนกลับจะเกิดขึ้นทั้งใน logits และ labels หากต้องการไม่อนุญาตให้มีการแพร่กระจายกลับเข้าไปใน labels ให้ส่งผ่าน label tensor ผ่าน tf.stopGradient ก่อนที่จะป้อนให้กับฟังก์ชันนี้

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
ฉลาก เวกเตอร์แต่ละตัวตามมิติของคลาสควรมีการแจกแจงความน่าจะเป็นที่ถูกต้อง เช่น ในกรณีที่ป้ายกำกับมีรูปร่าง [batch_size, num_classes] แต่ละแถวของ labels[i] จะต้องเป็นการแจกแจงความน่าจะเป็นที่ถูกต้อง
บันทึก การเปิดใช้งานตามฉลาก โดยทั่วไปจะเป็นเอาต์พุตเชิงเส้น พลังงานกระตุ้นเหล่านี้ถูกตีความว่าเป็นความน่าจะเป็นของบันทึกที่ไม่ปกติ
แกน มิติของชั้นเรียน -1 คือมิติสุดท้าย
การส่งคืน
  • การสูญเสียเอนโทรปีข้ามซอฟต์แม็กซ์ ประเภทจะเหมือนกับ logits และรูปร่างจะเหมือนกับ labels ยกเว้นว่าไม่มีมิติสุดท้ายของ labels