AdaGrad

공개 수업 AdaGrad

Adagrad 알고리즘을 구현하는 최적화 프로그램입니다.

Adagrad는 훈련 중에 매개변수가 업데이트되는 빈도에 따라 조정되는 매개변수별 학습률을 갖춘 최적화 도구입니다. 매개변수가 더 많은 업데이트를 받을수록 업데이트 크기는 작아집니다.

상수

상속된 상수

org.tensorflow.framework.optimizers.Optimizer 클래스에서

공공 생성자

AdaGrad ( 그래프 그래프)
AdaGrad 옵티마이저 생성
AdaGrad ( 그래프 그래프, float learningRate)
AdaGrad 옵티마이저 생성
AdaGrad ( 그래프 그래프, 부동 학습률, 부동 초기 AccumulatorValue)
AdaGrad 옵티마이저 생성
AdaGrad ( 그래프 그래프, 문자열 이름, float learningRate)
AdaGrad 옵티마이저 생성
AdaGrad ( 그래프 그래프, 문자열 이름, 부동 학습률, 부동 초기 AccumulatorValue)
AdaGrad 옵티마이저 생성

공개 방법

getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.

상속된 메서드

org.tensorflow.framework.optimizers.Optimizer 클래스에서
작전
applyGradients (List< GradAndVar <? 확장 TType >> gradsAndVars, 문자열 이름)
변수에 그라데이션을 적용합니다.
<T는 TType을 확장합니다. > List< GradAndVar <?>>
ComputeGradients ( 피연산자 <?> 손실)
손실 피연산자를 기반으로 기울기를 계산합니다.
정적 문자열
createName ( 출력 <? 확장 TType > 변수, 문자열 슬롯 이름)
변수명과 슬롯명을 조합하여 이름을 생성합니다.
추상 문자열
getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.
<T는 TType을 확장합니다. > 선택 사항< 변수 <T>>
getSlot ( 출력 <T> var, 문자열 슬롯 이름)
지정된 변수 및 슬롯 이름과 연관된 슬롯을 가져옵니다.
최종 작전
getTF ()
Optimizer의 Ops 인스턴스를 가져옵니다.
작전
최소화 ( 피연산자 <?> 손실)
변수를 업데이트하여 손실을 최소화합니다.
작전
최소화 ( 피연산자 <?> 손실, 문자열 이름)
변수를 업데이트하여 손실을 최소화합니다.
부울
같음 (개체 arg0)
마지막 수업<?>
getClass ()
정수
해시 코드 ()
최종 무효
알림 ()
최종 무효
통지모두 ()
toString ()
최종 무효
대기 (long arg0, int arg1)
최종 무효
기다리세요 (긴 arg0)
최종 무효
기다리다 ()

상수

공개 정적 최종 문자열 누산기

상수 값: "누산기"

공개 정적 최종 부동 INITIAL_ACCUMULATOR_DEFAULT

상수값: 0.01

공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT

상수값: 0.001

공공 생성자

공개 AdaGrad ( 그래프 그래프)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프

공개 AdaGrad ( 그래프 그래프, float learningRate)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
학습률 학습률

공개 AdaGrad ( 그래프 그래프, 부동 학습률, 부동 초기 AccumulatorValue)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
학습률 학습률
초기누산기값 누산기의 시작 값은 음수가 아니어야 합니다.
던지기
IllegalArgumentException initialAccumulatorValue가 음수인 경우

public AdaGrad ( 그래프 그래프, 문자열 이름, float learningRate)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
이름 이 옵티마이저의 이름(기본값은 'Adagrad')
학습률 학습률

공개 AdaGrad ( 그래프 그래프, 문자열 이름, 부동 학습률, 부동 초기 AccumulatorValue)

AdaGrad 옵티마이저 생성

매개변수
그래프 TensorFlow 그래프
이름 이 옵티마이저의 이름(기본값은 'Adagrad')
학습률 학습률
초기누산기값 누산기의 시작 값은 음수가 아니어야 합니다.
던지기
IllegalArgumentException initialAccumulatorValue가 음수인 경우

공개 방법

공개 문자열 getOptimizerName ()

최적화 프로그램의 이름을 가져옵니다.

보고
  • 최적화 프로그램 이름입니다.

공개 문자열 toString ()