공개 수업 AdaGrad
Adagrad 알고리즘을 구현하는 최적화 프로그램입니다.
Adagrad는 훈련 중에 매개변수가 업데이트되는 빈도에 따라 조정되는 매개변수별 학습률을 갖춘 최적화 도구입니다. 매개변수가 더 많은 업데이트를 받을수록 업데이트 크기는 작아집니다.
상수
상속된 상수
공공 생성자
공개 방법
끈 | getOptimizerName () 최적화 프로그램의 이름을 가져옵니다. |
끈 | toString () |
상속된 메서드
작전 | |
<T는 TType을 확장합니다. > List< GradAndVar <?>> | |
정적 문자열 | |
추상 문자열 | getOptimizerName () 최적화 프로그램의 이름을 가져옵니다. |
<T는 TType을 확장합니다. > 선택 사항< 변수 <T>> | |
최종 작전 | getTF () Optimizer의 Ops 인스턴스를 가져옵니다. |
작전 | |
작전 |
부울 | 같음 (개체 arg0) |
마지막 수업<?> | getClass () |
정수 | 해시 코드 () |
최종 무효 | 알림 () |
최종 무효 | 통지모두 () |
끈 | toString () |
최종 무효 | 대기 (long arg0, int arg1) |
최종 무효 | 기다리세요 (긴 arg0) |
최종 무효 | 기다리다 () |
상수
공개 정적 최종 문자열 누산기
상수 값: "누산기"
공개 정적 최종 부동 INITIAL_ACCUMULATOR_DEFAULT
상수값: 0.01
공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT
상수값: 0.001
공공 생성자
공개 AdaGrad ( 그래프 그래프, 부동 학습률, 부동 초기 AccumulatorValue)
AdaGrad 옵티마이저 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
학습률 | 학습률 |
초기누산기값 | 누산기의 시작 값은 음수가 아니어야 합니다. |
던지기
IllegalArgumentException | initialAccumulatorValue가 음수인 경우 |
---|
public AdaGrad ( 그래프 그래프, 문자열 이름, float learningRate)
AdaGrad 옵티마이저 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 옵티마이저의 이름(기본값은 'Adagrad') |
학습률 | 학습률 |
공개 AdaGrad ( 그래프 그래프, 문자열 이름, 부동 학습률, 부동 초기 AccumulatorValue)
AdaGrad 옵티마이저 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 옵티마이저의 이름(기본값은 'Adagrad') |
학습률 | 학습률 |
초기누산기값 | 누산기의 시작 값은 음수가 아니어야 합니다. |
던지기
IllegalArgumentException | initialAccumulatorValue가 음수인 경우 |
---|
공개 방법
공개 문자열 getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.
보고
- 최적화 프로그램 이름입니다.