- opis :
SAVEE (Surrey Audio-Visual Expressed Emotion) to zestaw danych do rozpoznawania emocji. Składa się z nagrań 4 męskich aktorów w 7 różnych emocjach, łącznie 480 brytyjskich wypowiedzi anglojęzycznych. Zdania zostały wybrane ze standardowego korpusu TIMIT i zrównoważone fonetycznie dla każdej emocji. To wydanie zawiera tylko strumień audio z oryginalnego nagrania audiowizualnego.
Dane są podzielone w taki sposób, że zbiór uczący składa się z 2 mówców, a zarówno zbiór walidacyjny, jak i testowy składają się odpowiednio z próbek od 1 mówcy.
Dodatkowa dokumentacja : Przeglądaj dokumenty z kodem na
Strona główna : http://kahlan.eps.surrey.ac.uk/savee/
Kod źródłowy :
tfds.datasets.savee.Builder
Wersje :
-
1.0.0
(domyślnie): Brak informacji o wersji.
-
Rozmiar pliku do pobrania :
Unknown size
Rozmiar zestawu danych :
259.15 MiB
Instrukcje ręcznego pobierania : ten zestaw danych wymaga ręcznego pobrania danych źródłowych do katalogu
download_config.manual_dir
(domyślnie~/tensorflow_datasets/downloads/manual/
):
katalog_ręczny powinien zawierać plik AudioData.zip. Ten plik powinien znajdować się w Data/Zip/AudioData.zip w folderze zestawu danych podanym podczas rejestracji. Aby uzyskać link do pobrania zestawu danych, należy się zarejestrować na stronie http://personal.ee.surrey.ac.uk/Personal/P.Jackson/SAVEE/Register.html .Automatyczne buforowanie ( dokumentacja ): Nie
Podziały :
Podział | Przykłady |
---|---|
'test' | 120 |
'train' | 240 |
'validation' | 120 |
- Struktura funkcji :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=7),
'speaker_id': string,
})
- Dokumentacja funkcji :
Funkcja | Klasa | Kształtować się | Typ D | Opis |
---|---|---|---|---|
FunkcjeDict | ||||
audio | Audio | (Nic,) | int64 | |
etykieta | Etykieta klasy | int64 | ||
identyfikator_mówcy | Napinacz | strunowy |
Klucze nadzorowane (zobacz dokument
as_supervised
):('audio', 'label')
Rysunek ( tfds.show_examples ): Nieobsługiwany.
Przykłady ( tfds.as_dataframe ):
- Cytat :
@inproceedings{Vlasenko_combiningframe,
author = {Vlasenko, Bogdan and Schuller, Bjorn and Wendemuth, Andreas and Rigoll, Gerhard},
year = {2007},
month = {01},
pages = {2249-2252},
title = {Combining frame and turn-level information for robust recognition of emotions within speech},
journal = {Proceedings of Interspeech}
}