[ Skip to the content ]

Institute of Formal and Applied Linguistics

at Faculty of Mathematics and Physics, Charles University, Prague, Czech Republic


[ Back to the navigation ]

Publication


Year 2016
Type in proceedings
Status published
Language English
Author(s) Plátek, Ondřej Bělohlávek, Petr Hudeček, Vojtěch Jurčíček, Filip
Title Recurrent Neural Networks for Dialogue State Tracking
Czech title Rekurentní neuronové sítě pro sledování dialogového stavu
Proceedings 2016: Bratislava, Slovakia: SloNLP 2016: Proceedings of the 16th ITAT: Slovenskočeský NLP workshop (SloNLP 2016)
Pages range 63-67
How published print
Supported by 2015-2018 GAUK 19/2015 (Získávání znalostí z hlasového dialogu) 2012-2016 LK11221 (Vývoj metod pro návrh statistických mluvených dialogových systémů) 2012-2016 PRVOUK P46 (Informatika) 2016 SVV 260 333 (Teoretické základy informatiky a výpočetní lingvistiky)
Czech abstract Tento článek se zabývá modely pro sledování stavu dialogu pomocí rekurentních neuronových sítí (RNN). Představujeme pokusy na datové sadě, DSTC2. Na jedné straně, RNN modely dosahují vynikajících výsledků. Na druhou stranu většina state-of-the-art modelů jsou "turn-based" a vyžadují specifické předzpracování (např pro data z DSTC2) k dosažení vynikajících výsledků. Představili jsme dvě architektury, které mohou být použity v inkrementálních nastavení a nevyžadují téměř žádnou předzpracování. V članku porovnáváme jejich výkonnost na referenčních hodnotách pro DSTC2 a diskutujeme jejich vlastnosti. S pouze triviální předzpracováním se výkon našich modelů blíží k výsledkům state-of-the-art.
English abstract This paper discusses models for dialogue state tracking using recurrent neural networks (RNN). We present experiments on the standard dialogue state tracking (DST) dataset, DSTC2. On the one hand, RNN models became the state of the art models in DST, on the other hand, most state-of-the-art models are only turn-based and require dataset-specific preprocessing (e.g. DSTC2-specific) in order to achieve such results. We implemented two architectures which can be used in incremental settings and require almost no preprocessing. We compare their performance to the benchmarks on DSTC2 and discuss their properties. With only trivial preprocessing, the performance of our models is close to the state-of- the-art results.
Specialization linguistics ("jazykověda")
Confidentiality default – not confidential
Open access no
Editor(s)* Broňa Brejová
ISBN* 978-1537016740
ISSN* 1613-0073
Address* Bratislava, Slovakia
Month* August
Venue* SOREA Hutník I.
Publisher* CreateSpace Independent Publishing Platform
Institution* Comenius University in Bratislava, Faculty of Mathematics, Physics and Informatics
Creator: Common Account
Created: 10/15/16 12:57 PM
Modifier: Almighty Admin
Modified: 2/25/17 10:07 PM
***

Content, Design & Functionality: ÚFAL, 2006–2016. Page generated: Fri Nov 24 05:10:53 CET 2017

[ Back to the navigation ] [ Back to the content ]

100% OpenAIRE compliant