University of BariDepartment of InformaticsIntelligent Interfaces | |||||||||||||||||||
Home | Research | People | Meetings | Projects | |||||||||||||||
Dialog Simulator |
|
|
Objective |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
This testbed was initially designed and implemented in the scope of Magicster, a European
Project of the IST-Future and Emerging Technologies Program.
Its scope was to simulate affective dialogs with an Embodied Conversational Agent, to show how
the dialog is influenced by the social context and the agent's emotional state
and how this state is, in its turn, dynamically influenced by the dialog.
We employed our testbed to adjust the system components after evaluating their behavior in
various situations: we tested the role of context and personality in the activation of multiple
emotions, upgraded the dialog strategy and the plan library, revised interpretation of the user
moves and improved rendering of the agent moves. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Overview |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
The system is driven by a Graphical Interface, which interacts with the user and coordinates activation
of various modules and exchange of information among them:
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Participants |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Valeria Carofiglio |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Architecture and Language |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
The system architecture is shown in this figure: |
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
The Interface was implemented in Visual C++, while the sockets insuring the communication among the different processes are built-in classes of the Interface code. The dialog manager is implemented with TRINDIKIT; emotion activation and argumentation strategies are modeled with belief networks and are implemented with HUGIN APIs. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Publications |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Affective Advice Giving Dialogs. Tutorial and Research Workshop on "Affective Dialogue Systems". Kloster Irsee, June 2004 Shallow and inner forms of emotional intelligence in advisory dialog simulation. In H Prendinger and M Ishizuka (Eds): "Life-like Characters. Tools, Affective Functions and Applications". Springer, 2003. Emotional dialogs with an embodied agent. In P Brusilovsky, A Corbett and F de Rosis (Eds): "User modeling '03". Springer LNAI 2702. Greta. A believable embodied conversational agent. In O Stock and M Zancanaro (Eds): "Intelligent Information Presentation". Kluwer Ac Publishers. Magicster: Believable Agents and Dialogue. Kuenstliche Intelligenz, 2003. From Greta's mind to her face: modelling the dynamics of affective states in a conversational embodied agent. International Journal of Human-Computer Studies. Special Issue on "Applications of Affective Computing in HCI". E Hudlicka and M Mc Neese (Eds). 59, 81-118, 2003 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
How it works |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
The first step is to settle the dialog parameters, by specifying
the agent personality, the application domain, the context in which interaction occurs,
a threshold for removing emotion noise, the displayed agent, and an empathic/non empatic variable. All these variables are
employed by Mind; domain and agent are employed by TRINDI, respectively, to select the directory from which
to read the application files and to play the appropriate agent move. The interface which guides the
setting phase is the following: |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Once the initial setting has been completed, the scheduler triggers the dialog: the agent moves first. Users may then introduce their answers or their questions by touching a control in a touch screen or in a handheld device. This interface includes:
|
Home | Research | People | Meetings | Projects | |||||||||||||||