uu.seUppsala universitets publikationer
Ändra sökning
Avgränsa sökresultatet
1 - 28 av 28
RefereraExporteraLänk till träfflistan
Permanent länk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Träffar per sida
  • 5
  • 10
  • 20
  • 50
  • 100
  • 250
Sortering
  • Standard (Relevans)
  • Författare A-Ö
  • Författare Ö-A
  • Titel A-Ö
  • Titel Ö-A
  • Publikationstyp A-Ö
  • Publikationstyp Ö-A
  • Äldst först
  • Nyast först
  • Skapad (Äldst först)
  • Skapad (Nyast först)
  • Senast uppdaterad (Äldst först)
  • Senast uppdaterad (Nyast först)
  • Disputationsdatum (tidigaste först)
  • Disputationsdatum (senaste först)
  • Standard (Relevans)
  • Författare A-Ö
  • Författare Ö-A
  • Titel A-Ö
  • Titel Ö-A
  • Publikationstyp A-Ö
  • Publikationstyp Ö-A
  • Äldst först
  • Nyast först
  • Skapad (Äldst först)
  • Skapad (Nyast först)
  • Senast uppdaterad (Äldst först)
  • Senast uppdaterad (Nyast först)
  • Disputationsdatum (tidigaste först)
  • Disputationsdatum (senaste först)
Markera
Maxantalet träffar du kan exportera från sökgränssnittet är 250. Vid större uttag använd dig av utsökningar.
  • 1. Alves-Oliveira, Patricia
    et al.
    Sequeira, Pedro
    Melo, Francisco S.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Paiva, Ana
    Empathic robot for group learning: A field study2019Ingår i: ACM Transactions on Human-Robot Interaction, E-ISSN 2573-9522, Vol. 8, nr 1, artikel-id 3Artikel i tidskrift (Refereegranskat)
  • 2.
    Castellano, Ginevra
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Leite, Iolanda
    Univ Tecn Lisboa, INESC ID, Oporto, Portugal.; Univ Tecn Lisboa, Inst Super Tecn, Oporto, Portugal..
    Paiva, Ana
    Univ Tecn Lisboa, INESC ID, Oporto, Portugal.; Univ Tecn Lisboa, Inst Super Tecn, Oporto, Portugal..
    Detecting perceived quality of interaction with a robot using contextual features2017Ingår i: Autonomous Robots, ISSN 0929-5593, E-ISSN 1573-7527, Vol. 41, nr 5, s. 1245-1261Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    This work aims to advance the state of the art in exploring the role of task, social context and their interdependencies in the automatic prediction of affective and social dimensions in human-robot interaction. We explored several SVMs-based models with different features extracted from a set of context logs collected in a human-robot interaction experiment where children play a chess game with a social robot. The features include information about the game and the social context at the interaction level (overall features) and at the game turn level (turn-based features). While overall features capture game and social context at the interaction level, turn-based features attempt to encode the dependencies of game and social context at each turn of the game. Results showed that game and social context-based features can be successfully used to predict dimensions of quality of interaction with the robot. In particular, overall features proved to perform equally or better than turn-based features, and game context-based features more effective than social context-based features. Our results show that the interplay between game and social context-based features, combined with features encoding their dependencies, lead to higher recognition performances for a subset of dimensions.

  • 3. Chetouani, Mohamed
    et al.
    Anzalone, Salvatore M.
    Varni, Giovanna
    Hupont Torres, Isabelle
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Lim, Angelica
    Venture, Gentiane
    International Workshop on Social Learning and Multimodal Interaction for Designing Artificial Agents2016Ingår i: Proc. 18th ACM International Conference on Multimodal Interaction, New York: ACM Press, 2016, s. 598-600Konferensbidrag (Övrigt vetenskapligt)
  • 4. Corrigan, Lee J.
    et al.
    Peters, Christopher
    Küster, Dennis
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Engagement perception and generation for social robots and virtual agents2016Ingår i: Toward Robotic Socially Believable Behaving Systems: Volume I, Modeling Emotions, Springer, 2016, s. 29-51Kapitel i bok, del av antologi (Refereegranskat)
    Abstract [en]

    Technology is the future, woven into every aspect of our lives, but how are we to interact with all this technology and what happens when problems arise? Artificial agents, such as virtual characters and social robots could offer a realistic solution to help facilitate interactions between humans and machines—if only these agents were better equipped and more informed to hold up their end of an interaction. People and machines can interact to do things together, but in order to get the most out of every interaction, the agent must to be able to make reasonable judgements regarding your intent and goals for the interaction.We explore the concept of engagement from the different perspectives of the human and the agent. More specifically, we study how the agent perceives the engagement state of the other interactant, and how it generates its own representation of engaging behaviour. In this chapter, we discuss the different stages and components of engagement that have been suggested in the literature from the applied perspective of a case study of engagement for social robotics, as well as in the context of another study that was focused on gaze-related engagement with virtual characters.

  • 5.
    Deshmukh, Amol
    et al.
    Heriot Watt Univ, Sch Math & Comp Sci, Edinburgh EH14 4AS, Midlothian, Scotland.
    Janarthanam, Srinivasan
    Heriot Watt Univ, Sch Math & Comp Sci, Edinburgh EH14 4AS, Midlothian, Scotland.
    Hastie, Helen
    Heriot Watt Univ, Sch Math & Comp Sci, Edinburgh EH14 4AS, Midlothian, Scotland.
    Lim, Mei Yii
    Heriot Watt Univ, Sch Math & Comp Sci, Edinburgh EH14 4AS, Midlothian, Scotland.
    Aylett, Ruth
    Heriot Watt Univ, Sch Math & Comp Sci, Edinburgh EH14 4AS, Midlothian, Scotland.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    How expressiveness of a robotic tutor is perceived by children in a learning environment2016Ingår i: Proc. 11th ACM/IEEE International Conference on Human Robot Interaction, Piscataway, NJ: IEEE Press, 2016, s. 423-424Konferensbidrag (Refereegranskat)
    Abstract [en]

    We present a study investigating the expressiveness of two different types of robots in a tutoring task. The robots used were i) the EMYS robot, with facial expression capabilities, and ii) the NAO robot, without facial expressions but able to perform expressive gestures. Preliminary results show that the NAO robot was perceived to be more friendly, pleasant and empathic than the EMYS robot as a tutor in a learning environment.

  • 6.
    Gao, Alex Yuan
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Barendregt, Wolmet
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Personalised human-robot co-adaptation in instructional settings using reinforcement learning2017Konferensbidrag (Övrigt vetenskapligt)
  • 7.
    Gao, Yuan
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Barendregt, Wolmet
    Gothenburg Univ, Dept Appl IT, Gothenburg, Sweden.
    Obaid, Mohammad
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    When robot personalisation does not help: Insights from a robot-supported learning study2018Ingår i: Proc. 27th International Symposium on Robot and Human Interactive Communication, IEEE, 2018, s. 705-712Konferensbidrag (Refereegranskat)
    Abstract [en]

    In the domain of robotic tutors, personalised tutoring has started to receive scientists' attention, but is still relatively underexplored. Previous work using reinforcement learning (RL) has addressed personalised tutoring from the perspective of affective policy learning. However, little is known about the effects of robot behaviour personalisation on user's task performance. Moreover, it is also unclear if and when personalisation may be more beneficial than a robot that adapts to its users and the context of the interaction without personalising its behaviour. In this paper we build on previous work on affective policy learning that used RL to learn what robot's supportive behaviours are preferred by users in an educational scenario. We build a RL framework for personalisation that allows a robot to select verbal supportive behaviours to maximise the user's task progress and positive reactions in a learning scenario where a Pepper robot acts as a tutor and helps people to learn how to solve grid-based logic puzzles. A between-subjects design user study showed that participants were more efficient at solving logic puzzles and preferred a robot that exhibits more varied behaviours compared with a robot that personalises its behaviour by converging on a specific one over time. We discuss insights on negative effects of personalisation and report lessons learned together with design implications for personalised robots.

  • 8.
    Gao, Yuan
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Sibirtseva, Elena
    Robotics, Perception and Learning Lab, EECS at KTH Royal Institute of Technology, Stockholm, Sweden.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Kragic, Danica
    Robotics, Perception and Learning Lab, EECS at KTH Royal Institute of Technology, Stockholm, Sweden.
    Fast Adaptation with Meta-Reinforcement Learning for Trust Modelling in Human–Robot Interaction2019Konferensbidrag (Refereegranskat)
    Abstract [en]

    In socially assistive robotics, an important research area is the development of adaptation techniques and their effect on human-robot interaction. We present a meta-learning based policy gradient method for addressing the problem of adaptation in human-robot interaction and also investigate its role as a mechanism for trust modelling. By building an escape room scenario in mixed reality with a robot, we test our hypothesis that bi-directional trust can be influenced by different adaptation algorithms. We found that our proposed model increased the perceived trustworthiness of the robot and influenced the dynamics of gaining human's trust. Additionally, participants evaluated that the robot perceived them as more trustworthy during the interactions with the meta-learning based adaptation compared to the previously studied statistical adaptation model.

  • 9.
    Gao, Yuan
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Wallkötter, Sebastian
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Obaid, Mohammad
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Investigating deep learning approaches for human-robot proxemics2018Ingår i: Proc. 27th International Symposium on Robot and Human Interactive Communication, IEEE, 2018, s. 1093-1098Konferensbidrag (Refereegranskat)
    Abstract [en]

    In this paper, we investigate the applicability of deep learning methods to adapt and predict comfortable human-robot proxemics. Proposing a network architecture, we experiment with three different layer configurations, obtaining three different end-to-end trainable models. Using these, we compare their predictive performances on data obtained during a human-robot interaction study. We find that our long short-term memory based model outperforms a gated recurrent unit based model and a feed-forward model. Further, we demonstrate how the created model can be used to create customized comfort zones that can help create a personalized experience for individual users.

  • 10. Hall, Lynne
    et al.
    Hume, Colette
    Tazzyman, Sarah
    Deshmukh, Amol
    Janarthanam, Srinivasan
    Hastie, Helen
    Aylett, Ruth
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Papadopoulos, Fotios
    Jones, Aidan
    Corrigan, Lee J.
    Paiva, Ana
    Alves-Oliveira, Patrícia
    Ribeiro, Tiago
    Barendregt, Wolmet
    Serholt, Sofia
    Kappas, Arvid
    Map reading with and empathic robot tutor2016Ingår i: Proc. 11th ACM/IEEE International Conference on Human Robot Interaction, Piscataway, NJ: IEEE Press, 2016, s. 567-567Konferensbidrag (Refereegranskat)
  • 11. Johal, Wafa
    et al.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Tanaka, Fumihide
    Okita, Sandra
    Robots for Learning2018Ingår i: International Journal of Social Robotics, ISSN 1875-4791, E-ISSN 1875-4805, Vol. 10, nr 3, s. 293-294Artikel i tidskrift (Övrigt vetenskapligt)
  • 12. Jones, Aidan
    et al.
    Bull, Susan
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    "I know that now, I'm going to learn this next": Promoting self-regulated learning with a robotic tutor2018Ingår i: International Journal of Social Robotics, ISSN 1875-4791, E-ISSN 1875-4805, Vol. 10, nr 4, s. 439-454Artikel i tidskrift (Refereegranskat)
  • 13.
    Jones, Aidan
    et al.
    University Of Birmingham, Birmingham, United Kingdom.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Adaptive robotic tutors that support self-regulated learning: A longer-term investigation with primary school children2018Ingår i: International Journal of Social Robotics, ISSN 1875-4791, E-ISSN 1875-4805, Vol. 10, nr 3, s. 357-370Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    Robots are increasingly being used to provide motivating, engaging and personalised support to learners. These robotic tutors have been able to increase student learning gain by providing personalised hints or problem selection. However, they have never been used to assist children in developing self regulated learning (SRL) skills. SRL skills allow a learner to more effectively self-assess and guide their own learning; learners that engage these skills have been shown to perform better academically. This paper explores how personalised tutoring by a robot achieved using an open learner model (OLM) promotes SRL processes and how this can impact learning and SRL skills compared to personalised domain support alone. An OLM allows the learner to view the model that the system holds about them. We present a longer-term study where participants take part in a geography-based task on a touch screen with adaptive feedback provided by the robot. In addition to domain support the robotic tutor uses an OLM to prompt the learner to monitor their developing skills, set goals, and use appropriate tools. Results show that, when a robotic tutor personalises and adaptively scaffolds SRL behaviour based upon an OLM, greater indication of SRL behaviour can be observed over the control condition where the robotic tutor only provides domain support and not SRL scaffolding.

  • 14. Jones, Aidan
    et al.
    Küster, Dennis
    Basedow, Christina Anne
    Alves-Oliveira, Patrícia
    Serholt, Sofia
    Hastie, Helen
    Corrigan, Lee J.
    Barendregt, Wolmet
    Kappas, Arvid
    Paiva, Ana
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Empathic robotic tutors for personalised learning: A multidisciplinary approach2015Ingår i: Social Robotics, Springer, 2015, s. 285-295Konferensbidrag (Refereegranskat)
  • 15. Jordan, Philipp
    et al.
    Mubin, Omar
    Obaid, Mohammad
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Silva, Paula Alexandra
    Exploring the referral and usage of science fiction in HCI literature2018Ingår i: Design, User Experience, and Usability: Part II, Springer, 2018, s. 19-38Konferensbidrag (Refereegranskat)
  • 16.
    Obaid, Mohammad
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Aylett, Ruth
    Mathematics and Computer Science, Heriot-Watt University, UK.
    Barendregt, Wolmet
    Department of Applied IT, University of Gothenburg, Sweden.
    Basedow, Christina
    Department of Psychology, Vancouver Island University, Canada.
    Corrigan, Lee J.
    Department of Electronic, Electrical and Systems Engineering, University of Birmingham, UK.
    Hall, Lynne
    Faculty of Computer Science, University of Sunderland, UK.
    Jones, Aidan
    Department of Electronic, Electrical and Systems Engineering, University of Birmingham, UK.
    Kappas, Arvid
    Department of Psychology and Methods, Jacobs University Bremen, Germany.
    Kuster, Dennis
    Department of Computer Science, University of Bremen, Germany.
    Paiva, Ana
    INESC-ID, Instituto Superior Técnico, University of Lisbon, Portugal.
    Papadopoulos, Fotios
    School of Computing Electronics and Mathematics, Plymouth University, UK.
    Serholt, Sofia
    Department of Computer Science and Engineering, Chalmers University of Technology, Sweden.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Endowing a robotic tutor with empathic qualities: Design and pilot evaluation2018Ingår i: International Journal of Humanoid Robotics, ISSN 0219-8436, Vol. 15, nr 6, artikel-id 1850025Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    As increasingly more research efforts are geared towards creating robots that can teach and interact with children in educational contexts, it has been speculated that endowing robots with artificial empathy may facilitate learning. In this paper, we provide a background to the concept of empathy, and how it factors into learning. We then present our approach to equipping a robotic tutor with several empathic qualities, describing the technical architecture and its components, a map-reading learning scenario developed for an interactive multitouch table, as well as the pedagogical and empathic strategies devised for the robot. We also describe the results of a pilot study comparing the robotic tutor with these empathic qualities against a version of the tutor without them. The pilot study was performed with 26 school children aged 10–11 at their school. Results revealed that children in the test condition indeed rated the robot as more empathic than children in the control condition. Moreover, we explored several related measures, such as relational status and learning effect, yet no other significant differences were found. We further discuss these results and provide insights into future directions.

  • 17.
    Obaid, Mohammad
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Gao, Alex Yuan
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Barendregt, Wolmet
    Department of Applied IT, Gothenburg University, Gothenburg, Sweden.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Exploring users' reactions towards tangible implicit probes for measuring human-robot engagement2017Ingår i: Social Robotics, Springer, 2017, s. 402-412Konferensbidrag (Refereegranskat)
    Abstract [en]

    In this paper, we present an exploratory study of the use of tangible implicit probes to gauge the user's social engagement with a robot. Our results show that users' paying attention to the robot's implicit probes is related to higher social engagement, but also that introducing implicit probes can lead to a more positive interaction with a robot. As we observed that users in our study started paying more attention to the implicit probes after they had encountered them, the need for careful design to capture changes in social engagement over time is justified here. Finally, we discuss some of the user recommendations to design better implicit probes.

  • 18.
    Paetzel, Maike
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Let me get to know you better: Can interactions help to overcome uncanny feelings?2019Ingår i: Proc. 7th International Conference on Human–Agent Interaction, New York: ACM Press, 2019, s. 59-67Konferensbidrag (Refereegranskat)
  • 19.
    Paetzel, Maike
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Hupont, Isabelle
    Varni, Giovanna
    Chetouani, Mohamed
    Peters, Christopher
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Exploring the link between self-assessed mimicry and embodiment in HRI2017Ingår i: Proc. Companion of 12th ACM/IEEE International Conference on Human-Robot Interaction, New York: ACM Press, 2017, s. 245-246Konferensbidrag (Refereegranskat)
  • 20.
    Paetzel, Maike
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Kennedy, James
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Lehman, Jill Fain
    Incremental acquisition and reuse of multimodal affective behaviors in a conversational agent2018Ingår i: Proc. 6th International Conference on Human-Agent Interaction, New York: ACM Press, 2018, s. 92-100Konferensbidrag (Refereegranskat)
  • 21.
    Paetzel, Maike
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Peters, Christopher
    KTH Royal Inst Technol, Stockholm, Sweden.
    Nyström, Ingela
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Congruency Matters – How ambiguous gender cues increase a robot’s uncanniness2016Ingår i: Social Robotics, Springer, 2016, s. 402-412Konferensbidrag (Refereegranskat)
    Abstract [en]

    Most research on the uncanny valley effect is concerned with the influence of human-likeness and realism as a trigger of an uncanny feeling in humans. There has been a lack of investigation on the effect of other dimensions, for example, gender. Back-projected robotic heads allow us to alter visual cues in the appearance of the robot in order to investigate how the perception of it changes. In this paper, we study the influence of gender on the perceived uncanniness. We conducted an experiment with 48 participants in which we used different modalities of interaction to change the strength of the gender cues in the robot. Results show that incongruence in the gender cues of the robot, and not its specific gender, influences the uncanniness of the back-projected robotic head. This finding has potential implications for both the perceptual mismatch and categorization ambiguity theory as a general explanation of the uncanny valley effect.

  • 22.
    Paetzel, Maike
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Peters, Christopher
    KTH Royal Inst Technol, Stockholm, Sweden.
    Nyström, Ingela
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Effects of multimodal cues on children's perception of uncanniness in a social robot2016Ingår i: Proc. 18th ACM International Conference on Multimodal Interaction, 2016, s. 297-301Konferensbidrag (Refereegranskat)
    Abstract [en]

    This paper investigates the influence of multimodal incongruent gender cues on the perception of a robot's uncanniness and gender in children. The back-projected robot head Furhat was equipped with a female and male face texture and voice synthesizer and the voice and facial cues were tested in congruent and incongruent combinations. 106 children between the age of 8 and 13 participated in the study. Results show that multimodal incongruent cues do not trigger the feeling of uncanniness in children. These results are significant as they support other recent research showing that the perception of uncanniness cannot be triggered by a categorical ambiguity in the robot. In addition, we found that children rely on auditory cues much stronger than on the facial cues when assigning a gender to the robot if presented with incongruent cues. These findings have implications for the robot design, as it seems possible to change the gender of a robot by only changing its voice without creating a feeling of uncanniness in a child.

  • 23.
    Paetzel, Maike
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Peters, Christopher
    Nyström, Ingela
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Preliminary results from using a back-projected robot head in uncanny valley research2016Ingår i: Proc. 25th International Symposium on Robot and Human Interactive Communication, Piscataway, NJ: IEEE, 2016, s. 944-945Konferensbidrag (Övrigt vetenskapligt)
  • 24.
    Paetzel, Maike
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion. RoboCup Team Hamburg Bit-Bots.
    Varni, Giovanna
    Univ Paris 06, Inst Syst Intelligents & Robot, Paris, France.
    Hupont, Isabelle
    Univ Paris 06, Inst Syst Intelligents & Robot, Paris, France.
    Chetouani, Mohamed
    Univ Paris 06, Inst Syst Intelligents & Robot, Paris, France.
    Peters, Christopher
    KTH Royal Inst Technol, Dept Computat Sci Technol, Stockholm, Sweden.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Investigating the influence of embodiment on facial mimicry in HRI using computer vision-based measures2017Ingår i: Proc. 26th International Symposium on Robot and Human Interactive Communication (Ro-Man), IEEE, 2017, s. 579-586Konferensbidrag (Refereegranskat)
    Abstract [en]

    Mimicry plays an important role in social interaction. In human communication, it is used to establish rapport and bonding both with other humans, as well as robots and virtual characters. However, little is known about the underlying factors that elicit mimicry in humans when interacting with a robot. In this work, we study the influence of embodiment on participants' ability to mimic a social character. Participants were asked to intentionally mimic the laughing behavior of the Furhat mixed embodied robotic head and a 2D virtual version of the same character. To explore the effect of embodiment, we present two novel approaches to automatically assess people's ability to mimic based solely on videos of their facial expressions. In contrast to participants' self-assessment, the analysis of video recordings suggests a better ability to mimic when people interact with the 2D embodiment.

  • 25.
    Paetzel, Maike
    et al.
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Varni, Giovanna
    Univ Paris Saclay, Telecom ParisTech, LTCI, F-75013 Paris, France.
    Hupont, Isabelle
    Sorbonne Univ, Inst Syst Intelligents & Robot, CNRS, UMR7222, Paris, France.
    Chetouani, Mohamed
    Sorbonne Univ, Inst Syst Intelligents & Robot, CNRS, UMR7222, Paris, France.
    Peters, Christopher
    KTH Royal Inst Technol, Dept Computat Sci Technol, Stockholm, Sweden.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    The attribution of emotional state: How embodiment features and social traits affect the perception of an artificial agent2018Ingår i: Proc. 27th International Symposium on Robot and Human Interactive Communication, IEEE, 2018, s. 495-502Konferensbidrag (Refereegranskat)
    Abstract [en]

    Understanding emotional states is a challenging task which frequently leads to misinterpretation even in human observers. While the perception of emotions has been studied extensively in human psychology, little is known about what factors influence the human perception of emotions in robots and virtual characters. In this paper, we build on the Brunswik lens model to investigate the influence of (a) the agent's embodiment using a 2D virtual character, a 3D blended embodiment, a recording of the 3D platform and a recording of a human, as well as (b) the level of human-likeness on people's ability to interpret emotional facial expressions in an agent. In addition, we measure social traits of the human observers and analyze how they correlate to the success in recognizing emotional expressions. We find that interpersonal differences play a minor role in the perception of emotional states. However, both embodiment and human-likeness as well as related perceptual dimensions such as perceived social presence and uncanniness have an effect on the attribution of emotional states.

  • 26.
    Papadopoulos, Fotios
    et al.
    Univ Birmingham, Sch Elect Elect & Comp Engn, Edgbaston B15 2TT, England..
    Küster, Dennis
    Jacobs Univ Bremen, Campus Ring 1, D-28759 Bremen, Germany..
    Corrigan, Lee J.
    Univ Birmingham, Sch Elect Elect & Comp Engn, Edgbaston B15 2TT, England..
    Kappas, Arvid
    Jacobs Univ Bremen, Campus Ring 1, D-28759 Bremen, Germany..
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Do relative positions and proxemics affect the engagement in a human–robot collaborative scenario?2016Ingår i: Interaction Studies: Social Behaviour and Communication in Biological and Artificial Systems, ISSN 1572-0373, E-ISSN 1572-0381, Vol. 17, nr 3, s. 321-347Artikel i tidskrift (Refereegranskat)
    Abstract [en]

    This paper investigates the effects of relative position and proxemics in the engagement process involved in Human-Robot collaboration. We evaluate the differences between two experimental placement conditions (frontal vs. lateral) for an autonomous robot in a collaborative task with a user across two different types of robot behaviours (helpful vs. neutral). The study evaluated placement and behaviour types around a touch table with 80 participants by measuring gaze, smiling behaviour, distance from the task, and finally electrodermal activity. Results suggest an overall user preference and higher engagement rates with the helpful robot in the frontal position. We discuss how behaviours and position of the robot relative to a user may affect user engagement and collaboration, in particular when the robot aims to provide help via socio-emotional bonding.

  • 27.
    Sequeira, Pedro
    et al.
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.;Univ Lisbon, Inst Super Tecn, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal..
    Alves-Oliveira, Patricia
    Inst Univ Lisboa ISC1B IUL, CIS IUL, Lisbon, Portugal..
    Ribeiro, Tiago
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.;Univ Lisbon, Inst Super Tecn, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal..
    Di Tullio, Eugenio
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.;Univ Lisbon, Inst Super Tecn, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal..
    Petisca, Sofia
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.;Univ Lisbon, Inst Super Tecn, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal..
    Melo, Francisco S.
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.;Univ Lisbon, Inst Super Tecn, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal..
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Paiva, Ana
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.;Univ Lisbon, Inst Super Tecn, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal..
    Discovering Social Interaction Strategies for Robots from Restricted-Perception Wizard-of-Oz Studies2016Ingår i: Eleventh ACM/IEEE International Conference On Human Robot Interation (HRI'16), 2016, s. 197-204Konferensbidrag (Refereegranskat)
    Abstract [en]

    In this paper we propose a methodology for the creation of social interaction strategies for human-robot interaction based on restricted-perception Wizard-of-Oz studies (WoZ). This novel experimental technique involves restricting the wizard's perceptions over the environment and the behaviors it controls according to the robot's inherent perceptual and acting limitations. Within our methodology, the robot's design lifecycle is divided into three consecutive phases, namely data collection, where we perform interaction studies to extract expert knowledge and interaction data; strategy extraction, where a hybrid strategy controller for the robot is learned based on the gathered data; strategy refinement, where the controller is iteratively evaluated and adjusted. We developed a fully-autonomous robotic tutor based on the proposed approach in the context of a collaborative learning scenario. The results of the evaluation study show that, by performing restricted-perception WoZ studies, our robots are able to engage in very natural and socially-aware interactions.

  • 28.
    Sequeira, Pedro
    et al.
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.
    Alves-Oliveira, Patrícia
    INESC ID, Lisbon, Portugal.; Inst Univ Lisboa ISCTE IUL, CIS IUL, Lisbon, Portugal.
    Ribeiro, Tiago
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.
    Di Tullio, Eugenio
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.
    Petisca, Sofia
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.
    Melo, Francisco S.
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.
    Castellano, Ginevra
    Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Avdelningen för visuell information och interaktion. Uppsala universitet, Teknisk-naturvetenskapliga vetenskapsområdet, Matematisk-datavetenskapliga sektionen, Institutionen för informationsteknologi, Bildanalys och människa-datorinteraktion.
    Paiva, Ana
    Univ Lisbon, INESC ID, Av Prof Cavaco Silva, P-2744016 Porto Salvo, Portugal.
    Discovering social interaction strategies for robots from restricted-perception Wizard-of-Oz studies2016Ingår i: Proc. 11th ACM/IEEE International Conference on Human Robot Interaction, Piscataway, NJ: IEEE Press, 2016, s. 197-204Konferensbidrag (Refereegranskat)
    Abstract [en]

    In this paper we propose a methodology for the creation of social interaction strategies for human-robot interaction based on restricted-perception Wizard-of-Oz studies (WoZ). This novel experimental technique involves restricting the wizard's perceptions over the environment and the behaviors it controls according to the robot's inherent perceptual and acting limitations. Within our methodology, the robot's design lifecycle is divided into three consecutive phases, namely data collection, where we perform interaction studies to extract expert knowledge and interaction data; strategy extraction, where a hybrid strategy controller for the robot is learned based on the gathered data; strategy refinement, where the controller is iteratively evaluated and adjusted. We developed a fully-autonomous robotic tutor based on the proposed approach in the context of a collaborative learning scenario. The results of the evaluation study show that, by performing restricted-perception WoZ studies, our robots are able to engage in very natural and socially-aware interactions.

1 - 28 av 28
RefereraExporteraLänk till träfflistan
Permanent länk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf