Informations

À propos de la possibilité de « psychologie robotique »

À propos de la possibilité de « psychologie robotique »

Si un système Robot avec une A.I. avancée. système d'exploitation avait la "capacité" de "faire" une introspection "non dirigée" ou "semi-non dirigée" et de "former" toutes sortes de structures de "pensée" sur n'importe quel sujet (qui n'avaient pas directement quelque chose à voir avec le "fonctionnement" important fonctions) ces « structures de pensée » pas nécessairement importantes et la « gestion » de celles-ci pourraient-elles causer quelque chose d'analogue à des problèmes psychologiques chez le robot ?


Selon la définition de "psychologie" et "problèmes psychologiques" bien sûr. L'APA définit la psychologie comme "l'étude scientifique du comportement des individus et de leurs processus mentaux". Si nous considérons que cela ne s'applique qu'aux systèmes biologiques (comme le font de nombreux chercheurs, j'en suis sûr), alors non, car le robot n'est pas un système biologique et nous ne pouvons donc pas l'étudier sous la rubrique de la psychologie et nous l'étudierions probablement sous quelque chose plus proche de "l'ingénierie". Cependant, si l'on est heureux d'appliquer la même chose aux robots, comme je suppose que vous l'êtes, alors oui.

En supposant que ce dernier, et si vous pensez que la "" capacité " d'un être à " faire " une introspection " non dirigée " ou " semi-non dirigée " et " former " toutes sortes de structures " de pensée " sur n'importe quel sujet " est une cause de problèmes psychologiques , et nous supposons en outre qu'un robot pourrait faire cela, alors oui, le robot aura des problèmes psychologiques par définition. (Y a-t-il des preuves directes suggérant que ce sont des causes ?)


Le Dr Jeff Hancock est directeur fondateur du Stanford Social Media Lab et professeur au Département de communication de l'Université de Stanford. Hancock travaille sur la compréhension des processus psychologiques et interpersonnels dans les médias sociaux. Son équipe de recherche se spécialise dans l'utilisation de la linguistique informatique et des expériences pour comprendre comment les mots que nous utilisons peuvent révéler des dynamiques psychologiques et sociales, telles que la tromperie, la confiance, l'intimité et le soutien social. Hancock est bien connu pour ses recherches sur la façon dont les gens utilisent la tromperie avec la technologie, de l'envoi de textes et d'e-mails à la détection de fausses critiques en ligne.


Un concept en psychologie aide l'IA à mieux naviguer dans notre monde

Le concept: Lorsque nous regardons une chaise, quelles que soient sa forme et sa couleur, nous savons que nous pouvons nous asseoir dessus. Lorsqu'un poisson est dans l'eau, quel que soit son emplacement, il sait qu'il peut nager. C'est ce qu'on appelle la théorie de l'affordance, un terme inventé par le psychologue James J. Gibson. Il déclare que lorsque des êtres intelligents regardent le monde, ils perçoivent non seulement les objets et leurs relations, mais aussi leur possibilités. En d'autres termes, la chaise « s'offre » la possibilité de s'asseoir. L'eau « offre » la possibilité de nager. La théorie pourrait expliquer en partie pourquoi l'intelligence animale est si généralisable - nous savons souvent immédiatement comment nous engager avec de nouveaux objets parce que nous reconnaissons leurs affordances.

L'idée: Les chercheurs de DeepMind utilisent maintenant ce concept pour développer une nouvelle approche de l'apprentissage par renforcement. Dans l'apprentissage par renforcement typique, un agent apprend par essais et erreurs, en partant du principe que toute action est possible. Un robot apprenant à se déplacer d'un point A à un point B, par exemple, supposera qu'il peut se déplacer à travers les murs ou les meubles jusqu'à ce que des échecs répétés lui disent le contraire. L'idée est que si le robot apprenait d'abord les possibilités de son environnement, il éliminerait immédiatement une fraction importante des essais infructueux qu'il devrait effectuer. Cela rendrait son processus d'apprentissage plus efficace et l'aiderait à se généraliser dans différents environnements.

Les expérimentations : Les chercheurs ont mis en place un scénario virtuel simple. Ils ont placé un agent virtuel dans un environnement 2D avec un mur au milieu et ont demandé à l'agent d'explorer son amplitude de mouvement jusqu'à ce qu'il ait appris ce que l'environnement lui permettrait de faire : ses possibilités. Les chercheurs ont ensuite donné à l'agent un ensemble d'objectifs simples à atteindre grâce à l'apprentissage par renforcement, comme se déplacer d'une certaine quantité vers la droite ou vers la gauche. Ils ont découvert que, par rapport à un agent qui n'avait pas appris les affordances, il évitait tout mouvement qui le bloquerait par le mur à mi-chemin de son mouvement, le préparant à atteindre son objectif plus efficacement.

Pourquoi est-ce important: Le travail n'en est qu'à ses débuts, les chercheurs n'ont donc utilisé qu'un environnement simple et des objectifs primitifs. Mais leur espoir est que leurs premières expériences aideront à jeter les bases théoriques de l'extension de l'idée à des actions beaucoup plus complexes. À l'avenir, ils voient cette approche permettre à un robot d'évaluer rapidement s'il peut, par exemple, verser du liquide dans une tasse. Ayant développé une compréhension générale des objets qui offrent la possibilité de contenir du liquide et de ceux qui ne le font pas, il n'aura pas à manquer à plusieurs reprises la tasse et à verser du liquide sur toute la table pour apprendre à atteindre son objectif.


Les robots comme thérapeutes et compagnons

Les robots d'assistance sociale sont également prometteurs pour fournir une thérapie aux enfants autistes. La recherche a montré que s'engager avec des robots thérapeutiques augmente l'engagement, l'attention et les nouveaux comportements (comme imiter spontanément le robot) chez les enfants autistes, comme Scassellati et ses collègues l'ont décrit dans une revue (Bilan annuel du génie biomédical, Vol. 14, n° 1, 2012).

"Le comportement humain peut être accablant pour les enfants autistes, mais un robot social peut fournir une sorte d'expérience sociale gérable", explique Breazeal. « Vous pouvez commencer à voir les enfants manifester ces compétences et capacités sociales que vous ne les avez peut-être pas vues auparavant avec un autre être humain, puis le clinicien peut commencer à s'appuyer sur cela. »

Scassellati dirige un grand projet financé par la National Science Foundation pour explorer davantage la thérapie robotique pour les enfants autistes. Les robots passent un mois dans la maison de l'enfant. Ils analysent et s'adaptent au comportement de chaque enfant, adaptant leurs interactions en fonction des capacités, des préférences et des objectifs comportementaux de l'enfant.

Jusqu'à présent, huit familles ont terminé le protocole et une demi-douzaine d'autres ont accueilli les machines sociales dans leurs maisons. Bien que les données soient toujours en cours de collecte, Scassellati est optimiste. "Pour l'anecdote, les familles les adorent. Ces enfants font des heures de thérapie par jour, et le robot rend la thérapie amusante", dit-il. « Une mère nous a dit qu'elle avait appris de nouvelles façons de faire les choses grâce au robot et qu'elle prévoyait de continuer ainsi. C'était fantastique pour nous.

À l'autre extrémité de la vie, les personnes âgées utilisent des robots pour le confort et la compagnie. Le phoque du Groenland robotique Paro agite ses nageoires, affiche une variété d'émotions et répond au toucher et à la voix d'un utilisateur. Une étude pilote menée par Wendy Moyle, PhD, RN, et ses collègues a révélé que les personnes âgées atteintes de démence qui passaient régulièrement du temps avec Paro avaient des niveaux de plaisir plus élevés et une meilleure qualité de vie que leurs pairs qui ont participé à une intervention de lecture (Journal des soins infirmiers en gérontologie, Vol. 39, n° 5, 2013).

Les phoques ne sont peut-être qu'un début. Breazeal prédit que des robots plus humains pourraient un jour accompagner les personnes âgées. "Les soins aux personnes âgées sont un énorme domaine d'opportunités, et la solitude chronique est une épidémie dans notre société. Je pense que la technologie sera une partie de la solution."

L'année dernière, une société à la tête de Breazeal, appelée Jibo, a sorti un robot de table du même nom qui peut raconter des blagues et des histoires, jouer à des jeux et interagir autrement avec les gens qui l'entourent. Le robot utilise la reconnaissance faciale et vocale pour connaître chaque membre de la famille, adaptant ses interactions à chaque individu. « Jibo est conçu pour interagir et exprimer ses propres états internes, tels que ses goûts et ses aversions », dit-elle. "C'est le tout début de la sortie de ces technologies dans le monde, mais cela ouvre la voie aux robots socialement intelligents."

APA héberge Technologie, esprit et société, une conférence interdisciplinaire explorant les interactions entre les humains et la technologie, du 5 au 7 avril, à Washington, D.C. Pour plus d'informations ou pour vous inscrire, rendez-vous sur https://pages.apa.org/tms.

Lecture supplémentaire

Quel genre d'esprit est-ce que je veux dans mon robot ? Développer une mesure des capacités mentales souhaitées dans les robots sociaux
Malle, B.F., & Magar, S.T. Actes du Companion of the 2017 ACM/IEEE International Conference on Human-Robot Interaction, 2017

Jugements moraux des agents humains contre robots
Voiklis, J., Boyoung, K., Cusimano, C., & Malle, B. Actes du Symposium international de l'IEEE sur les robots et la communication interactive humaine, 2016


Vous sentiriez-vous jaloux si votre partenaire avait un robot sexuel ?

On me pose beaucoup de questions sur l'avenir du sexe, et l'un des sujets qui revient souvent est de savoir comment les robots vont changer nos vies intimes et nos relations. Certes, il n'y a pas encore beaucoup de recherches sur ce sujet car les robots sexuels en sont encore à leurs balbutiements, il est donc difficile de faire des prédictions concrètes. Cependant, certains travaux ont examiné les attitudes des gens envers les robots sexuels et les résultats suggèrent que beaucoup de gens ne sont pas enthousiastes à l'idée de robots sexuels et, en particulier, à l'idée que leur partenaire en utilise un.

Dans une étude récente, des chercheurs ont interrogé 277 adultes (27 ans en moyenne, dont 90 % d'hétérosexuels) sur leurs attitudes à l'égard des robots sexuels futuristes. Ils ont utilisé une conception expérimentale dans laquelle la moitié des participants ont été interrogés sur un « robot sexuel » qui « ressemble à des humains », tandis que les autres ont été interrogés sur « un robot d'amour platonique » sans corps physique capable de fournir « relation romantique et amicale significative avec un être humain ».

On leur a ensuite demandé ce qu'ils pensaient de l'idée que leur partenaire possède un tel robot, ainsi que ce qu'ils pensent que leur partenaire ressentirait si la chaussure était sur l'autre pied (c'est-à-dire, votre partenaire serait-il cool que vous possédiez l'un de ces robots ?)

En général, les participants pensaient que l'idée des deux robots semblait réaliste. Cependant, alors qu'il y avait une certaine variabilité dans les sentiments des gens, les attitudes envers les deux robots étaient globalement négatives.

Dans l'ensemble, les hommes ont signalé des attitudes plus positives envers les robots que les femmes, mais cela était principalement vrai pour le robot sexuel. En regardant le robot amoureux platonique, les attitudes des hommes et des femmes étaient assez similaires.

Quel que soit le type de robot, les hommes s'attendaient à être moins jaloux si leur partenaire en avait un par rapport aux femmes. De plus, les femmes ont signalé des sentiments plus élevés de jalousie à propos d'un robot sexuel par rapport à un robot amoureux, ce qui est contraire à ce que les chercheurs s'attendaient à trouver (certaines recherches antérieures sur la jalousie ont montré que les femmes déclarent plus de jalousie émotionnelle que sexuelle, ce qui était à la base de leur prédiction).

En pensant à leur partenaire possédant un robot, les hommes ont signalé des niveaux similaires d'aversion pour le robot sexuel et amoureux, tandis que les femmes ont déclaré plus d'aversion pour leur partenaire utilisant un robot sexuel qu'un robot amoureux.

Enfin, lorsqu'ils réfléchissent à la réaction de votre partenaire si vous possédiez un robot sexuel, les hommes s'attendaient à des niveaux similaires d'aversion de leur partenaire pour les deux types de robots, tandis que les femmes anticipaient plus d'aversion pour leur partenaire s'ils utilisaient un robot sexuel plutôt qu'un robot amoureux.

Bien sûr, ces résultats sont limités car ils sont basés sur ce que les gens pensent des hypothétiques robots sexuels/amoureux. La plupart des gens n'ont tout simplement pas encore d'expérience personnelle avec cette technologie. En outre, les gens peuvent avoir des idées sur ce qu'ils ressentiraient à propos des robots qui sont façonnés par les représentations médiatiques populaires, où il est beaucoup plus courant de voir des robots sexuels féminins que masculins et où l'utilisation de ces robots se termine souvent par un désastre (voir Ex Machina ou Westworld?)

Cela dit, ces résultats indiquent des différences importantes dans la façon dont les gens pensent des robots en fonction du type de robot (sexe contre amour) et du genre d'un individu. Ils suggèrent également que les robots peuvent éventuellement devenir une source potentielle de conflit dans les relations dans la mesure où les partenaires ont des sentiments différents à leur sujet. Et peut-être que ce conflit sera plus prononcé dans les relations mixtes (hommes/femmes) en raison des différences d'attitudes des hommes et des femmes, mais moins dans les relations homosexuelles (où les attitudes des partenaires peuvent être plus en accord les unes avec les autres).

Une piste de recherche intéressante pour les recherches futures serait de demander ce que les gens pensent de l'utilisation de robots sexuels/amoureux avec un partenaire, par opposition à un seul partenaire qui les utilise. Lorsque les robots sont présentés comme un substitut ou un remplacement pour un partenaire réel, cela peut évoquer des attitudes plus négatives et de la jalousie. Mais qu'en est-il lorsque les robots deviennent un complément à la vie sexuelle d'un couple, offrant une nouvelle façon pour les partenaires d'interagir ensemble ? Par exemple, les personnes en couple sont-elles plus ouvertes à l'idée de trios de robots plutôt qu'à l'utilisation de robots en solo ?

Et si les robots sexuels/amoureux étaient conçus comme un moyen de résoudre un problème sexuel ou relationnel ? Par exemple, si deux partenaires veulent des quantités de sexe radicalement différentes, un robot sexuel pourrait-il être une solution viable à ce problème et potentiellement réduire les conflits et prévenir l'infidélité ? Ou qu'en est-il de l'utilisation de robots sexuels/d'amour dans les relations à distance où les partenaires se voient très rarement comme moyen d'établir une connexion plus sexuelle et intime ?

Alors qu'est-ce que tu en penses? Que penseriez-vous de l'idée d'utiliser vous-même un robot sexe contre amour ? Et que ressentiriez-vous si votre partenaire en utilisait un ?

Vous voulez en savoir plus sur Sexe et psychologie? Cliquez sur ici pour en savoir plus sur le blog ou ici pour écouter le podcast. Suivre Sexe et psychologie au Facebook, Twitter (@JustinLehmiller), ou Reddit pour recevoir des mises à jour. Vous pouvez également suivre le Dr Lehmiller sur Youtube et Instagram.

Pour en savoir plus sur cette recherche, voir : Nordmo, M., Næss, J. Ø., Husøy, M. F., & Arnestad, M. N. (2020). Amis, amants ou rien : les hommes et les femmes diffèrent dans leurs perceptions des robots sexuels et des robots amoureux platoniques. Frontières en psychologie, 11, 355.


Coach robotique en psychologie positive pour étudiants

Un nombre important d'étudiants souffrent de problèmes de santé mentale qui ont un impact sur leurs résultats physiques, sociaux et professionnels. Diverses technologies évolutives ont été proposées afin d'atténuer l'impact négatif des troubles de santé mentale. Cependant, l'évaluation de ces technologies, si elle est effectuée, rapporte souvent des résultats mitigés sur l'amélioration de la santé mentale des utilisateurs. Nous devons mieux comprendre les facteurs qui alignent les attributs et les besoins d'un utilisateur avec les interventions basées sur la technologie pour des résultats positifs. Dans la théorie de la psychothérapie, l'alliance thérapeutique et le rapport entre un thérapeute et un client sont considérés comme la base du succès thérapeutique.

Dans des travaux antérieurs, les robots sociaux ont montré le potentiel d'établir des relations et une alliance de travail avec les utilisateurs dans divers contextes. Dans ce travail, nous explorons l'utilisation d'un robot coach social pour fournir des interventions de psychologie positive aux étudiants vivant dans des dortoirs sur le campus. Nous avons recruté 35 étudiants pour participer à notre étude et déployé un entraîneur de robot social à thei&hellip. Lire la description complète

Un nombre important d'étudiants souffrent de problèmes de santé mentale qui ont un impact sur leurs résultats physiques, sociaux et professionnels. Diverses technologies évolutives ont été proposées afin d'atténuer l'impact négatif des troubles de santé mentale. Cependant, l'évaluation de ces technologies, si elle est effectuée, rapporte souvent des résultats mitigés sur l'amélioration de la santé mentale des utilisateurs. Nous devons mieux comprendre les facteurs qui alignent les attributs et les besoins d'un utilisateur avec les interventions basées sur la technologie pour des résultats positifs. Dans la théorie de la psychothérapie, l'alliance thérapeutique et le rapport entre un thérapeute et un client sont considérés comme la base du succès thérapeutique.

Dans des travaux antérieurs, les robots sociaux ont montré le potentiel d'établir des relations et une alliance de travail avec les utilisateurs dans divers contextes. Dans ce travail, nous explorons l'utilisation d'un robot coach social pour fournir des interventions de psychologie positive aux étudiants vivant dans des dortoirs sur le campus. Nous avons recruté 35 étudiants pour participer à notre étude et déployé un robot coach social dans leur chambre. Le robot dispensait des séances quotidiennes de psychologie positive, entre autres compétences utiles, telles que la diffusion des prévisions météorologiques, la planification de rappels, etc. Nous avons constaté une amélioration statistiquement significative du bien-être psychologique, de l'humeur et de la volonté des participants de changer de comportement pour améliorer leur bien-être après avoir terminé l'étude. De plus, les traits de personnalité des étudiants ont été trouvés pour avoir une association significative avec l'efficacité de l'intervention. L'analyse de l'entretien post-étude a révélé l'appréciation des étudiants pour la compagnie du robot et leurs préoccupations en matière de confidentialité.

Par rapport aux outils technologiques de santé axés sur les tâches, un robot social a des opportunités uniques de construire une alliance thérapeutique avec ses utilisateurs et de tirer parti de cette relation pour améliorer davantage l'efficacité des interventions qu'il fournit.


Discussion

A travers les suggestions et les problèmes mis en avant par les objets de recherche, on constate que le manque de ressources pédagogiques, la pénurie d'enseignants et la prise en compte inadéquate des détails dans la conception pédagogique et les méthodes d'enseignement créeront certaines pertes en termes d'expérience d'apprentissage. , le processus d'apprentissage et même les résultats d'apprentissage. Par conséquent, l'équipe enseignante doit accorder suffisamment d'attention à ce point et saisir pleinement tous les aspects de la conception pédagogique dans les futures activités d'enseignement et d'apprentissage. Bien sûr, l'existence de problèmes est la meilleure motivation pour s'améliorer, et les suggestions avancées par les étudiants sont la richesse la plus précieuse pour l'amélioration de l'enseignement. Alors que les apprenants sont tenus de grandir, les éducateurs doivent également se développer continuellement pour finalement atteindre la croissance commune des enseignants et des élèves. L'attente exprimée par les apprenants est la plus grande affirmation de l'équipe pédagogique. Ils ont appris quelque chose pendant le cours expérimental et s'attendent à avoir plus d'occasions d'apprendre à l'avenir. Cela montre que la contribution de l'équipe enseignante est précieuse et que l'équipe enseignante est également pleine d'un sentiment d'accomplissement, de sorte que l'équipe enseignante a une plus grande passion pour continuer à améliorer la conception de l'enseignement et que les étudiants peuvent acquérir plus de connaissances et de compétences.

Les quatre aspects peuvent être résumés en trois points. Premièrement, les objets de recherche donnent une évaluation positive de l'ensemble des activités d'enseignement et d'apprentissage. Dans le journal de réflexion, les apprenants décrivent clairement le contenu de l'enseignement et les tâches expérimentales, participent activement aux activités d'enseignement et d'apprentissage et reconnaissent la conception pédagogique et la mise en œuvre pédagogique de l'équipe enseignante. Deuxièmement, l'objet d'étude a gagné et appris quelque chose. Pendant le cours, les apprenants enrichissent non seulement le système de connaissances et la structure cognitive, mais s'inspirent également de la vie quotidienne et cultivent leur propre pensée innovante. En même temps, il a cultivé la conscience créative, amélioré la capacité pratique et renforcé le sens du travail d'équipe. Troisièmement, compte tenu des lacunes du processus d'enseignement, quelques suggestions constructives sont avancées. Ces suggestions peuvent inciter l'équipe enseignante à concevoir l'enseignement avec plus de soin, à fournir des ressources pédagogiques de haute qualité et à optimiser constamment les méthodes d'enseignement et d'apprentissage afin de promouvoir un apprentissage significatif des apprenants.


AVIS article

  • Unité de recherche sur la théorie de l'esprit, Département de psychologie, Université catholique du Sacré-Cœur, Milan, Italie

La pandémie de la maladie à coronavirus 2019 (COVID-19) a suscité de nombreuses recherches sur l'utilisation possible de robots dans différents domaines d'intervention. L'un d'eux est lié au déploiement de robots sociaux pour faire face aux différents besoins suscités par et en fonction de l'urgence. Selon un article récent publié dans Science (Yang et al., 2020, p. 1) “les robots sociaux pourraient être déployés pour fournir des interactions sociales continues et l'adhésion aux schémas thérapeutiques sans peur de propagation de la maladie. Dans ce contexte, l'isolement social et la quarantaine, souvent considérablement prolongés en raison de la durée de l'infection, ont vraisemblablement exercé un impact négatif sur le bien-être et peut-être sur la santé mentale, dont la mise en danger était encore plus probable si un la vulnérabilité psychologique précédente était présente. Si historiquement les robots ont été employés dans des tâches dangereuses et risquées, à l'heure actuelle, certains des domaines les plus prometteurs du développement de robots incluent également la rééducation, les soins et l'intervention éducative et clinique. Nous assistons à un glissement du concept de “robot comme esclaves” à celui de “robots comme compagnons, infirmières, enseignants…” qui, en un mot, se comportent, interagissent et travaillent 𠇌omme nous” (cfr Marchetti et al., 2018). Yang et al. soutiennent que les robots sociaux utilisés pour « adhérer aux schémas thérapeutiques sans répandre la peur » doivent être mis en œuvre selon des modèles humains sophistiqués, y compris des états mentaux tels que les émotions et les croyances, ainsi que le contexte et l'environnement de l'interaction (p. 2) . À notre avis, les 𠇎nvironnements” sont les affordances strictement liées à la survie au sens évolutif. Le 𠇌ontext” est représenté par des indices socio-matériels et socio-cognitifs de la vie quotidienne. En outre, nous pensons que la mise en œuvre de robots sociaux basés sur tous les modèles humains possibles ne peut pas simplement être le produit de la fusion de professionnels de l'ingénierie et des maladies infectieuses (Yang et al., 2020, p. 2). Le modèle nécessiterait une perspective interdisciplinaire qui inclurait également la contribution des psychologues. La récente pandémie a en effet posé les bases d'une relecture de nos relations quotidiennes du point de vue non seulement des relations humaines mais aussi d'autres agents, comme les robots. Dans le présent avis, nous suggérons donc que l'utilisation de robots n'est pas seulement une question purement technique mais également soutenue par des changements importants dans la façon dont nous envisageons les relations, en particulier avec nos proches. Dans cet objectif, nous nous sommes concentrés sur l'identification de certaines composantes psychologiques les plus sujettes au changement en raison de la situation mondiale actuelle. Prenons, par exemple, l'émotion de peur mentionnée ci-dessus. La peur prendra probablement (si ce n'est déjà fait) une forme différente à cause du virus. La peur est une émotion primaire (Ekman et Friesen, 1971) et adaptative développée au cours de l'évolution pour permettre de faire face au danger et assurer la survie. Les prédateurs, les contaminants et les envahisseurs sont des ennemis potentiellement dangereux qui sont toutes des variables à risque envers lesquelles des relations étroites agissent généralement comme des facteurs de protection. En cas de peur, les options pour l'individu sont représentées par les comportements dits de 𠇏ight ou de fuite”. Sur le plan relationnel, c'est la recherche d'un socle sécurisant (Bowlby, 1988), où se trouve une place de réassurance et d'apport affectif. Cette tendance persiste également à l'âge adulte en raison de la transmission transgénérationnelle des modèles d'attachement.

Néanmoins, la pandémie de COVID-19 nous a confrontés à un scénario où la peur n'a pas de visage. Désormais, elle implique également des partenaires proches, c'est-à-dire des personnes potentiellement sources ou bénéficiaires de soins. Cela contraste profondément avec une série de réalisations développementales fondamentales qui font de la proximité physique le prototype incarné de la proximité psychologique. L'individu entreprend un chemin dans lequel la dichotomie « autre social connu/autre social inconnu » agit comme un organisateur de croyances et d'attitudes, contribuant ainsi à la construction du Soi en tant qu'entité distincte et séparée de l'Autre. . D'un point de vue neurosensoriel, le bébé humain est équipé pour se reconnaître et s'orienter avec confiance vers des figures primaires de soins et de protection c'est précisément sur cette base que se construit la confiance en les autres et en nous-mêmes (Di Dio et al., 2019, 2020a,b Manzi et al., 2020a,b). Le soi-disant &# x0201Canguish de l'étranger&# x0201D (Spitz, 1945 Schaffer, 1966) apparaît vers l'âge de 8 mois. Il marque la distinction entre les soignants et tous les autres : avant de devenir un agent neutre que l'enfant observera et connaîtra, le “other” en soi est perçu comme effrayant (digne de peur en d'autres termes). Cette étape semble être en ligne avec le comportement de l'enfant plus âgé observé dans la situation étrange (un paradigme visant à évaluer l'attachement Ainsworth et al., 1978): la réponse de détresse et de peur envers l'étranger, qui est généralement plus acceptée si la mère est en présence de l'enfant, et les réactions envers qui sont prédites par la sécurité de l'attachement de l'enfant à la mère. Plus tard dans la vie, l'enfant en développement peut établir des liens d'attachement avec d'autres personnes dans ses contextes de vie : amis, camarades de classe, parents de la famille élargie, enseignants et éducateurs dans divers contextes, de l'école aux activités sportives (Pianta, 1999). Alors que la perspective théorique des attachements multiples postule que l'élargissement de la sphère de l'autre social connu se caractérise par une différenciation des rôles fonctionnels joués par les relations multiples, elle maintient la capacité développementale fondamentale d'identifier l'autre comme un “ sûr. -partenaire social sûr,” le distinguant du ȁpartenaire social dangereux et dangereux.” La possibilité de créer des attachements multiples prévient une série de risques développementaux et agit comme un amplificateur de relations d'attachement primaires facteur protecteur vicariant dans les conditions de fragilité affective relationnelle. Par ailleurs, non seulement les relations sécurisées à multiples figures avec l'enseignant, pour ne citer qu'un exemple, sont liées au bien-être personnel au sein de la sphère affective, mais aussi aux performances cognitives à l'école, ainsi qu'aux indices socio-cognitifs comme climat scolaire, acceptation par les pairs, etc. Afin d'exercer un rôle protecteur-rehaussant, tous ces “others” (éducateurs, enseignants, proches) doivent être perçus comme “outre moi.” Le sens physique de “outreside” — le sens littéral anticipe dans le développement, et continue à soutenir dans la durée de vie, le sens métaphorique de l'expérience humaine de la proximité et de la proximité psychologiques. Et c'est précisément l'impossibilité d'obtenir pleinement les chances offertes par les différentes significations de �sideness” (proximité physique et sécurité/sûreté) qui est responsable de l'érosion du sentiment d'être protégé de la peur dans les contextes de liens affectifs. . Bien que la technologie nous permette d'être connectés même lorsque nous sommes physiquement séparés, la solitude et l'isolement expérimentés largement rapportés pendant COVID-19 peuvent dépendre à la fois de l'incapacité technologique à incarner des relations affectives et peut-être aussi de la conscience plus ou moins implicite que « l'autre social connu » #x0201D (également mon aide-soignant, fille-fils-enseignante-petite amie/petit-ami-enseignant, éducatrice) pourrait être dangereux pour moi. Par conséquent, l'ambiance omniprésente des relations étroites n'est plus celle de la sécurité mais plutôt un sentiment généralisé de peur floue (De plus, si les gens réfléchissent à la possibilité d'être un agent actif de contagion pour leurs proches, l'émotion de base de la peur devrait être ajoutée à l'émotion complexe d'une potentielle culpabilité floue). Ainsi, si les dynamiques in-group/out-group—jusqu'aux attitudes envers l'“étranger” au sens géographique et politique (Antonietti et Marchetti, 2020)— sont le résultat de cette articulation primaire selon laquelle — x0201Cknown-familiar” équivaut à fiable et “unknown-unfamiliar” équivaut à potentiellement dangereux (danger dont—phylogénétiquement et ontogénétiquement—le “known-familiar” est chargé de nous protéger), l'effet du flou des émotions, et surtout de la peur sur la santé mentale dans une situation stressante comme celle représentée par la pandémie de COVID-19, peut être facilement imaginée. En fait, la pandémie de COVID-19 implique la possibilité d'une contagion aveugle par n'importe qui, y compris les plus proches de nous au sens psychique. De ce fait, il sape la dynamique décrite ci-dessus en suscitant une forme de peur sans précédent, dans laquelle tombent les frontières entre sécurité et risque. En cas d'infection, il est nécessaire de respecter la règle de distanciation sociale aveugle de tout le monde. Il en va de même si un parent est infecté. L'œuvre de miséricorde pour rendre visite aux malades ne peut pas être accomplie, tout comme il est impossible d'étendre le dernier adieu à ceux qui nous ont quittés pour toujours. En un mot, COVID-19 a complètement changé la physionomie sécurité/confiance/danger/risque et peur, détruisant du coup un lien que l'évolution et le développement ontogénétique ont mis longtemps à construire. Les sentiments de négligence sinon d'abandon des êtres chers, ou d'être négligé sinon abandonné par eux pour assurer les objectifs protecteurs de la distanciation sociale, ne sont pas faciles à gérer d'un point de vue psychologique l'expérience de l'isolement, de la solitude et de la souci d'être oublié sont difficiles à expliquer et à faire comprendre aux enfants comme aux personnes âgées. C'est-à-dire que l'érosion des fondements de la distinction entre 𠇌onnu-familier-sûr/inconnu-étranger-dangereux” pourrait varier selon les phases de développement de l'individu ainsi que le statut d'experts/novices. En termes de phases de développement, les ressources cognitives, sociales et affectives typiques d'âges spécifiques permettent aux enfants d'assimiler et d'élaborer différemment des informations sur le virus, ses effets et les dangers de la proximité avec les personnes aimées. D'un autre côté, si on le considère du point de vue du statut d'expert/novice, qui est en partie lié aux phases de développement, avoir des informations fiables ou de réelles connaissances scientifiques sur la propagation du virus pourrait aider à mieux gérer l'effet de la nouvelle forme de peur floue. Pour en revenir au rôle joué par la robotique dans le cadre psychologique brièvement exposé ici, l'utilisation des robots peut évoluer en fonction d'une série de facteurs que seule la contribution des psychologues peut aider à mettre en évidence. Tout d'abord, l'expérience “like me,” qui représente la base d'acceptation/refus des robots sociaux, évolue avec l'âge. Comme le sens des gens des gens (pour paraphraser Legerstee, 2005), le sens des gens des robots sociaux dépend également du développement, ainsi que des objectifs et des contextes, de l'utilisation des robots (Marchetti et al., 2018 ). For these reasons, it is fundamental that the design of social robots meant to be deployed in situations of 𠇏uzzy fear” like the one we are experiencing not only includes the purposes of assistance, companionship, or tutoring associated with medical regimens but also takes the real role of �r-free” mediators of affective functions. In this way, robots do not become substitutes for close relationship partners from whom social distancing separates us, but act as relational bridges between those who are separated for health and safety reasons. As an effect of this rethinking the functions of social robots in emergency situations, some current negative attitudes toward social robots𠅏rom resistance and ambivalence up to the uncanny valley phenomenon (Mori, 1970 MacDorman and Ishiguro, 2006)𠅌ould significantly change. To pursue the goal of designing useful social robots for the psychological needs described here (i.e., coping with fuzzy fear and taking advantage of robots as affective mediators), a deep, psychologically driven afterthought will be needed around three basic axes of reflection. The first two axes are more general. The first one regards the psychological understanding of people involved in human–robot interactions during a sanitary emergency in terms of level of development, socio-demographic characteristics, and previous experience with social robots (see the experts/novices distinction above). Expectations and attitudes toward social robots may in fact change according to both development and expertise. The second axis regards the construction of social robots that are able not only to take into account the needs of their human partners but also to relate with the human agent in an understandable way. This represents an extremely important feature that every human would expect from the interactive experience. The literature on robotics calls it “transparency”/𠇎xplainability” (Holzinger et al., 2019), which would correspond to the experience of the Theory of Mind (Perner, 1991 Wellman et al., 2001) in the domain of human–human interaction. The third axis of reflection relates to a goal that we hope to achieve in a not too distant future. Specifically, it concerns the identification of the best way to devise social robots that are able to sensitively manage and respond to the behavior of a human partner with a possible acute temporary breakdown in the ability to scaffold the sense of emotional security—like some of us during this COVID-19 emergency—that is the very basis of Self construction.

The theoretical reflections discussed in this Opinion reread therefore the question of fear in the light of a danger that poses new questions and that, as is suggested, leads to rethinking particular psychological and social dynamics. In reading the new relational dynamics hypothesized in the present work, from which the robot is spared, COVID-19 pandemics added novelty to the physiognomy of fear, which (unlike anxiety) is an emotion linked to objects and situational antecedents, and which may therefore be affected by the nature of its objects at the level of subjective experiences, behavioral reactions, as well as coping strategies. These theoretical suggestions may enrich knowledge from an interdisciplinary perspective, such as robotics and psychology, providing important starting points for future research by emphasizing which psychological components should be investigated in people interacting with robots. An example is the perception of in-group/out-group, as well as the components of fear that, in our opinion, are mitigated toward robots in the specific COVID-19 situation, which forces us to adapt to the inclusion of new social agents devoted to care assistance.


Could a Rising Robot Workforce Make Humans Less Prejudiced?

Jackson, J., Castelo, N. & Gray, K. (2019).
American Psychologist. (2019)

Automation is becoming ever more prevalent, with robot workers replacing many human employees. Many perspectives have examined the economic impact of a robot workforce, but here we consider its social impact: how will the rise of robot workers affect intergroup relations? Whereas some past research suggests that more robots will lead to more intergroup prejudice, we suggest that robots could also reduce prejudice by highlighting commonalities between all humans. As robot workers become more salient, intergroup differences—including racial and religious differences—may seem less important, fostering a perception of a common human identity (i.e., “panhumanism.”) Six studies (∑N= 3,312) support this hypothesis. Anxiety about the rising robot workforce predicts less anxiety about human out-groups (Study 1) and priming the salience of a robot workforce reduces prejudice towards out-groups (Study 2), makes people more accepting of out-group members as leaders and family members (Study 3), and increases wage equality across in-group and out-group members in an economic simulation (Study 4). This effect is mediated by panhumanism (Studies 5-6), suggesting that the perception of a common human in-group explains why robot salience reduces prejudice. We discuss why automation may sometimes exacerbate intergroup tensions and other-times reduce them.

From the General Discussion

An open question remains about when automation helps versus harms intergroup relations. Our evidence is optimistic, showing that robot workers can increase solidarity between human groups. Yet other studies are pessimistic, showing that reminders of rising automation can increase people’s perceived material insecurity, leading them to feel more threatened by immigrants and foreign workers (Im et al., in press Frey, Berger, & Chen, 2017), and data that we gathered across 37 nations—summarized in our supplemental materials—suggest that the countries that have automated the fastest over the last 42 years have also increased more in explicit prejudice towards out-groups, an effect that is partially explained by rising unemployment rates.


Recent studies have suggested artificial intelligence can develop sexist and racist tendencies

“There have to be some things that are respected, like the autonomy of people and their privacy,” says Delvaux.

This perhaps also highlights another issue troubling many dealing with artificial intelligence – the problem of bias. Machine learning systems are only as good as the data they are given to learn on, and recent studies have suggested artificial intelligence can develop sexist and racist tendencies.

Delvaux also points to the people who are writing the algorithms in the first place. The majority of people working in the technology industry are white males, with men making up between 70% and 90% of the employees at some of the biggest and most influential companies.

Silicon Valley has been rocked over the past couple of years with scandals about sex discrimination. It has raised fears that robots and machines could display similar discriminatory behaviour.

“It is a very thin slice of the population currently designing our technologies,” warns Judy Wajcman, a professor of sociology at the London School of Economics. “Technology needs to reflect society, so there needs to be a shift in the design and innovation process.”

Meanwhile, Bill Gates recently suggested yet another ethical red flag: that robots themselves may have to be taxed to make up for lost levies on income from employees. Others have suggested as robots take on more tasks, there could be a growing case for universal basic income, where everyone receives state benefits.

Much of this, of course, assumes that robots are actually capable of doing the jobs we set them. Despite their apparent intelligence, most robots are still pretty dumb contraptions when compared to our own capabilities.

Customers dine outside Eatsa, San Francisco's first fully automated restaurant in 2015 - food is picked up in ɼubbies,' no server, wait staff or cashier required. (Credit: Getty)

Machines have a ways to go

Like the Ikea example, AI leaves a lot of room for improvement.

Perhaps one of the greatest issues facing the machine learning and artificial intelligence community currently is understanding how their algorithms work. “Things like artificial intelligence and machine learning are still largely black boxes,” argues Manyika. “We can’t open them up to find out how they got the answer they produce.”

This presents a number of issues. Machine learning systems and modern AI are usually trained using large sets of images or data that are fed in to allow them to recognise patterns and trends. They can then use this to spot similar patterns when they are given new data.

This might be fine if we want to find CT scans that show signs of disease, for example, but if we use a similar system to identify a suspect from a fragment of CCTV footage, knowing how it did this may be crucial when presenting the evidence to a jury.

Even in the field of autonomous vehicles, this ability to generalise remains a considerable challenge.

Takeo Kanade, a professor of robotics at Carnegie Mellon University, is one of the pioneers of self-driving vehicles and an expert in computer vision. He says giving robots a “genuine understanding” of the world around them is still a technical challenge that needs to be overcome.

“It is not just about identifying where objects are,” he explains, following a lecture at the inaugural Kyoto Prize at Oxford event, where he outlined the problems facing researchers. “The technology has to be able to understand what the world is doing around them. For example, is that person actually going to cross the road in front of them, or not?”

Hawes himself encountered a similar problem with one of his own projects that put an autonomous “trainee office manager” into several offices in the UK and Austria.

The team programmed the robot, called Betty, to trundle around the offices monitoring for clutter building up, checking whether fire doors were closed, measuring noise and counting workers at their desks outside normal hours.

“Things would appear in the environment like chairs moving, people shifting their desks or pot plants,” he says. “Dealing with that without reprogramming the whole robot is challenging.”

But even though the robot wasn’t perfect, the humans still found a way of working alongside it.

Surprisingly, those working alongside Betty actually responded to their mechanical worker in a positive way, even coming to its aid if the robot ever got stuck in a corner. “People would say hello to it in the morning and said it made the office more interesting to work in,” says Hawes.

If we can hand the tedious, repetitive bits of our jobs to machines then it could free us up to some of the things we actually enjoy. “Work has the potential to become more interesting as a result,” says Frey.

It is a tantalising thought, that just perhaps, the rise of the machines could make our jobs a lot more human.


Dr. Jeff Hancock is founding director of the Stanford Social Media Lab and a professor in the Department of Communication at Stanford University. Hancock works on understanding psychological and interpersonal processes in social media. His research team specializes in using computational linguistics and experiments to understand how the words we use can reveal psychological and social dynamics, such as deception, trust, intimacy and social support. Hancock is well known for his research on how people use deception with technology from sending texts and emails to detecting fake online reviews.


A concept in psychology is helping AI to better navigate our world

The concept: When we look at a chair, regardless of its shape and color, we know that we can sit on it. When a fish is in water, regardless of its location, it knows that it can swim. This is known as the theory of affordance, a term coined by psychologist James J. Gibson. It states that when intelligent beings look at the world they perceive not simply objects and their relationships but also their possibilités. In other words, the chair “affords” the possibility of sitting. The water “affords” the possibility of swimming. The theory could explain in part why animal intelligence is so generalizable—we often immediately know how to engage with new objects because we recognize their affordances.

The idea: Researchers at DeepMind are now using this concept to develop a new approach to reinforcement learning. In typical reinforcement learning, an agent learns through trial and error, beginning with the assumption that any action is possible. A robot learning to move from point A to point B, for example, will assume that it can move through walls or furniture until repeated failures tell it otherwise. The idea is if the robot were instead first taught its environment’s affordances, it would immediately eliminate a significant fraction of the failed trials it would have to perform. This would make its learning process more efficient and help it generalize across different environments.

The experiments: The researchers set up a simple virtual scenario. They placed a virtual agent in a 2D environment with a wall down the middle and had the agent explore its range of motion until it had learned what the environment would allow it to do—its affordances. The researchers then gave the agent a set of simple objectives to achieve through reinforcement learning, such as moving a certain amount to the right or to the left. They found that, compared with an agent that hadn’t learned the affordances, it avoided any moves that would cause it to get blocked by the wall partway through its motion, setting it up to achieve its goal more efficiently.

Why it matters: The work is still in its early stages, so the researchers used only a simple environment and primitive objectives. But their hope is that their initial experiments will help lay a theoretical foundation for scaling the idea up to much more complex actions. In the future, they see this approach allowing a robot to quickly assess whether it can, say, pour liquid into a cup. Having developed a general understanding of which objects afford the possibility of holding liquid and which do not, it won’t have to repeatedly miss the cup and pour liquid all over the table to learn how to achieve its objective.


Voir la vidéo: Expérience hallucinante en caméra cachée sur le conformisme. (Janvier 2022).