Théories et pratiques de l’apprentissage situé 62/101

Human-Machine Reconfigurations – Lucy A. Suchman (6/n)

Chapitre 1 « Interfaces Interactives »  extraits (1e partie)

Introduction

Dans les premières ligne du chapitre,
Suchman se réfère au livre The Second Self (1984), un livre de Sherry Turkle dans lequel elle examine l’impact des artefacts informatiques sur les conceptions des enfants de la différence entre des catégories comme « vivant » et « pas vivant » et « machine » et « personne ».

Suchman refers to The Second Self (1984) a book by Sherry Turkle in which she examines the impact of computer-based artifacts on children’s conceptions of the difference between categories such as « alive » versus « not alive » and « machine » versus « person »

Les enfants ont tendance, par exemple, à attribuer la vie à des objets physiques sur la base de comportements tels que le mouvement ou la réactivité autonomes, pensant qu’ils réservent l’humanité à des entités qui témoignent de choses telles que l’émotion, la parole, la pensée apparente ou la détermination.

… Children have a tendency, for example, to attribute life to physical objects on the basis of behaviorssuchasautonomousmotionorreactivity,thoughtheyreserve humanity for entities evidencing such things as emotion, speech, and apparent thought or purposefulness.

Les artefacts informatiques posent à la distinction de longue date entre le physique et le social, dans le sens particulier de ce que l’on conçoit, construit et utilise, d’une part, et de ce avec quoi on communique, de l’autre.

L’interaction entre les personnes et les machines implique une intelligibilité mutuelle ou une compréhension partagée. Ce qui motive ma question n’est donc pas seulement la récente question de savoir comment il pourrait y avoir une intelligibilité mutuelle entre les personnes et les machines, mais aussi la question prioritaire de savoir comment nous devons tenir compte de la compréhension ou de l’intelligibilité mutuelle que nous vivons en tant que personnes dans nos interactions avec les autres dont la similitude essentielle n’est pas en cause.


Dans ce chapitre, j’associe l’idée de la communication homme-machine à certaines propriétés distinctives des artefacts informatiques et à l’émergence de disciplines visant à rendre ces artefacts intelligents. Je commence par une brève discussion sur la science cognitive, le domaine interdisciplinaire consacré à la modélisation des processus cognitifs et son rôle dans le projet des artefacts intelligents de la créatine.

Je soutiens que la description des artefacts computationnels en tant qu’artefacts interactifs est soutenue par leurs propriétés réactives, linguistique et opaques à l’intérieur. Compte tenu de ces propriétés, je considère le double sens dans lequel les chercheurs s’intéressent aux artefacts qui s’expliquent, d’une part, comme une solution au problème de longue date qui consiste à convaincre l’utilisateur de la destination de l’artefact, grâce à sa conception et aux instructions connexes, et, d’autre part, comme un moyen d’établir l’intelligence, ou la responsabilité raisonnable, de l’artefact lui-même.

Automates et sciences cognitives

Dans les premiers paragraphes Suchman refait l’histoire des automates et fait référence au livre de Julien de la Mettrie L’homme Machine publié en 1748, dans lequel il soutient que la vitalité caractéristique de l’être humain était le résultat de sa structure physique plutôt que quelque chose d’immanent dans sa substance matérielle de quelque force immatérielle. Les scientifiques cognitifs d’aujourd’hui maintiennent la prémisse de base de de la Mettrie en ce qui concerne l’esprit, soutenant que l’esprit est mieux perçu comme n’étant ni substantiel ni insubstantiel, mais comme une structure abstraite pouvant être mise en œuvre dans un nombre quelconque de supports physiques possibles

En d’autres termes, l’intelligence, n’est qu’accessoirement incarnée dans la neurophysiologie du cerveau humain, et ce qui est essentiel dans l’intelligence peut être abstrait de ce substrat particulier, bien que très réussi et incarné dans un éventail inconnu de formes alternatives.

Ce point de vue dissocie le raisonnement et l’intelligence des choses uniquement humaines et ouvre la voie à la construction d’artefacts intelligents.


Au début du XXe siècle, la méthode reconnue pour étudier la vie mentale humaine était l’introspection et, dans la mesure où l’introspection ne se prêtait pas aux canons émergents de la méthode scientifique, l’étude de la cognition semblait irrémédiablement vouée à l’échec.
En réaction à cette perspective, les comportementalistes ont postulé que toute action humaine devrait être instable en termes de relations publiquement observables, mécaniquement descriptibles entre l’organisme et son environnement. Au nom de la transformation des études cognitives en une science, en d’autres termes, l’étude de la cognition en tant qu’étude de quelque chose d’autre que le comportement manifeste a été effectivement abandonnée en psychologie dominante.

L’étude de la cognition doit être (traitée d’une manière) empirique, non pas par une stricte adhésion au behaviorisme mais par l’utilisation d’une nouvelle technologie : l’ordinateur.

Le sous-domaine de la science cognitive le plus dédié à l’ordinateur est l’intelligence artificiielle. L’intelligence artificielle est apparue au fur et à mesure que les progrès de la technologie informatique étaient liés au développement des théories neurophysiologiques et mathématiques de l’information
… si une théorie des processus mentaux sous-jacents pourrait être modelée (modélisée) sur l’ordinateur de manière à produire le bon comportement extérieur, la théorie pourrait être considérée comme ayant passé au moins un test de suffisance de sa validité psychologique.

La stratégie cognitiviste est d’interjeter une opération mentale entre le stimulus environnemental et la réponse comportementale : essentiellement, déplacer les causes d’action de l’environnement qui empiète sur l’acteur aux processus, abstraits comme le calcul, dans la tête de l’acteur.

La première prémisse de la science cognitive est donc que les gens (ou « cognizers » de toute sorte) agissent sur la base de représentations symboliques : une sorte de code cognitif, instancié physiquement dans le cerveau, sur lequel des opérations sont effectuées pour produire des états mentaux tels que « la croyance que p », qui à leur tour produisent un comportement compatible avec ces états. La relation entre les stimuli environnementaux et ces états mentaux, d’une part, et les états mentaux et le comportement, d’autre part, demeure profondément problématique et fait l’objet de nombreux débats dans ce domaine.

*** Tous les participants aux sciences cognitives et aux disciplines qui leur sont associées s’entendent toutefois sur le fait que la cognition n’est pas seulement potentiellement comme le calcul, mais qu’elle est littéralement computationnelle.

Le point de vue selon lequel l’intelligence dans la manipulation des symboles trouve une application pratique à la fois dans les systèmes dits experts, qui structurent et traitent de grandes quantités de données bien formulées, et dans les robots industriels qui effectuent des tâches de routine, d’assemblage répétitif et de contrôle….

… Dans les deux cas, le système peut traiter une grande quantité d’informations codées et des relations syntaxiques d’une grande sophistication et complexité, dans des domaines très circonscrits. Mais lorsqu’il s’agit soit d’une interaction directe avec l’environnement, soit de l’exercice d’un raisonnement pratique et quotidien sur la signification des événements dans le monde, il est généralement admis que l’état de l’art des machines intelligentes n’a pas encore atteint les capacités cognitives de base de l’enfant normal de cinq ans*.

*NOTE (CM): Où en est-on aujourd’hui? Peut-on comparer ?

L’idée de l’interaction homme-machine

…. l’utilisation d’un vocabulaire intentionnel est déjà bien établi dans les techniques et la discussion populaire sur les ordinateurs. L’attribution de la finalité aux artefacts informatiques découle en partie du simple fait que chaque action de l’utilisateur provoque une réaction immédiate de la machine….
La définition technique de l’informatique interactive (…) est simplement que le contrôle en temps réel du processus informatique est placé entre les mains de l’utilisateur, grâce à un traitement immédiat et à la disponibilité de dispositifs d’interruption permettant à l’utilisateur de surcharger et modifier les opérations en cours.

Une base plus profonde de la sociabilité relative des artefacts informatiques est cependant le fait que les moyens de contrôle des machines informatiques et les comportements qui en résultent sont de plus en plus linguistiques plutôt que mécaniques. En d’autres termes, le fonctionnement de la machine devient moins une question de pousser des boutons ou de tirer des leviers avec un certain résultat physique et plus une question de spécifier les opérations et d’évaluer leurs effets grâce à l’utilisation d’un langage commun.

… Bien que, le plus souvent, le vocabulaire de l’interaction humaine ait été repris par les chercheurs en communication homme-machine avec peu de délibération, plusieurs chercheurs ont tenté de clarifier les similitudes et les différences entre l’utilisation de l’ordinateur et la conversation humaine.

Hayes et Reddy (1983) en sont peut-être les plus réfléchis et les plus complets. Ils identifient la différence centrale entre les systèmes informatiques interactifs existants et la communication humaine comme une question de « robustesse », c’est-à-dire la capacité des participants de la conversation à réagir à des circonstances imprévues et à détecter et à corriger les problèmes de communication :

… Hayes et Reddy (…) reconnaissent également le « problème d’habitabilité identifié par Watt (1968) en ce qui concerne le langage : c’est-à-dire la tendance des utilisateurs humains à supposer qu’un système informatique est un système linguistique sophistiqué après avoir montré des capacités élémentaires. (….) dès que des artefacts informatiques démontrent des capacités humaines reconnaissables, nous sommes enclins à les doter du reste.
…. compte tenu de notre tendance à attribuer des renseignements complets sur la base de preuves partielles, la recommandation est que le concepteur pourrait faire mieux pour mettre à la disposition de l’utilisateur les façons dont le système n’est pas comme un participant dans l’interaction.

(à suivre)
Traduit avec www.DeepL.com/Translator

 

Prochain billet:

Un résumé du chapitre 1: Artefacts interactifs –   Interactive Artifacts – (2ème partie)

 

Billets précédents

Billet 1Définitions de l’apprentissage situé

Billet 2Pourquoi s’intéresser à la théorie de l’apprentissage situé?

Billet 3:  Démarche et retour aux sources

Billet 4: Mai 1968 et l’apprentissage situé

Billet 5:  Apprentissage situé et conversation

Billet 6: Lucy Suchman, mon téléphone portable et moi

Billet 7: Conversations avec moi-même (n° 1)

Billet 8: L’apprentissage situé mis en pratique, cela ferait quoi?

Billet 9: Contribution de la psychologie soviétique à la théorie de l’apprentissage situé

Billet 10Les apports de la philosophie à la théorie de l’apprentissage situé

Billet 11Focus sur l’école Dewey

Billet 12Apports de la psychologie de la perception – la notion d’affordance

Billet 13: Apprentissage situé et intelligence artificielle, deep learning, réalité virtuelle, réalité augmentée, etc…

Billet 14: Conversations avec moi-même (N°2)

Billet 15: Quand John Dewey rencontre Jean Lave

Billet 16: Cognition in Practice (1/n)

Billet 17: Cognition in Practice (2/n)

Billet 18: Cognition in Practice (3/n)

Billet 19: Cognition in Practice (4/n)

Billet 20 Cognition in Practice (5/n)

Billet 21: « Conversations avec moi même N°3 »

Billet 22: Cognition in Practice (6/n)

Billet 23: Cognition in Practice (7/n)

Billet 24: Cognition in Practice (8/n)

Billet 25: Cognition in Practice (9/n)

Billet 26: Cognition in Practice (10/n)

Billet 27: Cognition in Practice (11/n)

Billet 28: « Conversations avec moi-même N°4 »

Billet 29: Cognition in Practice (12/n)

Billet 30: Cognition in Practice (13/n)

Billet 31: Cognition in Practice (14/n)

Billet 32: Cognition in Practice (15/n)

Billet 33: Cognition in Practice (16/n)

Billet 34: Cognition in Practice (17/n)

Billet 35: « Conversations avec moi-même N°5 »

Billet 36: Cognition in Practice (18/n)

Billet 37: Cognition in Practice (19/n)

Billet 38: Cognition in Practice (20/n)

Billet 39: Cognition in Practice (21/n)

Billet 40: Cognition in Practice (22/n)

Billet 41: Cognition in Practice (23/n)

Billet 42: « Conversations avec moi-même N°6 »

Billet 43: Cognition in Practice (24/n)

Billet 44: Cognition in Practice (25/n)

Billet 45: Cognition in Practice (26/n)

Billet 46: « Conversations avec moi-même N° 7

Billet 47: Cognition in Practice (27/n)

Billet 48: Cognition in Practice (28/n)

Billet 49: Cognition in Practice (29/n)

Billet 50: Cognition in Practice (30/n)

Billet 51: « Conversations avec moi-même N°8 »

Billet 52: Cognition in Practice (31/n)

Billet 53: Cognition in Practice (32/32)

Billet 54: Situated Learning – Legitimate Peripheral Participation

Billet 55: Situated learning in Communities of Practice

Billet 56: Citations sur l’apprentissage situé

Billet 57: Pourquoi ce livre de Lucy A. Suchman?

Billet 58: Human–Machine Reconfigurations Lucy A. Suchman (2/n)

Billet 59: Human-Machine Reconfigurations Lucy A. Suchman (3/n)

Billet 60: Human-Machine Reconfigurations Lucy A. Suchman (4/n)

Billet 61: Human-Machine Reconfiguration Lucy A. Suchman (5/n)

Related Posts

Leave a Comment!

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *