Théories et Pratiques de l’apprentissage situé 64/101

Human-Machine Reconfigurations – Lucy A. Suchman (7/n)

Chapitre 1 « Interfaces Interactives »  extraits (2e partie)

Introduction

Dans cette deuxième partie du chapitre « Interfaces Interactives »Lucy A. Suchman considère l’artefact de plusieurs points de vue, Elle fait un retour historique, évoque Turing, et d’autres auteur pour finalement démontrer la robustesse de la communication humaine dans une situation de conversation en face à face.

Artefacts auto-explicatifs

Dans les pages précédentes, j’ai proposé que les propriétés réactives, linguistiques et opaques de l’ordinateur nous amènent à le considérer comme interactif, et d’appliquer des explications intentionnelles à son comportement. Ce lien avec l’intentionnalité a des implications à la fois théoriques et pratiques. En pratique, il suggère que, comme un acteur humain, l’ordinateur devrait être capable de s’expliquer lui-même, ou d’expliquer l’intention derrière ses actions, à l’utilisateur. Théoriquement, cela suggère que l’ordinateur a réellement voulu, comme l’a démontré précisément cette capacité à se comporter d’une manière rationnelle, intelligible et responsable.

Cette idée de base, à savoir qu’un artefact explicite est un artefact dont l’utilisateur peut découvrir le but visé, est probablement aussi vieille que la conception et l’utilisation d’outils. En ce qui concerne les artefacts informatisés, cependant, la notion d’artefact auto-explicatif a pris un deuxième sens : à savoir, l’idée que l’artefact s’explique de manière plus directe dans quelque chose qui ressemble davantage à ce que fait l’être humain.

Le premier que l’outil devrait être déchiffrable par son utilisateur reflète le fait que les artéfacts sont construits par des concepteurs dans un but et que l’utilisateur d’un outil doit savoir quelque chose de cette conception.En raison der leurs propriétés interactionnelles, les outils informatiques semblent présenter une capacité unique pour fournir aux des outils d’apprentissage pour les utilisateurs. L’idée que les consignes pourraient être présentées plus efficacement en utilisant la puissance du calcul n’est pas loin de l’idée que les artefacts informatiques pourraient réellement instruire, c’est-à-dire, pourraient interagir avec les gens d’une manière qui se rapproche du comportement d’un expert humain intelligent ou coach.

L’ordinateur en tant qu’artefact conçu dans un but précis

En même temps que les artefacts informatiques introduisent une complexité et une opacité nouvelles dans nos rencontres avec les machines, notre dépendance à l’égard de la technologie informatique et sa prolifération tout au long de la société augmente. Plutôt que de s’appuyer sur les enseignements d’un utilisateur expérimenté, l’utilisation de l’ordinateur doit être directement liée à la technologie elle-même.

Les archéologues savent bien que, bien que l’attribution de l’intention de conception soit une condition de l’intelligibilité d’un artefact, la conception de l’artefact en tant que telle n’indique sans équivoque ni son utilisation réelle ni son utilisation prévue, ce qui est inhérent à l’utilisation d’une technologie directement par sa conception.

En situation Face à face, l’interaction humaine est le cas paradigmatique d’un système de communication qui, parce qu’il est organisé de manière à être le plus adapté possible aux contextes, est conçu spécialement pour ces destinataires en cette circonstance. L’enseignement en face à face permet de tenir compte de cette sensibilité au contexte pour résoudre les problèmes d’acquisition de compétences. Le coach compétent, par exemple, s’appuie sur les pouvoirs du langage et de l’observation, et utilise la situation de l’enseignement, pour spécialiser l’enseignement pour chaque élève.

Les efforts visant à construire des machines auto-explicables dans leurs formes plus sophistiquées adoptent maintenant la métaphore de la machine en tant qu’expert et l’utilisateur comme novice ou comme étudiant. (…)

En 1950, A.M. Turing proposait un test désormais célèbre, et toujours controversé, sur l’intelligence d’une machine basé sur une vision de l’intelligence comme rationalité responsable. Turing a fait valoir que si une machine pouvait être faite pour répondre à des questions d’une manière telle qu’une personne qui pose les questions ne pourrait pas distinguer entre la machine et un autre être humain, la machine devrait être décrite comme intelligente.

Les lignes de la controverse soulevée par le test de Turing ont été tracées à partir d’une famille de programmes développés par Joseph Weizenbaum dans les années 1960 sous le nom d’ELIZA, conçus pour soutenir la « conversation en langage naturel » avec un ordinateur Du nom ELIZA, Wiezenbaum écrit :
   « Son nom a été choisi pour mettre l’accent sur la qualité de l’enseignement peut être amélioré progressivement par ses utilisateurs, car ses compétences linguistiques peuvent être continuellement améliorées par un « professeur ». Comme l’Eliza de Pygmalion, on peut la faire paraître encore plus civilisée, … »

Malgré son succès interactionnel apparent, Weizenbaum lui-même a nié l’intelligence du programme sur la base du mécanisme sous-jacent qu’il a décrit comme « un simple ensemble de procédures ».

Hayes et Reddy recommandent ensuite des mesures pour remédier à la fragilité de l’interaction homme-machine en se fondant sur l’incorporation des conventions de la communication humaine pour la détection et la réparation de malentendus. Ils reconnaissent toutefois qu’il est peu probable que leurs recommandations soient suffisante pour une communication réussie dans d’autres situations simples, par exemple, l’utilisation d’un annuaire automatisée ou les systèmes de réservation.
Traduit avec www.DeepL.com/Translator

Prochain billet:

Un résumé du chapitre 2: Plans

Billets précédents

Billet 1Définitions de l’apprentissage situé

Billet 2Pourquoi s’intéresser à la théorie de l’apprentissage situé?

Billet 3:  Démarche et retour aux sources

Billet 4: Mai 1968 et l’apprentissage situé

Billet 5:  Apprentissage situé et conversation

Billet 6: Lucy Suchman, mon téléphone portable et moi

Billet 7: Conversations avec moi-même (n° 1)

Billet 8: L’apprentissage situé mis en pratique, cela ferait quoi?

Billet 9: Contribution de la psychologie soviétique à la théorie de l’apprentissage situé

Billet 10Les apports de la philosophie à la théorie de l’apprentissage situé

Billet 11Focus sur l’école Dewey

Billet 12Apports de la psychologie de la perception – la notion d’affordance

Billet 13: Apprentissage situé et intelligence artificielle, deep learning, réalité virtuelle, réalité augmentée, etc…

Billet 14: Conversations avec moi-même (N°2)

Billet 15: Quand John Dewey rencontre Jean Lave

Billet 16: Cognition in Practice (1/n)

Billet 17: Cognition in Practice (2/n)

Billet 18: Cognition in Practice (3/n)

Billet 19: Cognition in Practice (4/n)

Billet 20 Cognition in Practice (5/n)

Billet 21: « Conversations avec moi même N°3 »

Billet 22: Cognition in Practice (6/n)

Billet 23: Cognition in Practice (7/n)

Billet 24: Cognition in Practice (8/n)

Billet 25: Cognition in Practice (9/n)

Billet 26: Cognition in Practice (10/n)

Billet 27: Cognition in Practice (11/n)

Billet 28: « Conversations avec moi-même N°4 »

Billet 29: Cognition in Practice (12/n)

Billet 30: Cognition in Practice (13/n)

Billet 31: Cognition in Practice (14/n)

Billet 32: Cognition in Practice (15/n)

Billet 33: Cognition in Practice (16/n)

Billet 34: Cognition in Practice (17/n)

Billet 35: « Conversations avec moi-même N°5 »

Billet 36: Cognition in Practice (18/n)

Billet 37: Cognition in Practice (19/n)

Billet 38: Cognition in Practice (20/n)

Billet 39: Cognition in Practice (21/n)

Billet 40: Cognition in Practice (22/n)

Billet 41: Cognition in Practice (23/n)

Billet 42: « Conversations avec moi-même N°6 »

Billet 43: Cognition in Practice (24/n)

Billet 44: Cognition in Practice (25/n)

Billet 45: Cognition in Practice (26/n)

Billet 46: « Conversations avec moi-même N° 7

Billet 47: Cognition in Practice (27/n)

Billet 48: Cognition in Practice (28/n)

Billet 49: Cognition in Practice (29/n)

Billet 50: Cognition in Practice (30/n)

Billet 51: « Conversations avec moi-même N°8 »

Billet 52: Cognition in Practice (31/n)

Billet 53: Cognition in Practice (32/32)

Billet 54: Situated Learning – Legitimate Peripheral Participation

Billet 55: Situated learning in Communities of Practice

Billet 56: Citations sur l’apprentissage situé

Billet 57: Pourquoi ce livre de Lucy A. Suchman?

Billet 58: Human–Machine Reconfigurations Lucy A. Suchman (2/n)

Billet 59: Human-Machine Reconfigurations Lucy A. Suchman (3/n)

Billet 60: Human-Machine Reconfigurations Lucy A. Suchman (4/n)

Billet 61: Human-Machine Reconfiguration Lucy A. Suchman (5/n)

Billet 62: Human-Machine Reconfigurations Lucy A. Suchman (6/n)

Billet 63: Conversations avec moi-même N°9/n

Related Posts

Leave a Comment!

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *