De la société fluide à l’intelligence fluide

Pour Joël de Rosnay, nous surfons aujourd’hui sur la vague d’une société fluide, c’est à dire à l’opposé du rigide, du pouvoir pyramidal, de la société géométrique, euclidienne et pythagoricienne. Pour De Rosnay, la société fluide est au contraire une société de l’échange et du partage. Ce sont les réseaux sociaux et la technologie internet qui ont contribué à cette société. Les rapports de forces de la société traditionnelle seraient remplacés par des rapports de flux, des échanges de savoirs.

Notre société se caractériserait, dans le cadre de certaines visions plus pessimistes comme celle de Nicole Aubert, par un « rapport au temps désormais sous-tendu par des exigences d’urgence, d’instantanéité, d’immédiateté, de réactivité constante, qui sont l’aboutissement de la logique d’accélération du capitalisme. » Au-delà du temps, la fluidité bouleverse également les espaces comme le précise Charles Goldfinger dans son analyse sur le monde du travail contemporain : « La révolution de l’immatériel bouleverse l’organisation du travail et la nature de la production, qui porte désormais sur des abstractions, des symboles, plus que sur des biens matériels. La logique de la fluidité et du changement rapide pousse à l’éclatement de l’entreprise, à l’effritement de sa frontière (externalisation de la production, télétravail…). En son sein, les normes classiques liées au travail s’estompent : ce dernier perd son unité spatiale, se diversifie à l’extrême dans ses méthodes « .

Ces illustrations rappellent les travaux de Zygmunt Bauman à propos de la « société liquide » qu’il oppose à la société « solide » des institutions du passé. Il explique d’ailleurs que « la tendance à substituer la notion de « réseau » à celle de « structure » dans les descriptions des interactions humaines contemporaines traduit parfaitement ce nouvel air du temps. Contrairement aux « structures » de naguère, dont la raison d’être était d’attacher par des nœuds difficiles à dénouer, les réseaux servent autant à déconnecter qu’à connecter… ».

Se pose ainsi la question de l’école en ces temps de fluidité. Certains chercheurs du MIT n’hésitent pas à pointer du doigt la faiblesse des tests standardisés du système américain qui d’après eux ne permettent pas de développer « l’intelligence fluide » des élèves, à savoir leur capacité à résoudre des problèmes et à transférer des savoirs d’une famille de situations à d’autres contextes. Cette question de la fluidité dans l’éducation revient à poser celle de la compétence qui a tant de mal à s’imposer dans les pratiques enseignantes en France. Mais avant de parler d’intelligence fluide, ne faudrait-il pas définir en quoi consisterait un « enseignant fluide » ?

Entre le chaos du morcellement et la rigidité, il reste un chemin à explorer. Mais attention aux mots, fluidité à ne pas confondre avec flexbilité. Ce terme, largement connoté politiquement, exprime l’idée de se plier et de s’adapter à des règles nouvelles. La fluidité pour moi évoque davantage de souplesse, quelque chose au chaque individu conserverait sa liberté et son autonomie face au changement…

6 enjeux et paradoxes du défi numérique

Pour Olivier Las Vergnas, directeur de la Cité des Métiers et chercheur au CREF, il existe 6 points de vigilance sur l’usage du numérique en formation pour adultes : 

  1. Connaissances à la demande mais connaissances pulvérisées : comment donner du sens aux savoirs à l’heure des moteurs de recherche ? Comment les articuler pour faire sens ? Cela pose la question de la façon dont on apprend les cadres et les bases qui permettent d’accéder à ces savoirs complémentaires.
  2. Tous les savoirs du monde mais problèmes de calibration : la disponibilité des savoirs ne doit pas masquer leur formatage dont on ne sait pas grand chose en fonction des cultures, des contraintes, etc…
  3. Sources multiples mais enchevêtrées : on constate de grandes difficultés à identifier, à comparer et à critiquer les informations. En effet, les savoirs sur le web servent souvent à renforcer des convictions pré-existantes plutôt qu’à identifier des éléments contradictoires et à se faire son opinion réelle. On ne va chercher et on ne trouve qu’à partir de ce que l’on connaît déjà…
  4. Accès pour tous mais pas forcément accès facile : il existe des gens qui s’isolent de l’informatique. La facilité d’usage des technologies reste très différente selon les personnes. Il faut avoir accès au matériel mais également à la culture numérique nécessaire pour accéder aux savoirs.
  5. Expérience facilitée mais causalité simulée : l’importance de la simulation est incontestable mais elle porte en elle des questions importantes, notamment celle de la vision de la personne qui modèle cette simulation.
  6. Création à portée de tous mais automatismes : on peut créer facilement mais on a aucune garantie de la réflexivité nécessaire pour aller plus loin.

En guise de conclusion, Olivier Las Vergnas précise que pour lui le numérique c’est plusieurs révolutions en même temps : c’est l’imprimerie (capacité à faire circuler les savoirs) + la Poste (facilité de communication) + le système métrique (données numériques commensurables et comparables) + les hypermarchés (l’information qui prend de la valeur marchande)…

Pour visionner son intervention sur AfpaWebTV : http://www.youtube.com/user/AfpaWebTv?feature=watch

Etre et savoir à l’écran

Stpéhane Vial nous fait part dans son récent ouvrage de la violence phénoménologique de la révolution numérique. Il propose une grille de lecture composée de 11 catégories qui formeraient les caractéristiques de cette nouvelle ontophanie numérique. Je tente pour ma part de les relier à la question de l’élaboration, la transmission et l’appropriation des savoirs dans ce nouveau contexte :

  • La nouménalité du phénomène numérique (sa capacité à se situer hors du champ de l’expérience possible à travers la matière calculée) son idéalité (sa capacité à être programmable) nous invitent à repenser la condition des savoirs à la lueur d’une nouvelle langue qui est le code informatique. Il faut vulgariser (dans le bon sens du terme) ce nouvel alphabet et cette nouvelle grammaire pour construire et accéder aux savoirs futurs.
  • L’interactivité du phénomène numérique (sa capacité à offrir des interactions à l’opposé de l’action mécanique) et sa virtualité (sa capacité de simulation) doivent nous pousser à réfléchir davantage sur les conditions de l’expérience des savoirs. Un savoir doit se construire dans ce contexte mais doit aussi se transmettre selon ces nouvelles caractéristiques.
  • La versatilité du phénomène numérique (son instabilité) et sa fluidité provoquent également des bouleversements dans l’élaboration des savoirs dont la complexité et la part d’imprévisibilité (au sens d’Edgar Morin) doivent se réfléchir.
  • La reproductibilité instantanée du phénomène numérique (sa capacité à  être copiable), sa réversibilité (sa capacité à être annulable) et sa destructibilité (sa capacité à être néantisé) imposent d’inventer des nouveaux paradigmes archivistiques. Les temporalités et les spatialités des discours doivent être repenser à la lueur de cette nouvelle donne.
  • La réticularité du phénomène numérique (sa capacité à mettre en relation, à créer des liens) et sa ludogénéité  (sa capacité à être jouable) entraînent de nouvelles sociabilités qu’il s’agit de prendre en compte dans la production et la diffusion des savoirs.

Du marbre au papyrus en passant par l’imprimerie et les écrans, les supports du savoirs ne sont jamais uniquement techniques, ils conditionnent la fabrication et la circulation des savoirs eux-mêmes. Des salons au académies du XVIIIe siècle européen, des fablabs à Wikipédia de nos jours, les sociétés savantes se construisent à différentes échelles, se font et se défont en-dehors des cadres institutionnels. De la République des lettres au microblogging, la circulation des savoirs s’organise à travers des formes de sociabilités en réseaux. De l’ingénieur de la Renaissance aux hackers actuels, l’art n’est pas le même, mais la capacité à produire du sens en s’appuyant sur de nouvelles technologies reste entière et partagée. Comparaison n’est pas raison, mais force est de constater que le phénomène numérique interroge en profondeur notre rapport aux savoirs.

Former des lettrés du numérique

Bernard Stiegler fait partie des penseurs du numérique qui ne se limitent pas à une admiration béate mais qui portent un regard véritablement critique et positif. Il prône avec force qu’il ne faut « pas s’adapter mais adopter la technologie en l’intériorisant ». Après avoir croisé plusieurs de ces interventions, je retiens ces quelques idées fortes :

  • Le numérique remue de fond en comble la condition de l’élaboration et de la transmission des savoirs formels/académiques. Un savoir académique qui se réfère au raisonnement apodictique est un savoir peer to peer. Un savoir est toujours public, ce n’est pas un savoir de corporation ou secret. Il doit s’exposer à la publicité et à la critique des pairs. Le numérique intensifie ce trait de la méthode scientifique.
  • Il ne faut pas uniquement alphabétiser des élèves au numérique mais en faire des lettrés du numérique. Mais pour produire des lettrés du numérique, il faut que les professeurs le soient également. De ce fait, il faut soutenir la recherche dans ces domaines qui puissent irriguer et inspirer l’action en classe.
  • Nous vivons une révolution des hypomnémata, des supports de mémoire artificiel. La question du numérique est une question de méta-épisteme (au sens de Foucault) : il s’agit d’une époque où les savoirs se stabilisent dans un système de conservation des mémoires. Dans ce cadre, le numérique serait une nouvelle forme de l’écriture qui produit des nouvelles formations discursives et d’archives. Cela pose donc de nouvelles questions autour de l’élaboration, la diffusion, la conservation et l’appropriation des savoirs académiques. Nous vivons un changement d’épochè : c’est de l’ordre d’une rupture et de l’installation d’une nouvelle stabilité. La technique désajuste d’abord le système social puis la société se réajuste. C’est de ce réajustement dont doit s’emparer la société académique au détriment du marketing.
  • Le numérique s’inscrit dans un processus de grammatisation (au sens de Sylvain Auroux) qui entend que les caractéristiques techniques des supports conditionnent le rapport au contenu. Le numérique est le dernier stade de la grammatisation depuis la grotte Chauvet, où l’homme préhistorique « invente » le cinéma en se projetant sur une paroi rupestre.
  • Prenant en compte les progrès des neurosciences, Stiegler cite souvent Maryanne Wolf qui explique que nous sommes des « reading brains », notre organisation cérébrale est produite par la technique de grammatisation que nous produisons en retour, c’est un couplage structurel. Elle montre que ce qui se passe dans le cerveau est un processus d’écriture et que la lecture n’a donc rien de naturel. Les écrans du numérique bouleversent ce couplage, au même titre que le papier et le stylo l’avaient fait auparavant.

3 modèles pédagogiques pour la formation à distance

Dans un article de 2011, Terry Anderson et Jon Dron réfutent l’idée qu’un modèle pédagogique en évacue un autre dans les dispositifs de formation à distance. Ce tableau récapitulatif de leur article permet de constater, selon les auteurs, à quel point les modèles pédagogiques s’appuient les uns sur les autres.

3 modèles pédagiques de la formation à distance

Technologies et éducation : retour sur un vieux couple…

dipity

Technologies et formation on Dipity. N’hésitez pas à contribuer à cette chronologie collaborative pour l’améliorer et la préciser.

Replacer le couple technologies/éducation dans une perspective diachronique est un exercice nécessaire pour prendre la mesure de ce que peut encore signifier la notion de nouveauté et son intrication avec l’idée de modernité qui ne va pas toujours de soi, loin de là. Pour s’en rendre compte, il suffit de mettre en relation cette histoire avec certains outils ou dispositifs récents. Il permet aussi de constater à quel point la question de la technologie en éducation est imprégnée d’enjeux sociétaux, économiques et politiques forts. Enfin, on peut également noter que chaque grande étape du développement des technologies dans le monde éducatif remet en question l’organisation même du système et repousse un peu plus à chaque fois les murs des institutions éducatives telles qu’elles ont été pensées au XIXè siècle.

  • Années 1960 : médias audiovisuels, télévision éducative et télé-enseignement

Radio, télévision scolaire et film pédagogique poussent à une réflexion autour de l’image fixe et animée mais aussi sur les médias grands publics et leurs impacts sur l’apprentissage  en dehors de l’institution. L’enregistrement par vidéo d’une activité d’une personne et le visionnement à posteriori pose également les bases de l’autoscopie. L’usage intensif de la vidéo comme outil de formation est encore largement répandu comme dans les cMOOCs des grandes universités américaines sur Coursera ou encore la plate-forme NéoPass@ction destinée aux enseignants.

  • Années 1970 : informatique et enseignement programmé, enseignement assisté par ordinateur (EAO) et enseignement à distance (EAD)

C’est le temps de la montée en puissance des travaux débutés par Skinner dès les années 1950 : le but est d’optimiser les capacités de répétition et de renforcement offertes par l’ordinateur. De l’émission Dora aux applications dites éducatives pour tablettes, cette approche pédagogique est elle aussi encore largement répandue aujourd’hui. La notion d’auto-instruction apparaît également à cette époque mais c’est surtout l’accès du grand public à la micro-informatique qui va bouleverser la donne. Elle fait d’ailleurs sont entrée comme discipline scolaire dans le secondaire à cette même époque.

  • Années 1980 : multimédia, nouvelles technologies et formation à distance (FAD)

L’ouvrage de Papert sur le système LOGO en 1981 et le Plan informatique pour tous (IPT, 1985) marquent une rupture quant à la prise de conscience du potentiel et des limites de l’outil informatique pour l’apprentissage. Apprendre à programmer et la programmation pour apprendre se retrouve aujourd’hui autour des eduhackers qui véhiculent l’idée que le code informatique serait la nouvelle base commune des lettrés de demain. Parallèlement, la réflexion autour du champ de l’information et de la communication fait son chemin et la notion de formation remplace peu à peu celui d’enseignement dans les travaux de recherche selon B. Albero (2004).

  • Années 1990 : hypermédias, technologies de l’information et de la communication (TIC) pour l’éducation (TICE), formation ouverte et à distance (FOAD)

Trois courants de recherche se structurent : l’un autour des questions techniques, l’autre des langages et le dernier autour des usages. Le micro-ordinateur pose alors déjà la question de l’ouverture, de la flexibilité, de la distance et de l’individualisation. Le centre d’intérêt des chercheurs se déplace de l’activité d’enseignement « assisté » à une focale plus centrée sur la « facilitation » des apprentissages grâce aux technologies. C’est aussi à ce moment que se développe la notion de « dispositif » de formation. Les acteurs du système éducatif français actuel sont encore largement imprégnés par les structures élaborés à cette époque, d’où la difficulté récurrente à tenir compte du bouleversement que vont opérer l’accès à internet et la mobilité à partir des années 2000.

  • Années 2000 : espaces numériques de travail, campus numérique, mondes virtuels, technologies usuelles de l’information et de la communication (TUIC)

Le web bouleverse déjà les travaux scientifiques en terme de quantité, d’hétérogénéité, de réalisation et de diffusion. Les technologies émergentes de l’époque tendent à se structurer autour des notion de virtuel, de campus ou encore d’environnement. On constate également que la formation à distance se centre davantage sur des approches pédagogiques basés sur le collaboratif, le coopératif ou encore la place du tutorat. Le système éducatif tient compte de ces avancées en créant le B2i en décembre 2000 qui met l’accent sur une approche basée sur les compétences que doivent développer les élèves face à ces technologies.

  • Années 2010 : numérique éducatif, web 2.0, médias sociaux, cours en ligne massivement ouverts (MOOCs)

Enfin, bien que le recul critique nous manque pour mettre en lumière quelles seront les grandes tendances des années 2010, on peut d’ores et déjà émettre quelques hypothèses à partir des sujets récents. On peut en effet noter la volonté des acteurs d’intégrer et de mettre en relation ces technologies au service « d’écosystèmes » tournés vers l’apprentissage. Les notions d’ouverture et de mobilité permettent de poursuivre la réflexion autour des temps et des espaces de l’apprentissage dans notre société. Les frontières entre éducation, formation et travail sont de plus en plus poreuses, de même que les relations entre enseignant, apprenant et savoirs.

Technologies et éducation forment donc un couple d’une bonne cinquantaine d’années qui ne prend pas une ride, au contraire, mais qui radote souvent. Leur relation est tumultueuse, marquée par des influences nombreuses et complexes. Tout l’enjeu est de tenir compte de cette longue histoire et d’éviter l’amnésie collective récurrente pour passer de la « nouveauté » technologique à une véritable « modernité » pédagogique.

Apprendre à l’ère numérique

Après avoir défini les contours d’un modèle de pédagogie ouverte et hybride, je propose aujourd’hui d’explorer les grandes ruptures que l’ère numérique provoque en terme d’apprentissages.

Capture_d_écran_20_05_13_15_32

Apprendre avant le numérique signifiait évoluer dans … :

  • UN CADRE SPATIO-TEMPOREL STRUCTURÉ : l’apprentissage est marqué par l’unité de temps et de lieu comme à l’école, influencée par un modèle industriel du XIXè siècle. Cette thèse s’appuie sur l’histoire des modèles éducatifs occidentaux qui se structurent avec l’avènement d’une société qui s’industrialise et se démocratise. Ken Robinson en explique les profondes conséquences dans cette conférence intitulée « Du paradigme de l’éducation« .
  • UN RAPPORT AU SAVOIR CENTRÉ : l’autorité du savoir est entre les mains de l’enseignant qui détient la vérité et la transmet. Son autorité relève de l’expertise et de la reconnaissance qu’on lui porte. Le livre et le manuel en sont les artefacts. Cette idée se fonde sur le modèle séculaire de l’apprentissage qui émerge à l’époque médiévale avec les grandes universités européennes sous la tutelle de l’Eglise chrétienne. Serge Tisseron en explique les conséquences sur nos modèles culturels dans cette émission de La place de la toile.
  • UNE PENSÉE LINÉAIRE : la pensée s’organise selon un schéma linéaire et séquentiel selon un modèle hérité des démonstrations antiques. L’apprentissage est structuré, programmé et communiqué. L’apprenant doit gérer le flot qu’on lui déverse.
  • DES RÉFÉRENCES THÉORIQUES DISPERSÉES : on s’appuie sur des cadres théoriques divers et même parfois opposés pour concevoir les apprentissages.

Apprendre à l’ère numérique signifie désormais évoluer dans … :

  • UN SCHEMA SPATIO-TEMPOREL ÉCLATÉ : apprendre peut se faire n’importe où et n’importe quand par le biais des outils mobiles et des réseaux de télécommunications, on peut dès lors envisager un apprentissage flexible. Pour s’en convaincre, on peut relire le désormais célèbre opuscule de Michel Serres qui évoque ces petites poucettes.
  • UN RAPPORT AU SAVOIR POLYCENTRIQUE : il faut aujourd’hui articuler des autorités dispersées voire en concurrences. On navigue entre des autorités multiples basées sur la recommandation. Les écrans et les moteurs de recherche en sont les artefacts.
  • UNE PENSÉE RÉTICULAIRE : la pensée s’envisage en réseaux et arborescente pour aborder la complexité du monde selon l’influence de la systémique. Apprendre revient à se confronter à l’imprévu et à l’altérité. L’apprenant doit gérer le flux qu’il traverse. Pour aller plus loin, on peut s’appuyer sur la pensée systémique dévoilée dans La Méthode d’Edgar Morin mais également les écrits du prospectiviste Joel de Rosnay.
  • DES RÉFÉRENCES THÉORIQUES GLOBALES ET INTÉGRÉES : on s’appuie sur des cadres théoriques qui s’articulent pour concevoir un écosystème qui favorise l’apprenance définie par Philippe Carré.

Apprendre, enseigner et former à l'ère des cultures numériques

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 1 835 autres abonnés

%d blogueurs aiment cette page :