Blog
- 7 avril 2021 Temps de lecture : 6 minutesDigitalisation des établissements sup : quels enjeux aujourd’hui ?
Aujourd’hui plus que jamais, les établissements supérieurs sont mis à rude épreuve et doivent jongler entre présentiel et cours à distance. Nombreux sont ceux qui ont déployé dans l’urgence des plateformes et autres technologies pour remédier à la planification complexe des apprentissages, à la mobilité réduite des étudiants, à la compétitivité accrue entre établissements ou encore aux réductions budgétaires. Néanmoins, ces initiatives en matière de transformation numérique doivent se poursuivre pour répondre aux enjeux sociétaux de demain. L’État ainsi que plusieurs fédérations dont le FIUC, encouragent d’ailleurs régulièrement les établissements supérieurs et les universités catholiques à accélérer leur digitalisation lors d’interventions publiques et conférences. Comment la digitalisation des évaluations influence-t-elle l’attractivité et la compétitivité des universités et établissements privés ? Les universités et établissements privés dont les universités catholiques sont d’autant plus touchés par cette crise que leurs frais de scolarité restent inchangés, et ce, malgré des modes d’apprentissage et des activités extra-scolaires fortement limités. Alors pour contrebalancer cette problématique, beaucoup ont ajusté leur pédagogie en favorisant les apprentissages hybrides, jonglant entre présentiel et cours à distance. D’autres, à l’exemple de la Faculté de Droit de Lisbonne (voir ci-dessous) ont plutôt misé sur une vision et une stratégie d’évaluation à long terme pour renforcer l’attractivité et la compétitivité de leurs établissements. En effet, assurer la continuité pédagogique se traduit certes par la mise en place d’un enseignement hybride mais il ne faut surtout pas oublier la nécessité d’ajuster les modalités d’évaluation qui assurent l’acquisition des apprentissages par les étudiants. Cette stratégie d’évaluation est un des moyens d’assurer (et de rassurer) la qualité des enseignements délivrés et donc in-fine d’asseoir sa compétitivité et son attractivité sur le long terme. Optimiser la gestion des examens a un autre intérêt : améliorer l’efficacité des équipes. La gestion des évaluations, depuis la création des examens à sa correction, en passant par l’organisation logistique est une tâche chronophage à faible valeur ajoutée. Optimiser chaque étape du processus en réduisant le temps de création des évaluations, en automatisant les tâches récurrentes ou en facilitant la correction sont autant de moyens d’augmenter l’efficacité des équipes et donc leur productivité. L’égalité des chances face aux examens et évaluations est un autre sujet critique dans l’enseignement supérieur. Les inégalités en matière d’espace de travail, d’accès internet, d’équipements informatiques demeurent bien réelles. Il est donc important d’assurer des règles et des accès aux examens et évaluations identiques pour tous. Aussi permettre à chaque étudiant d’installer un logiciel d’évaluation sur son propre ordinateur, pour un examen en présentiel ou à distance, disponible même sans connexion internet, tout en évitant les risques de triche, devient un argument de poids pour les établissements supérieurs. Pour finir sur l’actualité de crise sanitaire, il faut souligner que la digitalisation des évaluations et des examens grâce à un outil comme TestWe offre aux universités et établissements supérieurs une souplesse et une agilité inégalées. En quelques heures seulement, ils peuvent basculer la tenue de leur examen en présentiel à un examen à distance (ou vice versa) ; et ce en quelques clics. Pour être accompagné dans la digitalisation de vos examens, contactez notre équipe. Cas Client – « Comment la Faculté de Droit de l’Université Catholique de Lisbonne bascule à 100% ses examens en distantiel en moins de 24 heures ? » En 2019, la Faculté de Droit de l’Université Catholique de Lisbonne a repensé sa stratégie d’évaluation autour de 3 axes principaux : la réduction du temps de correction, la gestion centralisée des évaluations et l’impact écologique. Début 2020, la Faculté de Droit déploie TestWe pour ses 1ère et 2ème années. La solution a été fortement utilisée en présentiel par les étudiants depuis leurs ordinateurs personnels pour éviter le contact massif des équipements communs pendant la pandémie. En janvier 2021, le Portugal entre en confinement national ; toutes les Universités et autres Établissements Supérieurs sont donc contraints de fermer leurs portes pour la première fois. En cette période d’examen et malgré la forte réticence de la Faculté de Droit au distantiel, l’Université a dû elle aussi se résoudre à fermer. A la seule différence qu’elle a pu basculer l’organisation de ses examens à distance en moins de 24 heures vers TestWe, plateforme sécurisée dédiée aux examens en activant la fonctionnalité de surveillance et la haute sécurité : les modalités des examens se configurent en seulement quelques clics. Face à ce succès, deux nouveaux pilotes sont actuellement en cours de déploiement dans deux autres établissements de l’Université de Lisbonne. TestWe, la plateforme de gestion des examens et des évaluations Depuis plusieurs années, la plateforme de gestion des examens et des évaluations TestWe est utilisée quotidiennement par plus de 100 institutions dans plus de 12 pays. Elle offre de nombreux avantages, à savoir : ✓ La gestion simple et homogène des examens sur tous les campus. La gestion des évaluations est chronophage. Or, les établissements tendent à préférer l’usage du contrôle continu (aux examens de fin de semestre) plus adapté aux nouvelles méthodes d’enseignement. La solution TestWe offre une simplicité de gestion et une souplesse d’adaptation des examens et des corrigés fortement appréciées par les professeurs et directions pédagogiques des grands établissements. ✓ Une solution adaptée aux examens en présentiel et à distance (proctoring). En quelques clics, l’équipe pédagogique peut basculer l’organisation de ses examens prévus en présentiel vers un mode à distance. Ainsi, face à une crise sanitaire qui requiert la fermeture des établissements supérieurs, les équipes pédagogiques peuvent ajuster l’organisation en quelques heures et assurer une continuité pédagogique sans trop de difficulté. ✓ La garantie d’un environnement sans triche, sécurisé et surtout offline. Grâce à un logiciel installé en amont sur l’ordinateur, les examens sont accessibles uniquement à l’heure définie de manière sécurisée même sans connexion internet stable. De nombreuses fonctionnalités basées sur la webcam et l’audio de l’ordinateur permettent d’assurer un environnement sans triche pour tous. ✓ Une interface intégrée à votre LMS. La solution TestWe s’intègre via une API aux LMS en place, permettant de récupérer toutes les données utiles à la gestion des examens et déjà renseignées dans
- 2 mars 2020 Temps de lecture : 4 minutesCrise sanitaire : prévoir l’organisation d’examens à distance
Aujourd’hui, plusieurs milliers de lycéens et étudiants sont en « quatorzaine » en raison de leur déplacement (voyages d’études ou vacances) dans des pays à risque
- 27 janvier 2020 Temps de lecture : 4 minutesEdtech & Apprentissage : 2020 année de l’évaluation ?
Chaque année dans l’Edtech, on remarque une tendance plus forte que les autres. Une tendance pour laquelle la « hype » dure un peu plus longtemps que d’autres. Nous avons vu la domination des MOOCs, de l’adaptive learning, de la VR/AR, de la classe inversée … Pourquoi 2020 ne serait-elle pas l’année de l’évaluation ? En effet, depuis plusieurs années, on peut remarquer une dissociation croissante entre l’apprentissage, la pédagogie donc, et la note, autrement dit l’évaluation. Si l’on atteint un sommet aujourd’hui, il ne serait pas étonnant que la décennie des années 20 voit un regain d’attention sur l’évaluation au coeur de l’apprentissage, dans la formation professionnelle comme dans l’Enseignement supérieur. Pourquoi ? 1. Pas de pédagogie sans évaluation S’il est important d’assurer des formations engageantes et efficaces pour les apprenants, il est d’autant plus crucial d’analyser l’efficacité de ces pédagogies en mesurant l’apprentissage des apprenants. Dans ce cadre, données quantitatives et qualitatives sont les meilleurs outils. Or, ceux-ci se retrouvent principalement dans les évaluations formatives, diagnostiques, sommatives, ou encore dans les feedback pré et post-formations. Aussi, si l’on a pu voir un intérêt poussé pour de nombreuses méthodes pédagogiques, il est désormais clair que celles-ci sont indissociables de l’évaluation qui doit agir en tant que partie prenante de la pédagogie et non en tant qu’action indépendante. 2. Varier les évaluations, un plus pour la pédagogie On peut utiliser tous les formats d’évaluations possibles, de l’apprentissage entre pairs au MOOC en passant par le serious game. Il reste nécessaire pour le formateur d’évaluer l’acquisition des compétences de ses apprenants. Pour cela, on ne peut utiliser seulement une poignée de formats d’évaluation. Il est avéré qu’adapter les évaluations aux contenus de formation permet aussi un meilleur apprentissage, aussi, on peut s’attendre à une revalorisation de la pratique de l’évaluation et le développement de nouvelles méthodes. 3. S’auto-évaluer c’est la clé L’auto-évaluation est l’exemple type du retour de l’évaluation au coeur de la pédagogie. En effet, selon l’Education Endowment Foundation, l’évaluation entre pairs ou peer review est une méthode pédagogique des plus efficaces pour qu’un apprenant comprenne clairement ce qu’il comprend et ce qu’il ne comprend pas encore. Cette méthode permet aussi une meilleure argumentation, grâce aux analyses qu’un apprenant doit donner sur la prestation d’un autre apprenant. Selon David Kofoed Wind, CEO, cofondateur de Peergrade et docteur en machine learning, le peer review est une excellente méthode pour inculquer l’esprit critique ainsi que dans le but d’apprendre à apprendre. Tout est dit. 4. Le cas de la réforme sur la Formation 2020 sera marquée par a mise en place de la Loi sur la Liberté de Choisir son Avenir Professionnel. Grande réforme entreprise sur le domaine de la formation, elle évoque notamment le besoin d’assurer l’acquisition des compétences des apprenants, d’assurer un suivi d’apprentissage pour les formateurs, les employeurs comme les apprenants. En plus de cela, on peut compter sur une valorisation des tests de positionnement, auto-évaluation et autres types d’évaluations plus formatives. Il y a donc un besoin de centraliser ces données d’apprentissage et d’y greffer des outils de visualisation de données dans le but de faciliter un suivi de formation. Tous les signes semblent être rassemblés pour affirmer qu’un focus sur l’évaluation dans toutes ses formes et tous ses formats est à prévoir cette année. Aussi, il peut être judicieux d’explorer le panel d’outils dédiés à l’évaluation. Mais avant toute chose, il est tout aussi important de savoir choisir son panel d’outils. Pour cela, il faut prendre en considération les différents biais cognitifs qui peuvent altérer nos décisions. Nous avons préparé un article à ce sujet ! Êtes-vous intéressé par la technologie dans l’éducation ? Consultez nos autres articles à ce sujet L’eSport fait son entrée dans l’Enseignement supérieur Svetlana Meyer : science cognitive, pédagogie où en sommes-nous ? Numériser les examens améliore l’apprentissage 6 Étapes pour Mener à Bien la Numérisation de vos Processus d’Évaluation
- 15 janvier 2020 Temps de lecture : 7 minutesUtiliser le Growth Hacking Pour Améliorer l’Apprentissage ?
Résumé Le Growth Hacking a prouvé son efficacité et joue désormais un rôle clé dans la croissance de nombreuses organisations L’exploitation des données et l’innovation technologique sont deux objectifs très recherchés aujourd’hui dans le monde de l’Éducation Appliqué à la formation, cela revient à hacker l’apprentissage en quelques sortes : c’est l’application d’un processus d’apprentissage ayant pour but d’accélérer l’intégration des connaissances et l’optimisation des formations dans le but de favoriser l’apprentissage à travers divers projets et initiatives. Tout cela, à partir d’analyses de données et de feedback constants. Growth hacking, quel bilan ? Cela fait maintenant des années que le Growth hacking est un terme très recherché dans le monde du Marketing, des startups et de l’entrepreneuriat. Des entreprises de toutes tailles sont maintenant désespérément à la recherche de “growth hackers” sans vraiment savoir ce que cela veut dire, ce qui me fait toujours doucement rire. Mais attendez, avant cela, un petit retour sur ce qu’est le growth hacking : Appelons cela l’exploitation de données et des processus d’expérimentation rapide ayant pour but de faire croître une entreprise de la manière la plus optimale possible. Ceci, avec le minimum d’argent investi. On parle bien d’optimisation dans un seul but, celui d’une croissance rapide. Puis, il y a le “Growth hacking process”, basé sur le design thinking. On parle toujours d’optimisation mais cette fois de l’organisation d’une équipe et du travail, cette fois-ci dans un but relativement différent: l’entretien d’une idéation constante et d’une rapidité d’exécution au sein de l’équipe. C’est ce qui nous intéresse ici. De plus en plus d’académies ou d’agences de Growth hacking ont pu déjà faire leur entrée sur la scène, comme par exemple l’académie néerlandaise de Growth Tribe. Les choses commencent à devenir excitantes en ce que des universités commencent elles aussi à engager des partenariats avec ces académies (c’est notamment le cas de The University of Amsterdam). Proposer des cours de Growth hacking c’est bien ! Mais pourquoi ne pas tenter de l’appliquer aux processus d’apprentissage ? D’une certaine manière, c’est plus ou moins le cas aujourd’hui et certains éléments aujourd’hui en cours d’utilisation et de développement prouvent que le Growth hacking est bien compatible avec l’apprentissage. Qu’est-ce qu’un Growth process ? Parlons ici du modèle GROWS développé par Growth Tribe. Celui-ci est composé de cinq étapes : Idéation : on collecte un certain nombre d’idées à expérimenter Priorisation des idées : on classe ces idées et on leur donne un score le plus objectif possible afin de les prioriser Renseignements sur l’expérience à suivre : le but ici est de détailler comment l’expérience, la mise en application de l’idée, sera organisée. Objectifs sur l’apprentissage, seuil de succès, seuil d’échec, durée de l’expérience etc. Mise en application de l’expérience Analyse des résultats : on analyse les résultats de l’expérience grâce à des données quantitatives et qualitatives, déterminons le succès ou l’échec et l’implémentation de l’idée dans le curriculum en cas de succès On recommence ! Si le GROWS process est appliqué afin de favoriser la croissance d’une entreprise ; appliqué à l’apprentissage, le but ultime pourrait être de forger un mix pédagogique ou un mix de pratiques favorisant au mieux l’apprentissage chez les apprenants. Hacker l’apprentissage ? Hacker l’apprentissage revient à appliquer un processus d’apprentissage ayant pour but d’accélérer l’intégration de connaissances et l’optimisation des formations dans le but de développer les soft skills et hard skills des apprenants à travers divers projets et initiatives. Tout cela, à partir d’analyses de données et de feedback constants. À l’échelle d’un individu, hacker l’apprentissage semble simple à comprendre et déjà vérifié. En effet, Tim Ferriss, growth hacker, auteur et investisseur, a développé une méthode d’apprentissage similaire à ce qu’on appelle ici hacking de l’apprentissage qui lui a permis de devenir chef cuisinier, maître en art martial, auteur à succès, tout cela en partant de rien et en des temps records. En effet, grâce à une méthodologie d’optimisation, on perd moins de temps, on décompose l’apprentissage en chunk, en parties et sous parties, on s’auto-évalue et on détermine la marche à suivre. Du côté pédagogue, la question est peut être plus complexe car on ne cherche pas à apprendre, mais à mieux former. Comment un tel processus permet-il une optimisation de l’apprentissage ? Tester des outils pédagogiques Grâce à l’utilisation d’un modèle type GROWS, on peut accélérer le test d’une solution et de son efficacité pédagogique sur un apprenant. Plutôt que d’essayer un outil Edtech sur un an ou six mois, utiliser ce type de modèle permet de déterminer leur efficacité en seulement 2 mois. Surtout, la communication entre formateurs devient plus clair, en ce que le rapport d’expérience développé à la fin de l’expérimentation resterait consultable par tous les autres formateurs ; un rapport d’expérimentation accompagné de données quantitatives-qualitatives. Tester des méthodes pédagogiques De la même manière, on peut plus rapidement tester et plus facilement mesurer l’efficacité de certaines pédagogies avec les apprenants dans des contextes particuliers. Le but ici n’est pas de déterminer si une pédagogie est bénéfique ou non mais si elle est bénéfique à un groupe d’apprenants dans un certain contexte, dans un certain type de formation. Lors des analyses de résultats, suite à une semaine ou deux de formation, on peut déjà avoir accès à des données quantitatives (résultats aux divers tests) ainsi qu’à des données qualitatives via les feeback et les poll aux apprenants qui permettront d’en savoir plus sur la qualité des formats de cours ainsi que leur efficacité ressentie par les apprenants. Tester des formats d’évaluation Là encore, il est important de pouvoir rapidement déterminer les formats d’évaluations qui permettront de concevoir l’évolution de l’apprentissage de l’apprenant. Le problème, c’est qu’aujourd’hui ces expérimentations ne sont que très peu effectuées, l’on préfère alors utiliser un à trois formats d’évaluation, généralement les plus connus (essais, QCM, réponses courtes) sans aller plus loin. Aussi, si l’on cherche à obtenir un retour qualitatif et quantitatif le plus authentique possible, qui nous permettra de comprendre si oui ou non un apprenant acquiert les connaissances, il est primordial d’adapter une évaluation
- 13 janvier 2020 Temps de lecture : 6 minutesÀ savoir avant de tester des outils pédagogiques
On a souvent tendance à faire preuve d’un enthousiasme sans pareil lorsque les chiffres semblent révéler qu’une expérimentation est positivement concluante. « J’avais raison, se dit-on, l’outil marche alors on l’adopte c’est parti ! » On aura tendance à n’écouter que les personnes ayant eu le même type de résultat, tandis que les arguments de ceux ayant observé des problèmes … passeront plus ou moins à la trappe. Le problème est que parfois l’outil, validé dans un premier temps, se révèlera être décevant ensuite. Comment cela est-il possible ? Tout s’explique ! C’est avant tout une affaire de biais cognitifs. Aussi, avant de prendre une décision (d’achat, notamment) trop rapide, il peut être intéressant d’en savoir un peu plus à ce sujet. Oui à l’expérimentation mais non aux décisions hâtives ! Vous êtes un formateur féru de tech et souhaitez introduire un grand nombre d’outils numériques au sein de votre institution. « De l’innovation de rupture ! Que dis-je, une péninsule ! » Vous avez votre liste devant vous et vous vous sentez vivement supporté par vos collègues dans cette vaste entreprise. Vous souhaitez passer à l’action mais ne comprenez pourquoi il existe des obstacles. Pourquoi faire barrage à la technologie et au progrès ? « Il y a deux victimes dans cette affaire, mon cher Watson, » vous dis-je. La première, ce sont les formateurs/ enseignants souhaitant calmer le jeu et garder leurs habitudes, parce que pourquoi changer ? On appelle cela une dissonance cognitive ! C’est à dire que vos collègues sont probablement irrités par votre enthousiasme pro-tech. Vous avez beau leur démontrer l’efficacité des outils Edtech par des chiffres et des études de cas, ils ont du mal à accepter une réalité qui ne correspond pas à celle qu’ils se sont construite. Plutôt que de forcer l’initiative, faites preuve de pédagogie, mesurez votre entreprise, proposez des expériences claires, ciblées, allez-y pas à pas, afin de pouvoir entretenir un débat constructif sur la réelle efficacité de certains outils pédagogiques sur les apprenants et les formateurs/ enseignants. La seconde victime c’est vous-même ! Vous ne semblez pas faire face à des refus directs quotidiennement alors que des freins administratifs vous empêchent de libérer un budget ou d’acheter un outil. Vous êtes l’heureuse victime d’un biais de conformité, c’est à dire un biais vous poussant à accepter presque exclusivement les idées émanant d’un groupe auquel vous vous identifiez. Vous êtes un pro-innovation, pro-tech, vous ne prenez certainement en compte que les avis de collègues ayant le même avis que vous et pas assez ceux des autres ! Pour éviter cela, privilégiez des réunions avec tous les intéressés et É-COU-TEZ vous ! Faites preuve d’empathie et essayez de comprendre pourquoi l’un est pour et l’autre contre. Cela vous permettra de modérer vos propres pensées et décisions. Des résultats (trop) positifs ? Pensez à l’effet Hawthorne ! Les résultats de vos apprenants à leurs évaluations ont augmentés de 25% ? La plupart sont satisfaits à l’idée d’utiliser le nouvel outil pédagogique ? Vous sautez au plafond tant cette expérience paraît concluante et tant votre enthousiasme est vérifié ? Vous avez peut être raison ! Cependant, vous êtes aussi peut être victime de l’effet Hawthorne ! Effet Hawthorne : Lorsqu’un nouvel outil est testé, les apprenants ont tendance à recevoir un surplus d’attention de la part du formateur relatif à l’expérience. Cette attention provoque un redoublement d’efforts chez ces apprenants, ce qui provoquera une nette augmentation de leur performance en apprentissage. L’effet Hawthorne est passager, c’est pourquoi il est important de tester un outil de nombreuses fois avant de passer à une étape analytique et décisionnelle. Il peut être intéressant de tester un outil sur un trimestre et d’analyser les retours d’expérience des apprenants par des demande de feedback. Combien de fois en un trimestre ? Tout dépend de l’outil. Une par mois, une par utilisation tout dépend de la facilité à délivrer ce feedback et tout dépend de la motivation des apprenants. À partir de là, il suffit d’observer la tendance. Si la satisfaction des apprenants est continuellement positive, l’outil peut être considéré comme confortable pour les apprenants sélectionnés. Même principe pour d’autres données d’apprentissage telles que les notes ou les commentaires des formateurs et enseignants. Si les notes augmentent significativement et sur le long terme, un trimestre et plus, alors l’outil utilisé peut être considéré comme un outil efficace. Prendre en compte l’effet Hawthorne ne revient pas à bloquer tout enthousiasme ! En effet, rien de mieux que de l’enthousiasme pour s’engager dans une expérience d’apprentissage différente. Cela revient plutôt à constamment se remémorer les étapes nécessaires à la validation d’un outil pédagogique. Savoir se rendre compte qu’on est dans le faux On a beau observer des signes avant coureurs, des coquilles, des problèmes, on a souvent tendance à maintenir le cap. Exemple : vous êtes dans le métro. Une panne persiste depuis 5 minutes. Plutôt que d’emprunter un chemin qui d’ordinaire est plus long, vous préférez rester dans le wagon, de peur que celui-ci ne démarre juste après en être sorti. Les minutes passent et ce raisonnement faiblit, mais vous persistez jusqu’au dernier moment. Résultat : vous aurez perdu quatre fois plus de temps que si vous aviez réagi rapidement. Dommage. Comment faire, alors, pour éviter de prendre de mauvaises décisions ? Une fois que vous savez ce qu’il peut vous arriver, il reste trois choses à faire avant de tester un outil pédagogique : se réunir en groupe de décideurs afin de définir la limite non dépassable de problèmes issus d’un outil pédagogique, définir qui pourra juger de manière indépendante de la qualité dudit outil et enfin, et surtout, collecter des observations (feedback des apprenants et des formateurs) et des données (notes aux évaluations, observations sur compétences, engagement des apprenants etc.) qui vous permettront d’avoir un regard un peu plus objectif sur l’utilité ou non d’un outil. Pour conclure Oui, appliquer ces multiples étapes à la décision peut ralentir un processus de quelques semaines parfois. Cependant, on parle là d’apprentissage. Réussir sa transition numérique
- 11 janvier 2020 Temps de lecture : 5 minutesLes bases pour une bonne stratégie d’évaluation
Que l’on parle de formation professionnelle ou d’Enseignement supérieur, évaluer c’est la clé. C’est ce qui nous permet de déterminer l’acquisition de compétences par un apprenant, de déterminer le bon déroulement d’un cours ou d’une pédagogie. C’est le facteur déterminant d’une formation accomplie et efficace. Si dans la formation professionnelle on observe un réel accent posé sur l’évaluation et l’étude de l’évaluation, dans l’Enseignement supérieur, aujourd’hui et pour un certain nombre de facteurs, évaluer et noter a un effet de déconnexion avec l’apprentissage. L’apprenant ne cherche qu’une chose, la meilleure note possible sans penser à une courbe d’amélioration et à se concentrer sur ce qui l’intéresse dans certaines formations. Cela revient à évaluer pour le futur employeur et non pour l’apprenant. Mais là encore, avec des taux d’engagements très faibles dans les formations professionnelles à l’interne comme en centres de formation, il semble qu’il y ait un problème de la pédagogie à l’évaluation. Il est donc nécessaire de revoir les bases d’une bonne stratégie d’évaluation, celle-ci étant l’accélérateur et la balise d’apprentissage. Cependant, concevoir une bonne stratégie d’évaluation, c’est un sacré casse-tête. Il faut se poser les bonnes questions, accepter certains biais, discerner l’utile du “trendy” dans les types d’évaluations et savoir ce qu’on en fait. La docimologie : poser les bases d’une évaluation Pour bien évaluer, il faut savoir de quoi on parle et pour cela il y a la docimologie, ou science de l’épreuve, développée depuis les années 1920. L’objectif de la docimologie est tout d’abord de comprendre l’importance d’un certain nombre de facteurs ayant un impact sur une évaluation. Il y a les facteurs environnementaux comme l’état de fatigue d’un apprenant ou la pression exercée sur celui-ci. Il y aussi des facteurs psychologiques comme l’effet de contraste : un apprenant ne réussissant pas une série de questions alors que le précédent si, peut provoquer une mauvaise notation du premier par l’évaluateur. Il est donc important de prendre en compte ces facteurs avant de se poser les questions suivantes : Quelle compétence évaluer ? Pourquoi Pour qui ? Comment (quel format d’évaluation) ? La question des compétences à évaluer Dans l’Enseignement supérieur, nombre de compétences à valider sont formulées par les accréditations internationales et les standards nationaux. Oui, leur expertise à ce sujet est claire, néanmoins, il reste important pour des formateurs/ enseignants de s’approprier la question des compétences, ceux-ci étant les accompagnateurs des apprenants. Se poser la question des compétences à évaluer est essentielle afin d’établir une stratégie d’évaluation, pour savoir si la formation est efficace, pour baliser la progression de l’apprenant et adapter la suite de l’apprentissage par rapport à cela. Ensuite vient la question suivante : “comment évaluer une compétence précise lors d’un examen ?” À ce sujet, il faut différencier deux méthodes : le questionnement libre et le questionnement indicé. Le premier correspond à poser une question ouverte qui permettra à l’apprenant de faire fonctionner sa mémoire et structurer sa réponse de la manière la plus libre possible, selon son propre raisonnement. Le second consiste à proposer des indices, des chemins possibles à l’apprenant afin de participer à la mise en route de la mémoire et du raisonnement. Évidemment, il semble plus intéressant, et aussi plus long, d’opter pour la première méthode si l’on veut plus précisément : savoir ce que connaît l’apprenant savoir ce qu’il croît connaître Dans tous les cas, s’assurer de clarifier au maximum les questions est essentiel si l’on veut que l’apprenant délivre son savoir. Une pression, une mise en compétition, un piège, et les résultats seront faussés ou inutilement minés. Bizarrement c’est plutôt cela qu’il se passe en formation et dans l’Enseignement supérieur. Pour quel format d’évaluation faut-il opter ? Et c’est à ce moment que ça devient un sacré foutoir. QCM, dissertation, QCU, exposé, simulation … bref on ne sait plus que choisir pour quelles compétences et dans quelle formation. Alors remettons de l’ordre dans tout cela. Tout d’abord, il faut discerner cinq types d’évaluations différentes. > La sommative ou certificative permet d’observer l’acquisition des compétences. On va droit au but on pose des questions auxquelles on attend des réponses précises > La formative est un diagnostique des connaissances d’un apprenant. C’est une évaluation à but pédagogique qui permet à un apprenant de mieux comprendre sa progression et à un formateur de mieux l’aider > Dans le même sens que la formative, il y a l’évaluation continue, tout au long de l’année, qui a le même objectif que la précédente > L’évaluation authentique permet d’observer l’acquisition des compétences d’un apprenant dans le cadre le plus réel possible. Simulation, réplicât de situation, plus c’est réel mieux c’est et c’est très efficace bien que pas toujours adaptable à toutes sortes de formation > Le bilan de compétence ou le test de positionnement. ces derniers sont eux aussi des tests diagnotstiques permettant d’établir un bilan sur le progrès effectué entre un point A et un point B. C’est un aussi un moyen pour le formateur de recevoir un feedback de sa la qualité de sa formation. Maintenant qu’on a tout cela, que choisir ? Aujourd’hui, les évaluations alternatives (simulation, jeux de rôles, qcm, présentations etc.) ont le vent en poupe et à raison. Leur efficacité a été prouvé. Cela ne veut pas dire que des formats plus traditionnels doivent être laissés pour compte. Il faut pouvoir adapter un format d’évaluation aux compétences dont on veut observer l’acquisition, ou non, de la part de l’apprenant. De plus, si l’on veut rester un maximum pédagogique et au service de l’apprenant, il est nécessaire de l’exercer, en effet, la mémoire long terme est stimulée et facilitée par l’exercice, mais surtout dans une pluralité de formats. Varier les formats c’est permettre à un apprenant d’aborder une problématique ou une connaissance dans toutes ses facettes. Vous êtes prêts pour établir votre stratégie d’évaluation !
- 7 janvier 2020 Temps de lecture : 5 minutesLe Peer Feedback, une méthode très efficace !
Les pédagogies actives ont le vent en poupe ! Classe inversée, Blended learning, apprentissage entre pairs, seriousgames, jeux de rôle, on voit de plus en plus méthodes testées à tous les niveaux d’apprentissage. Cependant, les évaluations sont majoritairement mises à l’écart du champs pédagogique. En effet, selon notre étude portée sur une centaine de formateurs et d’enseignants, environ 40% affirmaient donner plus d’importance au cours qu’à l’évaluation qu’ils considéraient comme secondaire. Prioriser la pédagogie c’est bien, seulement l’évaluation fait partie intégrante de celle-ci, elle est même l’un des outils principaux permettant de faire évoluer au mieux une stratégie pédagogique. Ceci étant dit, il est important de constamment questionner l’efficacité des méthodes d’évaluation en testant plusieurs formats différents. L’un de ces formats fonctionne particulièrement bien et peut, dans un grand nombre de cas, avoir un apport à l’apprentissage bien supérieur aux autres méthodes : c’est l’évaluation par les pairs, ou le Peer Feedback (aussi appelé peer review). Alors tout d’abord, comment définir cette méthode ? Définir le Peer feedback Le Peer feedback est une méthode d’évaluation qui consiste à donner le rôle de correcteur et d’évaluateur aux apprenants. Ceux-ci s’évaluent les uns les autres, commentent et proposent des suggestions afin d’améliorer leur travaux. S’ils jouent un rôle d’enseignant, ce dernier ne disparaît pas du système. En effet, le professeur devra jouer un rôle d’accompagnateur et de vérificateur afin d’assurer le bon déroulement d’un tel exercice. Le but de cet exercice est d’apporter aux apprenants la capacité de raisonner et de juger la valeur d’arguments d’une multitude d’individus. C’est donc une excellente méthode pour le renforcement de l’esprit critique et des capacités analytiques de l’apprenant selon David Kofoed Wind, CEO de l’entreprise Peergrade proposant une solution numérique permettant de mettre en place et de gérer aisément l’évaluation entre pairs. C’est aussi l’occasion pour celui-ci de favoriser la confiance et le travail en groupe. Que dire de la précision des jugements ? On peut douter de la précision de la notation des apprenants entre eux. En effet, ceux-ci ne semblent pas qualifiés pour effectuer une telle activité. Cependant, si la méthode est expliquée par l’enseignant en premier lieu, on arrive très vite à une quasi-corrélation entre les notes des professeurs et celles données par les apprenants. Selon l’étude How Accurate is Peer Grading? par Scott Freeman and John W. Parks, les apprenants tendent à donner de meilleures notes à leurs pairs dans 25% des cas. De plus, ils donnent en moyenne 1,22 points de plus sur une échelle de 10. Manifestement, il n’y a pas de quoi s’inquiéter. Quand utiliser le Peer feedback ? Il est nécessaire de s’assurer que le groupe d’apprenant soit d’un niveau plutôt homogène. Plus le groupe le sera, plus il y aura de transparence et plus cela se reflétera sur les notes et les commentaires. S’assurer de préserver l’anonymat des apprenants. Une étude récente a prouvé que lorsque les apprenants savaient que leurs commentaires et notes resteraient anonymes, plus ceux-ci étaient de qualité S’assurer de prendre le temps de former les apprenants à ce type d’évaluation avant de la mettre en place, sinon cela revient à maximiser les mauvais cas d’usage et le désengagements des participants. Si cette méthode est applicable pour un large panel de questions d’évaluation, elle reste plus efficace sur des questions de types dissertation, essai ou réponse courte argumentée. En effet, c’est dans ce genre de questions, nécessitant la formulation d’arguments, que les apprenants voient leur capacité analytique exploitée au maximum autant pendant la composition que pendant l’évaluation des pairs. Le Peer feedback est extrêmement efficace sur les formations ou évaluations continues. En effet, il pousse les apprenants à faire toujours plus preuve de rigueur, de discernement et d’esprit critique, c’est cela son but. Il est donc important que les évaluations ciblées ne soient pas d’un enjeu trop important. À proscrire pour les examens standardisés, concours ou tous types d’examens importants académiquement. Le Peer feedback, meilleure méthode d’évaluation ? Une bonne nutrition est une nutrition saine et variée. De la même manière, la meilleure manière d’apprendre à propos d’un sujet et de se remémorer ces connaissances est d’aborder ledit sujet à partir d’angles différents. C’est la même chose pour les évaluations. Le Peer feedback a beau être intéressant et efficace, il ne peut être le seul modèle utilisé. Néanmoins, il est clair que son apport à la pédagogie est important dans un contexte où : nous devons nous former face aux fake news les soft skills prennent de l’ampleur (et le Peer feedback facilite l’acquisition de nombreuses soft skills) les pédagogies actives ont fait leur preuve À vous de jouer ! Vous avez aimé lire jusqu’ici? Essayez ces autres articles sur pédagogie: Pourquoi la méthode Pecha Kucha vaut le détour ? Les jeux de rôles, une pédagogie surpuissante ? 3 Outils Pour Plus De Pédagogie À la conquête de l’Immersive Learning
- 7 novembre 2019 Temps de lecture : 2 minutesTestWe, partenaire et intégré à Canvas by Instructure
Depuis octobre 2019, TestWe est officiellement partenaire d’Instructure, le leader des technologies de logiciel en tant que service (SaaS), qui conçoivent des logiciels qui rendent les gens plus smart. Pourquoi? Pour intégrer TestWe au LMS Canvas. La solution d’e-Exam s’intégrera désormais directement au système de gestion de l’apprentissage pour un processus d’évaluation plus rapide et un déploiement complet dans les établissements d’enseignement supérieur. Avec l’interconnexion créée, les professeurs seront désormais en mesure de créer, gérer et noter des examens via TestWe. Pour les étudiants, c’est un accès facile et rapide à leurs résultats et un bon moyen d’observer leur évolution : analyse des notes, des compétences et des compétences générales. À propos de TestWe Pour les organisations qui développent l’excellence en matière d’apprentissage et d’évaluation, TestWe vous apporte la tranquillité d’esprit car elle est sécurisée! Nous proposons aux étudiants un logiciel sécurisé, hors ligne et confortable pour les étudiants, afin qu’ils puissent se concentrer sur leur argumentation sans la pression du temps. Plus important encore, les étudiants peuvent passer leurs examens sur leur propre appareil. TestWe est une solution complète d’e-Exam: une plateforme pour l’administration et des logiciels hors ligne pour les apprenants. Avec des rapports et des analyses approfondies sur les compétences des élèves (LO, LG, soft skills…), TestWe joue bien sa carte! Consultez ces articles pour plus des articles sur examens en ligne: Pourquoi il est important de numériser les examens ? 6 Manières d’Évaluer vos Apprenants Comment obtenir ses accréditations plus facilement Serait-ce le début de la fin pour les examens standardisés ?
- 5 novembre 2019 Temps de lecture : 6 minutesÉvaluer avec les Serious Games, pourquoi ça marche?
Depuis deux ou trois ans les serious games sont devenus l’apanage de la formation professionnelle. L’un ne va plus sans l’autre. Les startups de l’Edtech s’attaquent de plus en plus aux problématiques et aux opportunités des serious games en proposant des modèles et solutions clés en main aux entreprises, aux centres de formation et même aux institutions de l’enseignement supérieur. Mais pourquoi ? POURQUOI ? POURQUOI EST-CE DEVENU SI MAINSTREAM ? Si l’on observe uniquement le sommet de l’iceberg, on ne peut qu’être lassé de lire serious game par ci, learning par là, soft skill là bas. En réalité, cette méthode pédagogique se trouve être bien plus intéressante que cela. De plus, je peux vous le dire, les serious games sont une méthode d’évaluation extrêmement efficace ! Alors commençons par le commencement, voulez-vous ? Petite définition des serious games parce que je suis sûr que vous ne savez pas vraiment ce que c’est (ahah..) Rien qu’à ce stade, on peut très vite mais alors très vite se tromper et partir sur de mauvaises bases sur les serious games. Au niveau national, sur éduscol, la plupart des définitions données des serious games précisent leur caractère informatique, numérique, tiré des jeux vidéos. Pour ce faire, l’article cite de nombreux auteurs ainsi que des définitions venant de plusieurs ressources … On retrouve le même type de définition au travers de nombreux sites web. Mais j’ai envie de dire : “Numérique ? Jeu vidéo ? Seulement ? À quel moment en fait ?” Il faut savoir, et là la plupart des ressources ont raison, que le serious game est avant tout un jeu à caractère pédagogique, ludique et informatif. L’apprentissage est censé être accéléré grâce au jeu. Alors oui, le terme de serious game serait apparu il y a une quinzaine d’années dans le milieu militaire à partir d’outils numériques, mais en tant que tel, en tant que méthode, le serious game n’est pas nécessairement digital ou une app. Des jeux de rôles, des simulations, des jeux vidéos ou jeux de société, tous sont des serious games. Passons à la suite. Un outil de feedback immédiat Que recherchons-nous lors d’une évaluation ? On cherche à observer la progression d’un apprenant dans son acquisition de compétences. On attend un feedback de la part de l’apprenant en quelques sortes. Quoi de mieux que d’avoir ce feedback sans attendre la correction ? De l’avoir en direct live ! EN LIVE ! Les serious games offrent cette possibilité, qu’ils soient offline ou online. Pourquoi ? En mettant en situation le ou les apprenants, ceux-ci mettent en application les compétences et connaissances que les différents jeux leur demandent de démontrer afin de les terminer. Offline, il sera nécessaire d’observer les apprenants tout au long du jeu. On optera donc pour des évaluations continues (ou ponctuelles) en petits groupes (moins de trente personnes) Online, on fixe les conditions de notation (nombre de pièces obtenues, nombre de niveaux passés, nombre de quêtes résolues, équipe avec la meilleure moyenne etc.) au préalable et on peut très bien laisser faire les apprenants sur le jeu. Un intervenant ou un accompagnateur peut être utile afin de faire le bilan sur les différentes expériences. Mais globalement on ne trouve pas de limite au nombre de participants (dans la mesure du réel). Des apprenants qui s’engagent dans le game Les “jeux sérieux” ne permettent pas en soit d’améliorer l’apprentissage. Cependant, il a été observé qu’ils amélioraient grandement l’engagement et la motivation des apprenants. Ça c’est grâce à l’aspect ludique du game. En effet, encadrer les apprenants en une situation de jeu permet de faire baisser la pression, voire de faire disparaître le stress grâce à un environnement confortable et clair. La majorité du temps, les jeux sérieux (serious games ça claque quand même un peu plus) sont joués en équipe, ce qui permet de favoriser l’esprit d’équipe et les liens sociaux à l’université ou en formation. Bah oui une évaluation ça se travaille, même quand on parle de jeu ! Bien qu’une intégration sociale ne soit pas garantie le jeu permet ici de créer un environnement sain, bienveillant et collaboratif. Je saute sur l’occasion pour vous rappeler à quel point la contextualisation des évaluations est importante afin de s’assurer de permettre à l’apprenant d’illustrer ses capacités et ses compétences. Alors voilà une deuxième raison d’utiliser les serious games dans vos évaluations de compétences et de connaissances. Hard skills, Soft skills, vous êtes servis Avec ce genre de jeux, il est on ne peut plus facile d’évaluer les compétences techniques ou créatives d’un apprenant. Il est aussi facile de mesurer l’habileté d’un individu seul comme dans un groupe. Il est aussi possible la coordination d’une équipe, la répartition des rôles. En effet, il suffit d’un peu de créativité pour adapter les règles, jouer avec des symboles, ou créer tout simplement un jeu de toute pièce (là ça devient quand même compliqué lorsqu’on parle de jeu vidéo) et ça ne devrait pas poser trop de problème. Il vous suffit d’entrer ces données d’apprentissage, ou bien des notes, perçues à la fin d’un jeu test dans un outil de suivi d’apprentissage et c’est parti ! Vous venez d’observer pour la première nettement le processus d’apprentissage d’un individu sur son lieu de travail ou à l’université … ou à l’école comme vous voulez. Une auto-évaluation plus efficace Ma main à couper qu’il y a des joueurs compétitifs ou bien curieux parmi les lecteurs de cet article ! Qu’on perde ou qu’on gagne un jeu on se pose toujours les questions suivantes : “Comment faire mieux ?” ou “Comment faire pour m’améliorer voire gagner à la prochaine partie ?” Ce n’est pas nécessairement de l’obsession mais plutôt le résultat d’une immersion évidente pendant un laps de temps défini. Là-dessus je demande de l’aide aux spécialistes de la mémoire, du cerveau ou plus largement aux spécialistes des sciences cognitives. Serait-il possible que l’aspect intense du jeu facilite le fonctionnement de notre mémoire ? Serait-il possible qu’ils favorisent ainsi notre mémoire sémantique (si je ne me trompe pas, tout ce qui est relatif au savoir et à la mémoire long terme) et ainsi notre développement personnel ? Si c’est le cas, chapeau bas ! Ce qui est sûr, c’est que le jeu nous pousse
- 27 octobre 2019 Temps de lecture : 6 minutesComment évaluer les soft skills ?
Soft skills, soft skills, soft skills ! On nous bassine presque avec ces fameuses compétences douces qui doivent maintenant être une nouvelle priorité de l’enseignement. Les apprenants doivent avoir l’esprit critique, doivent être empathique, coopératif … Évidemment pas tout à la fois. Dans le milieu professionnel, une entreprise sera à la recherche d’un certain profil doté de certaines compétences pour accéder à certain poste. Si les soft skills sont devenu une priorité d’abord dans le secteur de la formation, aujourd’hui on les retrouve prioritaires dans tous les secteurs de l’éducation. Dans le supérieur notamment où l’un des objectifs de ces établissements est de former les jeunes à leur carrière professionnelle. En effet, Laure Bertrand, enseignante-chercheure et directrice du département soft skills et transversalité, l’affirmait dans cette interview : “Aujourd’hui, la maîtrise des « soft skill » est un enjeu pour l’employabilité des jeunes.” Au-delà du supérieur, c’est jusqu’à la tendre enfance que se joue l’apprentissage de ces compétences et pas seulement à l’école ! Jusque là, tout va bien. On voit apparaître nombre de formations et méthodes pédagogiques adaptées aux soft skills afin de les enseigner efficacement. Mais qu’en est-il de l’évaluation ? Comment juger de l’acquisition de compétences aussi vagues et difficiles à observer à un moment T chez l’apprenant ? Aujourd’hui, même dans le milieu de la formation professionnelle, la tâche reste ardue. Alors lançons-nous dans le sujet. Avant toute chose … Avant de décider quel format utiliser il faudra prendre en compte deux éléments. Le premier est d’établir le ou les objectifs d’une session d’apprentissage. En effet, sans les avoir formulés, sans s’être mis d’accord à ce sujet, vous ne pourrez avancer dans vos méthodes. Par exemple, vous vous attendez à faire de vos apprenants, à travers cette formation, des personnes capables de réaliser des vidéo essays. D’accord mais à quel niveau ? Au niveau de la réalisation, du montage, du script ou de la communication ? Ou bien tous ces critères réunis ? Décomposez vos objectifs pour vous assurer d’établir une cohérence dans le parcours que vous leur proposerez. Ensuite, vient le second élément à prendre en compte : le test de positionnement. En effet, il vous faudra un outil qui vous permettra de baliser correctement l’efficacité de la formation dans son ensemble. Le test de postionnement, proposé à l’apprenant avant et après la formation offre justement cela. Cool ! Quelle compétence tester et pourquoi ? Désormais, parlons évaluation. Avant d’opter pour une évaluation et un format particulier, posez vous la question : “quelle compétence dois-je tester et pourquoi ?” Clarifier cela vous facilitera le travail pour la suite. Exemple tout bête. Vous enseignez les “Relations Internationales”, disons les fonctionnements stratégiques et politiques de la Maison Blanche. Vous avez pour objectif d’enseigner aux apprenants un certain nombre de connaissances historiques et politiques à ce sujet. Mais vous devez aussi y intégrer des soft skills. Plus particulièrement, des compétences d’éloquence, d’esprit critique et de travail d’équipe. vous optez pour une formation continue et décidez de diviser l’évaluation de ces trois compétences douces en trois périodes tout au long de la formation afin de faciliter vos observations. Quelle compétence tester lors de l’évaluation X ? Pourquoi celle-ci ? Vous partez sur l’éloquence et donnez vos raisons sur votre dossier de stratégie d’évaluation. Mais plus encore, comment tester l’éloquence ? AH ! Bingo ! Lâchez votre créativité et proposez un format d’évaluation qui pourra faciliter votre travail d’observation et qui vous permettra de juger si oui ou non, avec l’aide de notes ou non, un apprenant a acquis ces compétences. Quelques formats d’évaluation efficaces pour des soft skills Commençons par choisir les soft skills. Prenons les soft skills les plus demandées: motivation, adaptation au changement et organisation. La motivation est une compétence qui peut être perçue généralement en groupe, lorsqu’un obstacle, une difficulté est perçue par le groupe, la motivation peut être insufflée par une ou plusieurs personnes agissant en leader. C’est du moins une manière efficace de l’observer et l’évaluer. Au niveau de l’apprenant individuel, on peut observer sa capacité motivatrice lorsqu’il fait face à des challenges. Il suffit donc d’en proposer. Pour cette soft skill, on optera pour une évaluation continue afin d’entretenir une observation précise des apprenants. Plus précisément, on peut proposer à un ou plusieurs apprenant un rapport, un exposé, un suivi, une résolution de problèmes, tous ces formats devant porter sur des sujets complexes. Concernant la collecte de données à ce sujet, un formateur ou enseignant peut analyser les discussions d’une équipe sur un forum ou le LMS, peut demander des retours d’expériences et des feedback entre pairs, ou proposer des rendez-vous avec les différents groupes. Concernant l’adaptation, celle-ci s’observe lorsqu’on sort un apprenant de sa zone de confort et qu’on l’invite à atteindre des objectifs dans un environnement physique, social ou intellectuel différent de ses habitudes. Là, on observe la capacité de l’apprenant à comprendre et à se montrer pro-actif face à ses objectifs. Comment évaluer l’adaptation ? On peut opter à nouveau pour une évaluation alternative comme le jeu de rôle. En effet, le jeu de rôle peut s’effectuer sur une ou plusieurs séances et peut englober toute une classe d’apprenants. À vous de déterminer le niveau de complexité afin de pousser les apprenants à vraiment s’adapter (pourquoi pas proposer l’utilisation d’une langue étrangère précise pendant les sessions). Il vous suffit de prêter attention au test de positionnement effectué en début de cours pour vous décider. Les simulations des Nations Unies, par exemple, sont des exemples parfait d’évaluation des apprenants qui doivent s’adapter au pays qu’ils devront représenter lors d’une séance de l’Assemblée générale de l’ONU, en plus de s’adapter aux protocoles de cette institution. Effectuez ici vos analyses par l’observation et notez les afin de juger de l’acquisition des compétences. Enfin, qu’en est-il de l’organisation ? Bon l’organisation paraît plus simple à définir et à observer. C’est la capacité d’un apprenant à mener à bien un projet de qualité sans retard. À ce niveau là, il suffit par exemple de proposer plusieurs travaux individuels à faire à la maison selon le choix de l’apprenant par exemple. La qualité