Grille d'évaluation d'un travail étudiant/élève

Bonjour

Je reviens encore vers vous au sujet de l’enseignement de python, plutôt dans un cadre universitaire mais peut être au lycée aussi. Le module étant terminé, la question actuelle concerne l’évaluation. Dans l’évaluation que j’ai donnée aux étudiants, je leur ai demandé de me rendre un Jupyter notebook contenant :

  • des calculs très simples (simple divisions / multiplications)
  • écriture d’une boucle while
  • lecture d’un fichier avec pandas
  • opérations sur les colonnes
  • filtrer / trier / grouper des données avec pandas
  • représentation graphiques (avec ou sans pandas)

Après, j’ai construit la grille ci-dessous pour noter l’évaluation plutôt que de faire un barème par question. L’idée est de chercher ce qu’ils ont su faire plutôt que d’attribuer des points à des questions en particulier. Je me demandais si certains d’entre vous avaient déjà tenté ce genre de choses, et/ou si ça vous intéresse ou si vous pouviez me faire un retour sur la grille en question ? On pourrait imaginer avoir une base de données d’un ensemble de savoir-faire et critères dans lesquels on pourrait piocher en fonction du contenu de l’évaluation ?

La révolution de l’évaluation par compétences est en marche à l’université, on n’y est pas encore mais on va être contraint de le faire très vite. Ce que je vous propose ici n’est pas vraiment une évaluation par compétences mais avec une grille et des critères, je pense que c’est un intermédiaire pouvant ensuite permettre d’associer chaque critère à une compétence.

Merci à vous

J’aime beaucoup ta démarche.
J’avais aimé donner ma grille d’évaluation aux élèves avant l’exercice et qu’eux même s’auto évalue. Le travail pédagogique commençais pour moi lors des discussions entre l’écart entre leur évaluation et la mienne. ( BTS et post licence privée). Ça me permettais d’affiner mes critères. Par exemple le premier critère : variable. Je serais curieux de voir ta distinction entre les deux derniers niveaux de ‘maitrise’. Des exemples attendus/comparatif aide beaucoup également.

Pareil, j’aime bien l’approche. Je suis en train de me demander comment un élève pourrait rendre quelque chose d’affreux tout en validant chaque étape, pour voir si l’approche est robuste… je pense qu’elle peut être aisément rendue robuste avec un petit ajout : « Très bonne maîtrise » implique « utilisé avec élégance ».

Pour la case vide sur la ligne Markdown tu pourrais faire :

  • Pour “markdown — fragile” : “uniquement du texte, invalide en Markdown.”
  • Pour “markdown — satisfaisant” : “uniquement du texte, valide en Markdown.”

La différence entre les deux c’est “J’ai fait du texte, ça rend un truc cassé, et j’ai laissé comme ça.” contre “J’ai fait du texte, ça a rendu un truc cassé, j’ai fait l’effort de corriger la syntaxe là où c’était cassé.”.

Merci à vous deux pour vos encouragements.

Je vous dirai ce que ça donne comme note. On a commencé à corriger quelques copies avec un collègue pour voir comment se comporte la grille avant de tout corriger. Pour le markdown par exemple, très peu d’étudiants l’ont utilisé. ils étaient habitués à travailler sur des notebooks près remplis.

Dans tous les cas, je pense que ce type d’évaluation conduit par construction à de meilleures notes qu’une évaluation classique. C’est un peu obligatoire selon moi car tu vas chercher ce qu’ils ont réussi à faire et ne pas sanctionner question par question un échec. En fait tu ne mesures pas tout à fait la même chose. Avec ce type de grille, tu mesures plus directement le pourcentage d’apprentissage de la personne alors qu’avec un barème tu mesures une réussite/échec à des questions. Je pense que ça ouvre aussi la possibilité de poser des questions beaucoup plus ouvertes.

Quelque part ça remet en question la fameuse barre de 10 sur laquelle on a un peu trop tendance à se satisfaire d’y aligner la moyenne des notes, ce qui est un peu triste car ça veut dire que 50% des étudiants ont échoué. Avec la grille, une personne qui a 10, 50%, au final ça veut dire qu’elle ne sais pas faire grand chose (ça revient à cocher maitrise fragile à tous les items) mais pourtant elle a 10, ce qui voudrait dire sur un barème qu’elle a réussi pas mal de questions. De plus dans notre système français, 10 permet de valider la matière, d’autres pays fixent cette barre à 60, 70 ou 80%…

Pour être totalement honnête, j’avais cette démarche en tête depuis un petit moment mais j’avais jamais eu (pris) le temps de le faire. Ce qui m’a vraiment poussé à la mettre en pratique ce coup-ci c’est que le sujet que j’ai posé aux étudiants a été une catastrophe. J’avais pas mal conceptualisé le sujet par rapport à la chimie (discipline majeure des étudiants en question) et le sujet était long, ça les a perdu. Je me suis dit que c’était l’occasion de sortir du “barème” classique et d’aller chercher ce qu’ils avaient réussi à faire. En parallèle ça permet de se préparer un peu aux évaluation par savoir-faire pour les futures compétences.

Des perspectives d’amélioration pour l’année prochaine … :sweat:

1 J'aime