Revue Cliniques Juridiques > Volume 6 – 2022

L’évaluation dans les cliniques juridiques : quelques réflexions sur l’appréciation de l’acquisition des compétences

Les cliniques juridiques permettent aux personnes étudiantes d’acquérir des compétences professionnelles spécifiques1. Brailovski, Miller et Grand’Maison définissent la compétence professionnelle comme « la capacité d’un professionnel à utiliser son jugement, de même que les connaissances, habiletés et les attitudes associées à sa profession pour résoudre des problèmes complexes »2. Dans ce contexte, le cadre pédagogique diffère de l’environnement pédagogique dans lequel les étudiants évoluent au cours d’activités pédagogiques plus « classiques ».

Pour assurer un transfert adéquat des compétences, la personne chargée de l’enseignement clinique doit donc user de méthodes pédagogiques différentes de celles usuellement préconisées dans le cadre de l’enseignement traditionnel. Nécessairement, cela emporte des conséquences sur la manière dont les personnes enseignantes procéderont à l’évaluation. En effet, pour vérifier que les personnes étudiantes aient bien acquis les compétences visées, la personne responsable de l’activité clinique doit revoir ses façons de faire et délaisser certains automatismes. Surtout, elle doit dorénavant concevoir l’évaluation non pas comme l’étape finale de l’activité pédagogique, mais comme un processus continu permettant à la personne étudiante d’acquérir les compétences visées.

De toute évidence, l’évaluation d’une activité clinique représente un défi important. En effet, la personne chargée de l’évaluation ne peut faire l’économie de s’interroger sur la finalité de l’évaluation (I), sur l’objet de l’évaluation (II), sur les personnes qui peuvent être impliquées dans l’exercice d’évaluation (III), sur les modes d’évaluation (IV) et sur l’importance de la rétroaction (V).

I. La finalité de l’évaluation

Les personnes étudiantes ont l’habitude des évaluations. La routine universitaire créée une sorte de séquence, qui est la plupart du temps la même d’un cours à l’autre. Elles vont en classe, révisent, font des examens ou rédigent des travaux sur des sujets donnés. La personne enseignante les sanctionne par une note. La plupart du temps, le travail d’évaluation s’arrête ici. Rares sont les échanges sur l’évaluation à ce stade et rares sont les chances pour la personne étudiante de reprendre son travail sur la base des commentaires faits.

Dans le cadre de l’enseignement clinique, l’évaluation est conçue non pas comme une fin en soi, non pas comme une étape finale, mais comme un processus continu permettant à la personne étudiante de s’améliorer, d’apprendre de ses erreurs et, à terme, de rencontrer les objectifs pédagogiques. Pour Quigley, le processus d’évaluation continu a un impact majeur sur le développement de la personne étudiante :

« The difference between persons who learn how to learn from their experiences and those who do not is the difference between a person who after five years as a lawyer has progressed and developed into a different kind of lawyer versus the person who has essentially been repeating their initial year in practice five times »3.

Évidemment, la manière de concevoir les modes d’évaluation dépend de l’environnement de la clinique et des mandats traités, ainsi que des ressources disponibles. Au moment d’élaborer les modalités d’évaluation, on doit demeurer réalistes compte tenu de l’ensemble des circonstances, mais si l’on souhaite atteindre les objectifs de la formation clinique, on ne peut se contenter des méthodes traditionnelles d’évaluation.

Le principe même de l’activité clinique est de fournir aux personnes étudiantes un apprentissage expérientiel. Selon Quigley, il s’agit là de l’élément de définition le plus critique de l’éducation clinique4. Le principe est simple, il s’agit de mettre l’apprenant en situation d’expérimentation d’une activité professionnelle aux fins d’apprentissage d’un métier ou d’une compétence professionnelle. Ainsi, Lucie Roger, Anne Jorro et Philippe Maubant expliquent

« [q]ue ces expériences soient passées ou qu’elles se constituent, se conçoivent et se développent dans l’activité du travail au sein de situations formatives ou non, formelles, non formelles, voire informelles, ces expériences sont le plus souvent considérées par les concepteurs de formation comme un capital patrimonial sur lequel et à partir duquel le futur professionnel construira et développera ses compétences »5.

Dès lors, les modes d’évaluation choisis doivent suivre l’évolution de la personne étudiante tout au long de son expérience clinique6. Idéalement, on doit pouvoir procéder à l’évaluation plusieurs fois durant le trimestre, et ce à plusieurs étapes charnières du travail à faire. L’objectif est simple : on souhaite accompagner la personne clinicienne tout au long de son activité afin qu’elle apprenne de ses erreurs et s’améliore, pour qu’à terme, elle soit capable d’analyser elle-même sa propre performance.

II. L’objet de l’évaluation

Dans le cadre d’un enseignement traditionnel, l’évaluation vise surtout à mesurer l’acquisition de connaissances7. L’activité clinique peut certes viser l’acquisition de connaissances, mais sera surtout centrée plus globalement sur le développement de compétences qu’on décline souvent en savoirs, savoir-faire et savoir-être8. Il s’agit de ce que Jacques Tardif appelle les « savoir-agir complexe prenant appui sur la mobilisation et la combinaison efficaces d’une variété de ressources internes et externes à l’intérieur d’une famille de situations »9.

L’approche par compétences est particulièrement intéressante pour l’enseignement clinique, car elle s’ancre dans l’action10, correspondant aux missions des activités cliniques. L’approche par compétences, à l’inverse de l’approche par objectifs, met l’accent sur des capacités et des connaissances distinctes. Scallon indique en ce sens que cette approche doit porter sur le rendement et les différents aspects de la personnalité, sur une évaluation contextualisée et sur des ressources variées selon le contexte et l’apprenant11. L’approche par compétence privilégie ainsi une analyse de la démarche opérée par l’apprenant, une approche quantitative et qualitative12. Enfin, l’auteur précise que si l’approche par objectif mesure, l’approche par compétence apprécie13. Cette manière de concevoir le travail effectué impose nécessairement de reconceptualiser les évaluations et de les adapter.

Les savoir-agir différeront d’une clinique juridique à l’autre, en fonction des caractéristiques inhérentes à chacune. Par exemple, une clinique acceptant des mandats exigeant une réponse rapide ne fixera pas les mêmes compétences à atteindre qu’une clinique traitant des mandats s’étirant sur plusieurs mois. Aussi, au sein même d’une clinique, les attentes peuvent différer d’une personne étudiante à l’autre, dépendant du niveau de diplomation (licence, maitrise, master).

Néanmoins, si les savoir-agir identifiés peuvent varier d’une clinique à l’autre, certains savoir-agir semblent communs à toutes les cliniques. La mission principale de la clinique juridique étant de fournir une expérience pratique et professionnelle en droit aux étudiants, on considère d’abord que le professionnalisme en est une partie intégrante14. C’est ce qu’appellent Cynthia Batt et Harriet N. Katz « l’approche consciencieuse du travail »15. Plusieurs éléments s’ancrent dans la capacité à être professionnel : respecter les échéances, incluant les échéances internes au travail de la clinique; organiser son travail; fixer les objectifs; créer les ordres du jour des réunions d’équipe; démontrer une compréhension des étapes de travail, etc16. Batt et Katz indiquent aussi que l’étudiant clinicien doit démontrer un certain degré de curiosité et d’empathie, en saisissant les opportunités d’observer les avocats ou praticiens, répondre de manière appropriée à la critique voire de chercher à obtenir de la rétroaction, respecter le travail de ses pairs et encore plus quand le travail se fait en équipe17. Ces qualités interpersonnelle et personnelle doivent aussi s’étendre au devoir de confidentialité, à la démonstration d’un degré adéquat de discrétion sur l’affaire en cours mais aussi respecter les règles éthiques et de déontologie18. La variété des cliniques juridiques expliquera surement les différences de contenu évalués; il n’en demeure pas moins que certains savoir-agir seront communs.

Au-delà des compétences consacrées par l’expression « savoir-agir », il est maintenant fréquent de lire sur le « savoir-devenir ». Il renvoie à la capacité d’un étudiant à développer des outils lui permettant de s’adapter de manière autonome aux changements. Selon Charles-Henri Amherd, « si le « savoir-être » renvoie à l’idée de « se connaitre soi-même », le savoir-devenir, c’est la capacité de se découvrir, conjuguant « l’avenir et le présent » »19. En d’autres termes, c’est la capacité à savoir évoluer, compétence très recherchée dans le marché de l’emploi20. Françoise Dupuich-Rabasse et Bernard Letourneux considèrent à juste titre que le savoir-devenir est une supra-compétence21.

Ce sont ces savoir, savoir-faire et savoir-être, voire les savoir-devenir, qui seront évalués. Il importe donc qu’ils soient fixés de manière précise et réalisable, et qu’ils soient clairement communiqués aux personnes étudiantes.

III. Les personnes impliquées dans l’évaluation

Tout naturellement, la personne enseignante doit être la personne clé en charge de l’évaluation. C’est elle qui est responsable de l’activité pédagogique et qui possède les savoir-agir identifiés. Une partie de l’évaluation peut toutefois être prise en charge par d’autres acteurs. Cela peut même s’avérer tout à fait pertinent. En effet, l’enseignant ne peut pas tout voir. À ce titre la personne mandatrice (A) et les autres personnes étudiantes de la clinique (B) peuvent participer à bonifier l’exercice d’évaluation.

A. La participation de la personne mandatrice

La personne mandatrice est la personne donnant le mandat. En tant que telle, elle peut participer à l’évaluation. Par exemple, dans le cadre d’une clinique d’accès au droit, on peut demander à la personne ayant donné le mandat d’évaluer l’atteinte de certains savoir-faire ou savoir-être. Dans ce cas, la personne mandataire – qui n’aura pas forcément les codes pour évaluer – doit être orientée par la personne responsable. Il est possible de fournir des questions auxquelles le mandataire doit répondre et qui participeront à évaluer les savoir-agir des étudiants : la personne étudiante a-t-elle fait preuve de respect, d’empathie, de ponctualité? A-t-elle été capable de vulgariser les notions développées ? A-t-elle répondu précisément à la demande qui a été faite par le mandataire ? Afin de simplifier l’exercice, un formulaire peut être créé à cet effet.

Dans le cadre d’une clinique de type mandat, on peut même questionner les mandataires quant aux savoirs acquis. Certaines cliniques proposent au mandataire de se joindre à l’évaluation, en participant par exemple aux présentations orales du projet menée par les étudiants. Il arrive aussi que des personnes mandatrices s’impliquent de près dans la réalisation du mandat et fournissent des rétroactions régulières. Celles-ci peuvent être bien placées pour évaluer en partie le travail rendu. Évidemment, leur évaluation ne peut se substituer au travail de la personne enseignante, mais elle peut constituer une source importante d’informations.

B. L’évaluation par les pairs et l’autoévaluation

Les travaux d’équipe peuvent constituer une partie importante du travail évalué dans une clinique juridique. Dans ce cas, il est tout à fait pertinent de miser sur une évaluation par les pairs. Après tout, dans les circonstances d’une clinique juridique, les personnes étudiantes deviennent acteurs du cours et sont placées au cœur de leur propre apprentissage. L’évaluation par les pairs leur permet ainsi d’évaluer la contribution de chacun au travail. Il s’agit avant tout de mettre chacun dans la peau du correcteur et de le pousser à avoir un regard réflexif sur son travail et celui de ses coéquipiers.

L’expérience du Bureau d’assistance juridique internationale22 illustre bien notre propos. Au sein de cette clinique, les personnes étudiantes travaillent souvent en groupe de 5 à 8 pendant huit mois sur un seul mandat d’envergure. Ils doivent produire un rapport pouvant faire plusieurs centaines de pages. Dans ce contexte, comment apprécier la contribution de chaque membre de l’équipe ? Comment attribuer une note juste à chacun d’eux ? Et comment identifier correctement « les surfeuses et les surfeurs : [c]es étudiantes et étudiants qui ont compris qu’en se joignant à des équipes travaillantes, une bonne part de leur note personnelle leur sera donnée sans trop d’effort, en se laissant porter par l’équipe »23 ?

Évidemment, pour quiconque a déjà procédé à une évaluation par les pairs, les résultats sont souvent décevants. L’exercice peut en effet être réalisé de manière complaisante par les personnes étudiantes24. Dès lors, le résultat de l’évaluation par les pairs n’est pas satisfaisant et son caractère scientifique est mis en doute.

La « Matrice PME » fournit une solution à ce problème. Il s’agit là d’un outil scientifique permettant d’évaluer réellement la contribution de chaque étudiant, en plus d’imposer une auto-évaluation25. Dans le cadre de cet outil, « PME » réfère aux termes « plus », « moins » et « équivalent »26. En d’autres termes, la Matrice PME permet à chaque étudiant d’évaluer la contribution des autres par rapport à lui-même, de sorte qu’il peut qualifier la contribution de chaque personne de son équipe comme étant « plus que sa propre contribution », « moins que sa propre contribution » ou « équivalent à sa propre contribution ».

Concrètement, l’enseignant détermine les compétences à évaluer dans le cadre de l’évaluation par les pairs. Ces compétences, ou critères d’évaluation, sont considérés par Gagnon et Doucet comme des « attitudes et aptitudes professionnelles »27, mais nous suggérons de les considérer comme des savoir-être, car on ne prétendra pas que les personnes étudiantes sont qualifiées pour évaluer des savoirs ou des savoir-faire. Toutefois, elles peuvent indiquer si leurs collègues ont travaillé dans le respect, ont travaillé dans les temps impartis par l’équipe et le mandataire, ont apporté une contribution significative ou ont été ponctuels lors des rencontres d’équipes.

L’évaluation par les pairs faite suivant la matrice PME permet d’obtenir aussi une autoévaluation. En effet, en qualifiant le travail de chaque membre de l’équipe, la personne étudiante se compare : a-t-elle travaillé moins, plus ou de manière équivalente? Dès lors, non seulement cet outil permet-il d’obtenir une évaluation des pairs, mais offre à chaque membre de l’équipe l’occasion de réfléchir à sa propre contribution.

Il est possible d’inviter les étudiants à procéder à cette évaluation plusieurs fois par session, semestre, année. La première évaluation de chaque période peut aussi n’agir qu’à titre formatif. Cela permet de repérer les éléments moins impliqués, et de tenter de rétablir l’équilibre de l’équipe en ayant, par exemple, une rencontre d’équipe. L’idée est de faire plusieurs évaluations par les pairs car elle pairs donne l’opportunité à chaque membre de l’équipe « de prendre conscience de son fonctionnement et d’apprendre à gérer la situation avec intentionnalité accrue et une autorégulation plus efficace »28. Ce type de rétroaction permet ainsi à l’étudiant d’évoluer, de s’adapter et de corriger.

La Matrice PME permet d’intégrer un écart type entre les notes des étudiants au choix de l’enseignant. Une balise entre 0.5 et 1.5 peut produit un impact important sur l’évaluation, alors qu’une balise entre 0.9 à 1.1 réduit l’importance de l’évaluation par les pairs sur la note finale. De cette manière, la pondération opérée par la matrice pour la note de chaque étudiant peut être plus ou moins forte. Cette pondération s’applique directement à la note finale attribuée par l’enseignant, de sorte qu’un excellent étudiant évalué comme tel par ses pairs aura une meilleure note que ceux qui ont été moins bien évalués, alors même que la note attribuée au mandat (et donc à l’équipe) par l’enseignant est unique. Par exemple, si l’enseignant attribue une note de 12/20 au travail de groupe, les notes vont être ajustées en fonction du facteur de pondération. Un étudiant qui aura eu une évaluation par les pairs très positive pourrait se retrouver avec un facteur de 1.3 et donc une note de 15,6/20. L’étudiant considéré comme s’étant moins impliqué et ayant moins travaillé par ses coéquipiers pourrait avoir un facteur de 0.7 et obtenir la note de 8,4/20. Donc, pour le même travail d’équipe, l’évaluation par les pairs permet de sanctionner le travail de chacun de manière plus juste. Dans un monde idéal, on vise évidemment à ce que chaque membre de l’équipe obtienne un facteur de pondération d’environ 1 puisque plus l’écart entre les facteurs est grand, plus cela indique un problème dans l’unité et la constance des membres du groupe. La matrice peut être inclus au sein de feuille de calcul Excel. L’Université de Sherbrooke l’a intégré à un site web de gestion des notes, ce qui permet aux personnes enseignantes de l’utiliser aisément.

Gagnon et Doucet suggèrent d’être prudents avec l’utilisation de cet outil29. Selon eux, les personnes étudiantes doivent adhérer à ce mode d’évaluation et en comprendre son utilité30. Il est donc important de bien leur expliquer la méthode.

IV. Les modes d’évaluation

Le choix du mode d’évaluation dépend du type de clinique et des compétences qu’on cherche à développer. Par exemple, si on cherche à transmettre des connaissances en droit de l’immigration ou en droit de la famille, les modalités seront sensiblement différentes des situations dans lesquelles l’objectif est l’acquisition de compétences pratiques ou de savoir-faire, à l’instar de la capacité à vulgariser une notion juridique, le recours à des outils de recherche efficaces ou l’aptitude à mener une entrevue de manière professionnelle.

La personne responsable de l’évaluation doit choisir des modalités d’évaluation qui répondent à ces impératifs, tout en prenant en compte la réalité de sa clinique juridique. L’expérience des superviseurs de cliniques juridiques montrent que la manière de concevoir les compétences à développer varient d’une personne à l’autre, comme l’indique l’expérience de Laurie Barron31. Selon elle, la personne étudiante doit apprendre par elle-même, apprendre à apprendre, à se former32. Le mode d’évaluation choisi variera également en fonction de la cohorte étudiante; on n’évaluera pas de la même façon des personnes inscrites en licence (ou baccalauréat), en master ou au doctorat.

Idéalement, il faut multiplier les modalités d’évaluation. D’ailleurs, les modalités d’évaluations uniques ne permettent souvent pas de bien évaluer l’atteinte de l’ensemble des compétences qu’on cherche à développer. À ce sujet, Georges, Poumay et Tardif indiquent que l’évaluation doit faire preuve de « complétude » : l’évaluation doit prendre en compte toutes les compétences et composantes couvertes dans le cours33. Une prestation orale permet d’évaluer plusieurs types de compétences, comme la capacité à expliquer en détails le contenu du mandat et à vulgariser une notion en droit. En revanche, elle ne permet pas nécessairement d’évaluer la capacité à effectuer une recherche et à produire un argumentaire écrit, ni la capacité à colliger de nombreuses données. Il faut également ajouter qu’une seule évaluation, sur une année, voire un semestre, ne peut prendre en compte l’évolution de la personne clinicienne. Le travail qui est proposé d’accomplir dans une activité clinique est souvent la première expérience pratique. Les évaluations formatives peuvent à ce titre être utiles pour accompagner la personne étudiante dans son apprentissage.

Sans prétendre à l’exhaustivité, voici quelques exemples d’évaluations pertinentes dans le cadre d’une clinique juridique : la rédaction d’un acte juridique ou d’un rapport de recherche, la rédaction de fiches thématiques, la présentation orale, le portfolio, le journal de bord34, la participation aux rencontres avec l’enseignant et le mandataire, la conduite d’une entrevue, etc. L’autoévaluation est aussi un mode d’évaluation souvent utilisé35. Elle permet un exercice réflexif, nécessaire à la progression36.

Contrairement aux usages, l’examen de restitution de connaissances – ex. : examen théorique ou dissertation – ne permet pas d’évaluer correctement l’acquisition des compétences poursuivies. Grosberg critique le recours aux examens écrits comme mode d’évaluation d’une clinique juridique et propose plutôt des alternatives qui permettent de mesurer dans le temps l’acquisition des compétences pratiques et professionnelles37. Par exemple, la rédaction d’un plan de négociation, contrairement à un examen de restitution de connaissances, permet à la fois d’évaluer la technique, la connaissance, la capacité à trouver l’information et à rédiger un argument38.

V. L’importance de la rétroaction 

La rétroaction doit être distinguée de l’évaluation en elle-même, bien que la première soit basée sur la deuxième. Pour Meltsner, Rowan et Giverlber, la rétroaction est plus importante que l’évaluation elle-même39. Tardif conclut dans le même sens :

« Les évaluations des apprentissages visent à déterminer (certifier) si l’étudiant a atteint ou non le niveau fixé à tel ou tel moment du parcours de formation. Dans les programmes par compétences, étant donné le temps long pour le franchissement de chaque étape de développement, la fréquence des évaluations formatives est toutefois très élevée parce qu’elles permettent des rétroactions cruciales quant à la progression dans le parcours »40.

La rétroaction est donc un élément à ne pas négliger dans la poursuite du développement des compétences. Fondamentale dans l’apprentissage expérientiel41, elle constitue un élément essentiel de l’apprentissage par l’expérience puisqu’elle permet d’avoir un recul, une autocritique et une réflexion sur l’expérience elle-même et son évolution42. C’est donc souvent au cours de ces rétroactions que l’étudiant intègre et digère les compétences acquises et la manière de développer ces compétences de manières plus professionnelles43. C’est d’ailleurs ce que préconise Tardif dans les caractéristiques de l’évaluation basée sur une approche par compétences : l’évaluation doit rendre compte d’une progression dans une trajectoire de développement44.

VI. Le mode de notation

En 1994, Nancy H. Kaufman a publié une enquête sur les modes d’évaluation au sein des cliniques juridiques américaines. Cette étude a permis de faire ressortir les tendances en matière de mode de notation. Cette tendance, en 1993, montrait que 31% des cliniques juridiques avaient un modèle de notation complet (« fully-graded model »), 33% procédaient à une notation succès/échec, quand 16% utilisaient un modèle mixte45. Certains auteurs prétendent qu’une note chiffrée permettrait de mettre au même niveau les cours « classiques » et les activités cliniques. Ce faisant, cela illustrerait l’importance des compétences acquises dans les cliniques juridiques46. D’autres auteurs, quant à eux, s’inquiètent de la possibilité d’une dégradation de la motivation si les étudiants ne se concentrent que sur l’obtention d’une bonne note alors que l’idée première doit être celle de répondre aux besoins de la personne ayant donné le mandat47. Lorsqu’on doit choisir un mode de notation, il convient de s’interroger sur la question de savoir si la notation doit récompenser les élèves qui obtiennent les meilleurs résultats, ceux qui travaillent au maximum de leur potentiel, ou ceux qui s’améliorent le plus. A l’inverse, la notation doit-elle sanctionner une mauvaise performance au sein de l’activité, et ainsi, fournir aux éventuels milieux de travail un moyen de sélection? Brustin et Chavkin reconnaissent toutefois qu’un modèle succès/échec ne permet pas de distinguer les meilleurs étudiants des autres, sur leurs compétences cliniques (et donc professionnelles) par rapport aux autres cours48.

Conclusion

Les modalités d’évaluation, quelles qu’elles soient, doivent s’adapter à la réalité de chaque clinique juridique. Elles doivent être pensées en fonction de la finalité qu’on compte leur donner et du résultat qu’on souhaite obtenir. La cohérence entre la finalité et les modalités d’évaluation est primordiale dans le cadre d’une activité qui interpelle le volet expérientiel de l’apprentissage. Enfin, il faut s’interroger sur la possibilité d’inclure les personnes mandataires dans le processus d’évaluation et de rétroaction, tout comme la possibilité de mettre la personne étudiante clinicienne au cœur de son évaluation.

Dans tous les cas, l’évaluation en apprentissage clinique ne peut être calquée sur le mode d’évaluation traditionnel. Elle mérite qu’on la planifie et souvent, elle nous force à nous questionner sur l’ensemble de notre façon d’aborder notre enseignement, lequel ne peut plus être centré sur le simple transfert de connaissances et la vérification de l’acquisition de celle-ci.

La personne responsable d’une activité clinique voit son rôle modifié par rapport à celui qu’on lui attribue dans le cadre d’une activité traditionnelle : on passe d’une personne enseignante dont le mandat premier est de transmettre des savoirs à une personne-ressource, capable d’amener les personnes cliniciennes à se transformer, autrement dit, à savoir-devenir. Son rôle n’est donc plus de « noter » à un moment précis l’acquisition de connaissances; elle doit plutôt « évaluer » la courbe d’apprentissage. Surtout, l’évaluation doit viser l’amélioration et doit permettre que chaque personne étudiante soit en mesure de bonifier son travail. En ce sens, l’évaluation clinique implique une rétroaction continue et individualisée. Elle se conçoit non pas comme l’étape ultime de l’activité clinique (visant à inscrire une note), mais comme un processus intrinsèque à celle-ci, c’est-à-dire comme une modalité essentielle visant l’apprentissage.

Notes

  1. Kakessiwa Komlan, Essossiname Tagnami et Dieudonné Kossi, « Les cliniques juridiques « made in Africa » à l’épreuve de leur adaptation aux « standards » en matière d’enseignement clinique du droit », Cliniques juridiques, vol. 5, 2021, p. 6, §17; Bernard Duhaime, « La pertinence de l’approche Clinique pour enseigner le droit international des droits de la personne », Cliniques Juridiques, vol. 1, 2017, p. 5, §18-19 [http://cliniques-juridiques.org/?p=299].
  2. Carlos A. Brailovsky, et al. « L’évaluation de la compétence dans le contexte professionnel », Service social, vol. 47, n°1-2, 1998, p. 171.
  3. William P. Quigley, « Introduction to Clinical Teaching for the New Clinical Law Professor: A View From the First Floor », Akron Law Review, 28:3, p. 474.
  4. Id., p. 475.
  5. Lucie Roger, Anne Jorro et Philippe Maubant, « De l’expérience formatrice à l’expérience apprenante : genèse et perspectives pour une mise en récit d’un processus de professionnalisation », Phronesis, vol. 3, n°1-2, p. 29.
  6. Cf. Jerry R. Foxhoven, « Beyond Grading: Assessing Student Readiness to Practice Law », Clinical Law Review, vol. 16, n° 2, 2010, pp. 335-356.
  7. Antonio Di Rosa, « L’enseignement du droit. Un modèle en équilibre précaire entre théorie et pratique », Jurisprudence. Revue critique, vol.1, n°1, p. 243.
  8. Pour avoir un aperçu concis de ces savoirs, voir : Geneviève Dufour, David Pavot et Valériane Thool, « Enseignement clinique : quelles compétences à développer », Réseau des cliniques Juridiques Francophones, en ligne : [http://cliniques-juridiques.org/wp-content/uploads/2021/05/RCJF_Fiches_Competences.pdf]. Cf. aussi: Carole Ouellet, La Relation D’aide Au Cœur De L’intervention : Développer Les Savoir-Être, Savoir Et Savoir-Faire Pour La Qualité Du Savoir-Agir Au Service De L’humain, Éditions Harmonie-vie, 2012.
  9. Jacques Tardif, L’évaluation des compétences : Documenter le parcours de développement, Chenelière Education, 2006.
  10. Gerard Scallon, Des savoirs aux compétences. Exploration en évaluation des apprentissages, De Boeck, 2015.
  11. Id., pp. 102-103.
  12. Ibid.
  13. Ibid.
  14. Peter A. Joy, « Clinical Scholarship: Improving the Practice of Law », Clinical Law Review, vol. 2 1995-1996, p. 385.
  15. Cynthia Batt et Harriet N. Katz, « Confronting Students: Evaluation in the Process of Mentoring Student Professional Development », Clinical Law Review, vol. 10, n°2, p. 594.
  16. Une liste non exhaustive des compétences à développer dans les cliniques projets et les cliniques d’accès au droit est disponible : Geneviève Dufour, David Pavot et Valériane Thool, « Enseignement clinique : quelles compétences à développer », Réseau des cliniques Juridiques Francophones, en ligne : [http://cliniques-juridiques.org/wp-content/uploads/2021/05/RCJF_Fiches_Competences.pdf].
  17. Cynthia Batt et Harriet N. Katz, « Confronting Students: Evaluation in the Process of Mentoring Student Professional Development », Clinical Law Review, vol. 10, n°2, pp. 595-596.
  18. Id., pp. 597-598.
  19. Perspective SFF, « Savoir-devenir », Université de Sherbrooke, en ligne : [ https://perspectivesssf.espaceweb.usherbrooke.ca/2012/01/01/savoir-devenir/].
  20. Sabrina Loufrani-Fedida et Ève Saint-Germes, « Compétences individuelles et employabilité : essai de clarification de leur articulation », @GRH vol. 2, n°7, 2013, p 31.
  21. Françoise Dupuich-Rabasse et Bernard Letourneux, « Savoir-devenir : l’émergence d’un supra-compétence », Personnel-ANDCP, 2006, pp. 14-15.
  22. Bureau d’assistance juridique internationale (BAJI), en ligne : [https://www.usherbrooke.ca/droit/programmes/2e-cycle-type-cours/droit-international-et-politique-internationale-appliques-dipia/bureau-assistance-juridique-internationale-baji].
  23. Marie Line Gagnon et Patrik Doucet, « La matrice PME : outil d’évaluation de la contribution individuelle dans les travaux d’équipe. Recueil de considérations pédagogiques », document de travail de novembre 2006, Université de Sherbrooke, p. 1.
  24. Id., p. 2.
  25. Id., p. 3. Voir aussi l’utilisation faite de la matrice PME par Rémi Bachelet à l’École Centrale de Lille : Rémi Bachelet, « L’évaluation par les pairs en projet », Congrès de la Société française de Génie des procédés (SFGP), vol 29, 2011.
  26. Ibid.
  27. Id., à la p 4.
  28. Linda Allal, « Acquisition et évaluation des compétences en situation scolaire », dans Joaquim Dolz et Edmée Ollagnier (dir), L’énigme de la compétence en éducation, De Boeck Supérieur, 2002, p. 37.
  29. Marie Line Gagnon et Patrik Doucet, « La matrice PME : outil d’évaluation de la contribution individuelle dans les travaux d’équipe. Recueil de considérations pédagogiques », document de travail de novembre 2006, Université de Sherbrooke, p. 12.
  30. Ibid.
  31. Laurie Barron, « Learning How to Learn: Carnegie’s Third Apprendiceship », Clinical Law Review, vol. 18, 2011-2012, p. 107.
  32. Ibid.
  33. François Georges, Marianne Poumay et Jacques Tardif, Comment appréhender la complexité inhérente aux compétences? 2014.
  34. Cf.  J.P. Ogilvy, « The Use of Journals in Legal Education: A Tool for Reflection », Clinical Law Review, vol. 3, 1996-1997, p. 55.
  35. Jennifer Howard, « Learning to Think like a Lawyer through Experience », Clinical Law Review, vol. 2, n°1, 1995, 167-210; J.P. Ogilvy, « The Use of Journals in Legal Education: A Tool for Reflection », Clinical Law Review, vol. 3, 1996-1997, p. 55.
  36. Jennifer Howard, « Learning to Think like a Lawyer through Experience », Clinical Law Review, vol. 2, n°1, 1995, pp. 205 et 206. Cf. Matthew Atkinson et Margaret Castle, « Blogging, Journaling and Reflective Writing: A Snapshot of Students’ preferences and Perceptions from Two Australian Universities », International Journal of Clinical Legal Education, vol. 27, n°2, 2020.
  37. Lawrence M. Grosberg, « Should We Test for Interpersonal Lawyering Skills », Clinical Law Review, vol. 2, p. 364.
  38. Id., p. 365 et s.
  39. Michael Meltsner, James V.  Rowan et Daniel J. Givelber, « The Bike Tour Leader’s Dilemma: Talking about Supervision », Vermont Law Review, vol.13, 439, 1989.
  40. Jacques Tardif, « Des repères conceptuels à propos de la notion de compétence, de son développement et de son évaluation », Marianne Poumay (dir), Organiser la formation à partir des compétences. Un pari gagnant pour l’apprentissage dans le supérieur, De Boeck Supérieur, 2017, p. 28.
  41. William P. Quigley, « Introduction to Clinical Teaching for the New Clinical Law Professor: A View from the First Floor », Akron Law Review, vol.28, n°3, p. 481.
  42. Laurie Barron, « Learning How to Learn: Carnegie’s Third Apprendiceship », Clinical Law Review, vol. 18, 2011-2012, p. 114; William P. Quigley, « Introduction to Clinical Teaching for the New Clinical Law Professor: A View From the First Floor », Akron Law Review, vol, 28, n°3, p. 482.
  43. Cf. Beryl Blaustone, « Teaching Law Students to Self-Critique and to Develop Critical Clinical Self-Awareness in Performance », Clinical Law Review, vol. 13, n°1, 2006, pp.143-164.
  44. Jacques Tardif, L’évaluation des compétences. Documenter le parcours de développement, Chénelière Education, 2006.
  45. Nancy H. Kaufman, A Survey of Law School Grading Practices, Journal of Legal Education, vol. 44, 1994, p. 415.
  46. Stacy L. Brustin et David F. Chavkin, « Testing the Grades: Eveluating Grading Models in Clinical Legal Education », Clinical Law Review, vol. 3, 1997, p. 300.
  47. Ibid.
  48. Id., p. 326.