The McGill Simulation Complexity Score (MSCS): a novel complexity scoring system for simulations in trauma

Can J Surg. 2023 Apr 21;66(2):E206-E211. doi: 10.1503/cjs.002220. Print 2023 Mar-Apr.

Abstract

Background: In medical education, simulation can be defined as an activity in which an individual demonstrates skills, procedures and critical thinking using interactive mannequins in a setting closely resembling the clinical environment. To our knowledge, the complexity of trauma simulations has not previously been assessed. We aimed to develop an objective trauma simulation complexity score and assess its interrater reliability.

Methods: The McGill Simulation Complexity Score (MSCS) was designed to address the need for objective evaluation of the complexity of trauma scenarios. Components of the score reflected the Advanced Trauma Life Support approach to trauma. The score was developed to take into account the severity of trauma injuries and the complexity of their management. We assessed interrater reliability at 5 high-fidelity simulation events. Interrater reliability was calculated using the Pearson correlation coefficient (PCC) and the intraclass correlation coefficient (ICC).

Results: The MSCS has 5 categories: airway, breathing, circulation, disability, and extremities or exposure. The scale has 5 levels for each category, from 0 to 4; level increases with complexity, with 0 corresponding to normal or absent. Cases designed to lead to cardiac arrest, regardless of whether or not the trainee has the ability to resuscitate the simulated patient and regardless of the level of each category, are automatically assigned the maximum score. Between 3 and 9 raters used the MSCS to grade the level of complexity of 26 scenarios at the 5 events. The mean MSCS was 10.2 (range 3.0-20.0). Mean PCC and ICC values were both above 0.7 and therefore statistically significant.

Conclusion: The MSCS for trauma is an innovative scoring system with high interrater reliability.

Contexte:: Dans le contexte de la formation médicale, la simulation peut se définir comme une activité au cours de laquelle une personne démontre ses habiletés, pose des gestes et exerce son jugement critique en se servant de mannequins interactifs dans un environnement qui imite de près la réalité clinique. À notre connaissance, la complexité des simulations en traumatologie n’avait encore jamais été évaluée. Nous avons voulu mettre au point un indice de complexité objectif des simulations en traumatologie et en évaluer la fiabilité interévaluateurs.

Méthodes:: L’indice McGill de complexité des simulations (IMCS) a été conçu pour répondre au besoin d’évaluer objectivement la complexité des scénarios en traumatologie. Les éléments de l’indice faisaient écho à l’approche dite des soins avancés de réanimation traumatologique. L’indice a été conçu de manière à tenir compte de la gravité des traumatismes et de la complexité de leur prise en charge. Nous avons mesuré la fiabilité interévaluateurs de 5 événements simulés en haute-fidélité. La fiabilité interévaluateurs a été calculée à l’aide du coefficient de corrélation de Pearson (CCP) et du coefficient de corrélation intraclasse (CCI).

Résultats:: L’IMCS compte 5 catégories : voies respiratoires, respiration, circulation, incapacité et membres ou exposition. Pour chaque catégorie, il y a une échelle à 5 niveaux allant de 0 à 4; le niveau augmente en fonction de la complexité, 0 correspondant à une situation normale ou à l’absence de problème. Les scénarios conçus pour mener à l’arrêt cardiaque, indépendamment de la capacité du stagiaire à procéder à une réanimation sur le mannequin et indépendamment de chaque catégorie, reçoivent d’emblée le score maximum. De 3 à 9 évaluateurs ont utilisé l’IMCS pour classer le niveau de complexité de 26 scénarios pour les 5 événements. L’IMCS moyen a été de 10,2 (écart 3,0–20,0). Le CCP et le CCI ont tous deux été supérieurs à 0,7 et donc statistiquement significatifs.

Conclusion:: L’IMCS en traumatologie est un système de classification novateur doté d’une grande fiabilité interévaluateurs.

MeSH terms

  • Education, Medical*
  • Humans
  • Internship and Residency*
  • Reproducibility of Results