540 resultados para Arbre de décision
Resumo:
Le Cancer du Col Utérin (CCU) chez la femme est provoqué par le virus oncogénique VPH. La métastase lymphatique ganglionnaire est un facteur pronostique majeur pour l’évolution de ce cancer et sa présence influence la décision thérapeutique. En général, l’envahissement ganglionnaire est diagnostiqué par histologie, mais cette méthode est laborieuse et parfois prise en défaut pour détecter les micrométastases et les cellules cancéreuses isolées et pour donner des résultats rapides en per opératoire. L’outil moléculaire que nous désirons développer pour combler cette lacune est basé sur une analyse d’ARN des gènes du VPH exprimés par les cellules du CCU. Ceci sera fait par transcription réverse de l’ARN cellulaire couplé à une réaction quantitative en chaine par polymérase en temps réel (RT-qPCR). Cette technique devrait nous permettre une détection et une évaluation rapide des micrométastases pour aider à déterminer immédiatement un pronostic fiable et la thérapie associée. C’est un test précis, sensible et rapide pour détecter un envahissement ganglionnaire dans le CCU visant à améliorer la gestion thérapeutique. Le projet est basé sur trois objectifs. En premier lieu, valider les marqueurs moléculaires E6 et E7 de VPH16 et 18 à partir des échantillons frais et des échantillons fixés dans des blocs de paraffine. En deuxième lieu, déterminer la fiabilité et la sensibilité des marqueurs pour la détection des macrométastases, des micrométastases et les cellules tumorales isolées en utilisant la technique de RT-qPCR. En troisième lieu et parallèlement au travail présenté dans ce mémoire, il est nécessaire de constituer une base de données des patientes qui ont le virus VPH16 et 18 intégré dans leur génome, qui ont été traitées et dont nous connaissons déjà le diagnostic final afin de valider la méthode (biobanque). Nous avons réussi à extraire de l’ARNm de haute qualité à partir d’échantillons complexes, à détecter les gènes E6 et E7 de VPH16 et 18 en RT-qPCR, et à déterminer précisément la limite de détection de E6 et E7 dans les échantillons frais qui est une proportion de 0,008% de cellules cancéreuses. Dans les échantillons fixés dans la paraffine, cette limite est de 0,02% et 0,05% pour E6-E7-VPH16 et E6-E7-VPH18 respectivement. Ceci comparativement à une limite de détection histologique de 1% qui est déterminée par immunohistochimie de CK19. Enfin, notre protocole est validé pour VPH18 dans les ganglions lymphatiques du CCU.
Resumo:
Dans le cadre de cette thèse, nous nous proposons d’explorer la patiente explication que Heidegger a poursuivie avec Hegel à propos de l’origine de la négativité – problème qui s’impose de fait à titre d’« unique pensée d’une pensée qui pose la question de l’être ». Partant du constat d’une affinité insoupçonnée entre les deux penseurs quant au rôle insigne qui doit revenir à la négation en philosophie, nous entendons percer à jour les motifs de la constante fin de non-recevoir que Heidegger oppose néanmoins à la méthode dialectique de son plus coriace adversaire. Afin de rendre justice aux différents rebondissements d’une explication en constante mutation, et qui, de surcroît, traverse l’ensemble de l’œuvre de Heidegger, nous procédons à une division chronologique qui en circonscrit les quatre principaux moments. I. En un premier temps, notre regard se porte ainsi sur l’opposition résolue que le jeune Heidegger manifeste à l’égard de la montée du néo-hégélianisme, au nom d’une appropriation toute personnelle de l’intuitionnisme husserlien. Les transformations auxquelles il soumet la méthode phénoménologique de son maître doivent néanmoins laisser transparaître un furtif emprunt à la dialectique hégélienne, dont le principal mérite serait d’avoir conféré une fonction productrice à la négation. II. Le propos d’Être et temps demeure toutefois bien discret quant à cette dette méthodologique, bien que ses vestiges se laissent exhumer, notamment sous la forme d’une négation contre-déchéante dont l’intervention essentielle ponctue l’analytique existentiale. C’est qu’un désaccord subsiste entre Heidegger et son prédécesseur quant à l’origine ontologique de la néantité, qui semble devoir se dérober à toute forme de sursomption dialectique. III. Loin d’être alors définitivement réglé, le problème de l’origine du négatif rejaillit au cœur d’une nouvelle mouture métaphysique du projet heideggérien, la minant peut-être même en son fond. Il s’agit en l’occurrence de disputer à Hegel une compréhension plus originaire du néant, comprise comme témoignage de la finitude de l’être lui-même et s’inscrivant en faux face à l’accomplissement spécifiquement hégélien de la métaphysique. IV. Des tensions qui ne sont pas étrangères à cette délicate entreprise entraînent toutefois Heidegger sur la voie d’un dépassement de l’onto-théo-logie et de l’achèvement technique que Hegel lui a préparé. Il s’agit dès lors de situer l’origine abyssale du négatif auprès d’un irréductible retrait de l’estre, à l’encontre de l’oubli nihiliste auquel Hegel l’aurait confinée en la résorbant au sein de l’absolue positivité de la présence. Par là même, Heidegger propose un concept de négation qu’il juge plus originaire que son contrepoids dialectique, négation à laquelle il attribue la forme d’une réponse interrogative, patiente et attentive à la réticence hésitante de l’événement appropriant. Mais est-ce suffisant pour soutenir qu’il parvient, en définitive, à se libérer de l’embarras dialectique qui semble coller à sa pensée et qui exige de lui un constant effort de distanciation ? Cette thèse entend contribuer à établir les conditions d’une décision à cet égard.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
Introduction. L’ostéoporose est une maladie chronique habituellement asymptomatique jusqu’à ce qu’il y ait fracture de fragilisation (FF). Ces fractures engendrent des coûts importants dont une partie pourrait être évitée par la prise en charge de ces patients pour l’ostéoporose. L’implantation d’un programme de prévention des fractures subséquentes géré par des infirmières en orthopédie pourrait permettre de parer à ces problèmes. Objectifs. L’objectif principal de ce projet était de déterminer si une infirmière peut gérer de façon efficace et sécuritaire un service de liaison pour fracture. Méthode. Les décisions cliniques d’infirmières entre 2010 et 2012 pour 525 patients d’un service de liaison pour fracture à l’étude ont été évaluées par deux médecins spécialistes indépendants avec expertise dans les soins pour l’ostéoporose. Résultats. Les infirmières ont pu identifier la totalité des sujets à risque et référer 26.7% de ceux-ci à un spécialiste. L’accord entre chacun des évaluateurs et les infirmières était de >97%. Les évaluateurs ont donné les mêmes réponses à >96% pour chaque type de décision et le niveau d’accord inter-juge était presque parfait (AC1 >0.960). Aucune référence n’a été jugée inutile. Les comorbidités majeures ont toutes été prises en charge. Conclusion. L’accord élevé entre les décisions cliniques des infirmières et des médecins évaluateurs démontre que la prise en charge par une infirmière est sécuritaire et recommandable pour les patients avec FF. Ce type d’intervention pourrait contribuer à résoudre les problèmes d’accessibilité aux soins chez les patients avec fragilité osseuse, ainsi qu’à diminuer le fardeau économique que représente le traitement des FF pour la société.
Resumo:
La maladie de Parkinson (PD) a été uniquement considérée pour ses endommagements sur les circuits moteurs dans le cerveau. Il est maintenant considéré comme un trouble multisystèmique, avec aspects multiples non moteurs y compris les dommages intérêts pour les circuits cognitifs. La présence d’un trouble léger de la cognition (TCL) de PD a été liée avec des changements structurels de la matière grise, matière blanche ainsi que des changements fonctionnels du cerveau. En particulier, une activité significativement réduite a été observée dans la boucle corticostriatale ‘cognitive’ chez des patients atteints de PD-TCL vs. PD non-TCL en utilisant IRMf. On sait peu de cours de ces modèles fonctionnels au fil du temps. Dans cette étude, nous présentons un suivi longitudinal de 24 patients de PD non démente qui a subi une enquête neuropsychologique, et ont été séparés en deux groupes - avec et sans TCL (TCL n = 11, non-TCL n = 13) en fonction du niveau 2 des recommandations de la Movement Disrders Society pour le diagnostic de PD-TCL. Ensuite, chaque participant a subi une IRMf en effectuant la tâche de Wisconsin pendant deux sessions, 19 mois d'intervalle. Nos résultats longitudinaux montrent qu'au cours de la planification de période de la tâche, les patients PD non-TCL engageant les ressources normales du cortex mais ils ont activé en plus les zones corticales qui sont liés à la prise de décision tel que cortex médial préfrontal (PFC), lobe pariétal et le PFC supérieure, tandis que les PD-TCL ont échoué pour engager ces zones en temps 2. Le striatum n'était pas engagé pour les deux groupes en temps 1 et pour le groupe TCL en temps 2. En outre, les structures médiales du lobe temporal étaient au fil du temps sous recrutés pour TCL et Non-TCL et étaient positivement corrélés avec les scores de MoCA. Le cortex pariétal, PFC antérieur, PFC supérieure et putamen postérieur étaient négativement corrélés avec les scores de MoCA en fil du temps. Ces résultats révèlent une altération fonctionnelle pour l’axe ganglial-thalamo-corticale au début de PD, ainsi que des niveaux différents de participation corticale pendant une déficience cognitive. Cette différence de recrutement corticale des ressources pourrait refléter longitudinalement des circuits déficients distincts de trouble cognitive légère dans PD.
Resumo:
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.
Resumo:
Cette recherche s’inscrit dans le cadre du programme interdisciplinaire de recherche Ignis Mutat Res et vise à éclairer l’univers de l’architecture sur la capacité des toits à amener des solutions efficaces aux problématiques environnementales dans un contexte urbain dense et à forte consommation d'énergie. La volonté de réduire l’empreinte écologique des villes est aujourd’hui bien présente dans le monde de la recherche architecturale et urbaine, ayant ainsi fait preuve de son importance. Pourtant, la réduction de l’empreinte écologique des villes serait une approche globale difficile à quantifier économiquement. Le manque de méthodologie standardisée fait en sorte que les travaux sur le sujet empruntent des démarches qui ne dépassent pas l’étape exploratoire. Dans ce contexte, le mémoire porte sur l’élaboration d’un dispositif numérique d’évaluation des potentialités des toits horizontaux comme un outil d’aide à la décision pour les interventions urbaines visant à réduire l’empreinte écologique des villes, en utilisant le cas de Montréal. Ce type de toit est abordé comme un territoire d’investigation en contribution aux préoccupations reliées à la gestion de l’eau et à l’atténuation des îlots de chaleur. Plus précisément, cette recherche porte sur trois secteurs de l'île de Montréal. Ces échantillons correspondent à deux types de formes urbaines (résidentielle versus commerciale ou industrielle) et sont décortiqués dans le but d’identifier les déséquilibres entre les espaces naturels, faisant référence aux espaces verts (jardins, parcs et canopées) et les étendues minérales occasionnées par l'urbanisation. Ces rapports exprimés en superficies démontrent que l’étendue des toits est assez considérable pour compenser le manque d’espaces naturels en ville. La végétalisation des toits à l’échelle d’un secteur pourrait donc atténuer considérablement les problèmes environnementaux liés aux îlots de chaleur et à la gestion du ruissellement des eaux de pluie. La stratégie consistant à explorer l'hypothèse des 50 % de naturel versus 50 % de minéral pourrait contribuer grandement à l’autonomisation des villes et à la diminution de leurs dépendances vis-à-vis des ressources fossiles.
Resumo:
Notre thèse a pour objectif de déterminer la nature des liens entre la multiplication des processus de macro-régionalisation, dans un contexte de mondialisation, et le renouvellement des politiques d’aménagement du territoire à travers la mise en place de nouvelles formes de coopération décentralisée entre villes et territoires. Notre projet de recherche cherche ainsi à établir comment la régionalisation permet la mise en place d’une gouvernance à niveaux multiples mettant en relation des acteurs territoriaux, à différents échelons de décision (supranational, national et infranational) dans le but de faire face à la complexité grandissante des problèmes actuels à l’échelle mondiale. Parmi ces projets régionaux qui émergent dans plusieurs parties du monde, nous avons choisi le Partenariat euro-méditerranéen comme cas d'étude en s'intéressant de manière particulière aux projets et programmes de coopération décentralisée et transfrontalière qui se mettent en place autour de la Méditerranée et qui mettent en relation plusieurs villes et régions riveraines. Afin de répondre à ces questions, nous avons décliné notre argumentation en plusieurs axes de réflexion. Un premier axe de réflexion tourne autour de la nature du projet régional euro-méditerranéen et de son implication au niveau des stratégies territoriales principales. Un deuxième axe concerne le contenu et les processus de mise en œuvre des programmes et projets de coopération décentralisée et transfrontalière et leur pertinence au niveau du développement local des territoires du Sud. Un troisième axe s’intéresse au rôle de l’État central en face du développement de ces initiatives qui le contourne. Enfin, un quatrième axe de réflexion concerne l’attitude de l’échelon local par rapport à ces initiatives qui l’interpellent et le sollicitent en tous sens.
Resumo:
Dans le but d’optimiser la représentation en mémoire des enregistrements Scheme dans le compilateur Gambit, nous avons introduit dans celui-ci un système d’annotations de type et des vecteurs contenant une représentation abrégée des enregistrements. Ces derniers omettent la référence vers le descripteur de type et l’entête habituellement présents sur chaque enregistrement et utilisent plutôt un arbre de typage couvrant toute la mémoire pour retrouver le vecteur contenant une référence. L’implémentation de ces nouvelles fonctionnalités se fait par le biais de changements au runtime de Gambit. Nous introduisons de nouvelles primitives au langage et modifions l’architecture existante pour gérer correctement les nouveaux types de données. On doit modifier le garbage collector pour prendre en compte des enregistrements contenants des valeurs hétérogènes à alignements irréguliers, et l’existence de références contenues dans d’autres objets. La gestion de l’arbre de typage doit aussi être faite automatiquement. Nous conduisons ensuite une série de tests de performance visant à déterminer si des gains sont possibles avec ces nouvelles primitives. On constate une amélioration majeure de performance au niveau de l’allocation et du comportement du gc pour les enregistrements typés de grande taille et des vecteurs d’enregistrements typés ou non. De légers surcoûts sont toutefois encourus lors des accès aux champs et, dans le cas des vecteurs d’enregistrements, au descripteur de type.
Resumo:
Cette thèse est une exploration de mon processus compositionnel. En tentant de comprendre comment s’organise ma pensée créatrice, j’ai dégagé trois observations : l’organicisme du processus et des œuvres, la notion de mouvement et la relation récursive entre la matière et le compositeur. Ces thèmes m’ont amené à établir un lien épistémologique entre la composition musicale et l’étude des systèmes complexes. Dans ce cadre systémique, j’ai établi que les informations qui motivent mes prises de décision artistiques ont entre elles des ramifications opérationnelles et structurelles qui évoquent une arborescence rhizomatique plutôt qu’une hiérarchie linéaire. La transdisciplinarité propre à la systémique m’a également permis d’introduire des notions provenant d’autres champs de recherche. S’articulant d’emblée avec mon processus compositionnel, ces notions m’ont procuré une vision holistique de ma démarche artistique. Conséquemment, je considère l’acte de composer comme une interaction entre ma conscience et tout ce qui peut émaner de la matière sonore, les deux s’informant l’une et l’autre dans une boucle récursive que je nomme action⟳perception. L’œuvre ainsi produite n’est pas exclusivement tributaire de ma propre volition puisque, au fil du processus, mes décisions opératoires et artistiques sont en grande partie guidées par les propriétés invariantes et les propriétés morphogéniques inhérentes au matériau sonore. Cette approche dynamique n’est possible que si l’interaction avec le compositeur se fait en temps réel, ce que permet la lutherie numérique. Les résultats de mes recherches m’ont guidé dans la composition d’œuvres choisies, autant acousmatiques, mixtes, vidéomusicales que pluridisciplinaires.
Resumo:
Commentaire / Commentary
Resumo:
Les collaborations interorganisationnelles apparaissent de plus en plus incontournables pour s’attaquer concrètement, et avec quelques chances de résultats, à nos problèmes et défis collectifs les plus importants, que ce soit dans les domaines de l’environnement, de la santé ou de la sécurité publique. Ces initiatives de gouvernance collaborative surpassent chacune des organisations individuelles pour décider et intervenir collectivement. Dans cette visée, cette recherche contribue à mieux comprendre le processus de concertation et les interactions entre les acteurs et les organisations qui participent à des initiatives de collaboration interorganisationnelle où de nombreuses parties prenantes sont interpellées. Plus précisément, cette étude porte sur la problématique des réseaux d’acteurs et de la gouvernance en sécurité routière au Québec. Nous nous sommes penchés sur l’expérience de la Table québécoise de la sécurité routière (TQSR) afin de comprendre les enjeux actuels de représentation et de concertation en matière d’action gouvernementale. Cette recherche examine le rôle de l’identité des acteurs et de leurs interactions dans les processus de construction de consensus et de prise de décision, de même que les divers enjeux de communication inhérents à ce genre d’exercice collectif. Nous démontrons également qu’un facteur de succès d’une collaboration interorganisationnelle repose sur la capacité des acteurs à construire une identité collective malgré leurs intérêts divergents et parfois opposés. Cette thèse améliore donc notre compréhension des mécanismes et des processus à la base des collaborations interorganisationnelles comme pratique de gouvernance collaborative, un mode de gestion de plus en plus utilisé dans l’administration de nos sociétés contemporaines. Cette thèse contribue également à montrer la manière dont les organisations se construisent et se maintiennent localement par l’entremise de la communication et de ses modalités.
Resumo:
Les enjeux liés aux politiques éducatives ont considérablement changé au cours des dernières décennies. Ces changements sont liés, entre autres, à l’accroissement de l’imputabilité et de la reddition de compte qui est devenue une caractéristique importante des réformes curriculaires et pédagogiques. Les politiques à enjeux élevés exercent une pression énorme sur les districts et les écoles états-unienne afin qu’ils augmentent le rendement des élèves en utilisant des systèmes de conséquences (Hall & Ryan, 2011; Loeb & Strunk, 2007). Ces politiques envoient de puissants messages sur l'importance de certaines matières scolaires au détriment d'autres - circonscrivant les exigences en termes de compétences et de connaissances. La langue maternelle d’enseignement et les mathématiques sont devenues des mesures centrales sur lesquelles reposent l’évaluation et le degré de performance des districts et des écoles. Conséquemment, les administrateurs de districts et les directions d’écoles ont souvent recours à des réformes curriculaires et pédagogiques comme moyen d'augmenter le rendement des élèves dans les matières scolaires visées par ces politiques. Les politiques contraignent les acteurs scolaires de concentrer les ressources sur les programmes curriculaires et les évaluations, le développement professionnel, et la prise de décision pilotée par les données (Anagnostopoulos & Ruthledge, 2007; Honig & Hatch, 2004; Spillane, Diamond, et al., 2002; Weitz White & Rosenbaum, 2008). Cette thèse examine la manière dont les politiques à enjeux élevés opèrent quotidiennement dans les interactions et les pratiques au sein des écoles. Nous analysons plus particulièrement les différents messages provenant de la politique transmis aux acteurs scolaires sur les manières d'apporter des changements substantiels dans le curriculum et l'enseignement. Nous élargissons l’analyse en prenant en compte le rôle des administrateurs de district ainsi que des partenaires universitaires qui façonnent également la manière dont certains aspects des messages provenant des politiques sont transmis, négociés et/ou débattus et d’autres sont ignorés (Coburn & Woulfin, 2012). En utilisant l’analyse de discours, nous examinons le rôle du langage comme constituant et médiateur des interactions sociales entre les acteurs scolaires et d’autres parties prenantes. De telles analyses impliquent une investigation approfondie d’un nombre d’étude de cas limité. Les données utilisées dans cette thèse ont été colligées dans une école primaire états-unienne du mid-West. Cette étude de cas fait partie d’une étude longitudinale de quatre ans qui comprenait huit écoles dans les milieux urbains entre 1999 et 2003 (Distributed Leadership Studies, http://www.distributedleadership.org). La base de données analysée inclut des observations de réunions formelles et des entrevues auprès des administrateurs du district, des partenaires universitaires, de la direction d’école et des enseignants. En plus de l’introduction et de la problématique (chapitre 1) et de discussion et conclusion (chapitre 5), cette thèse comprend un ensemble de trois articles interdépendants. Dans le premier article (chapitre 2), nous effectuons une recension des écrits portant sur le domaine de l’implantation de politiques (policy implementation) et la complexité des relations locales, nationales et internationales dans les systèmes éducatifs. Pour démystifier cette complexité, nous portons une attention particulière à la construction de sens des acteurs scolaires comme étant une dimension clé du processus de mise en œuvre des réformes. Dans le deuxième article (chapitre 3), nous cherchons à comprendre les processus sociaux qui façonnent les réponses stratégiques des acteurs scolaires à l’égard des politiques du district et de l’état et en lien avec la mise en œuvre d’un curriculum prescrit en mathématiques. Plus particulièrement, nous explorons les différentes situations dans lesquelles les acteurs scolaires argumentent au sujet des changements curriculaires et pédagogiques proposés par les administrateurs de district et des partenaires universitaires afin d’augmenter les résultats scolaires en mathématiques dans une école à faible performance. Dans le troisième article (chapitre 4), nous cherchons à démystifier les complexités liées à l’amélioration de l’enseignement dans un environnement de politiques à enjeux élevés. Pour ce faire, nous utilisons l'interaction entre les notions d'agentivité et la structure afin d'analyser la manière dont les conceptions d’imputabilité et les idées qui découlent de l'environnement politique et les activités quotidiennes jouent dans les interactions entre les acteurs scolaires concernant sur l’enseignement de la langue maternelle. Nous explorons trois objectifs spécifiques : 1) la manière dont les politiques à enjeux élevés façonnent les éléments de l’enseignement qui sont reproduits et ceux qui sont transformés au fil du temps ; 2) la manière dont la compréhension des leaders de l’imputabilité façonne les aspects des messages politiques que les acteurs scolaires remarquent à travers les interactions et les conversations et 3) la manière les acteurs scolaires portent une attention particulière à certaines messages au détriment d’autres. Dans le dernier chapitre de cette thèse, nous discutons les forces et les limites de l’analyse secondaire de données qualitatives, les implications des résultats pour le domaine d’études de l’implantation de politiques et les pistes futures de recherches.
Resumo:
Ce mémoire porte sur l’utilisation des niveaux d’interventions médicales (NIM) en centre hospitalier (CH) au Québec. Les NIM sont des formulaires organisés sous forme d’échelle, qui ont été développés afin de faciliter la prise de décision en lien avec la réanimation, les traitements de maintien en vie et de prolongation de la vie, et les soins à offrir. L’objectif de ce mémoire est d’offrir un portrait de l’utilisation actuelle des NIM au Québec en CH afin d’émettre des recommandations pour les professionnels de la santé, les institutions et les décideurs politiques. Dans un premier temps, un article de recension des écrits est présenté afin de situer les concepts associés aux NIM avec les problèmes actuellement vécus, par exemple le grand nombre de patients qui décèdent en CH, les problèmes de communication entre les professionnels de la santé, les patients et leur famille, les difficultés liées à la prise de décision en fin de vie et les délais liés aux ordonnances de non-réanimation. Dans un deuxième temps, le second article présente les résultats de recherche. Afin d’établir le portrait de l’utilisation des NIM en CH, un audit de 299 dossiers de patients adultes, décédés dans trois CH a été entrepris. Le cadre éthique d’analyse des résultats est l’approche par principes. Bien que l’utilisation des NIM peut différer sur certains aspects selon l’hôpital, les NIM sont un système efficace pour promouvoir le respect de l’autonomie des patients, la bienfaisance et le caring, mais ceux-ci ne protègent pas contre les problèmes d’iniquité dans l’accès aux soins palliatifs. Afin de faciliter et promouvoir leur utilisation, il est recommandé de standardiser les échelles de NIM à travers la province et les institutions et d’émettre des lignes directrices d’utilisation claires. Également, une plus grande formation pour les professionnels de la santé et l’inclusion d’un membre de l’équipe interdisciplinaire permettraient aux professionnels d’être mieux outillés pour les discussions difficiles et pour la prise de décision, et encourageraient la pratique interdisciplinaire.