519 resultados para théorie de la classification


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le présent mémoire décrit le rôle et l’application de la méthode platonicienne des divisions telle que décrite dans le Sophiste, le Politique, le Phèdre et le Philèbe. Il met en relief les différences et les similitudes du rôle et de l’application de la méthode dans ces quatre dialogues, afin d’analyser la possibilité ou bien de postuler l’unité de la doctrine platonicienne, ou bien de retracer les lieux de son évolution. Certains auteurs du siècle dernier affirment qu’il n’est pas possible de retracer quelque évolution que ce soit dans la doctrine, et estiment même que la méthode des divisions est utilisée bien au-dede ces quatre dialogues, et que son absence des dialogues de jeunesse ne doit en aucun cas être prise pour une absence de la doctrine de l’époque. D’autres sont au contraire convaincus que la méthode des divisions est propre à un stade de la pensée de Platon qui ne peut être que postérieur à l’introduction de la théorie des Formes intelligibles, et que cette méthode incarne même, à toutes fins pratiques, la dialectique platonicienne des dialogues tardifs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La polyvalence de la réaction de couplage-croisé C-N a été explorée pour la synthèse de deux nouvelles classes de ligands: (i) des ligands bidentates neutres de type N^N et (ii) des ligands tridentates neutres de type N^N^N. Ces classes de ligands contiennent des N-hétérocycles aromatiques saturés qui sont couplés avec hexahydropyrimidopyrimidine (hpp). Les ligands forment de cycles à six chaînons sur la coordination du centre Ru(II). Ce fait est avantageux pour améliorer les propriétés photophysiques des complexes de polypyridyl de Ru(II). Les complexes de Ru(II) avec des ligands bidentés ont des émissions qui dépendent de la basicité relative des N-hétérocycles. Bien que ces complexes sont électrochimiquement et photophysiquement attrayant, le problème de la stereopurité ne peut être évité. Une conception soigneuse du type de ligand nous permet de synthétiser un ligand bis-bidentate qui est utile pour surmonter le problème de stereopurité. En raison de la spécialité du ligand bis-bidentate, son complexe diruthénium(II,II) présente une grande diastéréosélectivité sans séparation chirale. Alors que l'unité de hpp agit comme un nucléophile dans le mécanisme de C-N réaction de couplage croisé, il peut également agir en tant que groupe partant, lorsqu'il est activé avec un complexe de monoruthenium. Les complexes achiraux de Ru(II) avec les ligands tridentés présentent des meilleures propriétés photophysiques en comparason avec les prototypes [Ru(tpy)2]2+ (tpy = 2,2′: 6′, 2′′-terpyridine). L’introduction de deux unités de hpp dans les ligands tridentates rend le complexe de Ru(II) en tant que ‘absorbeur noir’ et comme ‘NIR émetteur’ (NIR = de l’anglais, Near Infra-Red). Cet effet est une conséquence d'une meilleure géométrie de coordination octaédrique autour de l'ion Ru(II) et de la forte donation sigma des unités hpp. Les complexes du Re(I) avec des ligands tridentates présentent un comportement redox intéressant et ils émettent dans le bleu. L'oxydation quasi-réversible du métal est contrôlée par la donation sigma des fragments hpp, tandis que la réduction du ligand est régie par la nature électronique du motif N-hétérocycle central du ligand lui-même. Cette thèse presente également l'auto-assemblage des métal-chromophores comme ‘métallo-ligands’ pour former des espèces supramoléculaires discretes utilisant des complexes neutres. Les synthèses et propriétés des métaux-chromophores précités et les supramolécules sont discutées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Au Québec, les infirmières n’ont pas l’obligation de détenir un diplôme universitaire pour exercer leur profession. Celles qui choisissent le DEC en soins infirmiers peuvent obtenir le diplôme de baccalauréat en deux ans au lieu de trois en empruntant le cursus DEC-BAC en sciences infirmières. Or, ce n’est pas la majorité d’entre elles qui se prévalent de cette possibilité, alors que des études ont démontré les avantages d’avoir un plus grand nombre d’infirmières détenant un baccalauréat dans les milieux de soins (Aiken, Clarke, Cheung, Sloane & Silber, 2003; Kane, Shamliyan, Mueller, Duval & Wilt, 2007; Tourangeau, Cranley & Jeffs, 2006 ; Aiken et al., 2014). Le but de la présente étude était d’explorer les incitatifs et les obstacles à entreprendre des études universitaires dans le cadre du cursus intégré DEC-BAC en sciences infirmières. Cinquante-six nouvelles diplômées ayant complété un DEC en soins infirmiers au Québec ont répondu au questionnaire auto-administré électronique à questions ouvertes. Le cadre de référence guidant la recherche exploratoire était la théorie intermédiaire de la transition de Meleis, Sawyer, Im, Hilfinger Messias et Schumacher (2010). Suivant cette théorie, les données ont d’abord été regroupées par thèmes, soit « incitatifs » et « obstacles » puis par dimensions, à savoir si les thèmes relèvent de conditions au plan personnel, communautaire ou sociétal pour entreprendre des études universitaires. Il ressort de l’étude que les incitatifs majeurs à entreprendre des études universitaires se situent au plan communautaire : meilleures conditions de travail anticipées et développement professionnel. Les obstacles majeurs à entreprendre des études universitaires se situent au plan personnel, en particulier en lien avec une situation financière ou familiale défavorable. Nous avons aussi trouvé que le contexte québécois exerce une influence sur la décision d’entreprendre des études universitaires. Des recommandations ont été formulées pour les milieux de pratique et de formation, ainsi que pour la recherche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse présente une revue des réflexions récentes et plus traditionnelles provenant de la théorie des systèmes, de la créativité en emploi, des théories d’organisation du travail et de la motivation afin de proposer une perspective psychologique de la régulation des actions des individus au sein d’environnements de travail complexes et incertains. Des composantes de la Théorie de la Régulation de l’Action (Frese & Zapf, 1994) ainsi que de la Théorie de l’Auto-Détermination (Deci & Ryan, 2000) sont mises en relation afin d’évaluer un modèle définissant certains schémas cognitifs clés associés aux tâches individuelles et collectives en emploi. Nous proposons que ces schémas cognitifs, organisés de manière hiérarchique, jouent un rôle central dans la régulation d’une action efficace au sein d’un système social adaptatif. Nos mesures de ces schémas cognitifs sont basées sur des échelles de mesure proposées dans le cadre des recherches sur l’ambiguïté de rôle (eg. Sawyer, 1992; Breaugh & Colihan, 1994) et sont mis en relation avec des mesures de satisfaction des besoins psychologiques (Van den Broeck, Vansteenkiste, De Witte, Soenens & Lens, 2009) et du bien-être psychologique (Goldberg, 1972). Des données provenant de 153 employés à temps plein d’une compagnie de jeu vidéo ont été récoltées à travers deux temps de mesure. Les résultats révèlent que différents types de schémas cognitifs associés aux tâches individuelles et collectives sont liés à la satisfaction de différents types de besoin psychologiques et que ces derniers sont eux-mêmes liés au bien-être psychologique. Les résultats supportent également l’hypothèse d’une organisation hiérarchique des schémas cognitifs sur la base de leur niveau d’abstraction et de leur proximité avec l’exécution concrète de l’action. Ces résultats permettent de fournir une explication initiale au processus par lequel les différents types de schémas cognitifs développés en emplois et influencé par l’environnement de travail sont associés à l’attitude des employés et à leur bien-être psychologique. Les implications pratiques et théoriques pour la motivation, l’apprentissage, l’habilitation, le bien-être psychologique et l’organisation du travail dans les environnements de travail complexes et incertains sont discutés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans le contexte de la caractérisation des tissus mammaires, on peut se demander ce que l’examen d’un attribut en échographie quantitative (« quantitative ultrasound » - QUS) d’un milieu diffusant (tel un tissu biologique mou) pendant la propagation d’une onde de cisaillement ajoute à son pouvoir discriminant. Ce travail présente une étude du comportement variable temporel de trois paramètres statistiques (l’intensité moyenne, le paramètre de structure et le paramètre de regroupement des diffuseurs) d’un modèle général pour l’enveloppe écho de l’onde ultrasonore rétrodiffusée (c.-à-d., la K-distribution homodyne) sous la propagation des ondes de cisaillement. Des ondes de cisaillement transitoires ont été générés en utilisant la mèthode d’ imagerie de cisaillement supersonique ( «supersonic shear imaging » - SSI) dans trois fantômes in-vitro macroscopiquement homogènes imitant le sein avec des propriétés mécaniques différentes, et deux fantômes ex-vivo hétérogénes avec tumeurs de souris incluses dans un milieu environnant d’agargélatine. Une comparaison de l’étendue des trois paramètres de la K-distribution homodyne avec et sans propagation d’ondes de cisaillement a montré que les paramètres étaient significativement (p < 0,001) affectès par la propagation d’ondes de cisaillement dans les expériences in-vitro et ex-vivo. Les résultats ont également démontré que la plage dynamique des paramétres statistiques au cours de la propagation des ondes de cisaillement peut aider à discriminer (avec p < 0,001) les trois fantômes homogènes in-vitro les uns des autres, ainsi que les tumeurs de souris de leur milieu environnant dans les fantômes hétérogénes ex-vivo. De plus, un modéle de régression linéaire a été appliqué pour corréler la plage de l’intensité moyenne sous la propagation des ondes de cisaillement avec l’amplitude maximale de déplacement du « speckle » ultrasonore. La régression linéaire obtenue a été significative : fantômes in vitro : R2 = 0.98, p < 0,001 ; tumeurs ex-vivo : R2 = 0,56, p = 0,013 ; milieu environnant ex-vivo : R2 = 0,59, p = 0,009. En revanche, la régression linéaire n’a pas été aussi significative entre l’intensité moyenne sans propagation d’ondes de cisaillement et les propriétés mécaniques du milieu : fantômes in vitro : R2 = 0,07, p = 0,328, tumeurs ex-vivo : R2 = 0,55, p = 0,022 ; milieu environnant ex-vivo : R2 = 0,45, p = 0,047. Cette nouvelle approche peut fournir des informations supplémentaires à l’échographie quantitative statistique traditionnellement réalisée dans un cadre statique (c.-à-d., sans propagation d’ondes de cisaillement), par exemple, dans le contexte de l’imagerie ultrasonore en vue de la classification du cancer du sein.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Comme son titre l’indique, ce mémoire a pour objet une réflexion sur la mise en récit d’un personnage historique. Afin d’explorer l’évolution des points de vue sur un personnage historique (Maurice Duplessis) et l’époque à laquelle il est rattaché dans la mémoire collective (la Grande noirceur), ce travail s’appuiera sur la théorie de la biographie de François Dosse (Le pari biographique) ainsi que sur les mises en récit et le discours de trois auteurs différents. La première biographie analysée sera Maurice Duplessis et son temps, récit historique romancé et admiratif d’une figure quasi royale, écrit par Robert Rumilly, historien royaliste et disciple de Charles Maurras. La seconde biographie analysée sera Duplessis, le grand récit épique d’un conservateur illustre, écrit par Conrad Black, homme d’affaires et historien de sensibilité conservatrice. Finalement, la troisième biographie analysée sera la série télévisée Duplessis, écrite par Denys Arcand, présentant Duplessis comme l’incarnation tragique et séguiniste de la nation canadienne-française, lucide et désabusé par rapport à l’impasse historico-politique de son peuple. Pour compléter l’analyse, ce mémoire s’appuiera aussi sur la théorie de l’identité narrative de Paul Ricœur dans Soi-même comme un autre, Temps et récit et La mémoire, l’histoire, l’oubli, et sur la mise en récit et l’écriture même de l’histoire étudiée par Michel de Certeau dans L’écriture de l’histoire. À travers l’analyse de ces trois biographies, ce mémoire tentera de montrer l’évolution du rapport à la mémoire collective et les distinctions entre l’Histoire et la fiction.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les fichiers additionnels sont les données cristallographiques en format CIF. Voir le site de la Cambridge Crystallographic Data Centre pour un visualiseur: http://www.ccdc.cam.ac.uk

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Travail d'intégration présenté à Elaine Chapman dans le cadre du cours PHT-6113.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nurse Managers need today more than ever instruments that can be used to justify the billions of dollars that are invested in the healthcare sector annually. The objective of the study was to establish the validity and reliability of the Nursing Intensity Critical Care Questionnaire (NICCQ) in a cardiac surgery intensive care unit (CSICU) of a tertiary hospital. An expert panel evaluated the questionnaire’s content validity while generalizability theory was used to estimate the G and D coefficients. Decision studies enabled the investigators to determine if the current ward functioning of having one nurse rate one patient is adequate. Also, exploratory factorial analyses (EFA) preceded by principal component analyses (PCA) looked at establishing the factorial structure for the NICCQ. Finally, the NICCQ was correlated with a severity of illness score known as the Acute Physiology And Chronic Health Evaluation II (APACHE II) to estimate the correlation between patient illness and nursing intensity of care. The NICCQ was used by nurses using a sample of patients who had undergone cardiac surgery and were hospitalized on a CSICU of a tertiary teaching hospital. A convenience sample of nurses and patients on the CSICU was used to reflect the procedures and usual functioning of the unit. Each item on the questionnaire measured nursing intensity of care using a three point ordinal scale (Light, Moderate, and Severe) for the first 11 items, and a five point ordinal scale for the global assessment item (including the intermediate categories light/moderate and moderate/severe). The questionnaire proved to be both valid and able to be generalized to all nurses working in the CSICU. Overall results showed that 94.4% of the item generalizability coefficients indicated acceptable to excellent reliability, with most (86.1%) being larger than .90. The EFA established a simple 4 factor structure that explained little of the variance (32%). A correlation coefficient of 0.36 indicated that patient’ severity of illness is somewhat correlated with nursing intensity of care. The study showed that the NICCQ is a valid questionnaire with a generalizability coefficient that is large enough to be used by nurses’ managers for administrative purposes. Further research using larger samples would be needed to further test the factor structure of the NICCQ.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les preuves astronomiques stipulent qu'environ 4\% de la densité de masse-énergie de l'univers serait composé d'atomes. Le reste est séparé entre la matière sombre, qui représente 24\% de la densité de masse-énergie, et l'énergie sombre, qui s'accapare les 71\% restant. Le neutralino est une particule prédite par la théorie de la supersymétrie et est un candidat à la composition de la matière sombre. Le Projet d'Identification des Candidats Supersymétriques Sombres (PICASSO) vise à détecter le neutralino en utilisant des détecteurs à gouttelettes de C$_4$F$_{10}$ en surchauffe. Lors du passage d'une particule dans les gouttelettes de C$_4$F$_{10}$, une transition de phase aura lieu si l'énergie déposée est au-delà du seuil prédit par le critère de nucléation d'une transition de phase (théorie de Seitz). L'onde acoustique émise durant la transition de phase est ensuite transformée en impulsion électrique par des capteurs piézoélectriques placés sur le pourtour du détecteur. Le signal est amplifié, numérisé puis enregistré afin de pouvoir être analysé par des outils numériques. L'ouvrage qui suit présente les travaux effectués sur la compréhension des signaux des détecteurs à gouttelettes en surchauffe dans le but d'améliorer la discrimination du bruit de fond. Un détecteur à petites gouttelettes, r $\approx 15\mu m$ a été étudié et comparé à une simulation Monte Carlo. Il s'est avéré que les possibilités de discrimination du bruit de fond provenant des particules alpha étaient réduites pour un détecteur à petites gouttelettes, et ce en accord avec le modèle théorique. Différentes composantes du système d'acquisition ont été testées dont le couplage entre le capteur piézoélectrique et la paroi en acrylique, l'efficacité des capteurs piézoélectriques à gain intégré et les conséquences de la force du gain sur la qualité du signal. Une comparaison avec des résultats de l'expérience SIMPLE (Superheated Instrument for Massive ParticLe Experiments) a été effectuée en mesurant des signaux de détecteurs PICASSO à l'aide d'un microphone électrostatique à électret. Il a été conclu que les détecteurs PICASSO ne parviennent pas à reproduire la discrimination quasi parfaite présentée par SIMPLE.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse s’inscrit au cœur du chantier de réflexion sur l’interaction entre les États et les entreprises multinationales qui s’impose dans le contexte de l’accélération actuelle du processus de mondialisation de l’économie capitaliste. Nous l’abordons sous l’angle plus particulier des multinationales et de leur engagement institutionnel au sein des organisations, associations, forums ou réseaux qui contribuent à la définition et parfois même à la gestion des différentes politiques publiques orientées vers le développement économique, l’innovation et le marché du travail. Quelles sont les différentes facettes de l’engagement institutionnel des filiales de multinationales au Canada ? Comment ces comportements peuvent-ils être influencés par les différentes caractéristiques et stratégies de ces entreprises ? Un modèle théorique large, empruntant des hypothèses aux nombreuses approches théoriques s’intéressant aux comportements généraux des multinationales, est testé à l’aide d’analyses quantitatives de données obtenues dans le cadre d’une enquête auprès des multinationales au Canada associée au projet international INTREPID. D’abord, cette thèse permet une opérationnalisation plus précise du concept d’« imbrication de la firme » à travers la notion d’engagement institutionnel. Elle met en évidence les différentes dimensions de ce phénomène et remet en question la vision « essentiellement » positive qui l’entoure. Les résultats de cette thèse viennent questionner de la centralité des approches macro-institutionnalistes, particulièrement celle associée aux Variétés du capitalisme, dans les études sur les multinationales. Ils réaffirment par contre l’importance des différentes approches économiques et démontrent plus particulièrement la pertinence de la théorie de la dépendance aux ressources et l’impact de la présence d’un acteur structuré venant faire le contrepoids aux gestionnaires. Malgré nos efforts de théorisation, nous sommes incapable d’observer un effet modérateur des facteurs stratégiques sur l’impact du pays d’origine dans la détermination de l’engagement institutionnel. Cette thèse offre des indications permettant de cibler les interventions institutionnelles qui cherchent à « attacher » les multinationales à l’économie canadienne. Elle met aussi en évidence la contribution d’acteurs indirects dans la consolidation des relations d’engagement institutionnel et plus particulièrement le rôle positif que peuvent jouer les syndicats dans certains forums ou réseaux.