987 resultados para Méthodes métaheuristiques
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
La résonance magnétique cardiovasculaire sensible à l'oxygénation (OS-CMR) est devenue une modalité d'imagerie diagnostique pour la surveillance de changements dans l'oxygénation du myocarde. Cette technique offre un grand potentiel en tant qu'outil diagnostic primaire pour les maladies cardiovasculaires, en particulier la détection non-invasive d'ischémie. Par contre, il existe plusieurs facteurs potentiellement confondants de cette technique, quelques-uns d'ordre méthodologique comme les paramètres de séquençage et d'autres de nature physiologiques qui sont peut compris. En raison des effets causés par le contenu tissulaire d'eau, l'état d'hydratation peut avoir un impact sur l'intensité du signal. Ceci est un des aspects physiologiques en particulier dont nous voulions quantifier l'effet confondant par la manipulation de l'état d'hydratation chez des humains et l'observation des changements de l'intensité du signal dans des images OS-CMR. Méthodes: In vitro: Du sang artériel et veineux de huit porcs a été utilisé pour évaluer la dilution en série du sang et son effet correspondant sur l'intensité du signal de la séquence OS. In vivo: Vingt-deux volontaires en santé ont subi OS-CMR. Les concentrations d'hémoglobine (Hb) ont été mesurées au niveau de base et immédiatement après une l'infusion cristalloïde rapide de 1000 mL de solution Lactate Ringer's (LRS). Les images OS-CMR ont été prises dans une vue mid-ventriculaire court axe. L'intensité du signal myocardique a été mesurée durant une rétention respiratoire volontaire maximale, suite à une période d'hyperventilation de 60 secondes. Les changements dans l'intensité du signal entre le début et la fin de la rétention de la respiration ont été exprimés relativement au niveau de base (% de changement). Résultats: L'infusion a résulté en une diminution significative de l'Hb mesurée (142.5±3.3 vs. 128.8±3.3 g/L; p<0.001), alors que l'IS a augmenté de 3.2±1.2% entre les images du niveau de base en normo- et hypervolémie (p<0.05). L'IS d'hyperventilation ainsi que les changements d'IS induits par l'apnée ont été attenués après hémodilution (p<0.05). L'évaluation quantitative T2* a démontré une corrélation négative entre le temps de T2* et la concentration d'hémoglobine (r=-0.46, p<0.005). Conclusions: Il existe plusieurs éléments confondants de la technique OS-CMR qui requièrent de l'attention et de l'optimisation pour une future implémentation clinique à grande échelle. Le statut d'hydratation en particulier pourrait être un élément confondant dans l'imagerie OS-CMR. L'hypervolémie mène à une augmentation en IS au niveau de base et atténue la réponse IS durant des manoeuvres de respiration vasoactives. Cette atténuation de l'intensité du signal devrait être tenue en compte et corrigée dans l'évaluation clinique d'images OS-CMR.
Resumo:
La présente étude visait à développer un protocole de fixation et d'échantillonnage pour le poumon équin suivant les directives publiées sur l’utilisation d’une approche stéréologique de type « design-based ». Les poumons gauches de chevaux contrôles et atteints du souffle ont été fixés avec du formaldéhyde 10% pendant 48h à une pression constante de 25-30 cm d’H2O. Les poumons ont été sectionnés en 20-21 tranches d’une épaisseur d'environ 2,5 cm chacune; de 10-11 tranches ont été sélectionnées de façon aléatoire et systématique pour la mesure du volume de référence avec la méthode de Cavalieri. Un protocole d’échantillonnage systématique, aléatoire et uniforme utilisant le principe du « smooth fractionator » et un poinçon à biopsie de 17 mm ont été utilisés pour échantillonner une fraction représentative de chaque poumon. Les méthodes d’échantillonnage de sections verticales, uniformes et aléatoires (VUR) et d’échantillonnage isotropique, uniforme et aléatoire (IUR) ont toutes deux été effectuées pour comparer le nombre de voies respiratoires en coupe perpendiculaire obtenues à partir de chaque méthode. L'architecture globale et la qualité des tissus fixés ont également été évaluées. Des spécimens pulmonaires équins ont été échantillonnés avec succès selon un protocole visant à produire des données morphométriques valides. Les tissus ont été fixés avec un minimum d'artéfacts et contenaient une quantité suffisante de voies respiratoires en coupe perpendiculaire dans les deux types d’échantillons. En conclusion, un protocole de fixation et d'échantillonnage adapté au poumon équin permettant l'utilisation d'une approche stéréologique de type « design-based » a été élaboré pour l’étude du remodelage des voies respiratoires.
Resumo:
Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.
Resumo:
Introduction. In utero, l’infection des membranes maternelles et fœtales, la chorioamniotite, passe souvent inaperçue et, en particulier lorsque associée à une acidémie, due à l’occlusion du cordon ombilical (OCO), comme il se produirait au cours du travail, peut entrainer des lésions cérébrales et avoir des répercussions neurologiques péri - et postnatales à long terme chez le fœtus. Il n'existe actuellement aucun moyen de détecter précocement ces conditions pathologiques in utéro afin de prévenir ou de limiter ces atteintes. Hypothèses. 1)l’électroencéphalogramme (EEG) fœtal obtenu du scalp fœtal pourrait servir d’outil auxiliaire à la surveillance électronique fœtale du rythme cardiaque fœtal (RCF) pour la détection précoce d'acidémie fœtale et d'agression neurologique; 2) la fréquence d’échantillonnage de l’ECG fœtal (ECGf) a un impact important sur le monitoring continu de la Variabilité du Rythme Cardiaque (VRCf) dans la prédiction de l’acidémie fœtale ; 3) les patrons de la corrélation de la VRCf aux cytokines pro-inflammatoires refléteront les états de réponses spontanées versus inflammatoires de la Voie Cholinergique Anti-inflammatoire (VCA); 4) grâce au développement d’un modèle de prédictions mathématiques, la prédiction du pH et de l’excès de base (EB) à la naissance sera possible avec seulement une heure de monitoring d’ECGf. Méthodes. Dans une série d’études fondamentales et cliniques, en utilisant respectivement le mouton et une cohorte de femmes en travail comme modèle expérimental et clinique , nous avons modélisé 1) une situation d’hypoxie cérébrale résultant de séquences d’occlusion du cordon ombilical de sévérité croissante jusqu’à atteindre un pH critique limite de 7.00 comme méthode expérimentale analogue au travail humain pour tester les première et deuxième hypothèses 2) un inflammation fœtale modérée en administrant le LPS à une autre cohorte animale pour vérifier la troisième hypothèse et 3) un modèle mathématique de prédictions à partir de paramètres et mesures validés cliniquement qui permettraient de déterminer les facteurs de prédiction d’une détresse fœtale pour tester la dernière hypothèse. Résultats. Les séries d’OCO répétitives se sont soldés par une acidose marquée (pH artériel 7.35±0.01 à 7.00±0.01), une diminution des amplitudes à l'électroencéphalogramme( EEG) synchronisé avec les décélérations du RCF induites par les OCO accompagnées d'une baisse pathologique de la pression artérielle (PA) et une augmentation marquée de VRCf avec hypoxie-acidémie aggravante à 1000 Hz, mais pas à 4 Hz, fréquence d’échantillonnage utilisée en clinique. L’administration du LPS entraîne une inflammation systémique chez le fœtus avec les IL-6 atteignant un pic 3 h après et des modifications de la VRCf retraçant précisément ce profil temporel des cytokines. En clinique, avec nos cohortes originale et de validation, un modèle statistique basée sur une matrice de 103 mesures de VRCf (R2 = 0,90, P < 0,001) permettent de prédire le pH mais pas l’EB, avec une heure d’enregistrement du RCF avant la poussée. Conclusions. La diminution de l'amplitude à l'EEG suggère un mécanisme d'arrêt adaptatif neuroprotecteur du cerveau et suggère que l'EEG fœtal puisse être un complément utile à la surveillance du RCF pendant le travail à haut risque chez la femme. La VRCf étant capable de détecter une hypoxie-acidémie aggravante tôt chez le fœtus à 1000Hz vs 4 Hz évoque qu’un mode d'acquisition d’ECG fœtal plus sensible pourrait constituer une solution. Des profils distinctifs de mesures de la VRCf, identifiés en corrélation avec les niveaux de l'inflammation, ouvre une nouvelle voie pour caractériser le profil inflammatoire de la réponse fœtale à l’infection. En clinique, un monitoring de chevet de prédiction du pH et EB à la naissance, à partir de mesures de VRCf permettrait des interprétations visuelles plus explicites pour des prises de décision plus exactes en obstétrique au cours du travail.
Resumo:
Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.
Resumo:
Le remodelage cardiaque est le processus par lequel la structure ou la fonction cardiaque change en réponse à un déséquilibre pathophysiologique tel qu'une maladie cardiaque, un contexte d'arythmie prolongée ou une modification de l'équilibre hormonal. Le système rénine-angiotensine (SRA) est un système hormonal largement étudié et il est impliqué dans de nombreuses activités associées au remodelage cardiovasculaire. L’existence d'un système circulatoire couplé à un système de tissus locaux est une représentation classique, cependant de nouvelles données suggèrent un SRA indépendant et fonctionnellement actif à l'échelle cellulaire. La compréhension de l'activité intracellulaire du SRA pourrait mener à de nouvelles pistes thérapeutiques qui pourraient prévenir un remodelage cardiovasculaire défavorable. L'objectif de cette thèse était d'élucider le rôle du SRA intracellulaire dans les cellules cardiaques. Récemment, les récepteurs couplés aux protéines G (RCPG), les protéines G et leurs effecteurs ont été détectés sur des membranes intracellulaires, y compris sur la membrane nucléaire, et les concepts de RCPG intracellulaires fonctionnels sont en voie d'être acceptés comme une réalité. Nous avons dès lors fait l'hypothèse que la signalisation du SRA délimitant le noyau était impliquée dans le contrôle de l'expression des gènes cardiaques. Nous avons démontré la présence de récepteurs d'angiotensine de type-1 (AT1R) et de type-2 (AT2R) nucléaires dans les cardiomyocytes ventriculaires adultes et dans une fraction nucléaire purifiée de tissu cardiaque. Des quantités d'Ang II ont été détectées dans du lysat de cardiomyocytes et des microinjections d'Ang-II-FITC ont donné lieu à des liaisons préférentielles aux sites nucléaires. L'analyse transcriptionnelle prouve que la synthèse d'ARN de novo dans des noyaux isolés stimulés à l'Ang-II, et l'expression des ARNm de NF-κB étaient beaucoup plus importants lorsque les noyaux étaient exposés à de l'Ang II par rapport aux cardiomyocytes intacts. La stimulation des AT1R nucléaires a engendré une mobilisation de Ca2+ via les récepteurs de l'inositol trisphosphate (IP3R), et le blocage des IP3R a diminué la réponse transcriptionnelle. Les méthodes disponibles actuellement pour l'étude de la signalisation intracrine sont limitées aux méthodes indirectes. L'un des objectifs de cette thèse était de synthétiser et caractériser des analogues d'Ang-II cellule-perméants afin d’étudier spécifiquement dans les cellules intactes l'activité intracellulaire du SRA. Nous avons synthétisé et caractérisé pharmacologiquement des analogues photosensibles Ang-II encapsulée en incorporant un groupement 4,5-diméthoxy-2-nitrobenzyl (DMNB) photoclivable sur les sites actifs identifiés du peptide. Chacun des trois analogues d'Ang II encapsulée synthétisés et purifiés: [Tyr(DMNB)4]Ang-II, Ang-II-ODMNB et [Tyr(DMNB)4]Ang-II-ODMNB a montré une réduction par un facteur deux ou trois de l'affinité de liaison envers AT1R et AT2R dans les dosages par liaison compétitive et une activité réduite dans la contraction de l'aorte thoracique. La photostimulation de [Tyr(DMNB)4]Ang-II dans des cellules HEK a augmenté la phosphorylation d'ERK1/2 (via AT1R) et la production de cGMP (via AT2R) alors que dans les cardiomyocytes isolés elle générait une augmentation de Ca2+ nucléoplasmique et initiait la synthèse d'ARNr 18S et d'ARNm du NF-κB. Les fibroblastes sont les principaux générateurs de remodelage cardiaque structurel, et les fibroblastes auriculaires sont plus réactifs aux stimuli profibrotiques que les fibroblastes ventriculaires. Nous avons émis l'hypothèse que l’Ang-II intracellulaire et l'activation des AT1R et AT2R nucléaires associés contrôlaient les profils d'expression des gènes des fibroblastes via des systèmes de signalisation distincts et de ce fait jouaient un rôle majeur dans le développement de la fibrose cardiaque. Nous avons remarqué que les fibroblastes auriculaires expriment l’AT1R et l’AT2R nucléaire et l'Ang-II au niveau intracellulaire. L’expression d'AT1R nucléaire a été régulés positivement dans les cas d’insuffisance cardiaque (IC), tandis que l'AT2R nucléaire a été glycosylé post-traductionnellement. La machinerie protéique des protéines G, y compris Gαq/11, Gαi/3, et Gβ, a été observée dans des noyaux isolés de fibroblastes. AT1R et AT2R régulent l'initiation de la transcription du fibroblaste via les voies de transduction de signal d'IP3R et du NO. La photostimulation de [Tyr(DMNB)4]Ang-II dans une culture de fibroblastes auriculaire déclenche la libération de Ca2+ nucléoplasmique, la prolifération, et la synthèse et sécrétion de collagène qui ne sont pas inhibées par les bloqueurs d'AT1R et/ou AT2R extracellulaires.
Resumo:
À ce jour, les différentes méthodes de reconstruction des mouvements du plasma à la surface du Soleil qui ont été proposées présupposent une MHD idéale (Welsch et al., 2007). Cependant, Chae & Sakurai (2008) ont montré l’existence d’une diffusivité magnétique turbulente à la photosphère. Nous introduisons une généralisation de la méthode du Minimum Energy Fit (MEF ; Longcope, 2004) pour les plasmas résistifs. Le Resistive Minimum Energy Fit (MEF-R ; Tremblay & Vincent, 2014) reconstruit les champs de vitesse du plasma et la diffusivité magnétique turbulente qui satisfont à l’équation d’induction magnétique résistive et qui minimisent une fonctionnelle analogue à l’énergie cinétique totale. Une séquence de magnétogrammes et de Dopplergrammes sur les régions actives AR 9077 et AR 12158 ayant chacune produit une éruption de classe X a été utilisée dans MEF-R pour reconstruire les mouvements du plasma à la surface du Soleil. Les séquences temporelles des vitesses et des diffusivités magnétiques turbulentes calculées par MEF-R sont comparées au flux en rayons X mous enregistré par le satellite GOES-15 avant, pendant et après l’éruption. Pour AR 12158, nous observons une corrélation entre les valeurs significatives de la diffusivité magnétique turbulente et de la vitesse microturbulente pour les champs magnétiques faibles.
Resumo:
Problématique : La période périnatale est critique pour la santé et le développement de l’enfant. Les problèmes de santé mentale pendant la grossesse et après l’accouchement peuvent mener à des conséquences néfastes sur le développement de l’enfant et les issues plus tardives de sa santé. Cette thèse se concentre sur deux problèmes de santé mentale périnatale d’intérêt substantiel : le stress psychosocial pendant la grossesse et la dépression postnatale. Méthodes : Dans la première partie, nous donnons un aperçu de la dépression postnatale et effectuons une revue de la littérature portant sur deux facteurs de risque qui suscitent un nouvel intérêt, soit le génotype du transporteur de la sérotonine et l’état des acides gras oméga-3 polyinsaturés. Ensuite, dans le cadre de la deuxième partie, nous effectuons une revue de la littérature sur le stress psychosocial pendant la grossesse et la naissance prématurée, le tout en discutant les mécanismes physiologiques reliant ces deux derniers. Puis, nous examinons les liens existant entre le stress psychosocial et la durée de gestation au sein de la cohorte 3D, une étude longitudinale réalisée au Québec. Pour conclure, nous effectuons une investigation plus détaillée sur les facteurs de risque de l’anxiété liée à la grossesse dans la cohorte 3D, ceci en mettant l’accent sur l’historique des grossesses antérieures. Résultats : Dans la première partie, trois études menées rigoureusement révèlent des associations entre le génotype du transporteur de la sérotonine et la dépression postnatale. De même, les preuves s’accumulent à l’effet qu’une insuffisance en acides gras oméga-3 polyinsaturés soit associée à un risque plus élevé de dépression postnatale. Des données probantes préliminaires suggèrent qu’il pourrait y avoir une interaction entre les deux nouveaux facteurs de risque. Dans la deuxième partie, la littérature montre des liens entre le stress psychosocial pendant la grossesse et la naissance prématurée qui varient selon les dimensions du stress et le moment de mesure de celui-ci. Des associations plus fortes sont généralement trouvées plus tôt durant la gestation, alors que la perception subjective du stress et l’anxiété liée à la grossesse sont les plus étroitement associées à la naissance prématurée. Les voies comportementales, infectieuses, neuroinflammatoires, et neuroendocriniennes sont identifiées comme mécanismes physiologiques potentiels. Dans notre étude sur le stress psychosocial et la durée de la gestation au sein la cohorte 3D, nous avons observé une faible association entre l’anxiété liée à la grossesse au troisième trimestre et la naissance spontanée avant 39 semaines de gestation. Dans notre étude sur l’histoire obstétrique et l’anxiété liée à la grossesse, des liens indépendants ont été observés entre plusieurs issues de grossesses antérieures et l’anxiété liée à une grossesse subséquente. Conclusions : Les données probantes de la première partie soutiennent un programme de recherche ayant pour but de clarifier les liens entre les acides gras oméga-3 polyinsaturés, le génotype du transporteur de la sérotonine et la dépression postnatale. Dans la deuxième partie, nos résultats mettent en lumière l’importance relative du stress psychosocial comme prédicteur de la durée de gestation, tout en faisant une contribution importante pour des méta-analyses futures. Ils suggèrent d’ailleurs de nouvelles pistes de recherche pour les cadres conceptuels liant le stress et les issues de la naissance.
Resumo:
Résumé Introduction: Les infections urinaires (IU) sont les infections bactériennes les plus fréquentes chez les patients hospitalisés. Cette étude décrit les tendances temporelles d'admission et de mortalité liées aux hospitalisations pour les IU, ainsi que le fardeau économique associé. Les prédicteurs de mauvaise évolution clinique et de mortalité sont examinés par la suite. Méthodes: Les données ont été extraites à partir de la base de données du NIS entre le 1er janvier 1998 et le 31 décembre 2010. 1,717,181 hospitalisations liées aux IU ont été retenues. L'incidence et la mortalité ont été calculées et stratifiées selon le sexe, l'âge et la présence de sepsis. Les frais médians et totaux pour les hospitalisations sont calculés et ajustés pour l'inflation. Finalement, les prédicteurs d'avoir un sepsis induit par les IU et de mortalité sont examinés avec une analyse par régression logistique multivariée. Résultats: L'incidence globale d'hospitalisation et la mortalité associées aux IU voit une croissance annuel estimé (EAPC) de +4.764 et +4.610 respectivement (p<0.0001). L'augmentation d'incidence est le plus marquée pour les patients âgés de 55 à 64 ans (EAPC = +7.805; p<0.0001). Les frais médians par hospitalisation ont augmenté de $10 313 en 1998 à $21 049 en 2010 (EAPC +9.405; p<0.0001). Les frais globaux pour les hospitalisations des IU ont augmenté de $8.9 milliard en 1998 à $33.7 milliard en 2010 (EAPC +0.251; p<0.0001). Les patients âgés, de sexe masculin, de race afro-américaine, ainsi que les patients assurés par Medicaid ou ceux sans assurance, et les patients soignés à des centres non-académiques sont à risque plus important de mortalité (p<0.0001). Conclusion: L'incidence et la mortalité associées aux IU ont augmenté au cours de la dernière décennie. Les frais médians ajustés pour l'inflation ainsi que les frais globaux ont augmenté progressivement au cours de la période d'étude. Dans la cohorte étudiée, les patients âgés, de sexe masculin, de race afro-américaine, ainsi que les patients assurés par Medicaid ou ceux sans assurance, et les patients soignés à des centres non-académiques sont à risque plus important de mortalité. Ces données représentent des indicateurs de qualité de soins qui pourraient permettre d'adapter certaines politiques de soins de santé aux besoins des sous-populations plus vulnérables.
Resumo:
Ce mémoire cherche à créer un dialogue entre les domaines de recherche du livre d’images et celui de recherches sur la paix afin d’exposer les différentes formes et fonctions des livres d’images pour la paix. Questionnant le pourquoi et le comment de ces œuvres, ce travail expose la façon et la manière avec lesquelles ces dernières contribuent à « l’alphabétisation de la paix » auprès des enfants et comment elles les motivent à agir en fonction de la paix. Les livres d’images constituent un média idéal pour éduquer les enfants à la paix. Très tôt dans le processus de socialisation, ces livres sauront transmettre et inculquer des concepts et aptitudes clefs et éventuellement ancrer dans l’esprit de l’enfant les valeurs d’une culture de la paix. Au centre de cette recherche est exposé le thème de la paix tel que traité à travers les œuvres de l’écrivaine autrichienne Mira Lobe (1913–1995). Par l’analyse de sept livres d’images pour la paix, ce travail explique quelles stratégies et méthodes littéraires, pédagogiques, sémiotiques, narratives et esthétiques sont employées par l’auteure pour réussir à bien présenter et à traiter de sujets politiques complexes et d’enjeux sociaux et humains parfois délicats et tabous à un jeune auditoire. Il montre également par quels moyens ces œuvres font naître l’empathie, une aversion pour la violence et comment elles pourront finalement amener les enfants à opter pour l’acte de la paix. En joignant et en mettant en relation les résultats et conclusions des deux champs de recherche observés dans ce travail, soit l’éducation à la paix et la recherche sur des livres d’images, il devient possible de démontrer comment Mira Lobe apporte, avec ses livres d’images pour la paix, une contribution universelle et intemporelle à l’éducation à la paix.
Resumo:
Les défis associés au phénomène du vieillissement démographique de la population se manifestent sous plusieurs formes et à de nombreux égards. Il y a des questions générales comme celles qui touchent l’économique et d’autres, plus spécifiques et situées, comme celles des modalités assurant des services et des soins adéquats aux personnes vulnérables. Par exemple, le colloque « La qualité de l’expérience des usagers et des proches : vers la personnalisation des soins et des services sociaux », programmé dans le cadre des Entretiens Jacques Cartier à l’automne 2014, s’était donné comme objectif d’examiner l’expérience personnelle des usagers relativement aux prestations de soins de santé et à l’organisation des services sociaux. L’origine de ces réflexions réside dans la nécessité de trouver un meilleur équilibre des pouvoirs dans les relations d’aide ou la prestation de soin. Cette problématique sous-entend l’idée de rendre les usagers capables d’un certain contrôle par l’adoption d’approches permettant aux professionnels de faire des ajustements personnalisés. Cette thèse de doctorat s’inscrit directement dans le prolongement de cette problématique. La recherche vise à examiner les conditions en mesure de rendre possible, dans les Centres d’hébergement et de soins de longue durée (CHSLD), un rapport au monde catégorisé par ce que le sociologue Laurent Thévenot nomme le régime de la familiarité. Le régime de la familiarité fait référence aux réalités où l’engagement des personnes se déploie dans l’aisance. Autrement dit, ce régime d’engagement correspond à un rapport au milieu où la personne est en mesure de déployer ses habitudes, d’habiter le moment et de se sentir chez elle. Comme le montre Thévenot, ce type d’engagement commande la conception d’un monde qui offre aux personnes la possibilité d’articuler les modalités de leurs actions sur des repères qui font sens personnellement pour eux. Ainsi, l’objet de la recherche consiste à mieux comprendre la participation du design à la conception d’un milieu d’hébergement capable d’accueillir ce type d’engagement pragmatique. Les orientations associées à la conception de milieux d’hébergement capables de satisfaire de telles exigences correspondent largement aux ambitions qui accompagnent le développement des approches du design centrées sur l’usager, du design d’expériences et plus récemment du design empathique. Cela dit, malgré les efforts investis en ce sens, les capacités d’appropriation des usagers restent un problème pour lequel les réponses sont précaires. La thèse interroge ainsi le fait que les développements des approches de design, qui ont fait de l’expérience des usagers une préoccupation de premier plan, sont trop souvent restreints par des questions de méthodes et de procédures. Le développement de ces connaissances se serait fait au détriment de l’examen précis des savoir-être également nécessaires pour rendre les designers capables de prendre au sérieux les enjeux associés aux aspirations de ces approches. Plus spécifiquement, la recherche précise les qualités de l’expérience des établissements dont le design permet l’engagement en familiarité. L’enquête s’appuie sur une analyse des jugements posés par des équipes d’évaluation de la qualité du milieu de vie des CHSLD présents sur le territoire Montréalais. L’analyse a mené à la caractérisation de cinq qualités : l’accueillance, la convivialité, la flexibilité, la prévenance et la stabilité. Finalement, sous la forme d’un essai réflexif, un tableau de savoir-être est suggéré comme manière de rendre les designers capables de mettre en œuvre des milieux d’hébergement présentant les qualités identifiées. Cet essai est également l’occasion du développement d’un outil réflexif pour une pédagogie et une pratique vertueuse du design.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Objectif: L'objectif primaire de cette étude était d'évaluer la validité, la fiabilité et la reproductibilité des mesures dentaires obtenues sur les modèles digitaux iTero (Align Technology, San Jose, Californie) et Unitek TMP Digital (3M, Monrovia, Californie) en comparaison avec celles obtenues sur les modèles de plâtre (gold standard). L'objectif secondaire était de comparer les deux différents matériaux à empreinte (l'alginate et le polyvinylsiloxane-PVS) afin de déterminer si le choix du matériau affectait la précision des mesures. Méthodes: Le premier volet de l'étude impliquait les modèles digitaux Unitek et iTero, obtenus à partir de 25 paires de modèles de plâtre choisis de façon randomisée et provenant de la pratique privée d'un des co-auteurs. Des empreintes d'alginate et de PVS ont été prises sur les modèles de plâtre et numérisées par le scanner Unitek. Les modèles ont ensuite été numérisés avec le scanner iTero. Le deuxième volet de l'étude cherchait à comparer les modèles digitaux iTero (numérisation intra-orale) avec les modèles de plâtre (empreintes d'alginate et de PVS) obtenus à partir de 25 patients de la clinique d'orthodontie de l'Université de Montréal ayant besoin d'un traitement orthodontique. Dans les deux volets de l'étude, deux auteurs ont pris les mesures suivantes sur les différents modèles: largeur mésio-distale de chaque dent de la première molaire à l'autre première molaire, le périmètre d'arcade, les distances intermolaire et intercanine, le surplomb vertical et le surplomb horizontal. Les ratios et excès Bolton 6 et 12, l'espace requis et les différentiels d'espace au maxillaire et à la mandibule, ont été calculés. Résultats: La fiabilité (ICC) entre les modèles digitaux (Unitek et iTero) et les modèles de plâtre était bonne à excellente pour toutes les mesures [ICC=0,762–0,998], et la fiabilité entre les deux matériaux à empreinte était excellente [ICC=0,947–0,996]. Dans les deux volets de l'étude, les mesures faites sur les modèles iTero étaient généralement plus grandes que celles faites sur les modèles de plâtre. Les plus grandes différences moyennes pour la comparaison iTero-plâtre étaient trouvées au niveau de l'espace disponible au maxillaire et à la mandibule (systématiquement plus grande pour cette variable), soit 2,24 mm et 2,02 mm respectivement dans le premier volet, et 1,17 mm et 1,39 mm respectivement dans le deuxième volet. Les différences étaient considérées cliniquement non significatives pour toutes les variables. La reproductibilité intra-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux, à l'exception du différentiel d'espace à la mandibule pour les modèles Unitek [ICC=0,690-0,692]. La reproductibilité inter-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux dans les deux volets de l'étude, mais acceptable à modérée pour les modèles Unitek au niveau des analyses Bolton 6 et 12, et des différentiels d'espace au maxillaire et à la mandibule [ICC=0,362-0,548]. Conclusions: La précision et la fiabilité des mesures dentaires faites sur les modèles digitaux Unitek et iTero étaient cliniquement acceptables et reproductibles en comparaison avec les celles faites sur les modèles de plâtre. Le choix de matériel à empreinte entre l'alginate et le PVS n'affectait pas la précision des mesures. Cette étude semble démontrer que les modèles digitaux Unitek et iTero, utilisés avec leur logiciel respectif, sont une alternative fiable et reproductible aux modèles de plâtre pour le diagnostic et l’analyse des modèles orthodontiques.
Resumo:
Introduction : L’inconfort causé par les appareils orthodontiques peut significativement affecter la coopération des patients dans leur traitement. La douleur, ainsi que la détérioration de la fonction (mastication, élocution) sont reconnus comme les déterminants majeurs de la coopération des patients traités par appareils amovibles. Invisalign® se positionne comme une alternative esthétique aux multiples inconforts observés lors des traitements fixes avec boîtiers. À ce jour, peu d’études ont cherché à comparer la douleur (quantitativement et qualitativement) perçue entre cette technique et celle avec boîtiers fixes sur une longue période. Objectif : L’objectif de la présente étude est d’évaluer la douleur ressentie par les patients qui suivent un traitement orthodontique avec coquilles correctrices Invisalign® et de la comparer avec celle des patients qui suivent un traitement orthodontique conventionnel avec des boîtiers fixes. Matériels et Méthodes: L’étude compte 70 patients (29 garçons, 41 filles), moyenne d’âge de 16 ans [11 à 30]. Les trois sous-groupes sont Invisalign® (n=31), boîtiers Damon (n=19) et boîtiers Speed (n=20). Les groupes avec boîtiers (Damon et Speed) sont les 2 groupes de l’étude menée au sein de la clinique d’Orthodontie de l’Université de Montréal en 2011 qui comparait la perception de la douleur durant le traitement orthodontique entre boîtiers auto-ligaturants passifs et actifs. L’étude a été organisée en 4 phases correspondant à l’insertion des 4 premiers fils pour les groupes avec boîtiers (Phase 1: 0,016" Supercable, Phase 2: 0,016" CuNiTi, Phase 3: 0,016"x0,022" CuNiTi, Phase 4: 0,019"x0,025" CuNiTi) et à l’insertion des coquilles 1, 4, 7 et 10 pour le groupe Invisalign®. À l’aide d’un questionnaire, l’étude évalue pour chaque phase l’ampleur (grâce à une échelle visuelle analogue EVA), la durée et la localisation de la douleur à 6 différents points (T1: immédiatement après l’insertion, T2: 5h après, T3: 24h après, T4: 3 jours après, T5: une semaine après, T6: 2 semaines après). Résultats: À T1Ph3 le pourcentage de patients rapportant de la douleur était plus élevé avec Damon qu’avec Invisalign® (p=0,032) (Damon=55,6% ; Invisalign®=23,3%) mais il n’y avait pas de différence avec le groupe Speed (p=0,114). Les patients avec Invisalign® rapportaient significativement moins d’irritation des tissus mous (muqueuses, gencives) que les patients avec des boîtiers. Pour les résultats des EVA, les différences étaient statistiquement significatives à 2 temps : T3Ph1 (Médiane Invisalign®=33,31, Médiane Speed=49,47; p=0,025) et T3Ph4 (Médiane Invisalign®=13,15, Médiane Damon=27,28; p=0,014). Pour la majorité des patients la douleur ne nécessitait pas la prise de médicament et il n’y avait pas de différence significative entre les groupes sur ce point. La qualité de vie était légèrement affectée lors de la première phase et moindrement pour le groupe Invisalign® que pour les groupes avec boîtiers. Pour les patients Invisalign®, la douleur atteignait son niveau le plus élevé entre 5 et 24 heures après l’insertion de la première coquille, et diminuait en intensité et en durée à chaque phase. Conclusion: La perception de la douleur lors d’un traitement orthodontique avec Invisalign® est inférieure à celle ressentie lors d’un traitement avec des boîtiers fixes. Cette méthode de traitement est donc une thérapie attirante pour les patients désirant un traitement esthétique et relativement confortable.