234 resultados para Calcul informatisé fiable
Resumo:
Dans cette thèse, nous décrivons les résultats d’un projet de recherche visant à mesurer et évaluer la qualité des soins obstétricaux des hôpitaux de référence au Mali et au Sénégal. Dans ces pays, la mortalité maternelle hospitalière est élevée et est liée en partie à la pratique médicale inadéquate. Cette recherche a été réalisée dans le cadre de l’étude QUARITE, un essai randomisé en grappe évaluant l’efficacité du programme GESTA International visant à réduire la mortalité maternelle hospitalière. GESTA a été mis en œuvre entre 2008 et 2010 et consistait en la formation des professionnels de santé et en la revue des cas de décès maternels. En parallèle de QUARITE, les programmes de prévention de la transmission du VIH de la mère à l’enfant (PTME) ont été mis à l’échelle à travers les pays. Ces derniers ayant également la capacité d’augmenter la qualité des soins obstétricaux, nous avons donc évalué les effets des deux programmes (GESTA et PTME) sur la qualité des soins. Dans un premier temps, à l’aide d’une recension des écrits nous avons évalué la capacité d’un audit clinique basé sur des critères à mesurer la qualité des soins obstétricaux. Cet audit vérifiait si l’offre des soins avait respecté les critères cliniques définissant la meilleure prise en charge selon l’évidence scientifique et l’avis des experts. Nous avons démontré que cet outil est largement utilisé dans les pays à faibles et moyens revenus, malgré le peu d’évidence sur sa validité (article 1). Dans un deuxième temps, nous avons développé un audit clinique basé sur des critères qui s’applique au contexte ouest-africain et qui a été approuvé par des experts-obstétriciens nationaux et internationaux. À partir des dossiers obstétricaux, les actes médicaux posés pendant le travail et l’accouchement ont été évalués à l‘aide de cet instrument. La qualité des soins a été estimée sous forme de pourcentage de critères atteints. Appliqué dans différents contextes et par différents auditeurs, nous avons démontré que notre instrument est fiable et valide (article 3). Néanmoins, l’expérience de l’audit nous a amenés à nous questionner sur le mauvais remplissage des dossiers médicaux et ses conséquences sur la qualité des soins (article 2). Dans un troisième temps, l’outil a été appliqué à large échelle pour évaluer les effets de l’intervention GESTA (article 4). Nous avons mené une révision de plus de 800 dossiers obstétricaux dans 32 hôpitaux de référence (16 bénéficiaires de l’intervention et 16 non-bénéficiaires). Grâce à cet audit clinique, nous avons démontré que le programme GESTA contribue à l’amélioration de la qualité des soins, spécifiquement l’examen clinique lors de l’admission et le suivi après l’accouchement. Dernièrement, nous avons utilisé cet instrument afin d’évaluer les effets des programmes de PTME sur la qualité des soins obstétricaux (article 5). Notre travail a documenté que seulement certaines composantes du programme de PTME améliorent la qualité des soins telles que la formation des professionnels et les services complémentaires en nutrition. En conclusion, cette recherche a identifié plusieurs pistes d’intervention pour améliorer la qualité des soins obstétricaux en Afrique de l’Ouest.
Resumo:
La douleur neuropathique centrale post accident vasculaire cérébral est une condition débilitante dont le traitement s’avère souvent délicat et infructueux. Le but de ce projet était de reproduire cette condition chez le rat en injectant par stéréotaxie une solution de collagènase produisant une hémorragie localisée dans le noyau ventropostérolatéral du thalamus. Des tests comportementaux évaluant la coordination motrice, la sensibilité mécanique, au chaud et au froid étaient réalisés régulièrement afin d’établir la présence de douleur neuropathique puis les effets de l’administration de kétamine, d’amitriptyline, de gabapentine, et de carbamazepine étaient évalués. L’induction d’une hémorragie intrathalamique conduit à l’apparition d’allodynie mécanique bilatérale persistante ainsi que d’allodynie au froid transitoire chez certains sujets et ce sans modification de la coordination motrice. L’administration de kétamine à forte dose renverse l’allodynie mécanique mais est associée à une altération de la motricité. L’administration de gabapentine renverse également cette allodynie mécanique sans effet notable sur la coordination motrice. Les autres médicaments n’ont pas démontré d’effet significatif. L’évaluation histopathologique des cerveaux montre une lésion bien localisée dans la zone d’intérêt. Ces résultats montrent que l’injection intrathalamique de collagénase peut être utilisée comme un modèle fiable de douleur neuropathique centrale. Si la kétamine semble capable de soulager ce type de douleur, elle est associée à des effets indésirables. En revanche, la gabapentine serait une molécule prometteuse pour le traitement de cette condition. Le rôle des récepteurs NMDA et des canaux calciques voltage dépendants, cibles respectives de la kétamine et de la gabapentine dans le maintien de cette douleur mérite d’être précisé.
Resumo:
Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.
Resumo:
Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.
Resumo:
Quoique très difficile à résoudre, le problème de satisfiabilité Booléenne (SAT) est fréquemment utilisé lors de la modélisation d’applications industrielles. À cet effet, les deux dernières décennies ont vu une progression fulgurante des outils conçus pour trouver des solutions à ce problème NP-complet. Deux grandes avenues générales ont été explorées afin de produire ces outils, notamment l’approche logicielle et matérielle. Afin de raffiner et améliorer ces solveurs, de nombreuses techniques et heuristiques ont été proposées par la communauté de recherche. Le but final de ces outils a été de résoudre des problèmes de taille industrielle, ce qui a été plus ou moins accompli par les solveurs de nature logicielle. Initialement, le but de l’utilisation du matériel reconfigurable a été de produire des solveurs pouvant trouver des solutions plus rapidement que leurs homologues logiciels. Cependant, le niveau de sophistication de ces derniers a augmenté de telle manière qu’ils restent le meilleur choix pour résoudre SAT. Toutefois, les solveurs modernes logiciels n’arrivent toujours pas a trouver des solutions de manière efficace à certaines instances SAT. Le but principal de ce mémoire est d’explorer la résolution du problème SAT dans le contexte du matériel reconfigurable en vue de caractériser les ingrédients nécessaires d’un solveur SAT efficace qui puise sa puissance de calcul dans le parallélisme conféré par une plateforme FPGA. Le prototype parallèle implémenté dans ce travail est capable de se mesurer, en termes de vitesse d’exécution à d’autres solveurs (matériels et logiciels), et ce sans utiliser aucune heuristique. Nous montrons donc que notre approche matérielle présente une option prometteuse vers la résolution d’instances industrielles larges qui sont difficilement abordées par une approche logicielle.
Resumo:
Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention de la maîtrise en physiothérapie
Resumo:
CONTEXTE : La mortalité infantile a diminué au Canada depuis les années 1990 et 2000 mais nous ignorons si toutes les classes socioéconomiques ont bénéficié également de ce progrès. OBJECTIFS : La présente étude portait sur les différences entre les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson entre les différents quintiles de revenu des quartiers au Canada de 1991 à 2005. MÉTHODES : Le fichier couplé des naissances vivantes et des décès infantiles au Canada a été utilisé à l’exclusion des naissances survenues en Ontario, au Yukon, dans les Territoires du Nord-ouest et au Nunavut. Les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson ont été calculé par quintile de revenu des quartiers et par période (1991-1995, 1996-2000, 2001-2005). Les rapports de risque (RR) ont été calculés par quintile de revenu et période avec ajustement pour la province de résidence, l’âge de la mère, la parité, le sexe du nourrisson et les naissances multiples. RÉSULTATS : En zone urbaine, pour toute la période étudiée (1991- 2005), le quintile de revenu le plus pauvre avait un risque plus élevé de mortalité néonatale (RR ajusté 1,24; IC 95% 1,15-1,34), de mortalité postnéonatale (RR ajusté 1,58; IC 95% 1,41-1,76) et de mort subite du nourrisson (RR ajusté 1,83; IC 95% 1,49-2,26) par rapport au quintile le plus riche. Les taux de mortalité post néonatale et de mort subite du nourrisson ont décliné respectivement de 37 % et de 57 % de 1991- 1995 à 2001-2005 alors que le taux de mortalité néonatale n’a pas changé de façon significative. Cette diminution de la mortalité postnéonatale et de la mort subite du nourrisson a été observée dans tous les quintiles de revenu. CONCLUSION : Malgré une diminution de la mortalité postnéonatale et du syndrome de mort subite du nourrisson dans tous les quintiles de revenu, les inégalités subsistent au Canada. Ce résultat démontre le besoin de stratégies efficaces de promotion de la santé visant spécifiquement les populations vulnérables. MOTS CLÉS : mort subite du nourrisson; mortalité infantile; statut socioéconomique
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
Resumo:
Introduction & Objectifs : Pour assurer l’analgésie postopératoire, l’anesthésiste dispose, en plus des différentes classes de médicaments administrés par voie orale ou intraveineuse, de diverses techniques pour bloquer l’influx nerveux douloureux en administrant les anesthésiques locaux (AL) de manière centrale ou périphérique. La ropivacaïne (ROP), un AL à longue durée d’action, est un médicament de première intention partout dans le monde, en raison de sa grande efficacité et de son faible risque de toxicité. Contrairement à certains pays, la ROP n'est toujours pas indiquée au Canada pour la rachianesthésie (bloc central) en raison d'un manque de données probantes. Jusqu'à présent, les efforts de recherche ont essentiellement porté sur la sécurité ainsi que sur la durée d’action du médicament lorsqu’administré par voie spinale. De plus, les doses optimales de ROP pour l’anesthésie régionale périphérique ne sont pas encore précisément connues. La posologie devrait être adaptée au site d’administration ainsi qu’à l’intensité et la durée du stimulus produit par la chirurgie. Ultimement, cela permettrait aux cliniciens d’identifier le régime optimal en fonction des facteurs démographiques qui pourraient affecter la pharmacocinétique (PK) et la pharmacodynamie (PD) de l’AL (objectif global de ces travaux). Validation de la Méthode Analytique Manuscrit 1 : Une méthode analytique spécifique et sensible permettant de déterminer les concentrations plasmatiques de ROP a d’abord été optimisée et validée. Validation du Biomarqueur Manuscrit 2 : Nous avons ensuite mis au point et évalué la fiabilité d’une méthode quantitative basée sur la mesure du seuil de perception sensorielle (CPT) chez le volontaire sain. Ce test nécessite l’application d’un courant électrique transcutané qui augmente graduellement et qui, selon la fréquence choisie, est capable de stimuler spécifiquement les fibres nerveuses impliquées dans le cheminement de l’influx nerveux douloureux. Les résultats obtenus chez les volontaires sains indiquent que la mesure CPT est fiable, reproductible et permet de suivre l’évolution temporelle du bloc sensitif. Études cliniques Manuscrit 3 : Nous avons ensuite caractérisé, pendant plus de 72 h, l’absorption systémique de la ROP lorsqu’administrée pour un bloc du nerf fémoral chez 19 patients subissant une chirurgie du genou. Le modèle PK populationnel utilisé pour analyser nos résultats comporte une absorption biphasique durant laquelle une fraction de la dose administrée pénètre rapidement (temps d’absorption moyen : 27 min, IC % 19 – 38 min) dans le flux sanguin systémique pendant que l’autre partie, en provenance du site de dépôt, est redistribuée beaucoup plus lentement (demi-vie (T1/2) : 2.6 h, IC % 1.6 – 4.3 h) vers la circulation systémique. Une relation statistiquement significative entre l’âge de nos patients et la redistribution de l’AL suggère que la perméabilité tissulaire est augmentée avec l’âge. Manuscrit 4 : Une analyse PK-PD du comportement sensitif du bloc fémoral (CPT) a été effectuée. Le modèle développé a estimé à 20.2 ± 10.1 mg la quantité de ROP nécessaire au site d’action pour produire 90 % de l’effet maximal (AE90). À 2 X la AE90, le modèle prédit un début d’action de 23.4 ± 12.5 min et une durée de 22.9 ± 5.3 h. Il s’agit de la première étude ayant caractérisé le comportement sensitif d’un bloc nerveux périphérique. Manuscrit 5 : La troisième et dernière étude clinique a été conduite chez les patients qui devaient subir une chirurgie du genou sous rachianesthésie. Tout comme pour le bloc du nerf fémoral, le modèle PK le plus approprié pour nos données suggère que l’absorption systémique de la ROP à partir du liquide céphalo-rachidien est biphasique; c.à.d. une phase initiale (T1/2 : 49 min, IC %: 24 – 77 min) suivie (délai: 18 ± 2 min) d'une phase légèrement plus lente (T1/2 : 66 min, IC %: 36 – 97 min). L’effet maximal a été observé beaucoup plus rapidement, soit aux environs de 12.6 ± 4.9 min, avant de revenir aux valeurs de base 210 ± 55 min suivant l’administration de l’agent. Ces données ont permis d’estimer une AE50 de 7.3 ± 2.3 mg pour l'administration spinale. Conclusion : En somme, ces modèles peuvent être utilisés pour prédire l’évolution temporelle du bloc sensitif de l’anesthésie rachidienne et périphérique (fémorale), et par conséquent, optimiser l’utilisation clinique de la ROP en fonction des besoins des cliniciens, notamment en ce qui a trait à l’âge du patient.
Resumo:
La révision d’arthroplastie de la hanche en cas d’important déficit osseux acétabulaire peut être difficile. Les reconstructions avec cupule de très grand diamètre ou cupule « jumbo » (≥ 62 mm chez la femme et ≥ 66 mm chez l’homme) sont une option thérapeutique. Nous voulions évaluer la préservation et la restauration du centre de rotation de la hanche reconstruite en la comparant au coté controlatéral sain ou selon les critères de Pierchon et al. Nous voulions également évaluer la stabilité du montage à un suivi d’au moins 2 ans. Il s’agissait de 53 cas consécutifs de révision acétabulaire pour descellement non septique avec implantation d’une cupule jumbo sans ciment à l’Hôpital Maisonneuve-Rosemont. Le déficit osseux évalué selon la classification de Paprosky et al. Les cupules implantées avaient un diamètre moyen de 66 mm (62-81) chez les femmes et 68 mm (66-75) chez les hommes. L’allogreffe osseuse morcelée et massive était utilisée dans 34 et dans 14 cas respectivement. La cupule a été positionnée avec un angle d’inclinaison moyen de 41.3° (26.0-53.0). Le centre de rotation de la hanche reconstruite a été jugé satisfaisant dans 78% de cas sur l'axe médiolatéral, 71% sur l'axe craniopodal et amélioré dans 27% dans cet axe. Au recul moyen radiologique de 84.0 mois (24.0-236.4) et clinique de 91.8 mois (24.0 – 241.8): 6 cas étaient décédés, 3 perdus au suivi. On a observé le descellement radiologique dans un 1 cas, la luxation récidivante dans 5 cas et l’infection dans 4 cas. Le retrait de la cupule a été effectué dans 2 cas pour infection. L’ostéointégration des greffons osseux était complète dans tous les cas sauf 3. Les scores cliniques étaient pour le HHS de 82 +/-17, le WOMAC de 86 +/- 14 et le SF-12 physique de 46 +/- 12 et mental 53 +/-13. La cupule jumbo peut être considérée comme un moyen fiable pour gérer le déficit osseux dans les révisions acétabulaires. Elle permet de conserver ou d’améliorer la position du centre de rotation physiologique de la hanche. La fixation sans ciment favorise l’ostéointégration de la cupule et permet une stabilité à moyen terme. Le taux de complications est comparable ou inférieur à d'autres procédures de reconstruction.
Resumo:
En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique.
Resumo:
Ce mémoire de recherche a pour objectif d’obtenir une mesure approximative de la mortalité des hommes médecins au Québec retenus dans l’étude. En plus d’analyser l’évolution de la mortalité de ces médecins pendant les périodes 1993-1998, 1999-2004 et 2005-2010, leur mortalité est comparée à celle de l’ensemble de la population masculine québécoise. Nous comparons également la mortalité des médecins omnipraticiens à celle des médecins spécialistes. Les données utilisées dans le cadre de ce mémoire proviennent d’un fichier administratif du Collège des médecins du Québec, qui contient des informations concernant un certain nombre de médecins qui ont obtenu un permis pour pratiquer la médecine au Québec, sans égard à leur statut au sein du Collège à la date de l’émission du fichier. Ces données n’ont pas été collectées à des fins statistiques et ainsi le fichier présente certaines limitations qui ont restreint nos analyses de mortalité, notamment le fait qu’elles ne nous fournissent pas la population à risque de décéder durant chacune des périodes étudiées. Cependant, même étant consciente que des biais se produiraient, nous avons calculé deux estimations de l’exposition au risque de mourir chez les médecins, en essayant de pallier le plus possible les limites du fichier. À partir de la première méthode de calcul, nous avons estimé les taux de mortalité par groupes quinquennaux d’âge entre 40 et 75 ans pour les médecins inscrits au tableau des membres. En contrepartie, à partir de la deuxième méthode de calcul, nous avons obtenu des taux de mortalité pour les mêmes groupes d’âge pour les médecins de tous statuts confondus et enregistrés dans le fichier de données. Nous croyons à des mesures acceptables de la mortalité des hommes médecins en autant qu’elle soit analysée en tenant compte de toutes les limites des données. Les résultats obtenus démontrent une diminution de la mortalité des hommes médecins d’une période à l’autre, mais les différences ne sont significatives que pour les groupes d’âge à partir d’environ 60 ans, surtout lorsque les taux des périodes 1993-1998 et 2005-2010 sont comparés. De plus, pour toutes les périodes analysées, la mortalité de l’ensemble de la population masculine québécoise s’avère plus élevée que celle des hommes médecins enregistrés dans le fichier de données et cela pour les deux méthodes de calcul de l’exposition au risque de décéder considérées. Finalement, cette étude ne montre pas de différence significative entre la mortalité des hommes médecins omnipraticiens et celle des hommes médecins spécialistes.
Resumo:
Introduction: Plusieurs indices de qualité alimentaire globale ont été élaborés en misant sur la consommation de certains nutriments ou aliments, ou des groupes d’aliments. Les indices de la qualité alimentaire globale sont en mesure d’évaluer de manière intégrée les aspects recherchés d’une bonne alimentation. C’est dans ce cadre que le Canadian Healthy Eating Index (C-HEI) a été développé pour évaluer le degré auquel les apports alimentaires des individus rencontrent les consignes du guide alimentaire canadien et les Recommandations nutritionnelles canadiennes. Objectif: Evaluer les liens entre l’indice de la qualité alimentaire globale C-HEI calculé à partir de la moyenne de trois rappels alimentaires de 24 heures et des paramètres nutritionnels, anthropométriques et des indicateurs de santé au recrutement (T1) dans l’étude longitudinale québécoise sur la nutrition et le vieillissement réussi (NuAge). Méthodologie: Des analyses bivariées (coefficients de corrélation, tableaux croisés et la statistique khi deux) ont été réalisées afin de déterminer les associations entre le score total C-HEI et certaines variables nutritionnelles, anthropométriques et le nombre de maladies chroniques. Résultats et discussion: Les participants ont rencontré ou dépassé la plupart de leurs apports nutritionnels de référence. Le C-HEI n’a pas été fortement corrélé aux nutriments individuels (rs= 0,14-0,52, p<0,01). Le C-HEI total était significativement associé aux recommandations canadiennes pour l’apport en fibres (rs= 0,51), le % d’énergie provenant des lipides (rs=-0,60) et des acides gras saturés (rs= -0,59), p<0,01. De plus, la suffisance en protéines et en énergie est augmentée lorsqu’on passait du Q1 (plus faible) à Q4 (plus élevé) du C-HEI (p<0,05). De même, les proportions des sujets ayant des mesures anthropométriques associées aux risques accrus pour la santé sont diminuées en passant du Q1 au Q4 (p<0,05), témoignant ainsi des liens entre une alimentation de bonne qualité et la protection des risques de santé associés à l’embonpoint et à l’obésité. Conclusion : Les résultats de cette recherche ont fourni des preuves additionnelles sur le lien entre le score C-HEI et certains paramètres nutritionnels et anthropométriques d’intérêt, et ce, provenant des données alimentaires quantitatives colligées au sein d’une population âgée vivant dans la communauté.
Resumo:
De nombreux problèmes pratiques qui se posent dans dans le domaine de la logistique, peuvent être modélisés comme des problèmes de tournées de véhicules. De façon générale, cette famille de problèmes implique la conception de routes, débutant et se terminant à un dépôt, qui sont utilisées pour distribuer des biens à un nombre de clients géographiquement dispersé dans un contexte où les coûts associés aux routes sont minimisés. Selon le type de problème, un ou plusieurs dépôts peuvent-être présents. Les problèmes de tournées de véhicules sont parmi les problèmes combinatoires les plus difficiles à résoudre. Dans cette thèse, nous étudions un problème d’optimisation combinatoire, appartenant aux classes des problèmes de tournées de véhicules, qui est liée au contexte des réseaux de transport. Nous introduisons un nouveau problème qui est principalement inspiré des activités de collecte de lait des fermes de production, et de la redistribution du produit collecté aux usines de transformation, pour la province de Québec. Deux variantes de ce problème sont considérées. La première, vise la conception d’un plan tactique de routage pour le problème de la collecte-redistribution de lait sur un horizon donné, en supposant que le niveau de la production au cours de l’horizon est fixé. La deuxième variante, vise à fournir un plan plus précis en tenant compte de la variation potentielle de niveau de production pouvant survenir au cours de l’horizon considéré. Dans la première partie de cette thèse, nous décrivons un algorithme exact pour la première variante du problème qui se caractérise par la présence de fenêtres de temps, plusieurs dépôts, et une flotte hétérogène de véhicules, et dont l’objectif est de minimiser le coût de routage. À cette fin, le problème est modélisé comme un problème multi-attributs de tournées de véhicules. L’algorithme exact est basé sur la génération de colonnes impliquant un algorithme de plus court chemin élémentaire avec contraintes de ressources. Dans la deuxième partie, nous concevons un algorithme exact pour résoudre la deuxième variante du problème. À cette fin, le problème est modélisé comme un problème de tournées de véhicules multi-périodes prenant en compte explicitement les variations potentielles du niveau de production sur un horizon donné. De nouvelles stratégies sont proposées pour résoudre le problème de plus court chemin élémentaire avec contraintes de ressources, impliquant dans ce cas une structure particulière étant donné la caractéristique multi-périodes du problème général. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. La troisième partie propose un algorithme de recherche adaptative à grands voisinages où de nombreuses nouvelles stratégies d’exploration et d’exploitation sont proposées pour améliorer la performances de l’algorithme proposé en termes de la qualité de la solution obtenue et du temps de calcul nécessaire.