387 resultados para Caméra-Linéaire
Resumo:
L'anémie de l'enfant reste un problème d'importance pour la santé mondiale, malgré les décennies de recherche visant à comprendre son étiologie et à développer des interventions efficaces pour réduire sa prévalence et ses conséquences. Bien que les facteurs de risque individuels de l'anémie soient connus, y compris les facteurs liés à la malnutrition et à la morbidité, l'interaction entre lesdits facteurs est moins documentée dans des contextes où les enfants sont fréquemment exposés à plusieurs facteurs en même temps. Cette étude vise à documenter les efforts de lutte contre l'anémie du programme MICAH qui a été mis en oeuvre au Ghana, au Malawi et en Tanzanie. Ensuite, en utilisant les données relatives à la fois au processus et à l'évaluation colligées au cours du programme, elle vise à mieux comprendre les facteurs de risque d'anémie chez les jeunes enfants dans ces contextes et à comprendre comment les relations entre ces facteurs peuvent avoir changé au fil du temps lors de l'intervention. Spécifiquement, cette étude vérifie s‘il y a des preuves d'une réduction de la vulnérabilité des enfants aux facteurs de risque associés à l'anémie dans chaque contexte. Un examen de la documentation a été réalisé afin de caractériser le contexte du programme et des interventions, leur l'intensité et étendue. Les données transversales sur la nutrition et l'état de santé des enfants âgés de 24 à 59 mois (N = 2405) obtenues en 2000 et 2004 à partir des enquêtes d'évaluation du programme MICAH au Ghana, au Malawi et en Tanzanie, ont été utilisées pour décrire la prévalence de l'anémie. Les modèles polynomiaux de régression logistique et linéaire ont été utilisés pour estimer les risques d'anémie légère et d'anémie modérée / sévère et les niveaux d‘hémoglobine associés à des groupes de variables. Les estimations du risque attribuable à une population (RAP) ont aussi été calculées. Une anémie (Hb <110 g/L) a touché au moins 60% des enfants dans les trois pays; l'anémie modérée / sévère (<100 g/L) constituait la majorité des cas. Une forte diminution de l'anémie a été observée entre 2000 et 2004 au Ghana, mais seulement une légère baisse au Malawi et en Tanzanie. Le risque d'anémie modérée / sévère était associé au retard de croissance chez les enfants du Ghana (OR 2,68, IC 95% 1,70-4,23) et du Malawi (OR 1,71; 1,29-2,27) mais pas de la Tanzanie (OR 1,29; 0,87- 1,92). Le paludisme et les maladies récentes étaient associées à une hémoglobine plus basse. Une atténuation de cette association en 2004 a été observée seulement au Malawi pour le paludisme et au Ghana pour les maladies récentes. Le risque d'anémie modérée / sévère était 44% moindre chez les enfants âgés de 48 à 59 mois comparativement aux enfants de 24 à 35 mois dans les trois pays et cela n'a pas changé entre 2000 et 2004. Les RAP estimés ont montré qu‘environ un cinquième des cas d‘anémie modérée à sévère était attribuable au retard de croissance au Ghana et Malawi, mais pas en Tanzanie. Des RAP moindres et dépendants des contextes ont été trouvés pour le paludisme et les maladies récentes. Dans ces zones d‘intervention intégrées de santé et de nutrition la relation de certains facteurs de risque à l'anémie se modifia avec le temps. Le retard de croissance est resté toutefois un facteur de risque indépendant et non mitigé de l'anémie. Une réduction efficace des causes de la malnutrition chronique est nécessaire afin de réduire la vulnérabilité des enfants et de garantir un impact maximum des programmes de lutte contre l'anémie. Une mitigation de l'impact du paludisme peut par contre être visée dans les régions endémiques.
Resumo:
Problématique : La satisfaction des patients et la qualité de vie reliée à la santé bucco-dentaire (OHRQoL) sont deux mesures de résultats fréquemment utilisées durant les études cliniques. Néanmoins, chez les patients totalement édentés, les évidences scientifiques relatives au niveau de relation entre ces deux mesures sont faibles. De plus, on ignore toujours quels éléments de la satisfaction des patients relativement à leurs prothèses partagent la meilleure relation avec la OHRQoL. Objectifs : Déterminer, chez les patients totalement édentés, s’il existe un lien entre leur satisfaction de leurs prothèses et leur OHRQoL et identifier les déterminants de satisfaction qui démontrent le meilleur niveau de relation avec la OHRQoL. Méthodologie : Les données provenant de 255 patients totalement édentés qui ont participé à une étude randomisée et contrôlée ont été utilisées. La OHRQoL a été évaluée à l’aide du questionnaire Oral Health Impact Profile (OHIP-20). Le McGill Denture Satisfaction Instrument a été utilisé pour estimer la satisfaction des patients. Ces mesures ont été prises au temps initial, à 6 mois et à 12 mois suivants la mise en bouche des prothèses. Des analyses statistiques de régression linéaire simples et multiples ont été utilisées afin d’évaluer la relation entre les deux mesures. Résultats : Une relation positive et considérable existe entre la satisfaction des patients totalement édentés et leur OHRQoL. La difficulté masticatoire (P = .005) et la condition buccale (P = .002) sont les éléments de la satisfaction qui possèdent le meilleur lien avec la OHRQoL. Ces deux facteurs expliquent 46.4% (P = .0001) de la variance dans l’amélioration d’OHIP suivant un traitement prosthodontique. La relation décrite est dépendante du temps, mais pas du type de traitement ni des variables sociodémographiques. Conclusions : Dans les limites de l’étude, il est conclu qu’une relation positive existe entre la satisfaction des patients et leur OHRQoL. La difficulté masticatoire et la condition buccale sont les deux éléments de la satisfaction les plus importants.
Resumo:
Le benzo-a-pyrène (BaP) est un cancérogène reconnu pour l'homme, contaminant présent dans notre environnement. Il cause des dommages à l'ADN que nous avons mesurés dans les lymphocytes exposés à de faibles concentrations de BaP, provenant de 20 jeunes volontaires non fumeurs et en santé. Suite à l’exposition, la fréquence des micronoyaux (MN) augmente significativement et décrit une courbe dose-réponse non linéaire, suggérant le déclenchement du processus de détoxification et la réparation de l’ADN. Des différences entre les individus et entre les sexes sont présentes dans la réponse génotoxique produite par le BaP. Le test des aberrations chromosomiques montre que le pourcentage de chromosomes cassés augmente significativement dans les cellules exposées au BaP. Combinés avec l'augmentation de la fréquence des MN, nos résultats confirment l'effet clastogène du BaP déjà rapporté dans la littérature. L’hybridation in situ en fluorescence (FISH) des MN avec une sonde pancentromérique est aussi utilisée pour établir leur mécanisme de formation. La FISH révèle que la majorité des MN formés après une exposition au BaP contient un centromère et plus, ce qui est significativement différent de la condition non exposée. Plus précisément, dans nos conditions expérimentales, les MN induits par le BaP contiennent surtout trois centromères et plus, indiquant également la présence d'un effet aneugène. L'effet clastogène du BaP est relié à son rôle d'initiateur dans la cancérogenèse, alors que l'effet aneugène le relierait à l'étape de progression. Ces résultats sont importants puisque l'exposition aux composés de la classe du BaP est de longue durée (cigarette, air pollué).
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.
Resumo:
Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.
Resumo:
Ce mémoire propose une analyse sémio-narrative d’un corpus de dix-neuf contes merveilleux recueillis auprès des conteurs canadiens-français et canadiens-hurons par l’anthropologue Charles-Marius Barbeau, au début du XXe siècle. Après avoir passé en revue les principales théories dans l’approche sémiotique du conte à partir de Vladimir Propp jusqu’à nos jours, nous avons procédé à une étude narrative du corpus selon la méthode du grand folkloriste russe : cela nous a permis d’en montrer la valeur exceptionnelle mais aussi les limites. Nous avons constaté ainsi que le travail sur un corpus inédit peut mener à l’identification de nouveaux éléments dans la structure du conte merveilleux. En poursuivant nos recherches sur les dix-neuf contes recueillis par Barbeau, nous sommes passée du schéma linéaire, syntagmatique de Propp aux modèles logiques de ses continuateurs, particulièrement celui élaboré par Guy Laflèche. Nos analyses ont mis en évidence non seulement le fait que la structure en miroir est un modèle valide auquel une partie des contes merveilleux se plie parfaitement (d’emblée l’exclusivité du schéma de Propp est mise en question, sinon infirmée), mais aussi que tout conte merveilleux est exceptionnellement organisé, structuré (ce qui confirme la théorie de Claude Bremond conformément à laquelle le récit narratif est une alternance de dégradations et d’améliorations). Enfin, la dernière partie du mémoire est une analyse sémio-discursive de notre corpus qui, au lieu d’être une simple accumulation de listes de mots, d’expressions et de figures, tente d’aborder la structure idéologique, grâce à une étude en parallèle d’un conte du corpus et de deux versions littéraires.
Resumo:
Thèse réalisée en cotutelle avec l'Université d'Avignon.
Resumo:
Le benzo-a-pyrène (BaP) est un hydrocarbure aromatique polycyclique (HAP) cancérogène pour l’homme, qui contamine toutes les sphères de notre environnement. Son métabolite, le BaP-7,8-diol-9,10-époxyde (BPDE) est considéré comme son cancérogène ultime. Le BPDE se lie à l’ADN, formant des adduits qui doivent être réparés et qui seraient responsables des dommages à l’ADN et de la cancérogenèse induite par le BaP. Les adduits BPDE-ADN et les dommages à l’ADN (bris simple-brin [BSB] à l’ADN, aberrations chromosomiques [AC], échanges entre chromatides-sœurs [ÉCS] et micronoyaux [MN]) ont été mesurés dans les lymphocytes humains exposés à de faibles concentrations de BaP, provenant de jeunes volontaires non-fumeurs et en santé. Suite à l’exposition au BaP, le niveau d’adduits BPDE-ADN et la fréquence des AC et des MN augmentent significativement, puis diminuent aux concentrations les plus élevées de BaP testées, suggérant une induction du métabolisme de phase II du BaP. Lors de la mesure des ÉCS, nous obtenons une courbe dose-réponse linéaire, indiquant la production d’un autre type de lésions devant être réparées par le système de réparation par recombinaison homologue. Ces lésions pourraient être des bris à l’ADN ou des bases oxydées (8-OH-dG), ce qui est suggéré par l’analyse des corrélations existant entre nos biomarqueurs. Par ailleurs, la comparaison de la courbe dose-réponse des hommes et des femmes montre que des différences existent entre les sexes. Ainsi, les ÉCS, les AC et les MN sont significativement augmentés chez les hommes à la plus faible concentration de BaP, alors que chez les femmes cette augmentation, quoique présente, est non significative. Des différences interindividuelles sont également observées et sont plus importantes pour les adduits BPDE-ADN, les MN et les AC, alors que pour les ÉCS elles sont minimes. Les analyses statistiques effectuées ont permis d’établir que quatre facteurs (niveau d’exposition au BaP, adduits BPDE-ADN, fréquence des AC et nombre de MN par cellule micronucléée) expliquent jusqu’à 59 % de la variabilité observée dans le test des ÉCS, alors qu’aucun facteur significatif n’a pu être identifié dans le test des AC et des MN. L’analyse du mécanisme de formation de nos biomarqueurs précoces permet de suggérer que les bris à l’ADN et les bases oxydées devraient être classées comme biomarqueurs de dose biologique efficace, au sein des biomarqueurs d’exposition, dans le continuum exposition-maladie du BaP, étant donné qu’ils causent la formation des biomarqueurs de génotoxicité (ÉCS, AC et MN). Par ailleurs, le test des AC et des MN ont permis de confirmer l’action clastogénique du BaP en plus de mettre en évidence des effets aneugènes affectant surtout la ségrégation des chromosomes lors de la division cellulaire. Ces effets aneugènes, reliés à l’étape de progression dans la cancérogenèse, pourraient être particulièrement importants puisque l’exposition au BaP et aux HAP est chronique et dure plusieurs années, voire des décennies. La compréhension des mécanismes régissant la formation des biomarqueurs étudiés dans cette étude, ainsi que des relations existant entre eux, peut être appliquée à de nombreux contaminants connus et émergents de notre environnement et contribuer à en évaluer le mode d’action.
Resumo:
La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues.
Resumo:
Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.
Resumo:
À cause de la nature complexe et non linéaire de leurs opérations, les salles d’urgence (SU) constituent des entités organisationnelles uniques dans le domaine de la santé. Les SU subissent des pressions accrues résultant des dynamiques des sociétés contemporaines et de leurs systèmes de santé, et font face ainsi à des défis uniques comme l’engorgement. Contrairement aux croyances dominantes sur le phénomène, le présent travail de recherche établit que ce problème est en réalité une manifestation de pauvre performance systémique plutôt qu’une faillite opérationnelle. Alors, pour les SU, la performance organisationnelle relève une importance incontestable. En effet, l’étude de la performance organisationnelle est un sujet de recherche qui intéresse de nombreux chercheurs des services de santé. Il s’agit, néanmoins, d’un concept historiquement difficile à définir à cause de son caractère complexe, multidimensionnel et paradoxal. Le modèle EGIPSS, basé sur la théorie de l’action sociale de Parsons, est capable de saisir cette complexité et constitue un cadre conceptuel robuste et exhaustif, pouvant s’adapter à des contextes divers. Ce mémoire adopte le modèle EGIPSS pour présenter un outil global et intégré d’évaluation de la performance organisationnelle de la salle d’urgences de l’Hôpital Général Régional 46 à Guadalajara, au Mexique. Cet instrument est conçu pour prendre en compte spécifiquement les particularités propres des SU, ainsi que les caractéristiques organisationnelles uniques de l'Hôpital Général Régional 46. Enfin, le développement de ce projet de mémoire contribue aux efforts d’amélioration continue de la performance de cet établissement, et enrichit les connaissances sur les urgences en tant qu’unités organisationnelles.
Resumo:
Cette thèse s'intéresse à des aspects du tournage, de la projection et de la perception du cinéma stéréo panoramique, appelé aussi cinéma omnistéréo. Elle s'inscrit en grande partie dans le domaine de la vision par ordinateur, mais elle touche aussi aux domaines de l'infographie et de la perception visuelle humaine. Le cinéma omnistéréo projette sur des écrans immersifs des vidéos qui fournissent de l'information sur la profondeur de la scène tout autour des spectateurs. Ce type de cinéma comporte des défis liés notamment au tournage de vidéos omnistéréo de scènes dynamiques, à la projection polarisée sur écrans très réfléchissants rendant difficile l'estimation de leur forme par reconstruction active, aux distorsions introduites par l'omnistéréo pouvant fausser la perception des profondeurs de la scène. Notre thèse a tenté de relever ces défis en apportant trois contributions majeures. Premièrement, nous avons développé la toute première méthode de création de vidéos omnistéréo par assemblage d'images pour des mouvements stochastiques et localisés. Nous avons mis au point une expérience psychophysique qui montre l'efficacité de la méthode pour des scènes sans structure isolée, comme des courants d'eau. Nous proposons aussi une méthode de tournage qui ajoute à ces vidéos des mouvements moins contraints, comme ceux d'acteurs. Deuxièmement, nous avons introduit de nouveaux motifs lumineux qui permettent à une caméra et un projecteur de retrouver la forme d'objets susceptibles de produire des interréflexions. Ces motifs sont assez généraux pour reconstruire non seulement les écrans omnistéréo, mais aussi des objets très complexes qui comportent des discontinuités de profondeur du point de vue de la caméra. Troisièmement, nous avons montré que les distorsions omnistéréo sont négligeables pour un spectateur placé au centre d'un écran cylindrique, puisqu'elles se situent à la périphérie du champ visuel où l'acuité devient moins précise.
Resumo:
Les expériences de spectroscopie ont été réalisées en collaboration avec Jean-François Allard du groupe de Denis Morris de l'Université de Sherbrooke.
Resumo:
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat.