907 resultados para assistenza, ospedaliera, intensità, cura, monitoraggio, modularità, integrazione, IHE


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que le droit nord-américain des sociétés a longtemps adopté une lecture restrictive de l’entreprise en faisant de l’actionnaire son maillon essentiel, le paysage juridique subi à l’heure actuelle de profondes mutations. En dépit d’une intensité différente, l’entreprise canadienne et l’entreprise américaine s’ouvrent, sous l’influence combinée de la jurisprudence et de la doctrine (qui ne font que rejoindre l’histoire), de plus en plus à leur environnement et font une place grandissante au développement durable, à la responsabilité sociale des entreprises et à la stakeholder theory. Cette étude démontre ad fine le rôle essentiel qu’est amené à jouer l’idée de collectivité. Aussi positives que soient les conséquences attachées à cette observation en termes de construction d’un futur viable dans le long terme, celle-ci est source de questionnements et impose de repenser non seulement le dessin des nouvelles frontières de l’entreprise, mais encore la signification du concept de performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que plusieurs chercheurs aient analysé l'influence de divers facteurs sur l'intensité des conflits ethniques, il a été constaté que l'identité ethnique elle-même n'a jamais été correctement examinée. Ce phénomène est essentiellement dû à ce que nous croyons être une classification inexacte des groupes ethniques. Nous proposons une nouvelle méthode de catégorisation pour les identités ethniques présentant que la religion, la langue et la race forment les distinctions les plus précises et nous les classifions alors comme les identités ethniques fondamentales. Subséquemment, une étude comparative de ces identités ethniques a été entreprise avec l'utilisation de deux bases de données différentes: l’ensemble de données Battle Deaths qui est associé avec la base de données sur les conflits armés de l’UCDP/PRIO et la base de données Minorities at Risk. Les résultats, dans leur ensemble, ont indiqué que les identités ethniques avec des attachements émotifs plus intenses mènent à une plus grande intensité de conflit. Les conflits ethniques fondamentaux ont démontré une tendance à mener à des conflits plus intenses que les conflits ethniques non-fondamentaux. De plus, la similitude parmi les groupes ethniques tend à affaiblir l'intensité des conflits. En outre, l'étude a également conclu que plus le nombre d'identités ethnique fondamentales impliquées dans un conflit est grand, plus le conflit sera intense. Cependant, les résultats ne pouvaient pas déterminer une différence conséquente parmi l’influence relative des trois identités ethniques fondamentales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : Plusieurs expositions résidentielles ont été associées à la prévalence de l’asthme. Toutefois, peu d’études populationnelles ont examiné la relation entre ces facteurs et un asthme mal maîtrisé chez l’enfant. Objectif : Évaluer les facteurs environnementaux résidentiels associés à un asthme mal maîtrisé chez les enfants montréalais âgés de 6 mois à 12 ans. Méthodes : Les données sont tirées d’une enquête transversale menée en 2006 sur la santé respiratoire d’enfants montréalais âgés de 6 mois à 12 ans (n=7980). La maîtrise de l’asthme a été évaluée chez les enfants avec un asthme actif au cours de l’année précédent l’enquête (n=980) selon des critères recommandés par les lignes directrices canadiennes sur l’asthme. Les rapports de prévalence (RP) et les intervalles de confiance (IC) à 95 % caractérisant l’association entre les facteurs environnementaux, incluant la présence d’allergènes, d’irritants, d’humidité et de moisissures, et le risque d’un asthme mal maîtrisé ont été estimés à l’aide de modèles de régression log-binomiale. Les sujets avec une maîtrise acceptable de l’asthme ont été comparés à ceux dont la maladie était mal maîtrisée. Résultats : Des 980 enfants avec un asthme actif au cours de l’année précédant l’enquête, 36 % ont rencontré au moins un des critères des lignes directrices canadiennes suggérant un asthme mal maîtrisé. Les caractéristiques de la population associées à un asthme mal maîtrisé sont : un plus jeune âge, des antécédents d’atopie parentale, une faible scolarisation de la mère, une mère d’origine étrangère et le statut de locataire. Après ajustement pour l’âge de l’enfant, l’atopie parentale et l’exposition à la fumée de tabac au domicile, une intensité de trafic élevée à proximité du domicile (RP, 1,35; IC 95 %, 1,00-1,81) et la localisation au sous-sol de la chambre de l’enfant ou de sa résidence (RP 1,30; IC 95 %, 1,01-1,66) étaient associées à un risque accru d’asthme mal maîtrisé. Conclusions : Une maîtrise sous-optimale de l’asthme semble être associée à l’exposition au trafic routier et à des conditions d’humidité excessive et probablement de moisissures. Cette dernière exposition étant plus fréquente, elle a probablement un plus grand impact en matière de santé publique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université Bordeaux 1 (France)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon certains modèles évolutionnistes, les femmes seraient davantage affectées par l’infidélité émotionnelle de leur partenaire masculin que par son infidélité sexuelle. Les mécanismes psychologiques responsables auraient évolué pendant notre passé de chasseur-cueilleur de façon à assurer à la femme un accès exclusif aux ressources économiques provenant du partenaire. Or la situation économique des femmes d’aujourd’hui a considérablement changé depuis cette époque, plusieurs d’entre-elles étant indépendantes financièrement. Dans la présente recherche, nous testons l’hypothèse que les femmes qui sont indépendantes financièrement sont moins intensément, ou moins rapidement, jalouses que les femmes qui dépendent financièrement de leur partenaire. Nous cherchons aussi à savoir si le nombre d’enfants, ou certains traits de personnalité ont une influence sur la jalousie. L’échantillon était constitué d’une soixantaine de femmes et les données proviennent de questionnaires et de mises en situation fictives. Nos résultats ne supportent pas l’hypothèse principale, les divers sous-groupes de femmes étant jalouses à la même intensité. Nous considérons divers facteurs pouvant expliquer l’absence de différences, par exemple, la possibilité que certains aspects de la relation de couple puissent cacher l’effet de la situation économique des femmes. D’autres résultats montrent une différence significative dans l’intensité de la jalousie selon l’identité de la personne en relation avec le partenaire (ancienne versus nouvelle amie). Ces résultats sont aussi évalués dans une perspective évolutionniste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif: Cette étude visait à évaluer les effets aigus d’une session d’exercice aérobie sur la performance à une tâche sollicitant les fonctions cognitives exécutives et à déterminer la durée de ces effets. Méthode: Quarante-huit participants universitaires ont été divisés en deux groupes expérimentaux et un groupe contrôle. L'intervention expérimentale consistait à 30 minutes d'exercice à une intensité sous-maximale sur tapis roulant. Les deux groupes expérimentaux ont complété la tâche de Stroop soit immédiatement (groupe 1) ou 10 minutes (groupe 2) après la session d’exercice. Le groupe contrôle a complété la même tâche cognitive mais sans pratique d'exercice. Résultats: Les analyses statistiques indiquent qu’il n’y a pas d’effet d’amélioration de la performance cognitive et ce, peu importe le délai d’exécution de la tâche de Stroop suite à l’exercice. Conclusion : Une seule session d’exercice n’a aucun effet sur les fonctions exécutives. Les limites de l’étude sont présentées en relation avec les résultats obtenus. Les implications des résultats sont discutées en terme de retombées pour les recherches futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire vise à recenser les avantages et les inconvénients de l'utilisation du langage de programmation fonctionnel dynamique Scheme pour le développement de jeux vidéo. Pour ce faire, la méthode utilisée est d'abord basée sur une approche plus théorique. En effet, une étude des besoins au niveau de la programmation exprimés par ce type de développement, ainsi qu'une description détaillant les fonctionnalités du langage Scheme pertinentes au développement de jeux vidéo sont données afin de bien mettre en contexte le sujet. Par la suite, une approche pratique est utilisée en effectuant le développement de deux jeux vidéo de complexités croissantes: Space Invaders et Lode Runner. Le développement de ces jeux vidéo a mené à l'extension du langage Scheme par plusieurs langages spécifiques au domaine et bibliothèques, dont notamment un système de programmation orienté objets et un système de coroutines. L'expérience acquise par le développement de ces jeux est finalement comparée à celle d'autres développeurs de jeux vidéo de l'industrie qui ont utilisé Scheme pour la création de titres commerciaux. En résumé, l'utilisation de ce langage a permis d'atteindre un haut niveau d'abstraction favorisant la modularité des jeux développés sans affecter les performances de ces derniers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les microcantileviers fonctionnalisés offrent une plateforme idéale pour la nano- et micro-mécanique et pour le développement de (bio-) capteurs tres sensible. Le principe d’opération consiste dans des évènements physicochimiques qui se passent du côté fonctionnalisé du microcantilevier induisant une différence de stress de surface entre les deux côtés du cantilevier qui cause une déflexion verticale du levier. Par contre, les facteurs et les phénomènes interfacials qui régissent la nature et l'intensité du stress de surface sont encore méconnus. Pour éclaircir ce phénomène, la première partie de cette thèse porte sur l'étude des réactions de microcantileviers qui sont recouverts d'or et fonctionnalisés par une monocouche auto-assemblée (MAA) électroactive. La formation d'une MAA de ferrocènylundécanethiol (FcC11SH) à la surface d'or d'un microcantilevier est le modèle utilisé pour mieux comprendre le stress de surface induit par l’électrochimie. Les résultats obtenus démontrent qu'une transformation rédox de la MAA de FcC11SH crée un stress de surface qui résulte dans une déflexion verticale du microcantilevier. Dépendamment de la flexibilité du microcantilevier, cette déflexion peut varier de quelques nanomètres à quelques micromètres. L’oxydation de cette MAA de FcC11SH dans un environnement d'ions perchlorate génère un changement de stress de surface compressive. Les résultats indiquent que la déflexion du microcantilevier est due à une tension latérale provenant d'une réorientation et d'une expansion moléculaire lors du transfért de charge et de pairage d’anions. Pour vérifier cette hypothèse, les mêmes expériences ont été répéteés avec des microcantileviers qui ont été couverts d'une MAA mixte, où les groupements électroactifs de ferrocène sont isolés par des alkylthiols inactifs. Lorsqu’un potentiel est appliqué, un courant est détecté mais le microcantilevier ne signale aucune déflexion. Ces résultats confirment que la déflexion du microcantilevier est due à une pression latérale provenant du ferrocènium qui se réorganise et qui crée une pression sur ses pairs avoisinants plutôt que du couplage d’anions. L’amplitude de la déflexion verticale du microcantilevier dépend de la structure moléculaire de la MAA et du le type d’anion utilisés lors de la réaction électrochimique. Dans la prochaine partie de la thèse, l’électrochimie et la spectroscopie de résonance de plasmon en surface ont été combinées pour arriver à une description de l’adsorption et de l’agrégation des n-alkyl sulfates à l’interface FcC11SAu/électrolyte. À toutes les concentrations de solution, les molécules d'agent tensio-actif sont empilées perpendiculairement à la surface d'électrode sous forme de monocouche condensé entrecroisé. Cependant, la densité du film spécifiquement adsorbé s'est avérée être affectée par l'état d'organisation des agents tensio-actifs en solution. À faible concentration, où les molécules d'agent tensio-actif sont présentes en tant que monomères solvatés, les monomères peuvent facilement s'adapter à l’évolution de la concentration en surface du ferrocènium lors du balayage du potential. Cependant, lorsque les molécules sont présentes en solution en tant que micelles une densité plus faible d'agent tensio-actif a été trouvée en raison de l'incapacité de répondre effectivement à la surface de ferrocenium générée dynamiquement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La divison cellulaire asymétrique est un processus essentiel qui permet aux cellules souches de s’auto-renouveller et de produire une cellule fille destinée à la différenciation. La lignée germinale de C. elegans, totipotente et immortelle, est une lignée de cellules souches qui contient des organites ribonucléoprotéiques appelés granules P. Au cours du développement ces derniers sont toujours localisés spécifiquement dans les cellules précurseurs de la lignée germinals, suggérant qu’ils sont des déterminants de la lignée germinale. De façon intéressante, des granules ribonucléoprotéiques, comme les P bodies impliqués dans le contrôle post-transcriptionnel, ont été observés chez tous les organismes. Néanmoins, la fonction précise des granules P de C. elegans est inconnue. Récemment, notre laboratoire a montré que NHL-2, un homologue de Mei-P26 de Drosophile, colocalise avec les granules P dans des embryons précoces et joue un rôle dans la division cellulaire asymétrique et dans la polarité cellulaire. Tous les granules P contiennent NHL- 2, ce qui nous a mené à poser l’hypothèse que NHL-2 régule la biogenèse et la fonction des granules P. Nous avons testé cette hypothèse par imagerie et quantification de l'intensité de PGL-1, un composant essentiel des granules P, dans des embryons fixés. Nos résultats montrent que dans des embryons mutants pour nhl-2 il y a une réduction du nombre de granules P, de l'intensité de fluorescence moyenne (IFM) et de l'intensité de fluorescence total (IFT) de PGL-1. Une analyse plus poussée a montré qu'il existe deux populations distinctes d’embryons mutants pour nhl-2 : l’une présente une intensité de PGL-1 comparable à celle d’une population sauvage alors que le second groupe présente une forte réduction des quantités de PGL-1 et est comparable à des mutants pour pgl-1. Cette variabilité est aussi observée dans le phénotype de stérilité de nhl-2 mutant à des températures élevées. Globalement, nos résultats suggèrent que la perte de fonction de NHL-2 perturbe la prolifération des cellules germinales ainsi que la formation et/ou la stabilité des granules P au cours des étapes précoces du développement des précurseurs de la lignée germinals. D’autre part, ils suggèrent que la fonction de NHL-2 pourrait être partiellement redondants avec les autres régulateurs de la stabilité des granules P. Mots-clés : Granules P, NHL-2, Cellules germinals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation