988 resultados para Méthodes polyédrales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration présenté à Isabelle Gagnon dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un contexte de grandes transformations économiques imposées par la mondialisation, le développement d’innovations et la financiarisation de l’économie ont profondément atteint les villes mono industrielles de la période fordiste. L’industrie automobile, grandement influencée par les restructurations économiques globales, a elle aussi été profondément touchée. Ce faisant, les paysages urbains des villes dépendantes de cette industrie, comme Windsor en Ontario, ont été construits et détruits par le processus de destruction créative, dont nous soulignons la composante spatiale. La structure paysagère de Windsor s’est ainsi transformée : alors que des aires importantes dans différents quartiers attendent d’être réinvesties, donnant lieu aux paysages abandonnés, d’autres paysages sont créés. Cette recherche est basée sur l’étude de trois quartiers bordant la Rivière Détroit ayant subi d’importants changements dans leurs paysages. L’objectif principal de ce mémoire est donc de déterminer comment le processus de destruction créative s’opère à Windsor et quels en sont les impacts spatiaux. Afin de parvenir à cet objectif, des observations du paysage avec la création du répertoire photographique, accompagnées d’entrevues directes, ont été les méthodes privilégiées La recherche a permis de déterminer que le processus de destruction créative a lieu dans des contextes de déclin, mais également de croissance. Avec les restructurations économiques globales de l’industrie automobile, les paysages de Windsor se sont créés, déstructurés, et parfois restructurés, grâce aux interventions des acteurs locaux. Face à l’abandon progressif de certains espaces, ces acteurs ont dû réfléchir à de nouvelles stratégies en réponse aux transformations paysagères, comme le néolibéralisme urbain. Nous avons ainsi pu conclure que la destruction créative des paysages est donc en relation avec les processus économiques globaux et négociée par les acteurs locaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

CONTEXTE : La mortalité infantile a diminué au Canada depuis les années 1990 et 2000 mais nous ignorons si toutes les classes socioéconomiques ont bénéficié également de ce progrès. OBJECTIFS : La présente étude portait sur les différences entre les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson entre les différents quintiles de revenu des quartiers au Canada de 1991 à 2005. MÉTHODES : Le fichier couplé des naissances vivantes et des décès infantiles au Canada a été utilisé à l’exclusion des naissances survenues en Ontario, au Yukon, dans les Territoires du Nord-ouest et au Nunavut. Les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson ont été calculé par quintile de revenu des quartiers et par période (1991-1995, 1996-2000, 2001-2005). Les rapports de risque (RR) ont été calculés par quintile de revenu et période avec ajustement pour la province de résidence, l’âge de la mère, la parité, le sexe du nourrisson et les naissances multiples. RÉSULTATS : En zone urbaine, pour toute la période étudiée (1991- 2005), le quintile de revenu le plus pauvre avait un risque plus élevé de mortalité néonatale (RR ajusté 1,24; IC 95% 1,15-1,34), de mortalité postnéonatale (RR ajusté 1,58; IC 95% 1,41-1,76) et de mort subite du nourrisson (RR ajusté 1,83; IC 95% 1,49-2,26) par rapport au quintile le plus riche. Les taux de mortalité post néonatale et de mort subite du nourrisson ont décliné respectivement de 37 % et de 57 % de 1991- 1995 à 2001-2005 alors que le taux de mortalité néonatale n’a pas changé de façon significative. Cette diminution de la mortalité postnéonatale et de la mort subite du nourrisson a été observée dans tous les quintiles de revenu. CONCLUSION : Malgré une diminution de la mortalité postnéonatale et du syndrome de mort subite du nourrisson dans tous les quintiles de revenu, les inégalités subsistent au Canada. Ce résultat démontre le besoin de stratégies efficaces de promotion de la santé visant spécifiquement les populations vulnérables. MOTS CLÉS : mort subite du nourrisson; mortalité infantile; statut socioéconomique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Pour les patients atteints d’une polyarthrite rhumatoïde débutante (PARD), l’utilisation de médicaments antirhumatismaux à longue durée d’action améliore les résultats pour les patients de manière significative. Les patients traités par un rhumatologue ont une plus grande probabilité de recevoir des traitements et donc d’avoir de meilleurs résultats de santé. Toutefois, les délais observés entre le début des symptômes et une première visite avec un rhumatologue sont souvent supérieurs à la recommandation de trois mois énoncée par les guides de pratiques. Au Québec, le temps d’attente pour voir un rhumatologue à la suite d’une demande de consultation est généralement long et contribue aux délais totaux. Objectifs : Nous avons évalué la capacité d’un programme d’accès rapide avec un triage effectué par une infirmière à correctement identifier les patients avec PARD et à réduire leur temps d’attente, dans le but d’améliorer le processus de soin. Méthodes : Une infirmière a évalué tous les nouveaux patients référés en 2009 et 2010 dans une clinique de rhumatologie située en banlieue de Montréal. Un niveau de priorité leur a été attribué sur la base du contenu de la demande de consultation, de l’information obtenue à la suite d’une entrevue téléphonique avec le patient et, si requis, d’un examen partiel des articulations. Les patients avec PARD, avec une arthrite inflammatoire non différentiée, ou atteints d’une autre pathologie rhumatologique aiguë étaient priorisés et obtenaient un rendez-vous le plus rapidement possible. Les principales mesures de résultat étudiées étaient la validité (sensibilité et spécificité) du triage pour les patients atteints de PARD ainsi que les délais entre la demande de consultation et la première visite avec un rhumatologue. Résultats : Parmi les 701 patients nouvellement référés, 65 ont eu un diagnostic final de PARD. Le triage a correctement identifié 85,9% de ces patients et a correctement identifié 87,2% des patients avec l’une des pathologies prioritaires. Le délai médian entre la demande de consultation et la première visite était de 22 jours pour les patients atteints de PARD et de 115 pour tous les autres. Discussion et conclusion : Ce programme d’accès rapide avec triage effectué par une infirmière a correctement identifié la plupart des patients atteints de PARD, lesquels ont pu être vus rapidement en consultation par le rhumatologue. Considérant qu’il s’agit d’un programme qui requiert beaucoup d’investissement de temps et de personnel, des enjeux de faisabilités doivent être résolus avant de pouvoir implanter un tel type de programme dans un système de soins de santé ayant des ressources très limitées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De plus en plus de recherches sur les Interactions Humain-Machine (IHM) tentent d’effectuer des analyses fines de l’interaction afin de faire ressortir ce qui influence les comportements des utilisateurs. Tant au niveau de l’évaluation de la performance que de l’expérience des utilisateurs, on note qu’une attention particulière est maintenant portée aux réactions émotionnelles et cognitives lors de l’interaction. Les approches qualitatives standards sont limitées, car elles se fondent sur l’observation et des entrevues après l’interaction, limitant ainsi la précision du diagnostic. L’expérience utilisateur et les réactions émotionnelles étant de nature hautement dynamique et contextualisée, les approches d’évaluation doivent l’être de même afin de permettre un diagnostic précis de l’interaction. Cette thèse présente une approche d’évaluation quantitative et dynamique qui permet de contextualiser les réactions des utilisateurs afin d’en identifier les antécédents dans l’interaction avec un système. Pour ce faire, ce travail s’articule autour de trois axes. 1) La reconnaissance automatique des buts et de la structure de tâches de l’utilisateur, à l’aide de mesures oculométriques et d’activité dans l’environnement par apprentissage machine. 2) L’inférence de construits psychologiques (activation, valence émotionnelle et charge cognitive) via l’analyse des signaux physiologiques. 3) Le diagnostic de l‘interaction reposant sur le couplage dynamique des deux précédentes opérations. Les idées et le développement de notre approche sont illustrés par leur application dans deux contextes expérimentaux : le commerce électronique et l’apprentissage par simulation. Nous présentons aussi l’outil informatique complet qui a été implémenté afin de permettre à des professionnels en évaluation (ex. : ergonomes, concepteurs de jeux, formateurs) d’utiliser l’approche proposée pour l’évaluation d’IHM. Celui-ci est conçu de manière à faciliter la triangulation des appareils de mesure impliqués dans ce travail et à s’intégrer aux méthodes classiques d’évaluation de l’interaction (ex. : questionnaires et codage des observations).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La phosphorylation des protéines constitue l’une des plus importantes modifications post-traductionnelles (PTMs) et intervient dans de multiples processus physiologiques tels, la croissance, la différenciation cellulaire, l’apoptose, etc. En dépit de son importance, l’analyse des phosphoprotéines demeure une tâche difficile en raison de leur nature dynamique (car la phosphorylation des protéines est un processus réversible) et de leur faible abondance relative. En effet, la détermination des sites de phosphorylation est souvent difficile car les phosphopeptides sont souvent difficiles à détecter par des méthodes d’analyse chromatographique classique et par spectrométrie de masse (MS). De récentes études ont démontré que les nombreuses méthodes d’enrichissement de phosphopeptides existantes ne sont pas complètes, et que le nombre total de phosphopeptides détectés ne chevauchent pas complètement ces méthodes. C’est pour cela qu’il existe une nécessité de combler les lacunes des méthodes d’enrichissement existantes afin d’avoir des analyses phosphoprotéomiques plus complètes. Dans cette étude, nous avons utilisé les liquides ioniques (LI), plus particulièrement les sels d’imidazolium, comme une technique d’enrichissement alternative, dans le but de favoriser une extraction sélective de phosphopeptides présents en solution. Les sels d’imidazolium ont donc été utilisés en raison de leurs propriétés physico-chimiques "facilement" ajustables selon la nature des substituants sur le noyau imidazolium et la nature de l’anion. Les sels de monoimidazolium et de bis-imidazolium possédant respectivement des chaînes linéaires à 4, 12 et 16 atomes de carbone et ayant différents anions ont été synthétisés et utilisés pour effectuer des extractions liquide-liquide et solide-liquide des phosphopeptides en solution. Dans un premier temps, des extractions liquide-liquide ont été réalisées en utilisant un liquide ionique (LI) ayant une chaine linéaire de 4 atomes de carbone. Ces extractions réalisées avec le bis(trifluoromethanesulfonyl) amide de 3-butyl-1-methylimidazolium (BMIM-NTf2) et l’hexafluorophosphate de 3-butyl-1-methylimidazolium (BMIM-PF6) n’ont pas montré une extraction notable du PPS comparativement au PN. Dans un deuxième temps, des extractions solide-liquide ont été réalisées en fonctionnalisant des particules solides avec des sels d’imidazolium possédant des chaines linéaires de 12 ou 16 atomes de carbone. Ces extractions ont été faites en utilisant un phosphopentapeptide Ac-Ile-pTyr-Gly-Glu-Phe-NH2 (PPS) en présence de 2 analogues acides non-phosphorylés. Il a été démontré que les sels d’imidazolium à chaine C12 étaient meilleurs pour extraire le PPS que les deux autres peptides PN (Ac-Ile-Tyr-Gly-Glu-Phe-NH2) et PE (Ac-Glu-Tyr-Gly-Glu-Phe-NH2) L’électrophorèse capillaire (CE) et la chromatographie liquide à haute performance couplée à la spectrométrie de masse (LC-MS) ont été utilisées pour quantifier le mélange des trois peptides avant et après extraction ; dans le but de mesurer la sélectivité et l’efficacité d’extraction de ces peptides par rapport à la composition chimique du liquide ionique utilisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : La littérature scientifique ne contient actuellement aucune étude épidémiologique portant sur la relation entre l’exposition à une infestation de punaises de lit (Cimex lectularis) et la santé mentale. L’objectif de cette étude est d’explorer la relation entre le statut d’exposition aux punaises de lit et des mesures de dépression, anxiété et perturbation du sommeil. Méthodes : Cette recherche est une étude transversale basée sur une analyse secondaire des données provenant de N=91 adultes locataires de logements insalubres qui ont répondu à un questionnaire de santé au moment d’interventions médico-environnementales menées par la direction de santé publique de Montréal entre janvier et juin 2010. Le questionnaire de santé inclut le « Questionnaire de santé du patient (QSP-9) », qui est un outil mesurant les symptômes associés à la dépression, l’outil de dépistage d’anxiété généralisée (GAD-7) et les items 1-18 de l’indice de la qualité du sommeil de Pittsburgh (PSQI). L’association entre une exposition autorapportée à une infestation de punaises de lit et le niveau de perturbation du sommeil selon la sous-échelle correspondante du PSQI, les symptômes dépressifs selon le QSP-9 et les symptômes anxieux selon le GAD-7, a été évaluée en utilisant une analyse de régression linéaire multivariée. Des données descriptives relatives aux troubles de sommeil autodéclarés et à des comportements reliés à un isolement social, dus à une exposition aux punaises de lit, sont aussi présentées. Résultats : L’échantillon comprenait 38 hommes et 53 femmes. Parmi les 91 participants, 49 adultes ont signalé une exposition aux punaises de lit et de ce nombre, 53,06% (26/49) ont déclaré des troubles de sommeil et 46,94% (23/49) des comportements d’isolement social, en raison de l’exposition. Les adultes exposés à des punaises de lit ont obtenu des résultats significativement plus élevés sur le QSP-9 (p=0,025), le GAD-7 (p=0,026) et sur la sous-échelle mesurant la perturbation du sommeil (p=0,003) comparativement à ceux qui n’étaient pas exposés. Conclusions : Cette première étude exploratoire met en évidence une association significative entre l’état d’exposition aux punaises de lit et des troubles de sommeil, ainsi que des symptômes anxieux et dépressifs, indiquant que ceux qui sont exposés aux punaises de lit représentent un groupe possiblement à risque de développer des problèmes de santé mentale. Ces résultats viennent en appui aux initiatives des décideurs pour organiser des efforts coordonnés d’éradication au niveau des villes et des provinces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’essor de la discipline bactériologique est l’un des phénomènes les plus célébrés de l’historiographie médicale. Les approches qu’ont empruntées les historiens pour aborder le sujet depuis le tournant du XXe siècle se sont progressivement modifiées pour passer, le plus souvent, d’une interprétation endogène des développements de la science, où les concepts, les théories, les méthodes de la médecine sont perçus comme se développant isolément du contexte social dans lequel ils s’insèrent, à l’approche inverse, sociologique, où chacune des facettes de l’entreprise médico-scientifique est influencée par son milieu dans une interaction où les instances publiques, gouvernementales et professionnelles impliquées par les projets de médicalisation, formant une dynamique impassible, modifient le cours de chaque aspect de l’histoire médicale. Mais, en dehors des éléments professionnels, le développement de la pensée médico-scientifique est-il invariablement subjugué par cette dynamique sociale ? L’idéal de scientificité prôné par les médecins, formant un archétype dans lequel la rigueur du professionnel doit être isolée de ces facteurs extrinsèques n’est-il pas en mesure d’avoir conféré aux démarches médico-scientifiques une stabilité authentique vis-à-vis les fluctuations de l’environnement sociopolitique et professionnel dans lequel elles s’inscrivent ? Cette étude répond à ce questionnement par l’analyse exhaustive du discours défini par les périodiques médicaux du Québec entre 1840 et 1880. Elle s’articule sur deux développements inédits : l’un qui présente les assises méthodologiques de la vérification, c’est-à-dire la définition de l’archétype médical, son rôle dans la légitimation professionnelle, les critères de scientificité qu’il détermine de même qu’une typologie du discours qu’il permet d’inférer ; l’autre, ses résultats. L’étude montre que l’archétype décrit par le corps médical québécois, loin de n’être qu’un outil discursif par lequel la profession a pu être socialement reconnue au XIXe siècle, exerça une influence déterminante sur la formation de l’attitude professionnelle à l’égard des nouveautés étiologiques présentées par les pionniers de la bactériologie. En plus de dévoiler la trame exacte du développement de la pensée étiologique au Québec, la thèse souligne la complémentarité des approches internes et externes de l’historiographie médicale. Elle contribue ainsi à une représentation plus juste des processus à l’oeuvre dans le développement scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche s’inscrit dans la continuité de celles entreprises en vue d’éclaircir la question du processus de design, et plus spécialement le design architectural de la maison. Elle cherche aussi à développer la réflexivité du designer sur les actes qu’il pose en lui offrant un point de vue depuis l’angle de la psychanalyse. Elle vient rallonger les initiatives amenées par la troisième génération des recherches sur les méthodologies du design en s’intéressant à un volet, jusque-là, peu exploré : le processus inconscient du design architectural. Elle pose comme problématique la question des origines inconscientes du travail créatif chez le concepteur en architecture. La création étant un des sujets importants de la psychanalyse, plusieurs concepts psychanalytiques, comme la sublimation freudienne, l’abordent et tentent de l’expliquer. Le design étant une discipline de création, la psychanalyse peut nous renseigner sur le processus du design, et nous offrir la possibilité de l’observer et de l’approcher. La métaphore architecturale, utilisée pour rendre la théorie freudienne, est aussi le champ d’application de plusieurs théories et concepts psychanalytiques. L’architecture en général, et celle de la maison en particulier, en ce que cette dernière comporte comme investissement émotionnel personnel de la part de son concepteur, constructeur ou utilisateur, offrent un terrain où plusieurs des concepts psychanalytiques peuvent être observés et appliqués. Cette recherche va approcher l’exemple architectural selon les concepts développés par les trois théories psychanalytiques les plus importantes : freudienne, lacanienne et jungienne. L’application de ces concepts se fait par une "autoanalyse" qui met le designer en double posture : celle du sujet de la recherche et celle du chercheur, ce qui favorise hautement la réflexivité voulue. La libre association, une des méthodes de la psychanalyse, sera la première étape qui enclenchera le processus d’autoanalyse et l’accompagnera dans son développement. S’appliquant sur le discours et la forme de la maison, la libre association va chercher à distinguer plusieurs mécanismes psychiques susceptibles d’éclairer notre investigation. Les résultats de l’application des concepts freudiens viendront servir de base pour l’application, par la suite, des concepts de la théorie lacanienne et jungienne. Au terme de cette analyse, nous serions en mesure de présenter une modélisation du processus inconscient du design qui aurait conduit à la création de la maison prise en exemple. Nous découvrirons par cela la nature du processus inconscient qui précède et accompagne le travail créatif du designer. Nous verrons aussi comment ce processus se nourrit des expériences du designer qui remontent jusqu’aux premières années de son enfance. Ceci permettrait de rendre compte de la possibilité d’appliquer les concepts psychanalytiques sur le design architectural et, par ce fait, permettre de déterminer les éventuels façons de concevoir l’apport de la psychanalyse à la pratique de cette discipline qu’est le design ainsi que son enseignement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rationnel : La pandémie de grippe A(H1N1)pdm09 a induit un grand nombre d’hospitalisation d’enfants en soins intensifs pédiatriques (SIP). L’objectif de cette étude a été de comparer l’incidence et la mortalité des enfants admis en SIP durant l’automne 2009 entre le Canada et la France, deux pays qui diffèrent essentiellement par l’immunisation de la population contre ce virus (première vague en été et taux de couverture vaccinale supérieur à 50% au Canada ; pas de vague estivale et couverture vaccinale de 18% en France). Méthodes : Nous avons comparé deux cohortes nationales qui ont inclue tous les patients avec une infection A(H1N1)pdm09 documentée, admis en SIP au Canada et en France entre le 1er Octobre 2009 et le 31 janvier 2010. Résultats : Au Canada, 160 enfants (incidence=2,63/100000 enfants) en 6 semaines ont été hospitalisés en SIP comparé aux 125 enfants (incidence=1,15/100000 enfants) en 11 semaines en France (p<0,001). Le taux de vaccination avant l’admission était inférieur à 25% parmi les enfants en situation critique dans les deux pays. La gravité à l’admission en SIP et le taux de mortalité ont été similaires au Canada et en France (4,4% en France vs 6,5% au Canada, p=0,45, respectivement). Au Canada, la vaccination contre le virus H1N1pdm09 a été associée avec une diminution du recours à la ventilation invasive (Odd Ratio 0.30, intervalle de confiance à 95% [0,11-0,83], p=0,02). Au Canada comparé à la France, les durées médianes de séjour en SIP et de ventilation invasive ont été plus courtes (2,9 vs 3 jours, p=0,03 et 4 vs 6 jours, p=0,02, respectivement). Conclusion : Les enfants canadiens et français critiquement malades ont été beaucoup moins nombreux à recevoir le vaccin contre le virus influenza A (H1N1)pdm09 en comparaison avec l’ensemble des enfants dans ces deux populations. Au Canada, où la couverture vaccinale a été élevée, le risque d’avoir une détresse respiratoire sévère était moins important parmi les enfants en situation critique ayant été vaccinés avant l’admission.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte De nombreuses études, utilisant des indicateurs de qualité variés, ont démontré que la qualité des soins pour la dépression n’est pas optimale en première ligne. Peu de ces études ont examiné les facteurs associés à la réception d’un traitement adéquat, en particulier en tenant compte simultanément des caractéristiques individuelles et organisationnelles. L'association entre un traitement adéquat pour un épisode dépressif majeur (EDM) et une amélioration des symptômes dépressifs n'est pas bien établie dans des conditions non-expérimentales. Les objectifs de cette étude étaient de : 1) réaliser une revue systématique des indicateurs mesurant la qualité du traitement de la dépression en première ligne ; 2) estimer la proportion de patients souffrant d’EDM qui reçoivent un traitement adéquat (selon les guides de pratique clinique) en première ligne ; 3) examiner les caractéristiques individuelles et organisationnelles associées à l’adéquation du traitement pour la dépression ; 4) examiner l'association entre un traitement minimalement adéquat au cours des 12 mois précédents et l'évolution des symptômes dépressifs à 6 et 12 mois. Méthodes La littérature sur la qualité du traitement de la dépression a été examinée en utilisant un ensemble de mots-clés (« depression », « depressive disorder », « quality », « treatment », « indicator », « adequacy », « adherence », « concordance », « clinical guideline » et « guideline ») et « 360search », un moteur de recherche fédérée. Les données proviennent d'une étude de cohorte incluant 915 adultes consultant un médecin généraliste, quel que soit le motif de consultation, répondant aux critères du DSM-IV pour l’EDM dans la dernière année, nichés dans 65 cliniques de première ligne au Québec, Canada. Des analyses multiniveaux ont été réalisées. Résultats Bien que majoritairement développés à partir de guides de pratique clinique, une grande variété d'indicateurs a été observée dans la revue systématique de littérature. La plupart des études retenues ont utilisé des indicateurs de qualité rudimentaires, surtout pour la psychothérapie. Les méthodes utilisées étaient très variées, limitant la comparabilité des résultats. Toutefois, quelque soit la méthode choisie, la plupart des études ont révélé qu’une grande proportion des personnes souffrant de dépression n’ont pas reçu de traitement minimalement adéquat en première ligne. Dans notre échantillon, l’adéquation était élevée (> 75 %) pour un tiers des indicateurs de qualité mesurés, mais était faible (< 60 %) pour près de la moitié des mesures. Un peu plus de la moitié de l'échantillon (52,2 %) a reçu au moins un traitement minimalement adéquat pour la dépression. Au niveau individuel, les jeunes adultes (18-24 ans) et les personnes de plus de 65 ans avaient une probabilité moins élevée de recevoir un traitement minimalement adéquat. Cette probabilité était plus élevée pour ceux qui ont un médecin de famille, une assurance complémentaire, un trouble anxieux comorbide et une dépression plus sévère. Au niveau des cliniques, la disponibilité de la psychothérapie sur place, l'utilisation d'algorithmes de traitement, et le mode de rémunération perçu comme adéquat étaient associés à plus de traitement adéquat. Les résultats ont également montré que 1) la réception d'au moins un traitement minimalement adéquat pour la dépression était associée à une plus grande amélioration des symptômes dépressifs à 6 et à 12 mois; 2) la pharmacothérapie adéquate et la psychothérapie adéquate étaient toutes deux associées à de plus grandes améliorations dans les symptômes dépressifs, et 3) l'association entre un traitement adéquat et l'amélioration des symptômes dépressifs varie en fonction de la sévérité des symptômes au moment de l'inclusion dans la cohorte, un niveau de symptômes plus élevé étant associé à une amélioration plus importante à 6 et à 12 mois. Conclusions Nos résultats suggèrent que des interventions sont nécessaires pour améliorer la qualité du traitement de la dépression en première ligne. Ces interventions devraient cibler des populations spécifiques (les jeunes adultes et les personnes âgées), améliorer l'accessibilité à la psychothérapie et à un médecin de famille, et soutenir les médecins de première ligne dans leur pratique clinique avec des patients souffrant de dépression de différentes façons, telles que le développement des connaissances pour traiter la dépression et l'adaptation du mode de rémunération. Cette étude montre également que le traitement adéquat de la dépression en première ligne est associé à une amélioration des symptômes dépressifs dans des conditions non-expérimentales.