604 resultados para Problème de Snell
Resumo:
Les Escherichia coli entérohémorragiques (EHEC) représentent un problème majeur de santé publique dans les pays développés. Les EHEC sont régulièrement responsables de toxi-infections alimentaires graves chez l’humain et causent des colites hémorragiques et le symptôme hémolytique et urémique, mortel chez les enfants en bas âge. Les EHEC les plus virulents appartiennent au sérotype O157:H7 et le bovin constitue leur réservoir naturel. À ce jour il n’existe aucun traitement pour éviter l’apparition des symptômes liés à une infection à EHEC. Par conséquent, il est important d’augmenter nos connaissances sur les mécanismes employés par le pathogène pour réguler sa virulence et coloniser efficacement la niche intestinale. Dans un premier temps, l’adaptation de la souche EHEC O157:H7 EDL933 à l’activité métabolique du microbiote intestinal a été étudiée au niveau transcriptionnel. Pour se faire, EDL933 a été cultivée dans les contenus caecaux de rats axéniques (milieu GFC) et dans ceux provenant de rats colonisés par le microbiote intestinal humain (milieu HMC). Le HMC est un milieu cécal conditionné in vivo par le microbiote. Dans le HMC par rapport au GFC, EDL933 change drastiquement de profile métabolique en réponse à l’activité du microbiote et cela se traduit par une diminution de l’expression des voies de la glycolyse et une activation des voies de l’anaplérose (voies métaboliques dont le rôle est d’approvisionner le cycle TCA en intermédiaires métaboliques). Ces résultats, couplés avec une analyse métabolomique ciblée sur plusieurs composés, ont révélé la carence en nutriments rencontrée par le pathogène dans le HMC et les stratégies métaboliques utilisées pour s’adapter au microbiote intestinal. De plus, l’expression des gènes de virulence incluant les gènes du locus d’effacement des entérocytes (LEE) codant pour le système de sécrétion de type III sont réprimés dans le HMC par rapport au GFC indiquant la capacité du microbiote intestinal à réprimer la virulence des EHEC. L’influence de plusieurs composés intestinaux présents dans les contenus caecaux de rats sur l’expression des gènes de virulence d’EDL933 a ensuite été étudiée. Ces résultats ont démontré que deux composés, l’acide N-acétylneuraminique (Neu5Ac) et le N-acétylglucosamine (GlcNAc) répriment l’expression des gènes du LEE. La répression induite par ces composés s’effectue via NagC, le senseur du GlcNAc-6-P intracellulaire et le régulateur du catabolisme du GlcNAc et du galactose chez E. coli. NagC est un régulateur transcriptionnel inactivé en présence de GlcNAc-6-P qui dérive du catabolisme du Neu5Ac et du transport GlcNAc. Ce travail nous a permis d’identifier NagC comme un activateur des gènes du LEE et de mettre à jour un nouveau mécanisme qui permet la synchronisation de la virulence avec le métabolisme chez les EHEC O157:H7. La concentration du Neu5Ac et du GlcNAc est augmentée in vivo chez le rat par le symbiote humain Bacteroides thetaiotaomicron, indiquant la capacité de certaines espèces du microbiote intestinal à relâcher les composés répresseurs de la virulence des pathogènes. Ce travail a permis l’identification des adaptations métaboliques des EHEC O157:H7 en réponse au microbiote intestinal ainsi que la découverte d’un nouveau mécanisme de régulation de la virulence en réponse au métabolisme. Ces données peuvent contribuer à l’élaboration de nouvelles approches visant à limiter les infections à EHEC.
Resumo:
L’époque actuelle se caractérise par un processus de sécularisation irrésolu. Les inconsistances de notre modernité relèvent à la fois d’une dissolution de l’hégémonie de la religion en occident et d’une diversification de régimes de valeurs, croyances et représentations ayant pour effet la persistance de différends idéologiques que le phénomène de globalisation à la fois accentue et résorbe sans les abolir. Cette thèse examine la pertinence de la traduction pour interroger les fondements littéraires des enjeux esthétiques et politiques de cette condition. En tant que procédé poïétique, modèle de subjectivité éthique et figure de pensée, la traduction constitue un dispositif littéraire intimement relié au problème de la sécularisation. Chacune des études qui composent la thèse cherche à approfondir, dans une perspective comparatiste, une intuition de base : le mode de dépossession inhérent au fait littéraire de traduire permet d’appréhender un certain ethos séculier dont le caractère historique ne serait pas totalement coupé d’un rapport à la transcendance dans le contexte de l’économie culturelle globale. Le problème de la traduction est abordé à partir de deux axes principaux : la distorsion de la tradition religieuse par la formation d’une religiosité d’ordre littéraire (un ethos séculier) et la distorsion d’un certain humanisme d’après l’expérience catastrophique et la manière dont cet ethos permet d’y survivre. Cette thèse vise à dégager de l’idée de traduction une capacité de régénérer un rapport éthique à autrui par la construction de liens inédits avec le passé et l’avenir ; une attention à la finitude humaine caractérisée par une disposition critique et affective face à ces artefacts humains que nous nommons littérature. Les écrits de la poète et traductrice Anne Carson jouent un rôle déterminant dans le cadre de cette recherche puisqu’ils exemplifient une capacité singulière de faire usage de la tradition qui permet d’envisager, ultimement, une régénération de la question du sens de l’humain, c’est-à-dire, d’une pensée sensible à l’inhumain entre nous.
Resumo:
La radiothérapie stéréotaxique corporelle (SBRT) est une technique couramment employée pour le traitement de tumeurs aux poumons lorsque la chirurgie n’est pas possible ou refusée par le patient. Une complication de l’utilisation de cette méthode provient du mouvement de la tumeur causé par la respiration. Dans ce contexte, la radiothérapie asservie à la respiration (RGRT) peut être bénéfique. Toutefois, la RGRT augmente le temps de traitement en raison de la plus petite proportion de temps pour laquelle le faisceau est actif. En utilisant un faisceau de photons sans filtre égalisateur (FFF), ce problème peut être compensé par le débit de dose plus élevé d’un faisceau FFF. Ce mémoire traite de la faisabilité d’employer la technique de RGRT en combinaison avec l’utilisation un faisceau FFF sur un accélérateur Synergy S (Elekta, Stockholm, Suède) avec une ceinture pneumatique, le Bellows Belt (Philips, Amsterdam, Pays-Bas), comme dispositif de suivi du signal respiratoire. Un Synergy S a été modifié afin de pouvoir livrer un faisceau 6 MV FFF. Des mesures de profils de dose et de rendements en profondeur ont été acquises en cuve à eau pour différentes tailles de champs. Ces mesures ont été utilisées pour créer un modèle du faisceau 6 MV FFF dans le système de planification de traitement Pinnacle3 de Philips. Les mesures ont été comparées au modèle à l’aide de l’analyse gamma avec un critère de 2%, 2 mm. Par la suite, cinq plans SBRT avec thérapie en arc par modulation volumétrique (VMAT) ont été créés avec le modèle 6 MV du Synergy S, avec et sans filtre. Une comparaison des paramètres dosimétriques a été réalisée entre les plans avec et sans filtre pour évaluer la qualité des plans FFF. Les résultats révèlent qu’il est possible de créer des plans SBRT VMAT avec le faisceau 6 MV FFF du Synergy S qui sont cliniquement acceptables (les crières du Radiation Therapy Oncology Group 0618 sont respectés). Aussi, une interface physique de RGRT a été mise au point pour remplir deux fonctions : lire le signal numérique de la ceinture pneumatique Bellows Belt et envoyer une commande d’irradiation binaire au linac. L’activation/désactivation du faisceau du linac se fait par l’entremise d’un relais électromécanique. L’interface comprend un circuit électronique imprimé fait maison qui fonctionne en tandem avec un Raspberry Pi. Un logiciel de RGRT a été développé pour opérer sur le Raspberry Pi. Celui-ci affiche le signal numérique du Bellows Belt et donne l’option de choisir les limites supérieure et inférieure de la fenêtre d’irradiation, de sorte que lorsque le signal de la ceinture se trouve entre ces limites, le faisceau est actif, et inversement lorsque le signal est hors de ces limites. Le logiciel envoie donc une commande d’irradiation au linac de manière automatique en fonction de l’amplitude du signal respiratoire. Finalement, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un autre plan standard sans RGRT sans filtre démontre que le temps de traitement en mode FFF est réduit en moyenne de 54.1% pour un arc. De la même manière, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un plan de RGRT (fenêtre d’irradiation de 75%) sans filtre montre que le temps de traitement de RGRT en mode FFF est réduit en moyenne de 27.3% par arc. Toutefois, il n’a pas été possible de livrer des traitements de RGRT avec une fenêtre de moins de 75%. Le linac ne supporte pas une fréquence d’arrêts élevée.
Resumo:
Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.
Resumo:
L’objectif de ce mémoire est de porter un regard critique sur l’exposition du patrimoine culturel immatériel kanak, dernièrement proposée au musée du quai Branly. Ayant pour objet de corriger l’élitisme de l’eurocentrisme, le postcolonialisme est un courant de pensée qui vise à repositionner les acteurs et enjeux marginaux. Interdisciplinaire, le discours postcolonial suscite une pluralité de perspectives pour inclure la voix des « autres ». Dans notre étude, nous choisissons de traiter du propos dans un cadre singulier. Notre approche se consacrera à l’interprétation de l’ « autre » par le musée du quai Branly, de manière à comprendre comment, aujourd’hui, la particularité du patrimoine culturel kanak y est exposée. Ce mémoire se propose d’effectuer un retour sur la venue du quai Branly dans le cadre de quelques problèmes récurrents concernant la perception et le traitement de l’objet nonoccidental, retour qui semble nécessaire à l’établissement d’un bilan sur les pratiques expositionnelles du patrimoine culturel immatériel dans l’exposition « Kanak. L’art est une parole ». Pour ce faire, les enjeux soulevés seront abordés dans les perspectives de l’histoire de l’art, de l’anthropologie et de la muséologie. Par la muséographie qu’il met en place, le musée fait part au public de son parti-pris quant au discours didactique qu’il souhaite lui transmettre. Les choix effectués pour la mise en exposition et sa contextualisation expriment la définition que le musée donne aux objets qu’il contient. Le musée du quai Branly est un cas particulier. Promu au rang de musée d’ « art premier » à son ouverture, il expose des objets ethnographiques venus d’Afrique, d’Océanie, des Amériques ou encore d’Asie pour leurs qualités esthétiques. Loin de nos préceptes occidentaux, la difficulté de ce musée est de rendre compte de l’histoire de ces objets. L’exemple de l’expression artistique kanak soulève le fond du problème dans la mesure où elle prend forme à travers des ressources orales.
Resumo:
Située dans le discours actuel à la mode sur la diversité culturelle, l’objet de cette thèse consiste à comprendre l’orientation pratique d’une organisation internationale en matière de gestion de sa diversité culturelle interne. Il propose que, face aux changements qui ont modifié la configuration sociodémographique de la sphère organisationnelle, il serait intéressant de partir d’une organisation pour laquelle la diversité est une tradition tributaire de son fonctionnement. L’organisation sujet d’étude est internationale, affiliée à l’Unesco. Cette dernière étant reconnue pour son mandat qui valorise et protège les cultures. L’ancrage épistémologique de la thèse est bi-disciplinaire. Il considère deux champs théoriques sur lesquels se construit la diversité culturelle. Le premier est forgé dans les théories de management dites « occidentales » sur la diversité. Le deuxième champ, s’établit sur une approche dynamique de la culture apportée par les « Cross-Cultural Studies ». La méthodologie que nous avons mobilisée pour cette recherche est principalement qualitative. Elle est également diverse puisqu’elle veut identifier trois niveaux d’analyses. D’abord, l’étude historique réalisée se fonde sur l’analyse d’articles choisis tirés des archives de l’« organisation mère » (Unesco). Elle se veut être une étude exhaustive qui révèle l’évolution du discours « global » de cette organisation sur la diversité culturelle depuis sa création. Ensuite, afin de mieux comprendre le discours interne de l’Organisation sur la diversité culturelle, une analyse du contenu d’un « halo » de ses politiques internes a lieu. Elle nous permet de comprendre la valeur que prend la diversité culturelle dans son discours « organisationnel » dans la période de temps que nous traitons. Enfin, les histoires « individuelles » des acteurs de la diversité culturelle, apportent une description riche et, complètent l’analyse avec leurs interprétions des pratiques de gestions mises en place à leur égard. Des éléments de recherche sous adjacentes sont aussi amenés dans la thèse et font également partie du processus de l’analyse de la pratique de la diversité culturelle dans l’Organisation. En effet, la thèse se penche sur le problème conceptuel sur la « diversité culturelle ». Elle apporte des éclaircissements à la terminologie à travers l’analyse de ses différents emplois dans la littérature organisationnelle. Par ailleurs, elle clarifie la notion d’organisation internationale et propose une description du contexte unesquien défini par sa diversité culturelle interne. L’ensemble des niveaux examinés a permis de mettre en évidence une double constatation. D’une part, le paradoxe entre les trois niveaux. D’autre part, la neutralité des pratiques de gestion de la diversité culturelle pour les employés et la demande implicite de reconnaissance de leurs identités culturelles. Des recommandations sont proposées et des suggestions pour de recherches ultérieures sont formulées à la conclusion de la thèse.
Resumo:
Contexte : L’hypertension artérielle (HTA) est reconnue comme un important facteur de risque des maladies cardiovasculaires et de la mortalité prématurée. Les données montrent qu’un adulte sur 4 dans le monde souffrait d’hypertension en 2000 et ce chiffre serait en augmentation. Dans les pays africains, les estimations prévoient une progression plus rapide de la prévalence de l’HTA engendrant ainsi un problème additionnel à gérer pour le système de santé qui est toujours aux prises avec les maladies transmissibles. Les progrès économiques et l’urbanisation semblent entraîner des modifications des habitudes de vie dans ces pays qui seraient associés à une émergence des maladies non transmissibles, dont l’HTA. Le Burkina Faso, pays de l’Afrique de l’Ouest classé comme un pays à faibles revenus, aurait amorcé sa transition épidémiologique et il importe de faire un état sur les maladies non transmissibles en émergence. Afin de contribuer à la connaissance des aspects épidémiologiques de l’HTA au Burkina Faso, trois objectifs spécifiques ont été retenus pour la présente recherche : 1) Estimer la prévalence de l’HTA et identifier les facteurs associés dans la population rurale et la population semi-urbaine du Système de Surveillance démographique et de Santé de Kaya (Kaya HDSS) ; 2) Déterminer la différence de prévalence de l’HTA entre la zone lotie et la zone non lotie de la ville de Ouagadougou et identifier les facteurs associés ; 3) Déterminer la détection, le traitement, le contrôle de l’HTA et estimer la fréquentation des centres de santé par les personnes hypertendues nouvellement dépistées dans la population adulte du Centre Nord du Burkina Faso. Méthodologie : Le cadre de notre recherche est le Burkina Faso. Deux sites ont fait l’objet de nos investigations. Kaya HDSS, situé dans la région du Centre Nord du Burkina Faso a servi de site pour les enquêtes ayant permis l’atteinte du premier et du troisième objectif général. Une étude transversale a été menée en fin 2012 sur un échantillon aléatoire de 1645 adultes résidents du site. Un entretien suivi de mesures anthropométriques et de la pression artérielle (PA) ont été réalisés au domicile des participants. Toutes les personnes qui avaient une PA élevée (PA systolique ≥ 140 mm Hg et/ou PA diastolique ≥ 90 mm Hg) et qui n’avaient pas été diagnostiquées auparavant ont été référées à une formation sanitaire. Un second entretien a été réalisé avec ces personnes environ un mois après. Pour le second objectif général, c’est le système de surveillance démographique et de santé de Ouagadougou (Ouaga HDSS) qui a été retenu comme site. Ouaga HDSS couvre 5 quartiers de la zone nord de Ouagadougou. Une étude transversale a été réalisée en 2010 sur un échantillon aléatoire représentatif de la population adulte résidante du site (N = 2041). Des entretiens suivis de mesures anthropométriques et de la PA ont été réalisés durant l’enquête. Résultats : Notre premier article examine la prévalence de l’HTA et les facteurs associés en milieu rural et en milieu semi-urbain. Au total 1481 participants ont été dépistés et la prévalence totale pondérée était de 9,4 % (95 % IC : 7,3 % - 11,4 %) avec une grande différence entre le milieu semi-urbain et le milieu rural : un adulte sur 10 était hypertendu en milieu semi-urbain contre un adulte sur 20 en milieu rural. L’analyse multivariée nous a permis d’identifier l’âge avancé, le milieu semi-urbain et l’histoire familiale de l’HTA comme des facteurs de risque. Dans le deuxième article, nous avons déterminé la différence entre la zone lotie et la zone non lotie du milieu urbain en ce qui concerne l’HTA. Sur 2 041 adultes enquêtés, la prévalence totale est estimée à 18,6 % (95 % IC : 16,9 % - 20,3 %). Après ajustement avec l’âge, il n’y avait pas de différence de prévalence entre la zone lotie et la zone non lotie de la ville de Ouagadougou. Dans ce milieu urbain, l’obésité et l’inactivité physique sont confirmées comme des facteurs à risque. En plus des personnes âgées qui constituent un groupe à risque, les migrants venant du milieu rural et les veuves ont été identifiés comme des personnes à risque. Notre troisième article examine la détection, le traitement, le contrôle de l’HTA ainsi que la fréquentation des structures de santé par les personnes nouvellement dépistées hypertendues dans le milieu non urbain. Sur les 1481 participants à l’étude, 41 % n’avaient jamais mesuré leur PA. Sur les 123 participants (9,4 %) dépistés comme hypertendus, 26,8 % avaient déjà bénéficié d’un diagnostic et 75,8 % de ces derniers étaient sous traitement anti hypertensif. Parmi les participants sous traitement, 60 % (15 sur 25) avaient leur PA sous contrôle. Le suivi de 2 mois a permis de retrouver 72 des 90 personnes nouvellement dépistées. Seulement 50 % ont été en consultation et parmi ces derniers 76 % (28 personnes sur les 37) ont reçu une confirmation de leur hypertension. Conclusion : Notre recherche montre l’évolution de l’HTA en fonction du niveau d’urbanisation de la population. Même si les maladies infectieuses restent la priorité du système de santé, la lutte contre l’HTA doit s’inscrire dans un cadre général de lutte contre les maladies cardiovasculaires. Cette lutte doit être amorcée maintenant avant que des proportions inquiétantes ne soient atteintes. Des actions de prévention telles que la promotion de saines habitudes de vie, le dépistage de masse et un renforcement des capacités du système de soins sont à mettre en œuvre.
Resumo:
Cette thèse est divisée en cinq parties portant sur les thèmes suivants: l’interprétation physique et algébrique de familles de fonctions orthogonales multivariées et leurs applications, les systèmes quantiques superintégrables en deux et trois dimensions faisant intervenir des opérateurs de réflexion, la caractérisation de familles de polynômes orthogonaux appartenant au tableau de Bannai-Ito et l’examen des structures algébriques qui leurs sont associées, l’étude de la relation entre le recouplage de représentations irréductibles d’algèbres et de superalgèbres et les systèmes superintégrables, ainsi que l’interprétation algébrique de familles de polynômes multi-orthogonaux matriciels. Dans la première partie, on développe l’interprétation physico-algébrique des familles de polynômes orthogonaux multivariés de Krawtchouk, de Meixner et de Charlier en tant qu’éléments de matrice des représentations unitaires des groupes SO(d+1), SO(d,1) et E(d) sur les états d’oscillateurs. On détermine les amplitudes de transition entre les états de l’oscillateur singulier associés aux bases cartésienne et polysphérique en termes des polynômes multivariés de Hahn. On examine les coefficients 9j de su(1,1) par le biais du système superintégrable générique sur la 3-sphère. On caractérise les polynômes de q-Krawtchouk comme éléments de matrices des «q-rotations» de U_q(sl_2). On conçoit un réseau de spin bidimensionnel qui permet le transfert parfait d’états quantiques à l’aide des polynômes de Krawtchouk à deux variables et on construit un modèle discret de l’oscillateur quantique dans le plan à l’aide des polynômes de Meixner bivariés. Dans la seconde partie, on étudie les systèmes superintégrables de type Dunkl, qui font intervenir des opérateurs de réflexion. On examine l’oscillateur de Dunkl en deux et trois dimensions, l’oscillateur singulier de Dunkl dans le plan et le système générique sur la 2-sphère avec réflexions. On démontre la superintégrabilité de chacun de ces systèmes. On obtient leurs constantes du mouvement, on détermine leurs algèbres de symétrie et leurs représentations, on donne leurs solutions exactes et on détaille leurs liens avec les polynômes orthogonaux du tableau de Bannai-Ito. Dans la troisième partie, on caractérise deux familles de polynômes du tableau de Bannai-Ito: les polynômes de Bannai-Ito complémentaires et les polynômes de Chihara. On montre également que les polynômes de Bannai-Ito sont les coefficients de Racah de la superalgèbre osp(1,2). On détermine l’algèbre de symétrie des polynômes duaux -1 de Hahn dans le cadre du problème de Clebsch-Gordan de osp(1,2). On propose une q - généralisation des polynômes de Bannai-Ito en examinant le problème de Racah pour la superalgèbre quantique osp_q(1,2). Finalement, on montre que la q -algèbre de Bannai-Ito sert d’algèbre de covariance à osp_q(1,2). Dans la quatrième partie, on détermine le lien entre le recouplage de représentations des algèbres su(1,1) et osp(1,2) et les systèmes superintégrables du deuxième ordre avec ou sans réflexions. On étudie également les représentations des algèbres de Racah-Wilson et de Bannai-Ito. On montre aussi que l’algèbre de Racah-Wilson sert d’algèbre de covariance quadratique à l’algèbre de Lie sl(2). Dans la cinquième partie, on construit deux familles explicites de polynômes d-orthogonaux basées sur su(2). On étudie les états cohérents et comprimés de l’oscillateur fini et on caractérise une famille de polynômes multi-orthogonaux matriciels.
Resumo:
Les défis associés au phénomène du vieillissement démographique de la population se manifestent sous plusieurs formes et à de nombreux égards. Il y a des questions générales comme celles qui touchent l’économique et d’autres, plus spécifiques et situées, comme celles des modalités assurant des services et des soins adéquats aux personnes vulnérables. Par exemple, le colloque « La qualité de l’expérience des usagers et des proches : vers la personnalisation des soins et des services sociaux », programmé dans le cadre des Entretiens Jacques Cartier à l’automne 2014, s’était donné comme objectif d’examiner l’expérience personnelle des usagers relativement aux prestations de soins de santé et à l’organisation des services sociaux. L’origine de ces réflexions réside dans la nécessité de trouver un meilleur équilibre des pouvoirs dans les relations d’aide ou la prestation de soin. Cette problématique sous-entend l’idée de rendre les usagers capables d’un certain contrôle par l’adoption d’approches permettant aux professionnels de faire des ajustements personnalisés. Cette thèse de doctorat s’inscrit directement dans le prolongement de cette problématique. La recherche vise à examiner les conditions en mesure de rendre possible, dans les Centres d’hébergement et de soins de longue durée (CHSLD), un rapport au monde catégorisé par ce que le sociologue Laurent Thévenot nomme le régime de la familiarité. Le régime de la familiarité fait référence aux réalités où l’engagement des personnes se déploie dans l’aisance. Autrement dit, ce régime d’engagement correspond à un rapport au milieu où la personne est en mesure de déployer ses habitudes, d’habiter le moment et de se sentir chez elle. Comme le montre Thévenot, ce type d’engagement commande la conception d’un monde qui offre aux personnes la possibilité d’articuler les modalités de leurs actions sur des repères qui font sens personnellement pour eux. Ainsi, l’objet de la recherche consiste à mieux comprendre la participation du design à la conception d’un milieu d’hébergement capable d’accueillir ce type d’engagement pragmatique. Les orientations associées à la conception de milieux d’hébergement capables de satisfaire de telles exigences correspondent largement aux ambitions qui accompagnent le développement des approches du design centrées sur l’usager, du design d’expériences et plus récemment du design empathique. Cela dit, malgré les efforts investis en ce sens, les capacités d’appropriation des usagers restent un problème pour lequel les réponses sont précaires. La thèse interroge ainsi le fait que les développements des approches de design, qui ont fait de l’expérience des usagers une préoccupation de premier plan, sont trop souvent restreints par des questions de méthodes et de procédures. Le développement de ces connaissances se serait fait au détriment de l’examen précis des savoir-être également nécessaires pour rendre les designers capables de prendre au sérieux les enjeux associés aux aspirations de ces approches. Plus spécifiquement, la recherche précise les qualités de l’expérience des établissements dont le design permet l’engagement en familiarité. L’enquête s’appuie sur une analyse des jugements posés par des équipes d’évaluation de la qualité du milieu de vie des CHSLD présents sur le territoire Montréalais. L’analyse a mené à la caractérisation de cinq qualités : l’accueillance, la convivialité, la flexibilité, la prévenance et la stabilité. Finalement, sous la forme d’un essai réflexif, un tableau de savoir-être est suggéré comme manière de rendre les designers capables de mettre en œuvre des milieux d’hébergement présentant les qualités identifiées. Cet essai est également l’occasion du développement d’un outil réflexif pour une pédagogie et une pratique vertueuse du design.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.
Resumo:
La précision des critères d’application du principe de subsidiarité et le développement de son contrôle par les institutions politiques constituent un progrès vers un plus grand respect de ce principe ; ces avancées restent néanmoins insuffisantes à en prévenir toute violation. En droit canadien, le problème est similaire, la précision des critères de la clause Paix, Ordre et Bon Gouvernement et de la clause de commerce, si utile qu’elle soit, ne permet pas d’éviter tout conflit de loi. L’étude de la jurisprudence de la Cour de Justice montre ses réticences à procéder à un contrôle allant au-delà de la recherche d’une motivation formelle de la nécessité de l’intervention européenne. Pourtant, la comparaison de la capacité à agir des différents niveaux de gouvernements, capacité à agir évoluant dans le temps, ne peut se faire sans référence au contexte d’application de la norme. La Cour de Justice pourrait comme la Cour Suprême du Canada, expliciter dans ses décisions son appréciation de la capacité à agir de chaque niveau de gouvernement. La subsidiarité éclaire sous un jour nouveau la clause de commerce ou la doctrine de l’intérêt national, jusqu’alors parfois perçues comme permettant un développement constant et unilatéral des compétences fédérales au détriment de celles des provinces. L’efficacité du contrôle du principe de subsidiarité ne dépend pas seulement de la Cour qui le met en œuvre mais peut aussi dépendre des institutions politiques l’ayant saisi, de l’argumentation des requérants en particuliers.
Resumo:
Au Québec, comme ailleurs en Occident, de plus en plus de personnes sont confrontées à une expérience de souffrance et d’exclusion qui les renvoie à la marge de la société. Cette thèse permet de saisir comment des personnes qui ont vécu une importante situation d'exclusion, entre autres, en raison de leur problème de santé mentale, en arrivent à se reconnaître comme des citoyennes en s'engageant dans leur communauté. Elle amène aussi à comprendre par quel cheminement ou parcours elles sont passées pour en arriver à s'émanciper des limites et contraintes qui pesaient sur elles. Enfin, elle éclaire le rôle joué par la participation à l'intérieur de leur parcours. Menée dans une perspective interdisciplinaire, cette recherche s’alimente de plusieurs courants théoriques tels que la sociologie, la psychanalyse, la science politique et le travail social. La notion de parcours d’émancipation permet de « s’émanciper » du modèle biomédical dominant en santé mentale en présentant une vision sociopolitique intégrant les dimensions individuelle et collective du changement. Elle amène à comprendre la constitution du « sujet-acteur » aux plans personnel et politique, c’est-à-dire le sujet qui advient par le travail de l’individu sur lui-même lui permettant de faire rupture avec son histoire passée et de la reconfigurer de manière à lui donner un nouveau sens, et l’acteur qui vient concrétiser la manifestation du sujet en actes, donc, la façon dont il s’actualise. La recherche met en évidence l’apport des organismes communautaires en santé mentale à ces parcours d’émancipation en identifiant les valeurs qui les animent et les dispositifs mis en place pour soutenir la transformation des personnes dans l’ensemble des dimensions de leur être : rapport à la « maladie », à soi, aux autres et au monde. En s’inspirant de Winnicott, on constate qu’ils constituent des espaces potentiels ou transitionnels qui donnent un ancrage sécuritaire et profond et qui jouent le rôle de « passeur d’être » permettant au sujet de s’actualiser et de devenir autonome. Ils apportent aussi une importante contribution à la réalisation des valeurs démocratiques et offrent des occasions aux personnes de se manifester en tant que « sujets-citoyens ».
Resumo:
La naissance avant terme constitue un important problème de santé périnatale partout dans le monde. Chaque année près de 15 millions de bébés naissent prématurément. Notre laboratoire s’intéresse depuis une décennie à la conception et le développement de nouvelles classes thérapeutiques (appelés agents tocolytiques) capables d’inhiber les contractions utérines et prolonger le temps de gestation. Due à son implication directe dans le déclanchement des contractions utérines, la prostaglandine F2α (FP) est devenue notre cible de choix. Le PDC 113.824 et aza-glycinyl-proline sont apparus comme des inhibiteurs allostériques puissants du récepteur de la prostaglandine F2α, capables de prolonger la durée de gestation chez les souris. Le travail réalisé au cours de ce mémoire a pour objectif d’étudier le tour β nécessaire pour la reconnaissance sur le récepteur de la prostaglandine F2α. Dans la conception de mime peptidique sélectif efficace et puissant, le repliement β est un élément structural essentiel pour le maintien ou l’amélioration de l’activité du mime peptidique. Les études conformationelles du PDC113.824 et l’aza-glycinyl-proline montrent que les squelettes centraux de ces mimes peptidiques pourraient adopter essentiellement un tour β de type I ou II`, ce qui suggère l’implication des deux types de tours dans l’activité biologique. La synthèse de mimes peptidiques adoptant le tour β de type I et II` est devenue une stratégie logique dans la recherche de nouveaux agents tocolytiques. Au cours de ces études quatre analogues du PDC113.824 ont été synthétisés, un azabicyclo[5.3.0]alkanone et un dipeptide macrocyclique (mimes du tours β de type I) pour étudier l’implication du tour β type I. Par la suite la synthèse de glycinyl-proline et le D-alaninyl-proline (des mimes du tour β du type II`) a été réalisée afin de valider l’implication du tour β type II` dans la reconnaissance sur le récepteur. Nous avons utilisé une stratégie de synthèse efficace pour obtenir les deux analogues (azabicyclo [5.3.0]alkanone et dipeptides macrocycles) à partir d’un intermédiaire commun, en procédant par une cyclisation transannulaire diastéréosélective du tétra-peptide.
Resumo:
Essai doctoral présenté à la Faculté des Arts et des Sciences en vue de l’obtention du grade de Doctorat en Psychologie option clinique (D.Psy.)