14 resultados para REFINEMENT

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit, option recherche"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La période postnatale et l’expérience sensorielle sont critiques pour le développement du système visuel. Les interneurones inhibiteurs exprimant l’acide γ-aminobutyrique (GABA) jouent un rôle important dans le contrôle de l’activité neuronale, le raffinement et le traitement de l’information sensorielle qui parvient au cortex cérébral. Durant le développement, lorsque le cortex cérébral est très susceptible aux influences extrinsèques, le GABA agit dans la formation des périodes critiques de sensibilité ainsi que dans la plasticité dépendante de l’expérience. Ainsi, ce système inhibiteur servirait à ajuster le fonctionnement des aires sensorielles primaires selon les conditions spécifiques d’activité en provenance du milieu, des afférences corticales (thalamiques et autres) et de l’expérience sensorielle. Certaines études montrent que des différences dans la densité et la distribution de ces neurones inhibiteurs corticaux reflètent les caractéristiques fonctionnelles distinctes entre les différentes aires corticales. La Parvalbumine (PV), la Calretinine (CR) et la Calbindine (CB) sont des protéines chélatrices du calcium (calcium binding proteins ou CaBPs) localisées dans différentes sous-populations d’interneurones GABAergiques corticaux. Ces protéines tamponnent le calcium intracellulaire de sorte qu’elles peuvent moduler différemment plusieurs fonctions neuronales, notamment l’aspect temporel des potentiels d’action, la transmission synaptique et la potentialisation à long terme. Plusieurs études récentes montrent que les interneurones immunoréactifs (ir) aux CaBPs sont également très sensibles à l’expérience et à l’activité sensorielle durant le développement et chez l’adulte. Ainsi, ces neurones pourraient avoir un rôle crucial à jouer dans le phénomène de compensation ou de plasticité intermodale entre les cortex sensoriels primaires. Chez le hamster (Mesocricetus auratus), l’énucléation à la naissance fait en sorte que le cortex visuel primaire peut être recruté par les autres modalités sensorielles, telles que le toucher et l’audition. Suite à cette privation oculaire, il y a établissement de projections ectopiques permanentes entre les collicules inférieurs (CI) et le corps genouillé latéral (CGL). Ceci a pour effet d’acheminer l’information auditive vers le cortex visuel primaire (V1) durant le développement postnatal. À l’aide de ce modèle, l’objectif général de ce projet de thèse est d’étudier l’influence et le rôle de l’activité sensorielle sur la distribution et l’organisation des interneurones corticaux immunoréactifs aux CaBPs dans les aires sensorielles visuelle et auditive primaires du hamster adulte. Les changements dans l’expression des CaBPs ont été déterminés d’une manière quantitative en évaluant les profils de distribution laminaire de ces neurones révélés par immunohistochimie. Dans une première expérience, nous avons étudié la distribution laminaire des CaBPs dans les aires visuelle (V1) et auditive (A1) primaires chez le hamster normal adulte. Les neurones immunoréactifs à la PV et la CB, mais non à la CR, sont distribués différemment dans ces deux cortex primaires dédiés à une modalité sensorielle différente. Dans une deuxième étude, une comparaison a été effectuée entre des animaux contrôles et des hamsters énucléés à la naissance. Cette étude montre que le cortex visuel primaire de ces animaux adopte une chimioarchitecture en PV similaire à celle du cortex auditif. Nos recherches montrent donc qu’une suppression de l’activité visuelle à la naissance peut influencer l’expression des CaBPs dans l’aire V1 du hamster adulte. Ceci suggère également que le type d’activité des afférences en provenance d’autres modalités sensorielles peut moduler, en partie, une circuiterie corticale en CaBPs qui lui est propre dans le cortex hôte ou recruté. Ainsi, nos travaux appuient l’hypothèse selon laquelle il serait possible que certaines de ces sous-populations d’interneurones GABAergiques jouent un rôle crucial dans le phénomène de la plasticité intermodale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Organisation mondiale de la Santé recommande aux individus de limiter leur consommation d’aliments sucrés dans le but de prévenir le développement des maladies chroniques. En santé publique, peu de recherches ont tenté d’identifier les facteurs individuels et contextuels qui peuvent influencer conjointement la consommation de ces aliments. Or, de telles connaissances seraient utiles pour guider les interventions nutritionnelles visant à en réduire la consommation. L’objectif de cette thèse est d'étudier les facteurs reliés au comportement et les contextes associés à la consommation quotidienne d’aliments sucrés chez des adultes vivant dans un milieu urbain occidental. Cette étude a été menée auprès d'une communauté moyen-orientale établie dans la Ville de Montréal. Les aliments sucrés ont été définis comme étant les glucides raffinés dont la teneur en sucres totaux dépasse 20 % de l’énergie totale. Lors de l’étape exploratoire (N = 42), un rappel de 24 heures a permis d’identifier les sources d’aliments sucrés et de déterminer l’apport quotidien en sucres totaux de cette communauté. Une étude qualitative descriptive a été privilégiée et un cadre écologique a guidé la réalisation d’entrevues semi-dirigées sur les contextes de consommation (N = 42). Une analyse de contenu employant des procédures de codage initial et focus a mené à l’élaboration d’un instrument de mesure quantitatif sur les contextes de consommation. Cet instrument a été soumis à un pré-test (N = 20), puis administré à l’échantillon principal (N = 192). Une analyse factorielle exploratoire a permis de préciser les contextes de consommation. Les facteurs individuels mesurés incluent les données sociodémographiques, les symptômes dépressifs, la maîtrise de soi, l’assoupissement de jour, les perceptions ainsi que l’hémoglobine glycosylée. La consommation quotidienne de sucres totaux a été mesurée par un questionnaire de fréquence alimentaire (N = 192). Une analyse de régression multivariée employant le modèle linéaire généralisé (distribution de type gamma et lien logarithmique) a été effectuée pour mesurer les relations entre les contextes de consommation, les facteurs individuels et la consommation de sucres totaux, en contrôlant l’âge et le sexe. L’apport quotidien en sucres totaux de l'échantillon est de 20,3 %, ce qui s’apparente aux apports des Canadiens et des Québécois. La consommation quotidienne moyenne est de 76 g/j. Les analyses qualitative et factorielle ont permis d’identifier un ensemble de 42 contextes de consommation regroupés en sept domaines (Actes et situations de grignotage, Stimuli visuels, Besoins énergétiques, Besoins émotionnels, Indulgence, Contraintes, Socialisation). La consommation quotidienne de sucres totaux est supérieure chez les hommes (B = 0,204, ES = 0,094, p = 0,03). Les facteurs positivement associés à la consommation sont le grignotage (B = 0,225, ES = 0,091, p = 0,01), la prise de dessert (B = 0,105, ES = 0,036, p = 0,001) ainsi que les symptômes dépressifs (B = 0,017, ES = 0,094, p = 0,03). L’âge (B = -0,01, ES = 0,004, p = 0,02), l’indulgence (B = -0,103, ES = 0,052, p = 0,05) et l’auto-modération (B = -0,121, ES = 0,042, p = 0,001) montrent, pour leur part, une association négative. Cette étude a privilégié une méthodologie mixte et a permis de développer une mesure innovatrice pour étudier les facteurs contextuels associés à la consommation d’aliments sucrés. Ceux-ci ont été analysés conjointement avec les facteurs individuels. Afin d'encourager les individus à réduire leur consommation de sucres totaux lorsque nécessaire, les initiatives en santé publique devraient en effet cibler les contextes de consommation de même que les facteurs individuels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Issu de la rencontre entre les disciplines de l’architecture intérieure et de la stratégie de marque et développé en réponse au raffinement de l’offre et des nouveaux modes de consommation, le design expérientiel présente un champ de pratique émergent qui tend vers la communication d’une expérience client marquante et immersive à travers l’environnement commercial. Bien que le sujet soit richement documenté par le domaine du marketing, il est apparu qu’il l’est moins par celui de l’aménagement. En effet, peu d’études démontrent concrètement la façon d’aménager l’espace marchand dans le contexte de la pratique du design expérientiel ou cherchent à mettre en lumière son empreinte physique sur l’environnement commercial. Cette recherche vise simultanément l’amélioration de la compréhension de la pratique émergente qu’est le design expérientiel ainsi que l’identification des caractéristiques environnementales propres aux espaces marchands qui en découlent. Dans la volonté de sonder le phénomène du design expérientiel tant dans la dimension conceptuelle de sa pratique que dans celle de son résultat bâti, la stratégie méthodologique de cette recherche repose sur la tenue d’entretiens semi-dirigés avec des professionnels basant leur pratique sur le design expérientiel et l’observation directe de trois projets commerciaux expérientiels reconnus. L’issue de cette recherche et les résultats extraits du terrain mèneront plutôt à relever l’existence d’un processus de conception caractéristique à la pratique ainsi que celle de concepts fondateurs qu’à identifier des éléments de l’aménagement intérieur propres aux environnements commerciaux en découlant. Nettement apparus au cours de l’étude, ce processus et la volonté de mettre sur pied une stratégie de communication solide semblent occuper une place plus importante dans la définition et la compréhension de la pratique du design expérientiel que les attributs de l’espace marchand comme tel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre thèse décrit et analyse les conditions esthétiques, matérielles et idéelles qui rendent possibles les agencements sonores du cinéma contemporain. Au cours des 30 dernières années, le raffinement des outils de manipulation du son, l’importance grandissante du concepteur sonore et le nouvel espace de cohabitation des sons (favorisé par le Dolby et la diffusion multicanal) sont des facteurs qui ont transformé la création et l’écoute du son au cinéma. Ces transformations révèlent un nouveau paradigme : le mixage s’est graduellement imposé comme le geste perceptif et créateur qui rend compte de la sensibilité contemporaine. Notre thèse explore les effets de la pensée du mixage (qui procède par résonance, simultanéité, dosage et modulation) sur notre écoute et notre compréhension de l'expérience cinématographique. À l'aide de paroles de concepteurs sonores (Murch, Beaugrand, Thom, Allard…), de textes théoriques sur le son filmique (Cardinal, Chion, Campan), de documentaires sur des musiciens improvisateurs (Lussier, Glennie, Frith), de films de fiction à la dimension sonore affirmée (Denis, Van Sant), de textes philosophiques sur la perception (Leibniz, James, Straus, Szendy…), d'analyses du dispositif sonore cinématographique, notre thèse rend audibles des tensions, des récurrences, de nouveaux agencements, des problèmes actuels et inactuels qui forgent et orientent l'écoute du théoricien, du créateur et de l'auditeur. En interrogeant la dimension sonore de la perception, de l’action, de l’espace et de la pensée, cette thèse a pour objectif de modifier la façon dont on écoute, crée et pense le son au cinéma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche revisite la conceptualisation du logement et des ressources résidentielles pour les adultes avec un trouble mental. Les objectifs visent : (1) à identifier les attributs, dimensions et domaines ; (2) à développer un nouveau modèle ; (3) à concevoir un instrument de mesure pour décrire l’éventail des ressources résidentielles en santé mentale. Méthodologie : Phase 1: Le devis de recherche s’articule autour de la cartographie de concepts, caractérisée par une méthodologie mixte. L’échantillonnage, par choix raisonné, a permis de recueillir une pluralité de perceptions et d’expériences (p.ex. personnes utilisatrices de services, proches, responsables de ressources résidentielles, gestionnaires). Les participants proviennent de cinq régions du Québec (nombre total de participations = 722). Au cours des six étapes de la cartographie de concepts, les participants ont généré des attributs décrivant le logement (n = 221), leur ont accordé une cote numérique (n = 416) et les ont regroupés en catégories (n = 73). Douze participants ont interprété des cartes conceptuelles produites par des analyses multivariées, soit l’échelonnage multidimensionnel (MDS) et la typologie hiérarchique. Des analyses par composantes principales (PCAs) ont été utilisées pour raffiner la conceptualisation (n = 228). Phase II: L’instrument a été développé, utilisé et ajusté à la suite de deux groupes de discussions (n = 23) et d’une étude transversale auprès de ressources résidentielles (n = 258). La passation se fait via une entrevue téléphonique semi-structurée enregistrée, d’une durée moyenne de 130 minutes. Résultats : Les participants ont généré 1382 idées (99.5% de saturation). Les cartes conceptuelles issues de la cartographie de concepts comprennent 140 idées (attributs du logement), 12 dimensions et cinq domaines (indice de stress MDS = 0.2302, 10 itérations). Les analyses PCAs ont permis de retenir quatre domaines, 11 composantes (α = 0.600 à 0.933) et 81 attributs. Les domaines sont : (1) environnement géophysique; (2) atmosphère et fonctionnement du milieu; (3) soutien et interventions offerts; (4) pratiques organisationnelles et managériales. L’instrument développé comprend quatre domaines, 10 dimensions et 83 attributs. À cela s’ajoutent des variables descriptives. L’instrument résulte des Phases I et II de ce projet. Conclusion : L’instrument a été développé en collaboration avec diverses parties prenantes, à partir de considérations ontologiques, réalistes, causales et statistiques. Il dresse le profil détaillé d’une ressource résidentielle sous ses différentes facettes et s’appuie sur la prémisse qu’il n’existe pas de milieu résidentiel idéal pour tous.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements technologiques ont des effets structurants sur l’organisation des soins dans notre système de santé. Les professionnels de la santé et les patients – les principaux utilisateurs des innovations médicales – sont des acteurs clés dans les trajectoires suivies par les nouvelles technologies en santé. Pour développer des technologies médicales plus efficaces, sécuritaires et conviviales, plusieurs proposent d’intensifier la collaboration entre les utilisateurs et les développeurs. Cette recherche s’intéresse à cette prémisse sur la participation des utilisateurs dans les processus d’innovation médicale. L'objectif général de cette recherche est de mieux comprendre la collaboration entre les utilisateurs et les développeurs impliqués dans la transformation des innovations médicales. Adoptant un cadre d’analyse sociotechnique, cette thèse par articles s’articule autour de trois objectifs : 1) décrire comment la littérature scientifique définit les objectifs, les méthodes et les enjeux de l’engagement des utilisateurs dans le développement des innovations médicales; 2) analyser les perspectives d’utilisateurs et de développeurs de technologies médicales quant à leur collaboration dans le processus d’innovation; et 3) analyser comment sont mobilisés, en pratique, des utilisateurs dans le développement d’une innovation médicale. Le premier objectif s’appuie sur une synthèse structurée des écrits scientifiques (n=101) portant sur le phénomène de la participation des utilisateurs dans les processus d’innovation médicale. Cette synthèse a dégagé les méthodes appliquées ou proposées pour faire participer les utilisateurs, les arguments normatifs véhiculés ainsi que les principaux enjeux soulevés. Le deuxième objectif repose sur l’analyse de trois groupes de discussion délibératifs et d'une plénière impliquant des utilisateurs et des développeurs (n=19) de technologies médicales. L’analyse a permis d’examiner leurs perspectives à l'égard de diverses approches de collaboration dans les processus d'innovation. Le troisième objectif implique l’étude d’une innovation en électrophysiologie lors de la phase de recherche clinique. Cette étude de cas unique s'appuie sur une analyse qualitative d'études cliniques (n=57) et des éditoriaux et synthèses de connaissances dans des revues médicales spécialisées (n=15) couvrant une période de dix ans (1999 à 2008) ainsi que des entrevues semi-dirigées avec des acteurs clés impliqués dans le processus d’innovation (n=3). Cette étude a permis de mieux comprendre comment des utilisateurs donne un sens, s’approprient et légitiment une innovation médicale en contexte de recherche clinique. La contribution générale de cette thèse consiste en une meilleure compréhension de l’apport des utilisateurs dans les processus d’innovation médicale et de sa capacité à aligner plus efficacement le développement technologique avec les objectifs du système de santé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les pyréthrinoïdes sont des insecticides largement utilisés. La population générale y est exposée par l’alimentation tandis que les travailleurs agricoles y sont exposés lors de tâches diverses en champs. Leurs effets neurotoxiques, immunitaires et endocriniens potentiels en font des composés à surveiller pour assurer la santé de la population. La mesure de biomarqueurs d’exposition, qui consiste à quantifier la concentration dans l’organisme d’une substance ou de ses métabolites, permet d’estimer les doses absorbées. Les biomarqueurs peuvent également être des molécules répondant à un stress physiologique, identifiées comme des biomarqueurs d’effets. Pour raffiner les stratégies de biosurveillance de l’exposition, on se doit de bien connaître la toxicocinétique d’un xénobiotique; actuellement, les études de biosurveillance considèrent rarement la variabilité temporelle, intra-invidivuelle et inter-individuelle, qui pourrait influencer l’estimation de l’exposition. L’objectif de la thèse est donc d’appliquer une approche cinétique pour l’évaluation de l’exposition aux pyréthrinoïdes en conditions contrôlées et en milieu de travail. Dans un volet exploratoire, l’effet de cette exposition sur des changements métaboliques précoces a également évalué. Trois métabolites finaux (cis-DCCA, trans-DCCA et 3-PBA) de deux pyréthrinoïdes les plus utilisés, soient la perméthrine et la cyperméthrine, ont été mesurés dans le plasma et l’urine de six volontaires oralement exposés à une dose équivalente à la dose de référence. Une demi-vie moyenne (t½) d’élimination apparente du trans-DCCA, cis-DCCA et 3-PBA dans le plasma de 5,1, 6,9 et 9,2 h, respectivement, a été obtenue après exposition orale à la cyperméthrine, comparativement à 7,1, 6,2 et 6,5 h après exposition à la perméthrine. Dans l’urine, la demi-vie d'élimination apparente (t½) était de 6,3, 6,4 et 6,4 h pour le trans-DCCA, cis-DCCA et 3-PBA, respectivement, après administration de la cyperméthrine comparé à 5,4, 4,5 et 5,7 h après administration de la perméthrine. Les profils temporels étaient semblables suite à l’exposition à la cyperméthrine et perméthrine. Ensuite, une étude en milieu agricole a été réalisée avec la participation de travailleurs pour évaluer leur exposition et raffiner les stratégies de biosurveillance. La variabilité intra-individuelle dans les niveaux de biomarqueurs d’exposition chez plusieurs travailleurs était plus importante que la variabilité inter-individuelle. Les échantillons urinaires ont également été utilisés pour identifier des modifications du métabolome pouvant fournir de nouveaux biomarqueurs d’effets précoces. Chez les travailleurs, une augmentation de l'hippurate urinaire (p <0,0001) a été observée après exposition aux pyréthrinoïdes, un biomarqueur de la conjugaison de l’acide benzoïque. En conclusion, cette étude a permis de mieux documenter la cinétique de biomarqueurs d’exposition aux pyréthrinoïdes dans des conditions contrôlées et réelles afin de raffiner les stratégies de biosurveillance. Elle a aussi contribué à renseigner sur les niveaux d’exposition agricole québécois et sur les paramètres professionnels associés à une plus forte exposition. Ce projet s’insère dans une démarche d’analyse de risque en santé au travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les protéines sont au coeur de la vie. Ce sont d'incroyables nanomachines moléculaires spécialisées et améliorées par des millions d'années d'évolution pour des fonctions bien définies dans la cellule. La structure des protéines, c'est-à-dire l'arrangement tridimensionnel de leurs atomes, est intimement liée à leurs fonctions. L'absence apparente de structure pour certaines protéines est aussi de plus en plus reconnue comme étant tout aussi cruciale. Les protéines amyloïdes en sont un exemple marquant : elles adoptent un ensemble de structures variées difficilement observables expérimentalement qui sont associées à des maladies neurodégénératives. Cette thèse, dans un premier temps, porte sur l'étude structurelle des protéines amyloïdes bêta-amyloïde (Alzheimer) et huntingtine (Huntington) lors de leur processus de repliement et d'auto-assemblage. Les résultats obtenus permettent de décrire avec une résolution atomique les interactions des ensembles structurels de ces deux protéines. Concernant la protéine bêta-amyloïde (AB), nos résultats identifient des différences structurelles significatives entre trois de ses formes physiologiques durant ses premières étapes d'auto-assemblage en environnement aqueux. Nous avons ensuite comparé ces résultats avec ceux obtenus au cours des dernières années par d'autres groupes de recherche avec des protocoles expérimentaux et de simulations variés. Des tendances claires émergent de notre comparaison quant à l'influence de la forme physiologique de AB sur son ensemble structurel durant ses premières étapes d'auto-assemblage. L'identification des propriétés structurelles différentes rationalise l'origine de leurs propriétés d'agrégation distinctes. Par ailleurs, l'identification des propriétés structurelles communes offrent des cibles potentielles pour des agents thérapeutiques empêchant la formation des oligomères responsables de la neurotoxicité. Concernant la protéine huntingtine, nous avons élucidé l'ensemble structurel de sa région fonctionnelle située à son N-terminal en environnement aqueux et membranaire. En accord avec les données expérimentales disponibles, nos résultats sur son repliement en environnement aqueux révèlent les interactions dominantes ainsi que l'influence sur celles-ci des régions adjacentes à la région fonctionnelle. Nous avons aussi caractérisé la stabilité et la croissance de structures nanotubulaires qui sont des candidats potentiels aux chemins d'auto-assemblage de la région amyloïde de huntingtine. Par ailleurs, nous avons également élaboré, avec un groupe d'expérimentateurs, un modèle détaillé illustrant les principales interactions responsables du rôle d'ancre membranaire de la région N-terminal, qui sert à contrôler la localisation de huntingtine dans la cellule. Dans un deuxième temps, cette thèse porte sur le raffinement d'un modèle gros-grain (sOPEP) et sur le développement d'un nouveau modèle tout-atome (aaOPEP) qui sont tous deux basés sur le champ de force gros-grain OPEP, couramment utilisé pour l'étude du repliement des protéines et de l'agrégation des protéines amyloïdes. L'optimisation de ces modèles a été effectuée dans le but d'améliorer les prédictions de novo de la structure de peptides par la méthode PEP-FOLD. Par ailleurs, les modèles OPEP, sOPEP et aaOPEP ont été inclus dans un nouveau code de dynamique moléculaire très flexible afin de grandement simplifier leurs développements futurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

There are many ways to generate geometrical models for numerical simulation, and most of them start with a segmentation step to extract the boundaries of the regions of interest. This paper presents an algorithm to generate a patient-specific three-dimensional geometric model, based on a tetrahedral mesh, without an initial extraction of contours from the volumetric data. Using the information directly available in the data, such as gray levels, we built a metric to drive a mesh adaptation process. The metric is used to specify the size and orientation of the tetrahedral elements everywhere in the mesh. Our method, which produces anisotropic meshes, gives good results with synthetic and real MRI data. The resulting model quality has been evaluated qualitatively and quantitatively by comparing it with an analytical solution and with a segmentation made by an expert. Results show that our method gives, in 90% of the cases, as good or better meshes as a similar isotropic method, based on the accuracy of the volume reconstruction for a given mesh size. Moreover, a comparison of the Hausdorff distances between adapted meshes of both methods and ground-truth volumes shows that our method decreases reconstruction errors faster. Copyright © 2015 John Wiley & Sons, Ltd.