23 resultados para two-step model
em Université de Montréal, Canada
Resumo:
Les chimiokines sont des petites protéines secrétées dont la fonction principale est la stimulation de la migration de cellules immunitaires vers différents organes et tissus. Elles sont souvent impliquées lors des maladies inflammatoires, auto-immunes et des cancers. Ainsi, les chimiokines et leurs récepteurs couplés aux protéines G (RCPG) sont la cible pharmacologique de plusieurs molécules, actuellement testées en essais cliniques. Nous avons pris comme modèle, lors de notre étude, le récepteur atypique CXCR7. Ce récepteur est dit atypique, car il ne signalise pas via la voie classique des protéines G, mais plutôt via la voie de la β-arrestine. CXCR7 est impliqué dans de nombreux cancers, favorise la progression métastatique et est un co-récepteur pour le virus de l’immunodéficience humaine (VIH). Cependant, aucune donnée sur son mode de liaison avec ses ligands CXCL11/ITAC et CXCL12/SDF-1 n’existe à date. Nous pensons que cette information est essentielle pour le développement efficace d’agonistes et d’antagonistes, et nous nous sommes intéressés à identifier les résidus essentiels à la liaison des deux ligands de CXCR7 et à son activation par ces derniers. Pour cela, nous avons créé une série de mutants par substitution ou délétion d’acides aminés de la partie N-terminale, des boucles extracellulaires et des domaines transmembranaires du récepteur. Nous avons testé leur marquage en surface cellulaire par cytométrie en flux, leur liaison des deux ligands par expériences de radio-liaison, et leur capacité à recruter la β-arrestine en réponse aux ligands par essais BRET. Les résultats obtenus ont permis d’identifier des résidus importants à l’interaction des systèmes CXCR7/SDF-1 et CXCR7-ITAC et suggèrent des modes de liaison à CXCR7 différents entre ITAC et SDF-1. Tout comme la liaison d’ITAC à son autre récepteur CXCR3, sa liaison à CXCR7 suivrait le mode conventionnel de liaison en deux étapes des récepteurs de chimiokines. Cependant, la liaison de SDF-1 à CXCR7 suivrait un autre mode de liaison, contrairement à sa liaison à son autre récepteur, CXCR4.
Resumo:
I provide choice-theoretic foundations for a simple two-stage model, called transitive shortlist methods, where choices are made by sequentially by applying a pair of transitive preferences (or rationales) to eliminate inferior alternatives. Despite its simplicity, the model accommodates a wide range of choice phenomena including the status quo bias, framing, homophily, compromise, and limited willpower. I establish that the model can be succinctly characterized in terms of some well-documented context effects in choice. I also show that the underlying rationales are straightforward to determine from readily observable reversals in choice. Finally, I highlight the usefulness of these results in a variety of applications.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.
Resumo:
Les fluctuations économiques représentent les mouvements de la croissance économique. Celle-ci peut connaître des phases d'accélération (expansion) ou de ralentissement (récession), voire même de dépression si la baisse de production est persistente. Les fluctuations économiques sont liées aux écarts entre croissance effective et croissance potentielle. Elles peuvent s'expliquer par des chocs d'offre et demande, ainsi que par le cycle du crédit. Dans le premier cas, les conditions de la production se trouvent modifiées. C'est le cas lorsque le prix des facteurs de production (salaires, prix des matières premières) ou que des facteurs externes influençant le prix des produits (taux de change) évolue. Ainsi, une hausse du prix des facteurs de production provoque un choc négatif et ralentit la croissance. Ce ralentissement peut être également dû à un choc de demande négatif provoqué par une hausse du prix des produits causée par une appréciation de la devise, engendrant une diminution des exportations. Le deuxième cas concerne les variables financières et les actifs financiers. Ainsi, en période d'expansion, les agents économiques s'endettent et ont des comportements spéculatifs en réaction à des chocs d'offre ou demande anticipés. La valeur des titres et actifs financiers augmente, provoquant une bulle qui finit par éclater et provoquer un effondrement de la valeur des biens. Dès lors, l'activité économique ne peut plus être financée. C'est ce qui génère une récession, parfois profonde, comme lors de la récente crise financière. Cette thèse inclut trois essais sur les fluctuations macroéconomiques et les cycles économiques, plus précisément sur les thèmes décrit ci-dessus. Le premier chapitre s'intéresse aux anticipations sur la politique monétaire et sur la réaction des agents écononomiques face à ces anticipations. Une emphase particulière est mise sur la consommation de biens durables et l'endettement relié à ce type de consommation. Le deuxième chapitre aborde la question de l'influence des variations du taux de change sur la demande de travail dans le secteur manufacturier canadien. Finalement, le troisième chapitre s'intéresse aux retombées économiques, parfois négatives, du marché immobilier sur la consommation des ménages et aux répercussions sur le prix des actifs immobiliers et sur l'endettement des ménages d'anticipations infondées sur la demande dans le marché immobilier. Le premier chapitre, intitulé ``Monetary Policy News Shocks and Durable Consumption'', fournit une étude sur le lien entre les dépenses en biens durables et les chocs monétaires anticipés. Nous proposons et mettons en oeuvre une nouvelle approche pour identifier les chocs anticipés (nouvelles) de politique monétaire, en les identifiant de manière récursive à partir des résidus d’une règle de Taylor estimée à l’aide de données de sondage multi-horizon. Nous utilisons ensuite les chocs anticipés inférer dans un modèle autorégressif vectoriel structurel (ARVS). L’anticipation d’une politique de resserrement monétaire mène à une augmentation de la production, de la consommation de biens non-durables et durables, ainsi qu’à une augmentation du prix réel des biens durables. Bien que les chocs anticipés expliquent une part significative des variations de la production et de la consommation, leur impact est moindre que celui des chocs non-anticipés sur les fluctuations économiques. Finalement, nous menons une analyse théorique avec un modèle d’équilibre général dynamique stochastique (EGDS) avec biens durables et rigidités nominales. Les résultats indiquent que le modèle avec les prix des biens durables rigides peut reproduire la corrélation positive entre les fonctions de réponse de la consommation de biens non-durables et durables à un choc anticipé de politique monétaire trouvées à l’aide du ARVS. Le second chapitre s'intitule ``Exchange Rate Fluctuations and Labour Market Adjustments in Canadian Manufacturing Industries''. Dans ce chapitre, nous évaluons la sensibilité de l'emploi et des heures travaillées dans les industries manufacturières canadiennes aux variations du taux de change. L’analyse est basée sur un modèle dynamique de demande de travail et utilise l’approche en deux étapes pour l'estimation des relations de cointégration en données de panel. Nos données sont prises d’un panel de 20 industries manufacturières, provenant de la base de données KLEMS de Statistique Canada, et couvrent une longue période qui inclut deux cycles complets d’appréciation-dépréciation de la valeur du dollar canadien. Les effets nets de l'appréciation du dollar canadien se sont avérés statistiquement et économiquement significatifs et négatifs pour l'emploi et les heures travaillées, et ses effets sont plus prononcés dans les industries davantage exposées au commerce international. Finalement, le dernier chapitre s'intitule ``Housing Market Dynamics and Macroprudential Policy'', dans lequel nous étudions la relation statistique suggérant un lien collatéral entre le marché immobilier and le reste de l'économique et si ce lien est davantage entraîné par des facteurs de demandes ou d'offres. Nous suivons également la littérature sur les chocs anticipés et examinons un cyle d'expansion-récession peut survenir de façon endogène la suite d'anticipations non-réalisées d'une hausse de la demande de logements. À cette fin, nous construisons un modèle néo-Keynésien au sein duquel le pouvoir d’emprunt du partie des consommateurs est limité par la valeur de leur patrimoine immobilier. Nous estimons le modèle en utilisant une méthode Bayésienne avec des données canadiennes. Nous évaluons la capacité du modèle à capter les caractéristiques principales de la consommation et du prix des maisons. Finalement, nous effectuons une analyse pour déterminer dans quelle mesure l'introduction d'un ratio prêt-à-la-valeur contracyclique peut réduire l'endettement des ménages et les fluctuations du prix des maisons comparativement à une règle de politique monétaire répondant à l'inflation du prix des maisons. Nous trouvons une relation statistique suggérant un important lien collatéral entre le marché immobilier et le reste de l'économie, et ce lien s'explique principalement par des facteurs de demande. Nous constatons également que l'introduction de chocs anticipés peut générer un cycle d'expansion-récession du marché immobilier, la récession faisant suite aux attentes non-réalisées par rapport à la demande de logements. Enfin, notre étude suggère également qu'un ratio contracyclique de prêt-à-la-valeur est une politique utile pour réduire les retombées du marché du logement sur la consommation par l'intermédiaire de la valeur garantie.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Ce mémoire porte sur la constitution du tiers secteur français en tant qu’acteur social et politique. Dans de nombreux pays, les relations entre l’État et les organismes mutualistes, coopératifs et associatifs de la société civile (un ensemble hétérogène qu’on appelle ici le « tiers secteur ») ont été récemment formalisées par des partenariats. En France, cette institutionnalisation s’est concrétisée en 2001 par la signature d’une Charte (CPCA). Nous explorons l’hypothèse qu’à travers l’institutionnalisation, le tiers secteur français se construit en tant qu’acteur –ayant une (ou des) identités propres de même qu’un projet de société relativement bien défini. La perspective dominante présente dans la littérature internationale traitant de l’institutionnalisation des rapports entre l’État et le tiers secteur est celle d’une instrumentalisation des organisations du tiers secteur au détriment de leurs spécificités et de leur autonomie. Cette perspective nous semble limitative, car elle semble être aveugle à la capacité d’action des organisations. Par conséquent, dans ce mémoire, nous cherchons à comprendre si une transformation identitaire a eu lieu ou est en cours, au sein du tiers secteur français, et donc s’il se transforme en acteur collectif. Pour apporter certains éléments de réponse à nos hypothèses et questions de recherche, nous avons effectué une analyse des discours via deux sources de données; des textes de réflexion rédigés par des acteurs clés du tiers secteur français et des entretiens effectués avec certains d’entre eux au printemps 2003 et à l’automne 2005. Sur la base de deux inspirations théoriques (Hobson et Lindholm, 1997 et Melucci, 1991), notre analyse a été effectuée en deux étapes. Une première phase nous a permis d’identifier deux cadres cognitifs à partir desquels se définissent les acteurs du tiers secteur français, les cadres « association » et « économie solidaire ». Une deuxième phase d’analyse consistait à déterminer si les deux cadres cognitifs pouvaient être considérés comme étant des tensions existant au sein d’un seul et même acteur collectif. Nos résultats nous permettent de conclure que les organisations du tiers secteur français ne se perçoivent pas globalement comme un ensemble unifié. Néanmoins, nous avons pu dégager certains éléments qui démontrent que les cadres sont partiellement conciliables. Cette conciliation est grandement subordonnée aux contextes sociopolitiques et économiques français, européen et international et est également conditionnelle à la découverte d’un mode de fonctionnement convenant à tous les acteurs.
Resumo:
In an abstract two-agent model, we show that every deterministic joint choice function compatible with the hypothesis that agents act noncooperatively is also compatible with the hypothesis that they act cooperatively. the converse is false.
Resumo:
Objectifs : Définir les paramètres pharmacocinétiques du pantoprazole intraveineux en soins intensifs pédiatriques et déterminer l’influence qu’exercent sur ceux-ci les facteurs démographiques, le syndrome de réponse inflammatoire systémique (SRIS), la dysfonction hépatique et l’administration d’un inhibiteur du cytochrome (CYP) 2C19. Méthode : Cent cinquante-six concentrations plasmatiques de pantoprazole provenant d’une population de 20 patients (âgés de 10 jours à 16.4 ans) à risque ou atteints d’une hémorragie gastroduodénale de stress, ayant reçu des doses quotidiennes de pantoprazole de 19.9 à 140.6 mg/1.73m2, ont été analysées selon les méthodes non compartimentale et de modélisation non linéaire à effets mixtes. Résultats : Une clairance médiane (CL) de 0.14 L/h/kg, un volume apparent de distribution de 0.20 L/kg et une demi-vie d’élimination de 1.7 h ont été déterminés via l’approche non compartimentale. Le modèle populationnel à deux compartiments avec une infusion d’ordre zéro et une élimination d’ordre un représentait fidèlement la cinétique du pantoprazole. Le poids, le SRIS, la dysfonction hépatique et l’administration d’un inhibiteur du CYP2C19 constituaient les covariables significatives rendant compte de 75 % de la variabilité interindividuelle observée pour la CL. Seul le poids influençait significativement le volume central de distribution (Vc). Selon les estimations du modèle final, un enfant de cinq ans pesant 20 kg avait une CL de 5.28 L/h et un Vc de 2.22 L. La CL du pantoprazole augmentait selon l’âge et le poids tandis qu’elle diminuait respectivement de 62.3%, 65.8% et 50.5% en présence d’un SRIS, d’un inhibiteur du CYP2C19 ou d’une dysfonction hépatique. Conclusion : Ces résultats permettront de guider les cliniciens dans le choix d’une dose de charge et dans l’ajustement des posologies du pantoprazole en soins intensifs pédiatriques dépendamment de facteurs fréquemment rencontrés dans cette population.
Resumo:
Dans ce travail, j’étudie les relations entre la blogosphère politique dans la ville de São Paulo, au Brésil, et l’ensemble de l’écologie médiatique dans laquelle celle-ci est insérée. En établissant un dialogue avec les théories qui posent la dissémination des blogues comme le moment de répartition des moyens de production et de démocratisation de parole, je propose que la blogosphère doit plutôt être envisagée comme une instance de filtrage des produits des médias de masse. J’emprunte le concept de « dispositif » à Michel Foucault et à Giorgio Agamben, pour définir les médias du monde contemporain selon les termes d’un dispositif médiatique. J’emprunte aussi les concepts de « two-step flow of communications » et de « leader d’opinion » à Paul F. Lazarsfeld et Elihu Katz pour localiser la blogosphère dans l’ensemble de notre espace médiatique. Je défends également l’idée que les blogueurs exercent aujourd’hui une fonction semblable à celle des leaders d’opinion que décrivent Katz et Lazarsfeld – ce que je nomme la fonction-filtre de la blogosphère - et que ces blogueurs se situent dans la couche intermédiaire du flux d’informations dans les démocraties occidentales, c'est-à-dire celle qui se trouve entre les médias de masse et les récepteurs. Pour conduire ma recherche, j’ai réalisé une ethnographie virtuelle auprès des blogueurs de la ville de São Paulo, au Brésil, pendant la période de la campagne électorale de 2008 à la mairie. Ensuite, j’ai soumis l’ensemble de leur production discursive à une analyse sociolinguistique. Et je conclus que plutôt qu’étant le fruit d’une révolution, l’écologie médiatique contemporaine reprend - en les diversifiant et en les étendant - des processus que l’on ne pensait propres qu’aux dynamiques des médias de masse.
Resumo:
Une partie du travail a mené a un dépôt de brevet.
Resumo:
Les jeunes adultes commettent plus souvent des conduites violentes au sein de leur couple que les adultes plus âgés. Le but de cette étude est de proposer une classification de jeunes adultes violents au sein de leur couple à l’aide de variables motivationnelles et d’évaluer la validité discriminante des profils au niveau de variables liées à la violence psychologique et physique et de comparer les profils motivationnels à un groupe de jeunes adultes non violent. Les 457 participants de cette étude sont des jeunes adultes de la population générale provenant de la région de Québec et de Montréal. L’analyse de classification two-step cluster à permis de trouver trois profils distincts : (1) le réactif (2) le commun et (3) l’hostile. Les analyses comparatives démontrent que les réactifs sont ceux qui commettent le plus d’actes de violence physique différents, que les communs sont les moins violents, les moins en détresse et perçoivent l’impact de leur violence moins négativement et que les hostiles sont ceux qui sont les plus violents, les plus en détresse et perçoivent l’impact de leur violence plus négativement. Les individus non violents sont significativement moins en détresse et consomment moins d’alcool que tous les profils violents. Les résultats serviront à obtenir une meilleure compréhension des individus violents, à améliorer le dépistage des individus les plus à risque de recourir à la violence au sein de leur couple et d’effectuer de la prévention en les sensibilisant aux caractéristiques des individus violents.
Resumo:
L’ablation de cibles d’Al nanocristallines (taille moyenne des cristallites d = 3,1 et 6,2 nm) par impulsions laser ultrabrèves (200 fs) a été étudiée par l’entremise de si- mulations combinant la dynamique moléculaire et le modèle à deux températures (two- temperature model, TTM) pour des fluences absorbées allant de 100 à 1300 J/m2. Nos simulations emploient un potentiel d’interaction de type EAM et les propriétés électro- niques des cibles en lien avec le TTM sont représentées par un modèle réaliste possédant une forme distincte dans le solide monocristallin, le solide nanocristallin et le liquide. Nous avons considéré l’effet de la taille moyenne des cristallites de même que celui de la porosité et nous avons procédé à une comparaison directe avec des cibles mono- cristallines. Nous avons pu montrer que le seuil d’ablation des métaux nanocristallins est significativement plus bas, se situant à 400 J/m2 plutôt qu’à 600 J/m2 dans le cas des cibles monocristallines, l’écart étant principalement dû à l’onde mécanique plus im- portante présente lors de l’ablation. Leur seuil de spallation de la face arrière est aussi significativement plus bas de par la résistance à la tension plus faible (5,40 GPa contre 7,24 GPa) des cibles nanocristallines. Il est aussi apparu que les contraintes résiduelles accompagnant généralement l’ablation laser sont absentes lors de l’ablation de cibles d’aluminium nanocristallines puisque la croissance cristalline leur permet d’abaisser leur volume spécifique. Nos résultats indiquent aussi que le seuil de fusion des cibles nano- cristallines est réduit de façon marquée dans ces cibles ce qui s’explique par la plus faible énergie de cohésion inhérente à ces matériaux. Nos simulations permettent de montrer que les propriétés structurelles et électroniques propres aux métaux nanocristallins ont toutes deux un impact important sur l’ablation.
Resumo:
Les récepteurs couplés aux protéines GRCPG sont une des plus grandes familles de récepteur membranaire codifié par le génome humain et certainement la plus grande famille de récepteurs. Localisés au niveau des membranes plasmiques, ils sont responsables d’une grande variété de réponses cellulaires. L’activation de ces derniers par des ligands était traditionnellement associée à un changement de conformation de la protéine, passant d’un état inactif à un état actif. Toutefois, certaines observations entraient en contradiction avec cette théorie et laissaient supposer la présence de plusieurs conformations actives du récepteur. Ces différentes conformations pouvaient être actives pour certaines voies de signalisation ou de régulation et inactives pour d’autres. Ce phénomène, initialement appelé agoniste dirigé ou « biased agonism », est maintenant décrit comme étant la sélectivité fonctionnelle des ligands des RCPG. Cette sélectivité des voies de signalisation et de régulation permettrait en théorie de développer des ligands capables de cibler seulement les voies de signalisation et de régulation responsable des effets thérapeutiques sans activer les voies responsables des effets secondaires ou indésirables. Le récepteur delta opiacé (DOR) est un RCPG impliqué dans la gestion de la douleur chronique. L’action analgésique de ses ligands est toutefois soumise à un effet de tolérance produite lors de leur utilisation à long terme. Cet effet secondaire limite l’utilisation thérapeutique de ces médicaments. Cette thèse s’est donc intéressée à la sélectivité fonctionnelle des ligands du DOR afin d’évaluer la possibilité de réduire les effets de tolérance produits par ces molécules. En premier lieu, nous avons déterminé que le DOR peut être stabilisé dans plusieurs conformations actives dépendantes du ligand qui le lie et ces conformations possèdent différents profils d’activation des voies de signalisation et de régulation. En deuxième lieu, nous avons déterminé que les différents ligands du DOR stabilisent des conformations du complexe récepteur/protéine G qui ne concordent pas avec la théorie des récepteurs à deux états, suggérant plutôt la présence d’une multitude de conformations actives. Finalement, nous avons démontré que ces différentes conformations interagissaient de façon distincte avec les protéines de régulation des RCPG; le ligand favorisant le retour du récepteur à la membrane produisant moins de désensibilisation et moins de tolérance aiguë à l’analgésie que le ligand favorisant la séquestration du récepteur à l’intérieur de la cellule. Les résultats de cette thèse démontrent que la sélectivité fonctionnelle des ligands opiacés pourrait être utilisée dans le développement de nouveau analgésique produisant moins de tolérance.