46 resultados para Paramètres polarimétriques
Resumo:
Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.
Resumo:
Cette thèse présente une théorie de la fonction formelle et de la structure des phrases dans la musique contemporaine, théorie qui peut être utilisée aussi bien comme outil analytique que pour créer de nouvelles œuvres. Deux concepts théoriques actuels aident à clarifier la structure des phrases : les projections temporelles de Christopher Hasty et la théorie des fonctions formelles de William Caplin, qui inclut le concept de l’organisation formelle soudée versus lâche (tight-knit vs. loose). Les projections temporelles sont perceptibles grâce à l’accent mis sur les paramètres secondaires, comme le style du jeu, l’articulation et le timbre. Des sections avec une organisation formelle soudée ont des projections temporelles claires, qui sont créées par la juxtaposition des motifs distincts, généralement sous la forme d'une idée de base en deux parties. Ces projections organisent la musique en phrases de présentation, en phrases de continuité et finalement, à des moments formels charnières, en phrases cadentielles. Les sections pourvues d’une organisation plus lâche tendent à présenter des projections et mouvements harmoniques moins clairs et moins d’uniformité motivique. La structure des phrases de trois pièces tardives pour instrument soliste de Pierre Boulez est analysée : Anthèmes I pour violon (1991-1992) et deux pièces pour piano, Incises (2001) et une page d’éphéméride (2005). Les idées proposées dans le présent document font suite à une analyse de ces œuvres et ont eu une forte influence sur mes propres compositions, en particulier Lucretia Overture pour orchestre et 4 Impromptus pour flûte, saxophone soprano et piano, qui sont également analysés en détail. Plusieurs techniques de composition supplémentaires peuvent être discernés dans ces deux œuvres, y compris l'utilisation de séquence mélodiques pour contrôler le rythme harmonique; des passages composés de plusieurs couches musicales chacun avec un structure de phrase distinct; et le relâchement de l'organisation formelle de matériels récurrents. Enfin, la composition de plusieurs autres travaux antérieurs a donné lieu à des techniques utilisées dans ces deux œuvres et ils sont brièvement abordés dans la section finale.
Resumo:
L’utilisation de nanovecteurs pour la livraison contrôlée de principes actifs est un concept commun de nous jours. Les systèmes de livraison actuels présentent encore cependant des limites au niveau du taux de relargage des principes actifs ainsi que de la stabilité des transporteurs. Les systèmes composés à la fois de nanovecteurs (liposomes, microgels et nanogels) et d’hydrogels peuvent cependant permettre de résoudre ces problèmes. Dans cette étude, nous avons développé un système de livraison contrôlé se basant sur l’incorporation d’un nanovecteur dans une matrice hydrogel dans le but de combler les lacunes des systèmes se basant sur un vecteur uniquement. Une telle combinaison pourrait permettre un contrôle accru du relargage par stabilisation réciproque. Plus spécifiquement, nous avons développé un hydrogel structuré intégrant des liposomes, microgels et nanogels séparément chargés en principes actifs modèles potentiellement relargués de manière contrôlé. Ce contrôle a été obtenu par la modification de différents paramètres tels que la température ainsi que la composition et la concentration en nanovecteurs. Nous avons comparé la capacité de chargement et la cinétique de relargage de la sulforhodamine B et de la rhodamine 6G en utilisant des liposomes de DOPC et DPPC à différents ratios, des nanogels de chitosan/acide hyaluronique et des microgels de N-isopropylacrylamide (NIPAM) à différents ratios d’acide méthacrylique, incorporés dans un hydrogel modèle d’acrylamide. Les liposomes présentaient des capacités de chargement modérés avec un relargage prolongé sur plus de dix jours alors que les nanogels présentaient des capacités de chargement plus élevées mais une cinétique de relargage plus rapide avec un épuisement de la cargaison en deux jours. Comparativement, les microgels relarguaient complétement leur contenu en un jour. Malgré une cinétique de relargage plus rapide, les microgels ont démontré la possibilité de contrôler finement le chargement en principe actif. Ce contrôle peut être atteint par la modification des propriétés structurelles ou en changeant le milieu d’incubation, comme l’a montré la corrélation avec les isothermes de Langmuir. Chaque système développé a démontré un potentiel contrôle du taux de relargage, ce qui en fait des candidats pour des investigations futures.
Resumo:
Le principe de coopération est considéré depuis longtemps comme l’une des pierres angulaires du droit international, toutefois, l’existence d’une obligation de coopérer en droit international reste encore controversée. Les ressources en eau, à cause de leur fluidité et de leurs multiples usages, démontrent toujours l’interdépendance humaine. En matière de cours d’eau transfrontaliers, la Convention de New York inclut explicitement dans son texte l’obligation générale de coopérer comme l’un de ses trois principes fondamentaux. Il nous incombe alors de voir quelle obligation de coopérer les États souverains s’imposent dans leurs pratiques ? Pour répondre à cette question, nous procédons tout d’abord à une étude positiviste du contenu normatif de l’obligation de coopérer. Nous constatons que l’incorporation de la notion de l’obligation de coopérer dans le principe de la souveraineté est une tendance manifeste du droit international qui a évolué du droit de coexistence composé principalement des règles d’abstention, au droit de coopération qui comporte essentiellement des obligations positives de facere, dont la plus représentative est l’obligation de coopérer. Néanmoins, il n’existe pas de modèle unique d’application pour tous les États, chaque bassin disposant de son propre régime coopératif. Pour mesurer l’ampleur des régimes coopératifs, nous étudions cinq paramètres : le champ d’application, les règles substantielles, les règles procédurales, les arrangements institutionnels et le règlement des différends. Quatres modèles de coopération ressortent : le mécanisme consultatif (l’Indus), le mécanisme communicateur (le Mékong), le mécanisme de coordination (le Rhin) et le mécanisme d’action conjointe (le fleuve Sénégal). Pour ce qui est de la Chine, il s’agit de l’État d’amont en voie de développement le plus important dans le monde qui a longtemps été critiqué pour son approche unilatérale dans le développement des eaux transfrontières. Nous ne pouvons pas cependant passer sous silence les pratiques de coopération qu’elle a développées avec ses voisins. Quelle est son interprétation de cette obligation générale de coopérer ? Notre étude des pratiques de la Chine nous aide, en prenant du recul, à mieux comprendre tous les aspects de cette obligation de coopérer en droit international. Afin d’expliquer les raisons qui se cachent derrière son choix de mode de coopération, nous introduisons une analyse constructiviste qui est plus explicative que descriptive. Nous soutenons que ce sont les identités de la Chine qui ont déterminé son choix de coopération en matière de cours d’eau transfrontaliers. Notre étude en vient à la conclusion que même s’il y a des règles généralement reconnues, l’obligation de coopérer reste une règle émergente en droit international coutumier. Ses modes d’application sont en réalité une construction sociale qui évolue et qui peut varier énormément selon les facteurs culturels, historiques ou économiques des États riverains, en d’autres mots, selon les identités de ces États. La Chine est un État d’amont en voie de développement qui continue à insister sur le principe de la souveraineté. Par conséquent, elle opte pour son propre mécanisme consultatif de coopération pour l’utilisation des ressources en eau transfrontalières. Néanmoins, avec l’évolution de ses identités en tant que superpuissance émergente, nous pouvons probablement espérer qu’au lieu de rechercher un pouvoir hégémonique et d’appliquer une stratégie unilatérale sur l’utilisation des ressources en eau transfrontalières, la Chine adoptera une stratégie plus coopérative et plus participative dans l’avenir.
Resumo:
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.
Resumo:
La possibilité de programmer une cellule dans le but de produire une protéine d’intérêt est apparue au début des années 1970 avec l’essor du génie génétique. Environ dix années plus tard, l’insuline issue de la plateforme de production microbienne Escherichia coli, fut la première protéine recombinante (r-protéine) humaine commercialisée. Les défis associés à la production de r-protéines plus complexes et glycosylées ont amené l’industrie biopharmaceutique à développer des systèmes d’expression en cellules de mammifères. Ces derniers permettent d’obtenir des protéines humaines correctement repliées et de ce fait, biologiquement actives. Afin de transférer le gène d’intérêt dans les cellules de mammifères, le polyéthylènimine (PEI) est certainement un des vecteurs synthétiques le plus utilisé en raison de son efficacité, mais aussi sa simplicité d’élaboration, son faible coût et sa stabilité en solution qui facilite son utilisation. Il est donc largement employé dans le contexte de la production de r-protéines à grande échelle et fait l’objet d’intenses recherches dans le domaine de la thérapie génique non virale. Le PEI est capable de condenser efficacement l’ADN plasmidique (vecteur d’expression contenant le gène d’intérêt) pour former des complexes de petites tailles appelés polyplexes. Ces derniers doivent contourner plusieurs étapes limitantes afin de délivrer le gène d’intérêt au noyau de la cellule hôte. Dans les conditions optimales du transfert de gène par le PEI, les polyplexes arborent une charge positive nette interagissant de manière électrostatique avec les protéoglycanes à héparane sulfate (HSPG) qui décorent la surface cellulaire. On observe deux familles d’HSPG exprimés en abondance à la surface des cellules de mammifères : les syndécanes (4 membres, SDC1-4) et les glypicanes (6 membres, GPC1-6). Si l’implication des HSPG dans l’attachement cellulaire des polyplexes est aujourd’hui largement acceptée, leur rôle individuel vis-à-vis de cet attachement et des étapes subséquentes du transfert de gène reste à confirmer. Après avoir optimisées les conditions de transfection des cellules de mammifères CHO et HEK293 dans le but de produire des r-protéines secrétées, nous avons entrepris des cinétiques de capture, d’internalisation des polyplexes et aussi d’expression du transgène afin de mieux comprendre le processus de transfert de gène. Nous avons pu observer des différences au niveau de ces paramètres de transfection dépendamment du système d’expression et des caractéristiques structurelles du PEI utilisé. Ces résultats présentés sous forme d’articles scientifiques constituent une base solide de l’enchaînement dans le temps des évènements essentiels à une transfection efficace des cellules CHO et HEK293 par le PEI. Chaque type cellulaire possède un profil d’expression des HSPG qui lui est propre, ces derniers étant plus ou moins permissifs au transfert de gène. En effet, une étude menée dans notre laboratoire montre que les SDC1 et SDC2 ont des rôles opposés vis-à-vis du transfert de gène. Alors que tous deux sont capables de lier les polyplexes, l’expression de SDC1 permet leur internalisation contrairement à l’expression de SDC2 qui l’inhibe. De plus, lorsque le SDC1 est exprimé à la surface des cellules HEK293, l’efficacité de transfection est augmentée de douze pourcents. En utilisant la capacité de SDC1 à induire l’internalisation des polyplexes, nous avons étudié le trafic intracellulaire des complexes SDC1 / polyplexes dans les cellules HEK293. De plus, nos observations suggèrent une nouvelle voie par laquelle les polyplexes pourraient atteindre efficacement le noyau cellulaire. Dans le contexte du transfert de gène, les HSPG sont essentiellement étudiés dans leur globalité. S’il est vrai que le rôle des syndécanes dans ce contexte est le sujet de quelques études, celui des glypicanes est inexploré. Grâce à une série de traitements chimiques et enzymatiques visant une approche « perte de fonction », l’importance de la sulfatation comme modification post-traductionnelle, l’effet des chaînes d’héparanes sulfates mais aussi des glypicanes sur l’attachement, l’internalisation des polyplexes, et l’expression du transgène ont été étudiés dans les cellules CHO et HEK293. L’ensemble de nos observations indique clairement que le rôle des HSPG dans le transfert de gène devrait être investigué individuellement plutôt que collectivement. En effet, le rôle spécifique de chaque membre des HSPG sur la capture des polyplexes et leur permissivité à l’expression génique demeure encore inconnu. En exprimant de manière transitoire chaque membre des syndécanes et glypicanes à la surface des cellules CHO, nous avons déterminé leur effet inhibiteur ou activateur sur la capture des polyplexes sans pouvoir conclure quant à l’effet de cette surexpression sur l’efficacité de transfection. Par contre, lorsqu’ils sont présents dans le milieu de culture, le domaine extracellulaire des HSPG réduit l’efficacité de transfection des cellules CHO sans induire la dissociation des polyplexes. Curieusement, lorsque chaque HSPG est exprimé de manière stable dans les cellules CHO, seulement une légère modulation de l’expression du transgène a pu être observée. Ces travaux ont contribué à la compréhension des mécanismes d'action du vecteur polycationique polyéthylènimine et à préciser le rôle des protéoglycanes à héparane sulfate dans le transfert de gène des cellules CHO et HEK293.
Resumo:
Les délinquants sexuels sadiques sont généralement décrits comme une entité clinique particulière commettant des délits graves. Or, la notion même de sadisme sexuel pose un nombre important de problèmes. Parmi ceux-ci, on retrouve des problèmes de validité et de fidélité. Perçu comme une maladie dont on est atteint ou pas, le sadisme a été étudié comme si les sadiques étaient fondamentalement différents. À l’heure actuelle, plusieurs travaux laissent croire que la majorité des troubles psychologiques se présentent comme une différence d'intensité (dimension) plutôt qu’une différence de nature (taxon). Même si la conception médicale prévaut encore en ce qui concerne le sadisme sexuel, plusieurs évoquent l’idée qu’il pourrait être mieux conceptualisé à l’aide d’une approche dimensionnelle. En parallèle, nos connaissances sur les facteurs contributifs au développement du sadisme sexuel sont limitées et reposent sur de faibles appuis empiriques. Jusqu'à présent, très peu d'études se sont intéressées aux facteurs menant au développement du sadisme sexuel et encore moins ont tenté de valider leurs théories. En outre, nos connaissances proviennent majoritairement d'études de cas portant sur les meurtriers sexuels, un sous-groupe très particulier de délinquants fréquemment motivé par des intérêts sexuels sadiques. À notre connaissance, aucune étude n'a proposé jusqu'à présent de modèle développemental portant spécifiquement sur le sadisme sexuel. Pourtant, l'identification de facteurs liés au développement du sadisme sexuel est essentielle dans notre compréhension ainsi que dans l'élaboration de stratégie d'intervention efficace. La présente thèse s'inscrit dans un contexte visant à clarifier le concept de sadisme sexuel. Plus spécialement, nous nous intéressons à sa structure latente, à sa mesure et à ses origines développementales. À partir d'un échantillon de 514 délinquants sexuels évalué au Massachusetts Treatment Center, la viabilité d’une conception dimensionnelle du sadisme sexuel sera mise à l’épreuve à l'aide d'analyses taxométriques permettant d'étudier la structure latente d'un construit. Dans une seconde étape, à l'aide d'analyses de Rasch et d'analyses appartenant aux théories de la réponse à l'item à deux paramètres, nous développerons la MTC Sadism Scale (MTCSS), une mesure dimensionnelle du sadisme sexuel. Dans une troisième et dernière étape, un modèle développemental sera élaboré à l'aide d'équations structurales. La présente thèse permettra de contribuer à la clarification du concept de sadisme sexuel. Une clarification de la structure latente et des facteurs développementaux permettra de saisir les devis de recherche les plus à même de capturer les aspects essentiels. En outre, ceci permettra d'identifier les facteurs pour lesquels une intervention est la plus appropriée pour réduire la récidive, ou la gravité de celle-ci.
Resumo:
La frontière entre le politique et l'intellectualisme militant est, d'ordinaire, ténue. Tout univers politico-constitutionnel est ainsi susceptible de faire les frais d'un martèlement doctrinal qui, à maints égards, relève davantage du construit que du donné. Résultante directe d'une construction parfois intéressée, le récit identitaire, à force de répétition, s'installera confortablement sur les sièges de l'imaginaire populaire. Il accèdera, au fil du temps, au statut de mythe pur et simple. Ce dernier, politiquement parlant, revêt de puissants effets aphrodisiaques. La présente thèse doctorale s'intéresse plus particulièrement aux mythes créés, depuis 1982, par un segment de la doctrine québécoise : en matière de droits linguistiques, objet principal de notre étude, Charte canadienne des droits et libertés et Cour suprême, toutes deux liguées contre le Québec, combineront leurs efforts afin d'assurer le recul du fait français dans la Belle Province. Quant aux francophones hors Québec, ceux-ci, depuis l'effritement du concept de nation canadienne-française, sont dorénavant exclus de l'équation, expurgés de l'échiquier constitutionnel. En fait, l'adoption d'un nationalisme méthodologique comme nouvelle orthodoxie politique et doctrinale rend ardue, en plusieurs sens, la conciliation de leur existence avec les paradigmes et épistémologie maintenant consacrés. Ainsi, et selon la logique du tiers exclu, une victoire francophone hors Québec signifiera, du fait d'une prétendue symétrie interprétative, un gain pour la communauté anglo-québécoise. Cette thèse vise à discuter de la teneur de diverses allégories établies et, le cas échéant, à reconsidérer la portée réelle de la Charte canadienne en matière linguistique. Il sera alors démontré que plusieurs lieux communs formulés par les milieux intellectuels québécois échouent au moins partiellement, le test de l'analyse factuelle. Celui-ci certifiera de l'exclusion, par la doxa, de toute décision judiciaire ou autre vérité empirique ne pouvant cadrer à même les paramètres, voire les prismes, de l'orthodoxie suggérée.
Resumo:
Au cours des vingt dernières années, l’anesthésie régionale est devenue, autant en médecine vétérinaire qu’humaine, un outil essentiel à l’élaboration de protocoles analgésiques péri-opératoires. Parmi l’éventail de techniques mises au point en anesthésie canine, le bloc paravertébral du plexus vertébral (PBPB) et sa version modifiée sont d’un grand intérêt pour toute procédure du membre thoracique, dans sa portion proximale. Toutefois, l’essentiel des données publiées à ce jour provient d’études colorimétriques, sans évaluation clinique, et peu d’information est disponible sur les techniques de localisation nerveuse envisageables à ce site. Notre étude visait à décrire une approche échoguidée du PBPB modifié, puis à caractériser ses paramètres pharmacocinétiques et pharmacodynamiques après administration de lidocaïne (LI) ou lidocaïne adrénalinée (LA). Huit chiens ont été inclus dans un protocole prospectif, randomisé, en aveugle et croisé, réparti sur trois périodes. L’impact pharmacodynamique du bloc effectué avec LI ou LA a été évalué régulièrement pour 180 min suivant son exécution. Le traitement à l’adrénaline n’a pas démontré d’impact significatif (P = 0,845) sur la durée du bloc sensitif, tel qu’évalué par un stimulus douloureux mécanique appliqué aux dermatomes ciblés. À l’opposé, l’atteinte proprioceptive évaluée par la démarche a été trouvée prolongée (P = 0,027) et le bloc moteur mesuré par le pic de force verticale (PVF) au trot sur la plaque de force s’est avéré plus marqué (PVF réduit; P = 0,007) sous LA. À l’arrêt comme au trot, le nadir de la courbe PVF-temps a été trouvé retardé (P < 0,005) et la pente ascendante de retour aux valeurs normales adoucie (P = 0,005). Parallèlement aux évaluations cliniques, des échantillons plasmatiques ont été collectés régulièrement afin de quantifier et décrire le devenir pharmacocinétique de la lidocaïne. Parmi les trois élaborés, un modèle bi-compartimental doté d’une double absorption asynchrone d’ordre zéro a finalement été sélectionné et appliqué aux données expérimentales. Sous LA, la Cmax a été trouvée significativement diminuée (P < 0,001), les phases d’absorption prolongées [P < 0,020 (Dur1) et P < 0,001 (Dur2)] et leurs constantes réduites [P = 0,046(k01) et P < 0,001 (k02)], le tout en concordance avec les effets proprioceptifs et moteurs rapportés. Bien que l’extrapolation du dosage soit maintenant théoriquement envisageable à partir du modèle mis en lumière ici, des études supplémentaires sont encore nécessaires afin d’établir un protocole de PBPB d’intérêt clinique. L’analyse sur plaque de force pourrait alors devenir un outil de choix pour évaluer l’efficacité du bloc dans un cadre expérimental.
Resumo:
Des études récentes ont rapporté que les individus âgés avec un trouble cognitif léger (TCL) ont de plus grandes activations en lien avec la réalisation d’une tâche cognitive que des personnes âgées saines. Des auteurs ont proposé que ces hyperactivations pourraient refléter des processus de plasticité cérébrale compensatoires ayant lieu pendant la phase précoce de la maladie d’Alzheimer. Des processus de compensations fonctionnelles pourraient émerger en réponse à une perte d’intégrité structurelle dans les régions du cerveau normalement requises pour compléter une tâche. Dans ce mémoire, j’ai évalué cette hypothèse chez des personnes avec TCL en faisant appel à une tâche de mémoire de travail comportant plusieurs niveaux de difficulté ainsi qu’aux techniques d’imagerie par résonnance magnétique (IRM) structurelle et fonctionnelle. Des analyses de régression multiples ont été utilisées afin d’identifier les régions cérébrales dont l’activité variait en fonction de l’intégrité neuronale telle que définie par le volume de l’hippocampe. Les valeurs estimées des paramètres du signal de ces régions furent ensuite extraites afin de procéder à des analyses corrélationnelles sur la performance ainsi que sur le volume de différentes structures cérébrales. Les résultats indiquent des hyperactivations dans les régions frontales droites chez les participants TCL souffrant d’une plus grande atteinte neuronale. De plus, le niveau d’activation est négativement corrélé au volume de structures frontales et pariétales. Ces résultats indique la présence d’une hyperactivation compensatoire dans la phase du TCL associée à la réalisation d’une tâche de mémoire de travail.
Resumo:
Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.
Resumo:
La course d’endurance active le système de récompense (SR) et est reliée aux comportements de recherche alimentaire. L’influence de la leptine sur l’activité physique (AP) volontaire est bien documentée d’un point de vue physiologique, mais très peu en termes d’impact hédonique. La leptine inhibe l’effet récompensant lié à la consommation de nourriture et joue un rôle semblable pour d’autres types de stimuli. La leptine s’arrime à la forme longue du récepteur à la leptine (Leprb) situé sur les neurones à dopamine (DA) et GABA de l’aire tegmentale ventrale (ATV) dans le mésencéphale. Signal transducer and Activator of Transcription 3 (STAT3) est un facteur de transcription important de la cascade de signalisation de la leptine. La phosphorylation de STAT3 n’est détectée que dans une parcelle des neurones DA positifs pour le Leprb, conférant aux neurones DA STAT3-spécifiques des caractéristiques uniques. Nous avons généré un modèle murin invalidé pour STAT3 sélectivement dans les neurones DA (STAT3DAT-KO). La première expérience consistait à évaluer les paramètres métaboliques de base de notre modèle en utilisant les chambres métaboliques Comprehensive Lab Animal Monitoring System (CLAMS), incluant l’activité ambulatoire, le ratio d’échanges respiratoires (RER) et la production de chaleur. Les STAT3DAT-KO sont hyperactives, démontré par une activité locomotrice augmentée, mais aucune variation entre les deux groupes n’est observée pour le RER et la production de chaleur, en plus d’un gain de poids identique. Une stratégie de récupération ciblant la réinsertion de STAT3 dans les neurones DA du système mésolimbique normalise l’AP anciennement plus élevée des STAT3DAT-KO à celle des contrôles, suivant l’accès libre à une roue d’exercice (RE) pour une durée de 4 semaines, suivant l’accès libre à une roue d’exercice (RE) pour une durée de 4 semaines. L’injection d’un psychostimulant (agoniste du récepteur DA de type 1 (D1R), le Chloro-APB-Hydrobromide (SKF 82958)) reflète une fonction dopaminergique réduite chez les STAT3DAT-KO. Un test de recherche compulsive de nourriture révèle une suppression de la prise alimentaire chez les deux groupes expérimentaux. Nous démontrons pour la première fois que la motivation alliée à la course d’endurance, indépendamment de la régulation de la prise alimentaire par la leptine, est dépendant d’une signalisation leptine-STAT3 amoindrie dans les neurones DA du système mésolimbique, révélant STAT3 comme élément clé dans la régulation du tonus dopaminergique et des propriétés récompensantes de l’AP.
Resumo:
Ce mémoire présente une recherche détaillée et une analyse des étoiles naines blanches hybrides chimiquement stratifiées dans le Sloan Digital Sky Survey (SDSS). Une seule étoile stratifiée, PG 1305-017, était connue avant notre recherche. L'objectif principal est de confirmer l'existence de plusieurs nouvelles étoiles stratifiées. Pour ce faire, il a fallu dans un premier temps développer une nouvelle génération de modèles d'atmosphère à partir de ceux de Bergeron et al. (1991) et Tremblay & Bergeron (2009). Nous y avons ajouté l'opacité de toutes les raies d'hélium et les calculs nécessaires pour tenir compte de la stratification chimique de l'atmosphère, où une mince quantité d’hydrogène flotte en équilibre diffusif au-dessus d’une enveloppe massive d’hélium. En parallèle, nous avons aussi calculé des modèles standards, chimiquement homogènes. Ensuite, nous avons sélectionné des naines blanches chaudes (Teff > 30,000 K) de type spectral hybride (traces d'hélium et d'hydrogène) parmi les ~38,000 naines blanches répertoriées dans le SDSS. Un total de 52 spectres d'étoile a été retenu dans notre échantillon final. La technique spectroscopique, c'est-à-dire l'ajustement des raies spectrales des modèles sur un spectre observé, a été appliquée à toutes les étoiles de notre échantillon. Nous avons ainsi mesuré la température effective, la gravité de surface et la composition chimique de l'atmosphère de ces étoiles. Par l'ajustement simultané de modèles stratifiés et homogènes, nous avons aussi pu déterminer si les étoiles étaient stratifiées ou non. Nous identifions ainsi 14 naines blanches stratifiées. Nous tirons de ces résultats plusieurs conclusions sur les processus physiques expliquant la présence d'hélium dans l'atmosphère.
Resumo:
This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.
Resumo:
Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique.