130 resultados para Synthèse de réseau multiproduits avec capacités
Resumo:
Depuis ces deux dernières décennies, des efforts considérables en psychologie cognitive et neuropsychologie ont été déployés pour mieux comprendre les dynamiques entre les différents systèmes cognitifs (fonctions exécutives, mémoire, langage, etc.). L’observation d’une co-existence entre des atteintes en rétention à court terme verbale (RCTv) et en langage dans plusieurs pathologies a conduit certains chercheurs à concevoir une alternative à la conceptualisation classique de la RCTv, telle que proposée par le modèle initial de la mémoire de travail de Baddeley (1986). Particulièrement, les travaux sur l’aphasie ont conduit à l’émergence d’une approche psycholinguistique de la RCTv, postulant que le traitement et le maintien des mots font appel à des processus communs. Cette approche, et particulièrement le modèle d’activation interactive (N. Martin & Gupta, 2004; N. Martin & Saffran, 1997), prédit que les capacités en RCTv sont notamment modulées par les caractéristiques linguistiques engagées durant l’épreuve, variant selon la nature des items verbaux et la modalité de rappel, ainsi que par les compétences linguistiques des individus. L’objectif de la présente thèse était de tester ces prédictions à partir d’une exploration des relations entre le traitement sémantique des mots et la RCTv chez l’adulte sain (article 1) et dans la démence de type Alzheimer (DTA) (article 2). Dans le premier article, deux expériences mettent en évidence l’influence des liens associatifs entre les mots sur les capacités à maintenir temporairement des informations verbales. Les participants ont tendance à faussement reconnaître des mots associés aux mots de la liste, reflet d’une activation du réseau sémantique durant la rétention temporaire. Cette contribution sémantique est accentuée en situation de suppression articulatoire, une condition qui empêche le participant de répéter les listes durant la tâche. Les résultats du second article indiquent que la modalité de réponse module différemment la performance en RCTv chez les participants âgés sans atteinte neurologique et ceux atteints de la DTA. Ces données en RCTv sont compatibles avec les atteintes spécifiques du traitement du mot, également trouvées chez le groupe avec DTA. Les implications théoriques et cliniques de ces résultats sont discutées. Les limites et perspectives futures sont également abordées.
Resumo:
Ce mémoire décrit la synthèse, la caractérisation spectroscopique et l’étude de la réactivité catalytique d’une nouvelle série de complexes pinceurs de Ni(II) formés à partir du ligand POCOPPh (P,C,P-2,6-{Ph2PO}2C6H4), très peu étudié dans le cas du nickel. Les études décrites dans ce mémoire examinent l’effet des substituants des phosphines sur les propriétés spectroscopiques et électrochimiques ainsi que les activités catalytiques. La synthèse du ligand a été améliorée par rapport à la procédure connue dans la littérature en diminuant le temps de réaction à 30 min et la température jusqu'à température ambiante. Les composés pinceur (P,C,P-2,6-{Ph2PO}2C6H3)NiX ont été obtenus avec des rendements variant entre 60% et 88%. Le premier complexe a été synthétisé en faisant réagir le précurseur NiBr2(NCCH3)x avec le ligand POCOPPh pour donner (POCOPPh)NiBr. Ce dernier réagit par la suite avec les sels d’argent et de potassium pour donner 4 nouveaux complexes soient : (POCOPPh)NiCN, (POCOPPh)NiOTf, (POCOPPh)NiOAc et (POCOPPh)NiONO2 (OTf = triflate et OAc = acetate). Vu la réactivité limitée du dérivé bromure, le dérivé (POCOPPh)NiOTf a été utilisé pour la préparation du composé (POCOPPh)NiCCPh. Le dérivé Ni-OTf a été utilisé également pour la synthèse des complexes (POCOPPh)NiR qui ont été détectés par RMN. Ces complexes (POCOPPh)NiR ont montré une stabilité trop faible et donnent des nouveaux complexes de type (POCOPPh)NiX en échangeant l’halogène avec le Mg ou de type (POCOPPh)NiOH en s’hydrolysant. Les espèces cationiques [(POCOPPh)NiNCR][OTf] (R= Me, CHCH2, CHCHMe, C(Me)CH2, NCCH2CH2N(Ph)H) ont été obtenues facilement et avec des bon rendements à partir du (POCOPPh)NiOTf. Tous les composés obtenus ont été caractérisés par la spectroscopie RMN (1H, 13C{1H}, 31P{1H}, 19F{1H}), la spectroscopie IR et la spectroscopie UV-vis. L’analyse élémentaire et l’analyse par la diffraction des rayons X, dont le but est de résoudre la structure à l’état solide, ont été utilisées pour la plupart des complexes. Des études de voltampérométrie cyclique ont été menées pour déterminer la densité électronique des centres métalliques et l’effet des phosphines sur cette propriété électrochimique. Dans le but de déterminer l’effet des substituants des phosphines sur l’activité catalytique des complexes, nous avons évalué les réactivités catalytiques des deux complexes (POCOPPh)NiOTf et (POCOPi-Pr)NiOTf dans la réaction d’hydroamination des oléfines activés et plus spécifiquement l’acrylonitrile. Après optimisation des conditions expérimentales, on a constaté que la réactivité des deux composés sont similaires mais une grande différence apparaît après l’ajout des additifs. En effet, le complexe (POCOPi-Pr)NiOTf donne une bonne activité catalytique en présence de la triéthylamine, tandis que cette activité diminue considérablement en présence d’eau, contrairement au complexe (POCOPPh)NiOTf qui est plus actif en présence d’eau. Dans le cas du complexe (POCOPPh)NiOTf, on a pu montrer que la base se coordonne au nickel dans le produit formé après la réaction d’hydroamination, ce qui diminue l’activité de ce complexe dans certains cas. Également on a exploré la réaction de l’addition du lien O-H sur l’acrylonitrile, et étonnamment le complexe (POCOPPh)NiOTf est beaucoup plus actif que son homologue (POCOPi-Pr)NiOTf dans le cas des alcools aromatiques. Par contre, les alcools aliphatiques restent un défi majeur pour ce genre de complexe. Le mécanisme de cette réaction qui a été proposé montre que l’alcoolyse passe par les deux intermédiaires (POCOPPh)NiOAr et [(POCOPPh)NiOAr][HOAr] mais l’isolation de ces intermédiaires observés par RMN semble être difficile.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Détection des événements de "Minimum Bias" et neutrons avec les détecteurs ATLAS-MPX par simulations
Resumo:
Un réseau de seize détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Les détecteurs ATLAS-MPX sont sensibles au champ mixte de radiation de photons et d’électrons dans la caverne d’ATLAS et sont recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons thermiques et des neutrons rapides respectivement. Les collisions à haute énergie sont dominées par des interactions partoniques avec petit moment transverse pT , associés à des événements de “minimum bias”. Dans notre cas la collision proton-proton se produit avec une énergie de 7 TeV dans le centre de masse avec une luminosité de 10³⁴cm⁻²s⁻¹ telle que fixée dans les simulations. On utilise la simulation des événements de "minimum bias" générés par PYTHIA en utilisant le cadre Athena qui fait une simulation GEANT4 complète du détecteur ATLAS pour mesurer le nombre de photons, d’électrons, des muons qui peuvent atteindre les détecteurs ATLASMPX dont les positions de chaque détecteur sont incluses dans les algorithmes d’Athena. Nous mesurons les flux de neutrons thermiques et rapides, générés par GCALOR, dans les régions de fluorure de lithium et de polyéthylène respectivement. Les résultats des événements de “minimum bias” et les flux de neutrons thermiques et rapides obtenus des simulations sont comparés aux mesures réelles des détecteurs ATLAS-MPX.
Resumo:
Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.
Resumo:
Ces travaux ont été réalisés en collaboration avec le groupe du professeur William Skene.
Resumo:
Les travaux traditionnels sur le crime organisé indiquent que le statut d’un individu déterminerait son succès individuel. Des recherches alternatives sur les réseaux des organisations criminelles et de la réussite criminelle indiquent que le rang est moins important que la croyance générale et que les mesures de positionnement stratégique de réseau sont plus susceptibles de déterminer le succès criminel. Ce mémoire étudie les variations des gains criminels au sein de l’organisation de distribution illicite de stupéfiants des Hells Angels. Son objectif est de distinguer, à l’aide de données de comptabilité autorévélées, les éléments influençant ces différences dans le succès criminel en fonction du positionnement plus stratégique ou vulnérable d’un individu au sein de son réseau. Les résultats révèlent des moyennes de volume d’argent transigé beaucoup plus élevées que ce qui est généralement recensé. La distribution de ces capitaux est largement inégale. La disparité des chances liées à l’association criminelle se retrouve aussi dans la polarisation entre les individus fortement privilégiés et les autres qui ont une capacité de positionnement médiocre. Le croisement entre les positions et l’inégalité des gains présente que le positionnement de l’individu dans son réseau est un meilleur prédicteur de réussite criminelle que toute autre variable contextuelle ou de rang. Enfin et surtout, en contradiction avec la littérature, le fait d’atteindre de haut rang hiérarchique nuirait au succès criminel, les résultats montrant que cet état réduit l’accès au crédit, réduit les quantités de drogue par transaction et augmente le prix de la drogue à l’unité.
Resumo:
La période de l’après-guerre posa d’importants défis commerciaux à l’économie canadienne. Les années entre 1945 et 1950 furent effectivement marquées par la rupture de son système commercial traditionnel et la recherche d’une stratégie alternative. Le pays dut composer avec un déficit commercial croissant à l’égard des États-Unis, ainsi qu’une chute de ses exportations à destination du Royaume-Uni, ruiné par les années de guerre. Ce déséquilibre commercial qui menaçait d’épuiser les réserves canadiennes de dollars américains reflétait l’écart entre les capacités productives des deux rives de l’Atlantique. Le programme de reconstruction des économies européennes, ou plan Marshall, fut accueilli avec enthousiasme à Ottawa puisqu’il devait non seulement rétablir les marchés du Vieux Continent, mais également faciliter la mise en place d’un réseau multilatéral d’échanges et la libéralisation du commerce international. Les tensions de la guerre froide limitèrent toutefois l’ouverture de ces marchés aux marchandises canadiennes, puisque l’endiguement du communisme commanda une consolidation européenne qui privilégia le démantèlement des entraves aux échanges intra-européens, aux dépens du commerce transatlantique. Les préoccupations de Washington en matière de sécurité collective devaient néanmoins laisser place à une stratégie alternative pour le Canada, en poussant la coopération économique des deux pays, dans le but d’optimiser une production de défense destinée aux pays membres de l’OTAN, dont la demande était soutenue par l’aide Marshall. L’incorporation du Canada dans ce dispositif de défense élargie à la communauté atlantique permit ainsi d’assurer un accès privilégié à ses marchandises sur le marché américain, et par conséquent de progresser vers l’équilibre commercial.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Étude de l’association supramoléculaire bi- et tridimensionnelle d’oximes et d’hydrazones trigonales
Resumo:
Les concepts de la chimie supramoléculaire peuvent être exploités avantageusement pour contrôler la structure et les propriétés des matériaux moléculaires. Dans une approche productive, les composantes moléculaires du matériau peuvent être choisies pour pouvoir s'engager dans des interactions fortes et prévisibles avec leurs voisins. Cette stratégie, appelée la tectonique moléculaire, est caractérisée par la préparation de molécules particulières appelées tectons (du grec tectos, qui signifie constructeur) qui, par design rationnel, s’associent de manière prévisible via de multiples interactions non-covalentes afin de générer l’architecture désirée. Ce processus est réversible et guidé par la présence de fonctions chimiques complémentaires, appelées groupements de reconnaissance, qui sont orientées de manière à conférer un aspect directionnel aux interactions intermoléculaires. Ceci permet de positionner les molécules voisines de façon prédéterminée. Les contraintes imposées par les interactions s’opposent souvent à la tendance naturelle des molécules à former une structure compacte et permettent donc à d'autres molécules invitées d’occuper un volume appréciable dans le matériau, sans toutefois contribuer directement à l'architecture principale. Appliquée à la cristallisation, cette approche peut générer des cristaux poreux, analogues aux zéolites. Les ponts hydrogène offrent une interaction non-covalente de choix dans cette stratégie car ils sont forts et directionnels. L’exploration d’une multitude de fonctions chimiques connues pour pouvoir participer à la formation de ponts hydrogène a permis de créer une grande diversité de nouveaux matériaux lors de l’évolution du domaine du génie cristallin. Une molécule classique, qui illustre bien la stratégie tectonique et qui a eu un fort impact dans le domaine de la chimie supramoléculaire, est l’acide 1,3,5-benzènetricarboxylique, communément appelé acide trimésique. L’acide trimésique donne une orientation trigonale à trois groupements carboxyles, favorisant ainsi la formation d'un réseau hexagonal retenu par ponts hydrogène. Nous avons visé une modification dans laquelle les groupements -COOH de l'acide trimésique sont remplacés par deux autres groupements de reconnaissance, jusqu’ici peu exploités en chimie supramoléculaire, l’oxime et l’hydrazone. Nous rapportons la synthèse et la cristallisation de différentes trioximes et trihydrazones analogues à l'acide trimésique. Les cristaux obtenus ont été analysés par diffraction des rayons-X et leurs structures ont été déterminées. L’auto-assemblage de différentes trioximes et trihydrazones en 2D par adsorption sur graphite a également été étudié en utilisant la microscopie à balayage à effet tunnel. Nos résultats nous permettent de comparer l'organisation en 2D et en 3D de différents analogues de l'acide trimésique.
Resumo:
Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.
Resumo:
Cet article décrit une procédure de modélisation du phénomène de dispersion de la concentration du dioxyde de nitrogène (NO2) en utilisant la technique du perceptron multicouche (MLP). Notre objectif est de prouver que la concentration du NO2 est une variable autorégressive et expliquée par des variables météorologiques. Pour ce faire, nous avons procédé par trois étapes : dans la première étape nous avons utilisé la variable concentration NO2 uniquement, dans la seconde étape nous avons utilisé les variables météorologiques uniquement et dans la troisième étape nous avons utilisé la concentration du NO2 combinée avec les variables météorologiques. Les résultats ont montré que le troisième cas est plus performant que les deux autres ce qui prouve notre hypothèse.
Resumo:
L’objectif de notre travail est de développer un outil d’analyse automatique des stades du sommeil basé sur les réseaux de neurones artificiels (RNA). Dans ce papier nous présentons notre démarche pour la conception de cet outil. La première difficulté consiste dans le choix de la représentation des signaux physiologiques et en particulier de l’électroencéphalogramme (EEG). Une fois la représentation adoptée, l’étape suivante est la conception du réseau de neurones optimal déterminé par un processus d’apprentissage et de validation sur les données issues d’un ensemble d'enregistrements de nuits de sommeil. Le résultat obtenu avec un taux de 63% de bonne classification pour six stades, nous incite à approfondir l’étude de cette problématique aux niveaux représentation et conception pour améliorer les performances de notre outil.
Resumo:
Brown (1973) a proposé la « longueur moyenne des énoncés » (LME) comme indice standard du développement langagier. La LME se calcule selon le nombre moyen de morphèmes dans 100 énoncés de parole spontanée. L’hypothèse sous-jacente à cet indice est que la complexité syntaxique croît avec le nombre de morphèmes dans les énoncés. Selon Brown, l’indice permet d’estimer le développement d’une « compétence grammaticale » jusqu’à environ quatre morphèmes. Certains auteurs ont toutefois critiqué le manque de fiabilité de la LME et la limite de quatre morphèmes. Des rapports démontrent des variations de la LME avec l’âge, ce qui suggère que des facteurs comme la croissance des capacités respiratoires peuvent influencer l’indice de Brown. La présente étude fait état de ces problèmes et examine comment la LME et certaines mesures de diversité lexicale varient selon le développement des capacités respiratoires. On a calculé la LME et la diversité lexicale dans la parole spontanée de 50 locuteurs mâles âgés de 5 à 27 ans. On a également mesuré, au moyen d’un pneumotachographe, la capacité vitale (CV) des locuteurs. Les résultats démontrent que la LME et des mesures de diversité lexicale corrèlent fortement avec la croissance de la CV. Ainsi, la croissance des fonctions respiratoires contraint le développement morphosyntaxique et lexical. Notre discussion fait valoir la nécessité de réévaluer l’indice de la LME et la conception « linguistique » du développement langagier comme une compétence mentale qui émerge séparément de la croissance des structures de performance.