474 resultados para Étoiles: paramètres atmosphériques
Resumo:
L’influence des contaminants environnementaux (CE) a été largement étudié en contexte d’exposition aigüe et d’intoxication. Qu’en est-il d’une exposition chronique à plus faibles doses sur le développement cognitif et sensoriel des enfants? Les études longitudinales de la présente thèse ont été réalisées au Nunavik. Bien que géographiquement éloignée des centres industriels, la communauté inuite est exposée aux CE via leur transport par les courants atmosphériques et océaniques ainsi que par leur bioaccumulation dans le poisson et les mammifères marins. Puisque l’alimentation autochtone traditionnelle, notamment la chair de béluga, est encore fréquemment consommée par la communauté, une proportion substantielle d’enfants inuits est exposée in utero aux CE. Ceux-ci sont également continuellement exposés à ces agents neurotoxiques durant leur développement postnatal. Or, la variation considérable dans l’adoption de l’alimentation traditionnelle au sein de la communauté représente une opportunité pour étudier la relation entre les niveaux d’exposition aux CE et le développement cognitif et sensoriel des enfants. Bien que certains déficits aient déjà été mis en lien avec l’exposition chronique aux CE dans la littérature, la présente thèse s’intéressa à cette relation plus spécifiquement chez les enfants inuits vivant dans le Grand Nord et plus exposés aux CE en raison de leur alimentation. Par ailleurs, les protocoles qui ont été développés pour cette thèse permettront d’évaluer des aspects qui ont été peu étudiés en lien avec les CE, soit l’attention visuospatiale et le traitement visuel cérébral précoce. Dans le premier volet de cette thèse, la relation entre trois CE et l’attention visuospatiale a été étudiée à l’aide d’une version adaptée de la tâche de Posner (M.I. Posner et al., 1980). Cette tâche psychophysique a été administrée à des enfants inuits (âge moyen = 11.2 ans) dont les niveaux d’exposition au mercure (Hg), au plomb (Pb) et aux biphényles polychlorés (BPCs) ont été documentés durant les périodes pré et postnatale. Les expositions in utero au Pb et aux BPCs ont été significativement associées à de l’impulsivité et de l’inattention, respectivement, alors que l’exposition postnatale au Pb a été associée à des temps de réaction plus longs. Bien qu’aucune relation spécifique avec l’attention visuospatiale n’ait été trouvée, les résultats de cette étude suggèrent que l’exposition aux CE est associée à une diminution des capacités attentionnelles générales chez les enfants résidant au Nunavik. Dans le second volet, le traitement cérébral précoce de l’information visuelle a été examiné à l’aide de potentiels évoqués visuels auprès d’enfants de la même communauté (âge moyen = 10.9 ans). La concentration de Hg dans le sang de cordon ombilical mesurée à la naissance a été associée à une réduction de l’amplitude et à une augmentation de la latence de la composante N75. L’exposition prénatale au Pb a quant à elle été associée à un délai dans la latence de la composante N150. Les résultats obtenus suggèrent ainsi que l’exposition aux métaux lourds, en particulier durant la période gestationnelle, serait associée à des altérations dans le développement visuel. Les résultats présentés dans cette thèse soutiennent l’hypothèse selon laquelle le cerveau en développement est vulnérable lors d’une exposition chronique aux CE, et cela même à des niveaux de concentration inférieurs aux limites recommandées par les organismes de santé publique. Les résultats permettent également d’apporter un éclairage nouveau sur les déficits cognitifs et sensoriels associés aux CE.
Resumo:
Les mollusques sont des indicateurs de perturbations anthropiques et environnementales. Ce groupe de macroinvertébrés représente en outre une source importante de nourriture pour les poissons et les oiseaux aquatiques du littoral. Les hypothèses de cette étude sont que la communauté de mollusques est influencée indirectement par les tributaires agricoles et/ou par des variables environnementales (comme la dessiccation et l'exposition aux vagues) puisque ces perturbations sont susceptibles de modifier leurs sources alimentaires et leur habitat. Les indicateurs de la réponse des mollusques aux agents perturbateurs sont la composition, la diversité, la densité, ainsi que la biomasse des espèces. En septembre 2013, des mesures de paramètres physico-chimiques de l'eau ont été réalisées, et des échantillons de mollusques et de végétation aquatique ont été prélevés à 14 sites le long des rives du lac Saint-Pierre (Fleuve Saint-Laurent, Québec, Canada). Le long de la rive nord, les sites fortement exposés à l'action du vent, situés à de plus grandes élévations, affichaient une plus faible densité, biomasse et richesse spécifique de mollusques que les sites de la rive sud, en milieu plus abrité et profond. Les sites physiquement perturbés étaient caractérisés par de faibles biomasses en macrophytes submergés. Les sphaeriidae apparaissent comme des exceptions à ces patrons, montrant une abondance plus élevée aux sites presque dépourvus de macrophytes. Bien que les variables physiques et l'habitat exercent une influence déterminante sur les communautés de mollusques, les gastéropodes et les moules unionidés étaient également affectés par la dégradation de la qualité de l'eau dans le panache des tributaires agricoles. La richesse, la densité et la biomasse des gastéropodes étaient négativement influencées par des teneurs élevées de matières en suspension et de fer dissous. Les résultats de notre étude montrent que la communauté de mollusques du lac Saint-Pierre est directement affectée par l'émersion périodique, l'exposition au vent, et indirectement par l'effet de ces variables physiques sur les macrophytes qui constituent leur habitat.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Les nanoparticules (NPs) de polymère ont montré des résultats prometteurs pour leur utilisation comme système de transport de médicaments pour une libération contrôlée du médicament, ainsi que pour du ciblage. La biodisponibilité des médicaments administrés oralement pourrait être limitée par un processus de sécrétion intestinale, qui pourrait par la suite être concilié par la glycoprotéine P (P-gp). La dispersion de la Famotidine (modèle de médicament) à l’intérieur des nanoparticules (NPs) pegylées a été évaluée afin d’augmenter la biodisponibilité avec du polyéthylène glycol (PEG), qui est connu comme un inhibiteur de P-gp. L’hypothèse de cette étude est que l’encapsulation de la Famotidine (un substrat de P-gp) à l’intérieur des NPs préparées à partir de PEG-g-PLA pourrait inhiber la fonction P-gp. La première partie de cette étude avait pour but de synthétiser quatre copolymères de PEG greffés sur un acide polylactide (PLA) et sur un squelette de polymère (PLA-g-PEG), avec des ratios de 1% et 5% (ratio molaire de PEG vs acide lactique monomère) de soit 750, soit 2000 Da de masse moléculaire. Ces polymères ont été employés afin de préparer des NPs chargés de Famotidine qui possède une faible perméabilité et une solubilité aqueuse relativement basse. Les NPs préparées ont été analysées pour leur principaux paramètres physicochimiques tels que la taille et la distribution de la taille, la charge de surface (Potentiel Zeta), la morphologie, l’efficacité d’encapsulation, le pourcentage résiduel en alcool polyvinylique (PVA) adsorbé à la surface des NPs, les propriétés thermiques, la structure cristalline et la libération du médicament. De même, les formules de NPs ont été testées in vitro sur des cellules CaCo-2 afin dʼévaluer la perméabilité bidirectionnelle de la Famotidine. Généralement, les NPs préparées à partir de polymères greffés PLA-g-5%PEG ont montré une augmentation de la perméabilité du médicament, ce par l’inhibition de l’efflux de P-gp de la Famotidine dans le modèle CaCo-2 in vitro. Les résultats ont montré une baisse significative de la sécrétion de la Famotidine de la membrane basolatéral à apical lorsque la Famotidine était encapsulée dans des NPs préparées à partir de greffes de 5% PEG de 750 ou 2000 Da, de même que pour d’autres combinaisons de mélanges physiques contenant du PEG5%. La deuxième partie de cette étude est à propos de ces NPs chargées qui démontrent des résultats prometteurs en termes de perméabilité et d’inhibition d’efflux de P-gp, et qui ont été choises pour développer une forme orale solide. La granulation sèche a été employée pour densifier les NPs, afin de développer des comprimés des deux formules sélectionnées de NPs. Les comprimés à base de NPs ont démontré un temps de désintégration rapide (moins d’une minute) et une libération similaire à la Famotidine trouvée sur le marché. Les résultats de l’étude du transport de comprimés à base de NPs étaient cohérents avec les résultats des formules de NPs en termes d’inhibition de P-gp, ce qui explique pourquoi le processus de fabrication du comprimé n’a pas eu d’effet sur les NPs. Mis ensemble, ces résultats montrent que l’encapsulation dans une NP de polymère pegylé pourrait être une stratégie prometteuse pour l’amélioration de la biodisponibilité des substrats de P-gp.
Resumo:
Les nanomatériaux sont une classe de contaminants qui est de plus en plus présent dans l’environnement. Leur impact sur l’environnement dépendra de leur persistance, mobilité, toxicité et bioaccumulation. Chacun de ces paramètres dépendra de leur comportement physicochimique dans les eaux naturelles (i.e. dissolution et agglomération). L’objectif de cette étude est de comprendre l’agglomération et l’hétéroagglomération des nanoparticules d’argent dans l’environnement. Deux différentes sortes de nanoparticules d’argent (nAg; avec enrobage de citrate et avec enrobage d’acide polyacrylique) de 5 nm de diamètre ont été marquées de manière covalente à l’aide d’un marqueur fluorescent et ont été mélangées avec des colloïdes d’oxyde de silice (SiO2) ou d’argile (montmorillonite). L’homo- et hétéroagglomération des nAg ont été étudiés dans des conditions représentatives d’eaux douces naturelles (pH 7,0; force ionique 10 7 à 10-1 M de Ca2+). Les tailles ont été mesurées par spectroscopie de corrélation par fluorescence (FCS) et les résultats ont été confirmés à l’aide de la microscopie en champ sombre avec imagerie hyperspectrale (HSI). Les résultats ont démontrés que les nanoparticules d’argent à enrobage d’acide polyacrylique sont extrêmement stables sous toutes les conditions imposées, incluant la présence d’autres colloïdes et à des forces ioniques très élevées tandis que les nanoparticules d’argent avec enrobage de citrate ont formées des hétéroagrégats en présence des deux particules colloïdales.
Resumo:
Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.
Resumo:
La densification de la ville est l’un des principaux objectifs de l’action publique pour bâtir des milieux de vie de qualité. Mais la densité est un concept polysémique et relatif : on constate un écart entre la densité telle qu’elle est préconisée en aménagement et celle vécue par les populations. Parallèlement, on observe l’exode des jeunes familles montréalaises vers les territoires périurbains de faible densité. Enfin, la littérature souligne une relation positive entre densité, mixité et pratique de la marche. Cette recherche explore les perceptions des parents de jeunes enfants à l’égard de leur environnement bâti, en particulier de sa densité, et en identifie les facteurs qui influencent positivement leur pratique de la marche. Après avoir caractérisé les formes urbaines de deux quartiers montréalais aux densités différentes, nous avons interrogé des parents de jeunes enfants sur leur expérience lors de 16 entrevues semi-dirigées et d’un groupe de discussion. Puis nous avons étudié la relation entre les variables personnelles des participants, leurs perceptions de la densité et leurs pratiques de la marche. Nos résultats mettent en évidence la quête d’un équilibre entre les avantages et inconvénients de la densité, dont les principales variables sont les formes urbaines, les services de proximité et la présence d’animation, la végétation étant un paramètre incontournable pour tous les parents. Caractéristiques clés d’une ville intense, ces paramètres corroborent la littérature existante à ce sujet, en mettant en évidence leur importance dans la création de milieux de vie plus denses pour les jeunes familles et leur influence positive sur la marche.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
Afin de mieux comprendre les effets des changements climatiques sur le pergélisol, il s’avère essentiel d’obtenir une meilleure connaissance des facteurs physiques et biologiques l’influençant. Même si plusieurs études font référence à l’influence de la végétation sur le pergélisol à grande échelle, l’effet de la végétation sur la profondeur du front de dégel du pergélisol à l’échelle de mètres, tel qu’exploré ici, est peu connu. L’étude s’est effectuée dans une forêt boréale tourbeuse dans la zone à pergélisol discontinu au sud des Territoires du Nord-Ouest (N61°18’, O121°18’). Nous avons comparé la profondeur de dégel aux mesures du couvert végétal suivantes : densité arborescente, couvert arbustif, indice de surface foliaire et présence de cryptogames (lichens et bryophytes). Nous avons trouvé qu’une plus grande densité arborescente menait à une moins grande profondeur de dégel tandis que le couvert arbustif (<50cm de hauteur) n’avait aucune influence. De plus, la profondeur de dégel dépendait de l’espèce des cryptogames et des microformes. Cette recherche quantifie l’influence de la végétation par strate sur la dégradation du pergélisol. Ultimement, les résultats pourront être pris en considération dans la mise en place des modèles, afin de valider les paramètres concernant la végétation, la dégradation du pergélisol et le flux du carbone.
Resumo:
La construction modulaire est une stratégie émergente qui permet la fabrication de matériaux ordonnés à l’échelle atomique. Elle consiste en l’association programmée de sous-unités moléculaires via des sites réactifs judicieusement sélectionnés. L’application de cette stratégie a d’ores et déjà produit des matériaux aux propriétés remarquables, notamment les réseaux organiques covalents, dans lesquels des atomes de carbone et d’autres éléments légers sont liés de manière covalente. Bien que des matériaux assemblés par des interactions non-covalentes puissent être préparés sous la forme de monocristaux macroscopiques de cette façon, ceci n’était pas possible dans le cas des réseaux organiques covalents. Afin de pallier cette lacune, nous avons choisi d’étudier des réactions de polymérisation réversibles ayant lieu par un mécanisme d’addition. En effet, l’hypothèse de départ de cette thèse suppose qu’un tel processus émule le phénomène de cristallisation classique – régi par des interactions non-covalentes – et favorise la formation de monocristaux de dimensions importantes. Pour tester la validité de cette hypothèse, nous avons choisi d’étudier la polymérisation des composés polynitroso aromatiques puisque la dimérisation des nitrosoarènes est réversible et procède par addition. Dans un premier temps, nous avons revu en profondeur la littérature portant sur la dimérisation des nitrosoarènes. À partir des données alors recueillies, nous avons conçu, dans un deuxième temps, une série de composés polynitroso ayant le potentiel de former des réseaux organiques covalents bi- et tridimensionnels. Les paramètres thermodynamiques propres à leur polymérisation ont pu être estimés grâce à l’étude de composés mononitroso modèles. Dans un troisième temps, nous avons synthétisé les divers composés polynitroso visés par notre étude. Pour y parvenir, nous avons eu à développer une nouvelle méthodologie de synthèse des poly(N-arylhydroxylamines) – les précurseurs directs aux composés polynitroso. Dans un quatrième temps, nous avons étudié la polymérisation des composés polynitroso. En dépit de difficultés d’ordre pratique causées par la polymérisation spontanée de ces composés, nous avons pu identifier les conditions propices à leur polymérisation en réseaux organiques covalents hautement cristallins. Plusieurs nouveaux réseaux covalents tridimensionnels ont ainsi été produits sous la forme de monocristaux de dimensions variant entre 30 µm et 500 µm, confirmant la validité de notre hypothèse de départ. Il a par conséquent été possible de résoudre la structure de ces cristaux par diffraction de rayons X sur monocristal, ce qui n’avait jamais été possible dans le passé pour ce genre de matériau. Ces cristaux sont remarquablement uniformes et les polymères qui les composent ont des masses moléculaires extrêmement élevées (1014-1017 g/mol). Toutefois, la polymérisation de la majorité des composés polynitroso étudiés a plutôt conduit à des solides amorphes ou à des solides cristallins constitués de la forme monomérique de ces composés. D’autres composés nitroso modèles ont alors été préparés afin d’expliquer ce comportement, et des hypothèses ont été émises à partir des données alors recueillies. Enfin, les structures de plusieurs composés polynitroso ayant cristallisés sous une forme monomérique ont été analysés en détails par diffraction des rayons X. Notre stratégie, qui consiste en l’utilisation de monomères ayant la capacité de polymériser spontanément par un processus d’addition réversible, semble donc prometteuse pour obtenir de nouveaux réseaux covalents monocristallins à partir de composés polynitroso ou d’autres monomères de nature similaire. De plus, les résultats présentés au cours de cette thèse établissent un lien entre la science des polymères et la chimie supramoléculaire, en illustrant comment des structures ordonnées, covalentes ou non covalentes, peuvent toutes deux être construites de façon prévisible.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
Dans ce mémoire, on étudie la désintégration d’un faux vide, c’est-à-dire un vide qui est un minimum relatif d’un potentiel scalaire par effet tunnel. Des défauts topologiques en 1+1 dimension, appelés kinks, apparaissent lorsque le potentiel possède un minimum qui brise spontanément une symétrie discrète. En 3+1 dimensions, ces kinks deviennent des murs de domaine. Ils apparaissent par exemple dans les matériaux magnétiques en matière condensée. Un modèle à deux champs scalaires couplés sera étudié ainsi que les solutions aux équations du mouvement qui en découlent. Ce faisant, on analysera comment l’existence et l’énergie des solutions statiques dépend des paramètres du modèle. Un balayage numérique de l’espace des paramètres révèle que les solutions stables se trouvent entre les zones de dissociation, des régions dans l’espace des paramètres où les solutions stables n’existent plus. Le comportement des solutions instables dans les zones de dissociation peut être très différent selon la zone de dissociation dans laquelle une solution se trouve. Le potentiel consiste, dans un premier temps, en un polynôme d’ordre six, auquel on y rajoute, dans un deuxième temps, un polynôme quartique multiplié par un terme de couplage, et est choisi tel que les extrémités du kink soient à des faux vides distincts. Le taux de désintégration a été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste à déterminer les conditions qui permettent aux kinks de catalyser la désintégration du faux vide. Il appert qu’on a trouvé une expression pour déterminer la densité critique de kinks et qu’on comprend ce qui se passe avec la plupart des termes.
Resumo:
Ce mémoire propose que l’origine d’un cyberdélinquant soit un facteur explicatif du phénomène de la cybercriminalité. Il comporte deux objectifs : premièrement, décrire les profils des cybercriminels recensés dans les médias internationaux; deuxièmement, vérifier si ces profils varient selon le lieu d’origine du cyberdélinquant. Une base de données, comportant 90 cas de cybercriminels répertoriés à travers le monde, fut créée. Quinze (15) cybercriminels par territoire ont été sélectionnés, les régions ciblées allant comme suit : Amérique du Nord, Amérique latine, Australasie, Europe de l’Ouest, Eurasie et Afrique/péninsule Arabique. En premier lieu, des analyses descriptives ont été exécutées afin de dresser un portrait de ce phénomène. En second lieu, des analyses de tableaux de contingence ont été effectuées entre les variables à l’étude afin de voir si des relations existaient. Enfin, d’autres analyses de tableaux de contingence ont été réalisées afin d’établir les différences des paramètres en fonction de l’origine. Les résultats de ces divers tests démontrent que ce sont généralement de jeunes hommes âgés en moyenne de 25 ans qui seront susceptibles de commettre des délits informatiques. Quelques profils types se sont dégagés des analyses et peuvent s’expliquer par l’accès au matériel informatique, les inégalités économiques entre classes sociales, tout comme la vitesse d’Internet, et ce, en fonction de l’origine du cyberdélinquant.
Resumo:
Dans ce mémoire, on s'intéresse à l'action du groupe des transformations affines et des homothéties sur l'axe du temps des systèmes différentiels quadratiques à foyer faible d'ordre trois, dans le plan. Ces systèmes sont importants dans le cadre du seizième problème d'Hilbert. Le diagramme de bifurcation a été produit à l'aide de la forme normale de Li dans des travaux de Andronova [2] et Artès et Llibre [4], sans utiliser le plan projectif comme espace des paramètres ni de méthodes globales. Dans [7], Llibre et Schlomiuk ont utilisé le plan projectif comme espace des paramètres et des notions à caractère géométrique global (invariants affines et topologiques). Ce diagramme contient 18 portraits de phase et certains de ces portraits sont répétés dans des parties distinctes du diagramme. Ceci nous mène à poser la question suivante : existe-t-il des systèmes distincts, correspondant à des valeurs distinctes de paramètres, se trouvant sur la même orbite par rapport à l'action du groupe? Dans ce mémoire, on prouve un résultat original : l'action du groupe n'est pas triviale sur la forme de Li (théorème 3.1), ni sur la forme normale de Bautin (théorème 4.1). En utilisant le deuxième résultat, on construit l'espace topologique quotient des systèmes quadratiques à foyer faible d'ordre trois par rapport à l'action de ce groupe.