963 resultados para Étoiles: paramètres atmosphériques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanoparticules (NPs) de polymère ont montré des résultats prometteurs pour leur utilisation comme système de transport de médicaments pour une libération contrôlée du médicament, ainsi que pour du ciblage. La biodisponibilité des médicaments administrés oralement pourrait être limitée par un processus de sécrétion intestinale, qui pourrait par la suite être concilié par la glycoprotéine P (P-gp). La dispersion de la Famotidine (modèle de médicament) à l’intérieur des nanoparticules (NPs) pegylées a été évaluée afin d’augmenter la biodisponibilité avec du polyéthylène glycol (PEG), qui est connu comme un inhibiteur de P-gp. L’hypothèse de cette étude est que l’encapsulation de la Famotidine (un substrat de P-gp) à l’intérieur des NPs préparées à partir de PEG-g-PLA pourrait inhiber la fonction P-gp. La première partie de cette étude avait pour but de synthétiser quatre copolymères de PEG greffés sur un acide polylactide (PLA) et sur un squelette de polymère (PLA-g-PEG), avec des ratios de 1% et 5% (ratio molaire de PEG vs acide lactique monomère) de soit 750, soit 2000 Da de masse moléculaire. Ces polymères ont été employés afin de préparer des NPs chargés de Famotidine qui possède une faible perméabilité et une solubilité aqueuse relativement basse. Les NPs préparées ont été analysées pour leur principaux paramètres physicochimiques tels que la taille et la distribution de la taille, la charge de surface (Potentiel Zeta), la morphologie, l’efficacité d’encapsulation, le pourcentage résiduel en alcool polyvinylique (PVA) adsorbé à la surface des NPs, les propriétés thermiques, la structure cristalline et la libération du médicament. De même, les formules de NPs ont été testées in vitro sur des cellules CaCo-2 afin dʼévaluer la perméabilité bidirectionnelle de la Famotidine. Généralement, les NPs préparées à partir de polymères greffés PLA-g-5%PEG ont montré une augmentation de la perméabilité du médicament, ce par l’inhibition de l’efflux de P-gp de la Famotidine dans le modèle CaCo-2 in vitro. Les résultats ont montré une baisse significative de la sécrétion de la Famotidine de la membrane basolatéral à apical lorsque la Famotidine était encapsulée dans des NPs préparées à partir de greffes de 5% PEG de 750 ou 2000 Da, de même que pour d’autres combinaisons de mélanges physiques contenant du PEG5%. La deuxième partie de cette étude est à propos de ces NPs chargées qui démontrent des résultats prometteurs en termes de perméabilité et d’inhibition d’efflux de P-gp, et qui ont été choises pour développer une forme orale solide. La granulation sèche a été employée pour densifier les NPs, afin de développer des comprimés des deux formules sélectionnées de NPs. Les comprimés à base de NPs ont démontré un temps de désintégration rapide (moins d’une minute) et une libération similaire à la Famotidine trouvée sur le marché. Les résultats de l’étude du transport de comprimés à base de NPs étaient cohérents avec les résultats des formules de NPs en termes d’inhibition de P-gp, ce qui explique pourquoi le processus de fabrication du comprimé n’a pas eu d’effet sur les NPs. Mis ensemble, ces résultats montrent que l’encapsulation dans une NP de polymère pegylé pourrait être une stratégie prometteuse pour l’amélioration de la biodisponibilité des substrats de P-gp.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanomatériaux sont une classe de contaminants qui est de plus en plus présent dans l’environnement. Leur impact sur l’environnement dépendra de leur persistance, mobilité, toxicité et bioaccumulation. Chacun de ces paramètres dépendra de leur comportement physicochimique dans les eaux naturelles (i.e. dissolution et agglomération). L’objectif de cette étude est de comprendre l’agglomération et l’hétéroagglomération des nanoparticules d’argent dans l’environnement. Deux différentes sortes de nanoparticules d’argent (nAg; avec enrobage de citrate et avec enrobage d’acide polyacrylique) de 5 nm de diamètre ont été marquées de manière covalente à l’aide d’un marqueur fluorescent et ont été mélangées avec des colloïdes d’oxyde de silice (SiO2) ou d’argile (montmorillonite). L’homo- et hétéroagglomération des nAg ont été étudiés dans des conditions représentatives d’eaux douces naturelles (pH 7,0; force ionique 10 7 à 10-1 M de Ca2+). Les tailles ont été mesurées par spectroscopie de corrélation par fluorescence (FCS) et les résultats ont été confirmés à l’aide de la microscopie en champ sombre avec imagerie hyperspectrale (HSI). Les résultats ont démontrés que les nanoparticules d’argent à enrobage d’acide polyacrylique sont extrêmement stables sous toutes les conditions imposées, incluant la présence d’autres colloïdes et à des forces ioniques très élevées tandis que les nanoparticules d’argent avec enrobage de citrate ont formées des hétéroagrégats en présence des deux particules colloïdales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La densification de la ville est l’un des principaux objectifs de l’action publique pour bâtir des milieux de vie de qualité. Mais la densité est un concept polysémique et relatif : on constate un écart entre la densité telle qu’elle est préconisée en aménagement et celle vécue par les populations. Parallèlement, on observe l’exode des jeunes familles montréalaises vers les territoires périurbains de faible densité. Enfin, la littérature souligne une relation positive entre densité, mixité et pratique de la marche. Cette recherche explore les perceptions des parents de jeunes enfants à l’égard de leur environnement bâti, en particulier de sa densité, et en identifie les facteurs qui influencent positivement leur pratique de la marche. Après avoir caractérisé les formes urbaines de deux quartiers montréalais aux densités différentes, nous avons interrogé des parents de jeunes enfants sur leur expérience lors de 16 entrevues semi-dirigées et d’un groupe de discussion. Puis nous avons étudié la relation entre les variables personnelles des participants, leurs perceptions de la densité et leurs pratiques de la marche. Nos résultats mettent en évidence la quête d’un équilibre entre les avantages et inconvénients de la densité, dont les principales variables sont les formes urbaines, les services de proximité et la présence d’animation, la végétation étant un paramètre incontournable pour tous les parents. Caractéristiques clés d’une ville intense, ces paramètres corroborent la littérature existante à ce sujet, en mettant en évidence leur importance dans la création de milieux de vie plus denses pour les jeunes familles et leur influence positive sur la marche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de mieux comprendre les effets des changements climatiques sur le pergélisol, il s’avère essentiel d’obtenir une meilleure connaissance des facteurs physiques et biologiques l’influençant. Même si plusieurs études font référence à l’influence de la végétation sur le pergélisol à grande échelle, l’effet de la végétation sur la profondeur du front de dégel du pergélisol à l’échelle de mètres, tel qu’exploré ici, est peu connu. L’étude s’est effectuée dans une forêt boréale tourbeuse dans la zone à pergélisol discontinu au sud des Territoires du Nord-Ouest (N61°18’, O121°18’). Nous avons comparé la profondeur de dégel aux mesures du couvert végétal suivantes : densité arborescente, couvert arbustif, indice de surface foliaire et présence de cryptogames (lichens et bryophytes). Nous avons trouvé qu’une plus grande densité arborescente menait à une moins grande profondeur de dégel tandis que le couvert arbustif (<50cm de hauteur) n’avait aucune influence. De plus, la profondeur de dégel dépendait de l’espèce des cryptogames et des microformes. Cette recherche quantifie l’influence de la végétation par strate sur la dégradation du pergélisol. Ultimement, les résultats pourront être pris en considération dans la mise en place des modèles, afin de valider les paramètres concernant la végétation, la dégradation du pergélisol et le flux du carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construction modulaire est une stratégie émergente qui permet la fabrication de matériaux ordonnés à l’échelle atomique. Elle consiste en l’association programmée de sous-unités moléculaires via des sites réactifs judicieusement sélectionnés. L’application de cette stratégie a d’ores et déjà produit des matériaux aux propriétés remarquables, notamment les réseaux organiques covalents, dans lesquels des atomes de carbone et d’autres éléments légers sont liés de manière covalente. Bien que des matériaux assemblés par des interactions non-covalentes puissent être préparés sous la forme de monocristaux macroscopiques de cette façon, ceci n’était pas possible dans le cas des réseaux organiques covalents. Afin de pallier cette lacune, nous avons choisi d’étudier des réactions de polymérisation réversibles ayant lieu par un mécanisme d’addition. En effet, l’hypothèse de départ de cette thèse suppose qu’un tel processus émule le phénomène de cristallisation classique – régi par des interactions non-covalentes – et favorise la formation de monocristaux de dimensions importantes. Pour tester la validité de cette hypothèse, nous avons choisi d’étudier la polymérisation des composés polynitroso aromatiques puisque la dimérisation des nitrosoarènes est réversible et procède par addition. Dans un premier temps, nous avons revu en profondeur la littérature portant sur la dimérisation des nitrosoarènes. À partir des données alors recueillies, nous avons conçu, dans un deuxième temps, une série de composés polynitroso ayant le potentiel de former des réseaux organiques covalents bi- et tridimensionnels. Les paramètres thermodynamiques propres à leur polymérisation ont pu être estimés grâce à l’étude de composés mononitroso modèles. Dans un troisième temps, nous avons synthétisé les divers composés polynitroso visés par notre étude. Pour y parvenir, nous avons eu à développer une nouvelle méthodologie de synthèse des poly(N-arylhydroxylamines) – les précurseurs directs aux composés polynitroso. Dans un quatrième temps, nous avons étudié la polymérisation des composés polynitroso. En dépit de difficultés d’ordre pratique causées par la polymérisation spontanée de ces composés, nous avons pu identifier les conditions propices à leur polymérisation en réseaux organiques covalents hautement cristallins. Plusieurs nouveaux réseaux covalents tridimensionnels ont ainsi été produits sous la forme de monocristaux de dimensions variant entre 30 µm et 500 µm, confirmant la validité de notre hypothèse de départ. Il a par conséquent été possible de résoudre la structure de ces cristaux par diffraction de rayons X sur monocristal, ce qui n’avait jamais été possible dans le passé pour ce genre de matériau. Ces cristaux sont remarquablement uniformes et les polymères qui les composent ont des masses moléculaires extrêmement élevées (1014-1017 g/mol). Toutefois, la polymérisation de la majorité des composés polynitroso étudiés a plutôt conduit à des solides amorphes ou à des solides cristallins constitués de la forme monomérique de ces composés. D’autres composés nitroso modèles ont alors été préparés afin d’expliquer ce comportement, et des hypothèses ont été émises à partir des données alors recueillies. Enfin, les structures de plusieurs composés polynitroso ayant cristallisés sous une forme monomérique ont été analysés en détails par diffraction des rayons X. Notre stratégie, qui consiste en l’utilisation de monomères ayant la capacité de polymériser spontanément par un processus d’addition réversible, semble donc prometteuse pour obtenir de nouveaux réseaux covalents monocristallins à partir de composés polynitroso ou d’autres monomères de nature similaire. De plus, les résultats présentés au cours de cette thèse établissent un lien entre la science des polymères et la chimie supramoléculaire, en illustrant comment des structures ordonnées, covalentes ou non covalentes, peuvent toutes deux être construites de façon prévisible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, on étudie la désintégration d’un faux vide, c’est-à-dire un vide qui est un minimum relatif d’un potentiel scalaire par effet tunnel. Des défauts topologiques en 1+1 dimension, appelés kinks, apparaissent lorsque le potentiel possède un minimum qui brise spontanément une symétrie discrète. En 3+1 dimensions, ces kinks deviennent des murs de domaine. Ils apparaissent par exemple dans les matériaux magnétiques en matière condensée. Un modèle à deux champs scalaires couplés sera étudié ainsi que les solutions aux équations du mouvement qui en découlent. Ce faisant, on analysera comment l’existence et l’énergie des solutions statiques dépend des paramètres du modèle. Un balayage numérique de l’espace des paramètres révèle que les solutions stables se trouvent entre les zones de dissociation, des régions dans l’espace des paramètres où les solutions stables n’existent plus. Le comportement des solutions instables dans les zones de dissociation peut être très différent selon la zone de dissociation dans laquelle une solution se trouve. Le potentiel consiste, dans un premier temps, en un polynôme d’ordre six, auquel on y rajoute, dans un deuxième temps, un polynôme quartique multiplié par un terme de couplage, et est choisi tel que les extrémités du kink soient à des faux vides distincts. Le taux de désintégration a été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste à déterminer les conditions qui permettent aux kinks de catalyser la désintégration du faux vide. Il appert qu’on a trouvé une expression pour déterminer la densité critique de kinks et qu’on comprend ce qui se passe avec la plupart des termes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire propose que l’origine d’un cyberdélinquant soit un facteur explicatif du phénomène de la cybercriminalité. Il comporte deux objectifs : premièrement, décrire les profils des cybercriminels recensés dans les médias internationaux; deuxièmement, vérifier si ces profils varient selon le lieu d’origine du cyberdélinquant. Une base de données, comportant 90 cas de cybercriminels répertoriés à travers le monde, fut créée. Quinze (15) cybercriminels par territoire ont été sélectionnés, les régions ciblées allant comme suit : Amérique du Nord, Amérique latine, Australasie, Europe de l’Ouest, Eurasie et Afrique/péninsule Arabique. En premier lieu, des analyses descriptives ont été exécutées afin de dresser un portrait de ce phénomène. En second lieu, des analyses de tableaux de contingence ont été effectuées entre les variables à l’étude afin de voir si des relations existaient. Enfin, d’autres analyses de tableaux de contingence ont été réalisées afin d’établir les différences des paramètres en fonction de l’origine. Les résultats de ces divers tests démontrent que ce sont généralement de jeunes hommes âgés en moyenne de 25 ans qui seront susceptibles de commettre des délits informatiques. Quelques profils types se sont dégagés des analyses et peuvent s’expliquer par l’accès au matériel informatique, les inégalités économiques entre classes sociales, tout comme la vitesse d’Internet, et ce, en fonction de l’origine du cyberdélinquant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, on s'intéresse à l'action du groupe des transformations affines et des homothéties sur l'axe du temps des systèmes différentiels quadratiques à foyer faible d'ordre trois, dans le plan. Ces systèmes sont importants dans le cadre du seizième problème d'Hilbert. Le diagramme de bifurcation a été produit à l'aide de la forme normale de Li dans des travaux de Andronova [2] et Artès et Llibre [4], sans utiliser le plan projectif comme espace des paramètres ni de méthodes globales. Dans [7], Llibre et Schlomiuk ont utilisé le plan projectif comme espace des paramètres et des notions à caractère géométrique global (invariants affines et topologiques). Ce diagramme contient 18 portraits de phase et certains de ces portraits sont répétés dans des parties distinctes du diagramme. Ceci nous mène à poser la question suivante : existe-t-il des systèmes distincts, correspondant à des valeurs distinctes de paramètres, se trouvant sur la même orbite par rapport à l'action du groupe? Dans ce mémoire, on prouve un résultat original : l'action du groupe n'est pas triviale sur la forme de Li (théorème 3.1), ni sur la forme normale de Bautin (théorème 4.1). En utilisant le deuxième résultat, on construit l'espace topologique quotient des systèmes quadratiques à foyer faible d'ordre trois par rapport à l'action de ce groupe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les plantes envahissantes menacent la biodiversité ainsi que les activités humaines. Afin de les maîtriser, la pulvérisation d'herbicides est une méthode fréquemment employée en Amérique du Nord. Cette approche ne fait pas toujours consensus et est même parfois interdite ou restreinte, ce qui justifie le recours à d'autres options. Les alternatives peuvent toutefois s'avérer rares, comporter d'importantes limitations ou sont peu documentées. Cette étude vise à tester l’efficacité de méthodes permettant de maîtriser et de prévenir les invasions de roseau commun (Phragmites australis), l'une des plantes envahissantes les plus problématiques sur le continent nord-américain, tout en limitant au minimum l'utilisation d'herbicides. Le potentiel de quatre méthodes de lutte aux petites populations de roseau bien établies a d'abord été évalué : l’excavation avec enfouissement sur place, le bâchage, l’excavation avec enfouissement sur place combinée au bâchage, et la fauche répétée. Les résultats ont montré que l'excavation avec enfouissement sur place, avec ou sans bâchage, a entraîné une élimination presque totale des populations visées, ce qui est comparable ou supérieur à l'effet généralement obtenu avec la pulvérisation d'herbicide. Le bâchage avec des toiles opaques, maintenues pendant un an, a pour sa part entraîné une maîtrise partielle du roseau, suggérant qu'une application prolongée serait nécessaire pour l'éradication de la plante. La fauche répétée, exécutée à raison de cinq fauches par été pendant deux ans, a fourni une efficacité mitigée. Les résultats suggèrent néanmoins que la fauche pendant plusieurs années contribue à affaiblir la plante, ce qui pourrait aider à son confinement. Une méthode additionnelle a été expérimentée afin de traiter les tiges éparses de roseau tout en limitant les risques d'effets hors cibles, soit le badigeonnage manuel d’herbicide. Suite à ces tests, les résultats ont montré une diminution importante de la densité des tiges, ce qui suggère que la méthode est efficace afin d'éliminer les repousses après un traitement initial, et pourrait également être employée sur de jeunes populations clairsemées. L'effet d'un ensemencement préventif de plantes herbacées sur l'établissement de semis de roseau a également été étudié, suite à des traitements sur de vastes parcelles de sol nu. Les résultats suggèrent que la méthode est efficace afin de limiter la propagation du roseau par semences et qu'un suivi périodique suite à l'intervention serait suffisant afin de maintenir l'effet préventif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.