1000 resultados para Étude par simulation


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le 18 juin 1815, Napoléon fut renversé à Waterloo, mais son art de la guerre survécut. Il s'agit de cet art militaire qu'il avait révolutionné et dont d'autres firent de nombreuses applications longtemps après sa disparition. S'inspirant des méthodes des théoriciens du XVIIIe siècle, il avait privilégié la stratégie d'anéantissement dans la conduite d'opérations militaires et se classait ainsi dans la catégorie des stratèges recherchant avant tout la bataille décisive en vue de détruire les forces ennemies. À la lumière des tactiques et stratégies que Bonaparte utilisa dans ses plus célèbres campagnes, cette thèse tentera de dégager les méthodes napoléoniennes qui furent le plus souvent utilisées au cours de la seconde moitié du XIXe siècle. Les conflits étudiés durant cette période seront la guerre de Crimée (1853-1856), la campagne d'Italie (1859), la guerre de Sécession américaine (1861-1865), la guerre austro-prussienne (1866) et la guerre franco-prussienne (1870-1871). Cette recherche tiendra compte non seulement de l'influence des progrès de l'armement et des moyens de transport et de communication sur l'art de la guerre en général, mais aussi du contexte économique, financier, politique et militaire des États bélligérants de cette époque. Parmi les nombreux exégètes de Bonaparte du XIXe siècle, deux théoriciens militaires en particulier, Clausewitz et Jomini, se distinguèrent dans l'interprétation savante de la guerre napoléonienne. Tout en analysant l'impact des méthodes de l'Empereur dans les guerres selectionnées, nous allons déterminer dans quelle mesure la vision jominienne des campagnes de Bonaparte divergeait de celle de Clausewitz en ce qui concerne les conflits traités. Nous aborderons ensuite l'influence napoléonienne sur l'administration, l'organisation et les marches des armées impliquées dans les guerres en question et nous porterons une attention particulière à l'impact du système militaire de Bonaparte sur certains aspects du déroulement même des combats. Nous terminerons cette étude par un bref aperçu sur les enseignements que les militaires au XIXe siècle purent dégager des campagnes napoléoniennes pour la conduite des guerres de l'avenir.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Depuis quelques années, mais surtout depuis le 11 septembre 2001, les contrôles migratoires sont devenus le locus principal d’affirmation du pouvoir souverain dans les pays occidentaux. La mouvance sécuritaire actuelle semble avoir donné les outils conceptuels nécessaires aux États pour leur permettre d’amalgamer des notions autrefois distinctes, comme la sécurité et l’immigration, et d’en inférer des liens qui paraissent désormais naturels et évidents aux yeux du public. Le Canada s’inscrit aussi dans cette mouvance où l’immigrant et l’étranger sont désormais pensés en relation avec l’illégalité, la criminalité et le sujet de non-droit. En pratique, cela se traduit par la mise en œuvre étatique d’un pouvoir souverain qui se manifeste clairement et ouvertement dans le cadre de contrôles migratoires de plus en plus serrés et contraignants. Ainsi, alimenté par la justification sécuritaire, par l’affect de la peur et par la nécessité de combattre le terrorisme international, le Canada applique ses lois et ses politiques de manière à exercer un contrôle accru sur sa population, plus particulièrement sur les migrants en général, mais encore davantage sur les demandeurs d’asile et les réfugiés soupçonnés de terrorisme. La mise en œuvre de pratiques restrictives à l’endroit des demandeurs d’asile et des réfugiés est facilitée par une conviction très tenace. À la lumière de son comportement, le gouvernement canadien semble convaincu que l’exclusion, l’expulsion, voire le refoulement, à l’extérieur du territoire national des personnes jugées être de potentiels terroristes, permettront de renforcer la sécurité nationale. Cette conviction est elle-même supportée par une autre, à savoir la croyance selon laquelle le pouvoir souverain d’exclure quelqu’un du territoire est absolu et, qu’en situation d’exception, il ne peut être limité d’aucune manière par le droit international. Suivant ceci, la lutte antiterroriste s’exécute presque exclusivement par le rejet des éléments potentiellement dangereux à l’extérieur du pays, au détriment d’autres mesures moins attentatoires des droits et libertés, plus légitimes et plus à même de remplir les objectifs liés à la lutte au terrorisme international. Dans notre étude, par une relecture d’une décision paradigmatique de la Cour suprême du Canada, l’affaire Suresh, nous chercherons à ébranler ces convictions. Notre thèse est à l’effet que la prétention du Canada à vouloir en arriver à un monde plus sécuritaire, en excluant d’une protection internationale contre la torture et en refoulant de potentiels terroristes à l'extérieur de son territoire, constitue une entreprise vouée à l’échec allant potentiellement à l’encontre des objectifs de lutte au terrorisme et qui se réalise présentement dans le déni de ses obligations internationales relatives aux droits de l’Homme et à la lutte contre l’impunité. Généralement, à la lumière d’une analyse de certaines obligations du Canada dans ces domaines, notre étude révélera trois éléments, ceux-ci se trouvant en filigrane de toute notre réflexion. Premièrement, le pouvoir souverain du Canada d’exclure des individus de son territoire n’est pas absolu. Deuxièmement, le droit d’une personne à obtenir protection non plus n’est pas absolu et des mécanismes d’équilibrage existant en droit international permettent de protéger les personnes tout en s’assurant que le Canada ne devienne pas un refuge pour les terroristes potentiels. Troisièmement, le Canada est astreint à d’autres obligations internationales. Celles-ci protègent les personnes exclues d’une protection et forcent le gouvernement à lutter contre l’impunité.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

De plus en plus de recherches sur les Interactions Humain-Machine (IHM) tentent d’effectuer des analyses fines de l’interaction afin de faire ressortir ce qui influence les comportements des utilisateurs. Tant au niveau de l’évaluation de la performance que de l’expérience des utilisateurs, on note qu’une attention particulière est maintenant portée aux réactions émotionnelles et cognitives lors de l’interaction. Les approches qualitatives standards sont limitées, car elles se fondent sur l’observation et des entrevues après l’interaction, limitant ainsi la précision du diagnostic. L’expérience utilisateur et les réactions émotionnelles étant de nature hautement dynamique et contextualisée, les approches d’évaluation doivent l’être de même afin de permettre un diagnostic précis de l’interaction. Cette thèse présente une approche d’évaluation quantitative et dynamique qui permet de contextualiser les réactions des utilisateurs afin d’en identifier les antécédents dans l’interaction avec un système. Pour ce faire, ce travail s’articule autour de trois axes. 1) La reconnaissance automatique des buts et de la structure de tâches de l’utilisateur, à l’aide de mesures oculométriques et d’activité dans l’environnement par apprentissage machine. 2) L’inférence de construits psychologiques (activation, valence émotionnelle et charge cognitive) via l’analyse des signaux physiologiques. 3) Le diagnostic de l‘interaction reposant sur le couplage dynamique des deux précédentes opérations. Les idées et le développement de notre approche sont illustrés par leur application dans deux contextes expérimentaux : le commerce électronique et l’apprentissage par simulation. Nous présentons aussi l’outil informatique complet qui a été implémenté afin de permettre à des professionnels en évaluation (ex. : ergonomes, concepteurs de jeux, formateurs) d’utiliser l’approche proposée pour l’évaluation d’IHM. Celui-ci est conçu de manière à faciliter la triangulation des appareils de mesure impliqués dans ce travail et à s’intégrer aux méthodes classiques d’évaluation de l’interaction (ex. : questionnaires et codage des observations).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce travail de thèse porte sur l’application de la pharmacocinétique de population dans le but d’optimiser l’utilisation de certains médicaments chez les enfants immunosupprimés et subissant une greffe. Parmi les différents médicaments utilisés chez les enfants immunosupprimés, l’utilisation du busulfan, du tacrolimus et du voriconazole reste problématique, notamment à cause d’une très grande variabilité interindividuelle de leur pharmacocinétique rendant nécessaire l’individualisation des doses par le suivi thérapeutique pharmacologique. De plus, ces médicaments n’ont pas fait l’objet d’études chez les enfants et les doses sont adaptées à partir des adultes. Cette dernière pratique ne prend pas en compte les particularités pharmacologiques qui caractérisent l’enfant tout au long de son développement et rend illusoire l’extrapolation aux enfants des données acquises chez les adultes. Les travaux effectués dans le cadre de cette thèse ont étudié successivement la pharmacocinétique du busulfan, du voriconazole et du tacrolimus par une approche de population en une étape (modèles non-linéaires à effets mixtes). Ces modèles ont permis d’identifier les principales sources de variabilités interindividuelles sur les paramètres pharmacocinétiques. Les covariables identifiées sont la surface corporelle et le poids. Ces résultats confirment l’importance de tenir en compte l’effet de la croissance en pédiatrie. Ces paramètres ont été inclus de façon allométrique dans les modèles. Cette approche permet de séparer l’effet de la mesure anthropométrique d’autres covariables et permet la comparaison des paramètres pharmacocinétiques en pédiatrie avec ceux des adultes. La prise en compte de ces covariables explicatives devrait permettre d’améliorer la prise en charge a priori des patients. Ces modèles développés ont été évalués pour confirmer leur stabilité, leur performance de simulation et leur capacité à répondre aux objectifs initiaux de la modélisation. Dans le cas du busulfan, le modèle validé a été utilisé pour proposer par simulation une posologie qui améliorerait l’atteinte de l’exposition cible, diminuerait l’échec thérapeutique et les risques de toxicité. Le modèle développé pour le voriconazole, a permis de confirmer la grande variabilité interindividuelle dans sa pharmacocinétique chez les enfants immunosupprimés. Le nombre limité de patients n’a pas permis d’identifier des covariables expliquant cette variabilité. Sur la base du modèle de pharmacocinétique de population du tacrolimus, un estimateur Bayesien a été mis au point, qui est le premier dans cette population de transplantés hépatiques pédiatriques. Cet estimateur permet de prédire les paramètres pharmacocinétiques et l’exposition individuelle au tacrolimus sur la base d’un nombre limité de prélèvements. En conclusion, les travaux de cette thèse ont permis d’appliquer la pharmacocinétique de population en pédiatrie pour explorer les caractéristiques propres à cette population, de décrire la variabilité pharmacocinétique des médicaments utilisés chez les enfants immunosupprimés, en vue de l’individualisation du traitement. Les outils pharmacocinétiques développés s’inscrivent dans une démarche visant à diminuer le taux d'échec thérapeutique et l’incidence des effets indésirables ou toxiques chez les enfants immunosupprimés suite à une transplantation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La dysfonction diastolique du ventricule gauche (DDVG) réfère à une rigidité ainsi qu’à des troubles de relaxation au niveau de ce ventricule pendant la phase de la diastole. Nos connaissances sur les mécanismes moléculaires sous-jacents de cette pathologie demeurent limités. Les analyses géniques sont indispensables afin de bien identifier les voies par lesquelles cette maladie progresse. Plusieurs techniques de quantification de l’expression génique sont disponibles, par contre la RT-qPCR demeure la méthode la plus populaire vu sa haute sensibilité et de ses coûts modérés. Puisque la normalisation occupe un aspect très important dans les expériences de RT-qPCR, nous avons décidé de sélectionner des gènes montrant une haute stabilité d’expression dans un modèle de DDVG de lapin. Nous avons alors exposé 18 lapins blancs soit à une diète normale (n=7) ou bien à une diète hypercholestérolémiante additionnée de vitamine D2 (n=11). La DDVG a été évaluée par des mesures échocardiographiques. L’expression de l’ARNm de dix gènes communément utilisés dans la littérature comme normalisateur (Gapdh, Hprt1, Ppia, Sdha, Rpl5, Actb, Eef1e1, Ywhaz, Pgk1, et G6pd) a été mesurée par RT-qPCR. L’évaluation de leur stabilité a été vérifiée par les algorithmes de geNorm et Normfinder. Sdha et Gapdh ont obtenu les meilleurs scores de stabilité (M<0.2) et ont été suggérés par le geNorm, comme meilleure combinaison. Par contre, l’utilisation de Normfinder mène à la sélection d’Hprt1 et Rpl5 comme meilleure combinaison de gènes de normalisation (0.042). En normalisant par ces deux combinaisons de gènes, l’expression de l’ARNm des peptides natriurétiques de type A et B (Anp et Bnp), de la protéine chimiotactique des monocytes-1 (Mcp-1) et de la sous unité Nox-2 de la NADPH oxydase ont montré des augmentations similaires chez le groupe hypercholestérolémique comparé au groupe contrôle (p<0.05). Cette augmentation d’expressions a été corrélée avec plusieurs paramètres échocardiographiques de DDVG. À notre connaissance, c’est la première étude par laquelle une sélection de gènes de référence a été réalisée dans un modèle de lapin développant une DDVG.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette étude présente une analyse du discours de la presse écrite avant et après la Révolution égyptienne de 2011 dans deux quotidiens nationaux : un journal d’État, Al Ahram et un journal indépendant, Al Dustûr. Le premier chapitre présente les notions théoriques et approches qui sont pertinentes pour cette étude. Tout d’abord, les travaux de Denis Monière (2009), que nous utilisons pour les analyses lexicale et sémantique. Ensuite, le cadre notionnel développé par Teun Adrianus Van Dijk, qui est important pour notre analyse des stratégies discursives et de l’idéologie. Le second chapitre présente un survol de l’histoire de l’Égypte, du développement de la presse écrite dans ce pays au XXe siècle et de l’histoire des deux journaux d’où sont extraits les textes de notre corpus. Le troisième chapitre présente la méthodologie et les résultats de notre analyse du corpus. Le quatrième chapitre présente enfin les principales stratégies discursives utilisées par ces deux journaux et les conclusions de notre étude, par laquelle nous espérons avoir apporté un éclairage à la compréhension des faits qui ont bouleversé l’histoire récente de l’Égypte.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'auto-assemblage des copolymères à bloc (CPBs) attire beaucoup d'intérêt grâce à leur capacité de générer spontanément des matériaux ordonnés avec des propriétés uniques. Les techniques Langmuir-Blodgett (LB) et Langmuir-Schaefer (LS) sont couramment utilisées pour produire des monocouches ou des films ultraminces à l'interface air/eau suivi de transfert aux substrats solides. Les films LB/LS de CPBs amphiphiles s'auto-assemblent dans des morphologies variables dépendamment de la composition du CPB ainsi que d'autres facteurs. Dans notre travail, nous avons étudié les films LB/LS de polystyrène-b-poly(4-vinyl pyridine) (PS-P4VP) et leurs complexes supramoléculaires avec le naphtol (NOH), l'acide naphtoïque (NCOOH) et le 3-n-pentadécylphenol (PDP). La première partie de ce mémoire est consacré à l'investigation du PS-P4VP complexé avec le NOH et le NCOOH, en comparaison avec le PS-P4VP seul. Il a été démontré qu'un plateau dans l'isotherme de Langmuir, indicatif d'une transition de premier ordre, est absent à des concentrations élevées des solutions d'étalement des complexes. Cela a été corrélé avec l'absence de morphologie en nodules avec un ordre 2D hexagonal à basse pression de surface. L'ordre au-delà de la pression de cette transition, lorsque présente, change à un ordre 2D carré pour tout les systèmes. La deuxième partie du la mémoire considère à nouveau le système PS-P4VP/ PDP, pour lequel on a démontré antérieurement que la transition dans l'isotherme correspond a une transition 2D d'un ordre hexagonal à un ordre carré. Cela est confirmé par microscopie à force atomique, et, ensuite, on a procédé à une étude par ATR-IR des films LB pour mieux comprendre les changements au niveau moléculaire qui accompagnent cette transition. Il a été constaté que, contrairement à une étude antérieure dans la littérature sur un autre système, il n'y a aucun changement dans l'orientation des chaînes alkyles. Au lieu de cela, on a découvert que, aux pressions au-delà de celle de la transition, le groupe pyridine, qui est orienté à basse pression, devient isotrope et qu'il y a une augmentation des liaisons hydrogènes phénol-pyridine. Ces observations sont rationalisées par un collapse partiel à la pression de transition de la monocouche P4VP, qui à basse pression est ordonné au niveau moléculaire. Cette étude a mené à une meilleure compréhension des mécanismes moléculaires qui se produisent à l'interface air/eau, ce qui fournit une meilleure base pour la poursuite des applications possibles des films LB/LS dans les domaines de nanotechnologie.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La digestion enzymatique des protéines est une méthode de base pour les études protéomiques ainsi que pour le séquençage en mode « bottom-up ». Les enzymes sont ajoutées soit en solution (phase homogène), soit directement sur le gel polyacrylamide selon la méthode déjà utilisée pour l’isolation de la protéine. Les enzymes protéolytiques immobilisées, c’est-à-dire insolubles, offrent plusieurs avantages tels que la réutilisation de l’enzyme, un rapport élevé d’enzyme-sur-substrat, et une intégration facile avec les systèmes fluidiques. Dans cette étude, la chymotrypsine (CT) a été immobilisée par réticulation avec le glutaraldehyde (GA), ce qui crée des particules insolubles. L’efficacité d’immobilisation, déterminée par spectrophotométrie d’absorbance, était de 96% de la masse totale de la CT ajouté. Plusieurs différentes conditions d’immobilisation (i.e., réticulation) tels que la composition/pH du tampon et la masse de CT durant la réticulation ainsi que les différentes conditions d’entreposage tels que la température, durée et humidité pour les particules GA-CT ont été évaluées par comparaison des cartes peptidiques en électrophorèse capillaire (CE) des protéines standards digérées par les particules. Les particules de GA-CT ont été utilisés pour digérer la BSA comme exemple d’une protéine repliée large qui requit une dénaturation préalable à la digestion, et pour digérer la caséine marquée avec de l’isothiocyanate de fluorescéine (FITC) comme exemple d’un substrat dérivé afin de vérifier l’activité enzymatique du GA-CT dans la présence des groupements fluorescents liés au substrat. La cartographie peptidique des digestions par les particules GA-CT a été réalisée par CE avec la détection par absorbance ultraviolet (UV) ou fluorescence induite par laser. La caséine-FITC a été, en effet, digérée par GA-CT au même degré que par la CT libre (i.e., soluble). Un microréacteur enzymatique (IMER) a été fabriqué par immobilisation de la CT dans un capillaire de silice fondu du diamètre interne de 250 µm prétraité avec du 3-aminopropyltriéthoxysilane afin de fonctionnaliser la paroi interne avec les groupements amines. Le GA a été réagit avec les groupements amine puis la CT a été immobilisée par réticulation avec le GA. Les IMERs à base de GA-CT étaient préparé à l’aide d’un système CE automatisé puis utilisé pour digérer la BSA, la myoglobine, un peptide ayant 9 résidus et un dipeptide comme exemples des substrats ayant taille large, moyenne et petite, respectivement. La comparaison des cartes peptidiques des digestats obtenues par CE-UV ou CE-spectrométrie de masse nous permettent d’étudier les conditions d’immobilisation en fonction de la composition et le pH du tampon et le temps de réaction de la réticulation. Une étude par microscopie de fluorescence, un outil utilisé pour examiner l’étendue et les endroits d’immobilisation GA-CT dans l’IMER, ont montré que l’immobilisation a eu lieu majoritairement sur la paroi et que la réticulation ne s’est étendue pas si loin au centre du capillaire qu’anticipée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le début du XXe siècle constitue un tournant de l'histoire sociale du Canada français. Dans les bouleversements socio-économiques que vécut alors notre société, des chefs de file marquèrent le milieu canadien-français par leur pensée et leur action sociales. Une étude sur l'intervention de ces individus et sur les multiples mouvements sociaux qui naquirent au cours de cette évolution permet de retracer la filiation de l'action sociale au Québec, de découvrir l'idéologie et les problèmes de l'époque. C'est dans cette perspective que se situe notre recherche sur l'action sociale de Marie Gérin-Lajoie de 1910 à 1925. Le choix précis de cette période s'explique par le fait que cette femme s'engage dans l'action dès 1910, à l'âge de vingt ans. Pendant treize ans elle assure une participation active aux oeuvres sociales laïques de son temps, elle prend en ce domaine des initiatives nouvelles dont l'une des plus importantes est sans doute l'implantation du service social au Canada français. En 1923, elle fonde un institut religieux dont le but est d'assurer une permanence à l'action et à l'éducation sociales dans notre milieu. Notre intérêt dans la poursuite de cette recherche est d'abord lié au changement social de notre temps. Il nous apparait important d'identifier les racines propres à assurer un lien entre l'émergence du monde nouveau de l'époque que nous étudions et l'émergence du monde nouveau que nous connaissons. En considérant l'action sociale de Marie Gérin-Lajoie, nous ne pouvons que nous étonner d'être encore interpellés par ses préoccupations sociales qui sont, on ne peut plus, d'actualité. L'intérêt de notre étude s'inscrit dans le mouvement de la libération de la femme qui, aujourd'hui, prend de plus en plus d'expansion. En effet, la participation de Marie Gérin-Lajoie à la promotion féminine de même que son action personnelle à une époque où la femme n'a pratiquement pas de voix, prend pour nous un sens d'autant plus actuel qu'il est éclairé par le passé qui l'a façonné. Dans cette perspective, nous estimons que certaines actions passées dont le but visait à procurer aux hommes des conditions de vie plus humaines, peuvent constituer des sources d'inspiration de nature à stimuler notre propre esprit d'invention à une fin similaire. Enfin comme ce travail d'histoire s'inscrit dans la poursuite d'une maîtrise en théologie, nous avons été soutenue dans cette étude par l'espérance qu'elle pourra engager une réflexion théologique sur l'action. Sans nous engager nous-même dans cette voie précise, nous croyons pourtant que si la théologie veut rejoindre l'homme, si elle veut affirmer que l'homme est renouvelé par le Christ, qu'il peut user de sa liberté pour construire un monde nouveau, elle se doit de tenir compte des réalités concrètes dans lesquelles il est inséré et où il expérimente la rencontre de Dieu. En ce sens, notre travail porte un regard sur une tranche de l'histoire pour tenter de cerner l'influence d'une personne qui a voulu traduire dans l'action sociale une présence de Dieu au monde. Comme nous croyons que l'histoire d'un individu est inséparable de l'histoire dans laquelle il évolue, nous présenterons dans la première partie de notre travail une étude sommaire de la société canadienne-française de 1900 à 1925 et nous tenterons d'éclairer la figure de Marie Gérin-Lajoie en faisant connaître le milieu familial dans lequel s'enracine son action sociale. La deuxième partie abordera l'étude de l'action de cette femme qui, pour son époque, est particulièrement informée et formée dans le domaine des sciences sociales et des méthodes de travail social dont elle assurera l'implantation au Canada français. Enfin, nous axerons la dernière partie de notre recherche sur la genèse et la fondation de l'Institut religieux qu'elle a fondé dans le but d'assurer la permanence et la poursuite de son action.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’avancée des infrastructures informatiques a permis l’émergence de la modélisation moléculaire. À cet effet, une multitude de modèles mathématiques sont aujourd’hui disponibles pour simuler différents systèmes chimiques. À l’aide de la modélisation moléculaire, différents types d’interactions chimiques ont été observés. À partir des systèmes les plus simples permettant l’utilisation de modèles quantiques rigoureux, une série d’approximations a été considérée pour rendre envisageable la simulation de systèmes moléculaires de plus en plus complexes. En premier lieu, la théorie de la fonctionnelle de densité dépendante du temps a été utilisée pour simuler les énergies d’excitation de molécules photoactives. De manière similaire, la DFT indépendante du temps a permis la simulation du pont hydrogène intramoléculaire de structures analogues au 1,3,5-triazapentadiène et la rationalisation de la stabilité des états de transition. Par la suite, la dynamique moléculaire et la mécanique moléculaire ont permis de simuler les interactions d’un trimère d’acide cholique et d’un pyrène dans différents solvants. Cette même méthodologie a été utilisée pour simuler les interactions d’un rotaxane-parapluie à l’interface d’un système biphasique. Finalement, l’arrimage moléculaire et les fonctions de score ont été utilisés pour simuler les interactions intermoléculaires entre une protéine et des milliers de candidats moléculaires. Les résultats ont permis de mettre en place une stratégie de développement d’un nouvel inhibiteur enzymatique.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Objectifs: Les patients hospitalisés aux soins intensifs (SI) sont souvent victimes d’erreurs médicales. La nature interprofessionnelle des équipes de SI les rend vulnérables aux erreurs de communication. L’objectif primaire du projet est d’améliorer la communication dans une équipe interprofessionnelle de soins intensifs par une formation en simulation à haute fidélité. Méthodologie Une étude prospective randomisée contrôlée à double insu a été réalisée. Dix équipes de six professionnels de SI ont complété trois scénarios de simulations de réanimation. Le groupe intervention était débreffé sur des aspects de communication alors que le groupe contrôle était débreffé sur des aspects techniques de réanimation. Trois mois plus tard, les équipes réalisaient une quatrième simulation sans débreffage. Les simulations étaient toutes évaluées pour la qualité, l’efficacité de la communication et le partage des informations critiques par quatre évaluateurs. Résultats Pour l’issue primaire, il n’y a pas eu d’amélioration plus grande de la communication dans le groupe intervention en comparaison avec le groupe contrôle. Une amélioration de 16% de l’efficacité des communications a été notée dans les équipes de soins intensifs indépendamment du groupe étudié. Les infirmiers et les inhalothérapeutes ont amélioré significativement l’efficacité de la communication après trois sessions. L’effet observé ne s’est pas maintenu à trois mois. Conclusion Une formation sur simulateur à haute fidélité couplée à un débreffage peut améliorer à court terme l’efficacité des communications dans une équipe interprofessionnelle de SI.