18 resultados para vérification formelle

em Université de Montréal


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le papier bioactif est obtenu par la modification de substrat du papier avec des biomolécules et des réactifs. Ce type de papier est utilisé dans le développement de nouveaux biocapteurs qui sont portables, jetables et économiques visant à capturer, détecter et dans certains cas, désactiver les agents pathogènes. Généralement les papiers bioactifs sont fabriqués par l’incorporation de biomolécules telles que les enzymes et les anticorps sur la surface du papier. L’immobilisation de ces biomolécules sur les surfaces solides est largement utilisée pour différentes applications de diagnostic comme dans immunocapteurs et immunoessais mais en raison de la nature sensible des enzymes, leur intégration au papier à grande échelle a rencontré plusieurs difficultés surtout dans les conditions industrielles. Pendant ce temps, les microcapsules sont une plate-forme intéressante pour l’immobilisation des enzymes et aussi assez efficace pour permettre à la fonctionnalisation du papier à grande échelle car le papier peut être facilement recouvert avec une couche de telles microcapsules. Dans cette étude, nous avons développé une plate-forme générique utilisant des microcapsules à base d’alginate qui peuvent être appliquées aux procédés usuels de production de papier bioactif et antibactérien avec la capacité de capturer des pathogènes à sa surface et de les désactiver grâce à la production d’un réactif anti-pathogène. La conception de cette plate-forme antibactérienne est basée sur la production constante de peroxyde d’hydrogène en tant qu’agent antibactérien à l’intérieur des microcapsules d’alginate. Cette production de peroxyde d’hydrogène est obtenue par oxydation du glucose catalysée par la glucose oxydase encapsulée à l’intérieur des billes d’alginate. Les différentes étapes de cette étude comprennent le piégeage de la glucose oxydase à l’intérieur des microcapsules d’alginate, l’activation et le renforcement de la surface des microcapsules par ajout d’une couche supplémentaire de chitosan, la vérification de la possibilité d’immobilisation des anticorps (immunoglobulines G humaine comme une modèle d’anticorps) sur la surface des microcapsules et enfin, l’évaluation des propriétés antibactériennes de cette plate-forme vis-à-vis l’Escherichia coli K-12 (E. coli K-12) en tant qu’un représentant des agents pathogènes. Après avoir effectué chaque étape, certaines mesures et observations ont été faites en utilisant diverses méthodes et techniques analytiques telles que la méthode de Bradford pour dosage des protéines, l’électroanalyse d’oxygène, la microscopie optique et confocale à balayage laser (CLSM), la spectrométrie de masse avec désorption laser assistée par matrice- temps de vol (MALDI-TOF-MS), etc. Les essais appropriés ont été effectués pour valider la réussite de modification des microcapsules et pour confirmer à ce fait que la glucose oxydase est toujours active après chaque étape de modification. L’activité enzymatique spécifique de la glucose oxydase après l’encapsulation a été évaluée à 120±30 U/g. Aussi, des efforts ont été faits pour immobiliser la glucose oxydase sur des nanoparticules d’or avec deux tailles différentes de diamètre (10,9 nm et 50 nm) afin d’améliorer l’activité enzymatique et augmenter l’efficacité d’encapsulation. Les résultats obtenus lors de cette étude démontrent les modifications réussies sur les microcapsules d’alginate et aussi une réponse favorable de cette plate-forme antibactérienne concernant la désactivation de E. coli K-12. La concentration efficace de l’activité enzymatique afin de désactivation de cet agent pathogénique modèle a été déterminée à 1.3×10-2 U/ml pour une concentration de 6.7×108 cellules/ml de bactéries. D’autres études sont nécessaires pour évaluer l’efficacité de l’anticorps immobilisé dans la désactivation des agents pathogènes et également intégrer la plate-forme sur le papier et valider l’efficacité du système une fois qu’il est déposé sur papier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Les approches de synthèse exploratoire (ou scoping studies) font actuellement l’objet de confusion dans leur appellation, définition et but. Elles continuent aussi de manquer de description méthodologique suffisante ou de détails sur le processus de l’analyse de données. Objectif : Cette synthèse exploratoire fait le point des connaissances sur les approches de synthèse exploratoire utilisées en santé. Plus spécifiquement, ses objectifs sont : 1) d’examiner le volume et l’étendue des synthèses exploratoires ainsi que les domaines d’étude dans lesquels elles ont été conduites; 2) de faire l’inventaire de leurs définitions, buts, forces et faiblesses; et 3) et de faire l’inventaire des approches méthodologiques existantes. Méthodes : Une recherche systématique des synthèses exploratoires a été entreprise jusqu’en avril 2014 dans les bases de données Medline, PubMed, ERIC, PsycINFO, CINAHL, EMBASE, EBM Reviews/Cochrane. Des critères d’inclusion et d’exclusion ont été appliqués afin de ne retenir que des études de langue française et anglaise présentant des définitions, méthodes et écarts de connaissances sur les synthèses exploratoires, ainsi que celles les comparant à d’autres types de revues de littérature. Deux reviseurs ont examiné de façon indépendante les références pertinentes. Une grille d’extraction des données a été conçue afin de recueillir pour chacune des études, les données contextuelles, les étapes méthodologiques ainsi que les définitions, buts et limites des synthèses exploratoires. Les données ont été répertoriées et classées afin de dresser un portrait global des approches de synthèses exploratoires dans un format narratif et tabulaire. Résultats : Sur deux cent cinquante-deux références identifiées, quatre-vingt-douze références pertinentes ont été retenues. Les synthèses exploratoires ont été publiées par 6 pays dans 10 domaines d’études et 73 journaux. Elles ont pour finalité d’être à la fois un support aux connaissances, une aide à la décision et un préalable à une revue systématique de littérature. Cinq auteurs ont été cités en référence et huit autres ont publié sur leur méthodologie. Elles ont 3 étapes importantes de réalisation dont la revue de littérature, la consultation des parties prenantes et la synthèse globale avec ou sans validation des résultats. Les synthèses exploratoires utilisent une méthode systématique, pas toujours exhaustive et sans évaluation formelle des études incluses Des notions claires portant sur leur définition, buts, forces et faiblesses ont été identifiées. Conclusion : Nous suggérons que de nouvelles études soient entreprises afin d’asseoir complètement cette méthode et dégager des lignes directrices pour les chercheurs qui s’y intéresseront.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recension s’intéresse à l’ouvrage d’Achille Mbembe De la postcolonie. Essai sur l’imagination politique dans l’Afrique contemporaine, Paris : Karthala, 2000 (2004). Elle propose une lecture en deux volets des cinq essais qui constituent l’ouvrage, correspondant grossièrement à deux champs de contributions (économie politique et philosophie politique) qu’ils entendent combler. Cette proposition de lecture est ponctuée d’une critique interne et formelle de cet ouvrage original dont la prémisse principale, novatrice, repose sur l’hypothèse de l’éviction de l’homme noir hors et contre l’univers de signifiants qui instituent l’identité occidentale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise traite de la théorie de la ruine, et plus spécialement des modèles actuariels avec surplus dans lesquels sont versés des dividendes. Nous étudions en détail un modèle appelé modèle gamma-omega, qui permet de jouer sur les moments de paiement de dividendes ainsi que sur une ruine non-standard de la compagnie. Plusieurs extensions de la littérature sont faites, motivées par des considérations liées à la solvabilité. La première consiste à adapter des résultats d’un article de 2011 à un nouveau modèle modifié grâce à l’ajout d’une contrainte de solvabilité. La seconde, plus conséquente, consiste à démontrer l’optimalité d’une stratégie de barrière pour le paiement des dividendes dans le modèle gamma-omega. La troisième concerne l’adaptation d’un théorème de 2003 sur l’optimalité des barrières en cas de contrainte de solvabilité, qui n’était pas démontré dans le cas des dividendes périodiques. Nous donnons aussi les résultats analogues à l’article de 2011 en cas de barrière sous la contrainte de solvabilité. Enfin, la dernière concerne deux différentes approches à adopter en cas de passage sous le seuil de ruine. Une liquidation forcée du surplus est mise en place dans un premier cas, en parallèle d’une liquidation à la première opportunité en cas de mauvaises prévisions de dividendes. Un processus d’injection de capital est expérimenté dans le deuxième cas. Nous étudions l’impact de ces solutions sur le montant des dividendes espérés. Des illustrations numériques sont proposées pour chaque section, lorsque cela s’avère pertinent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En plus de contribuer à améliorer la santé de façon générale, l’activité physique chronique pourrait modérer le déclin cognitif associé au vieillissement normal et pathologique (Colcombe et Kramer, 2003; Heyn et al., 2004). Plus précisément, la pratique à long terme d’activités cardiovasculaires aurait des effets positifs sur la cognition des ainés et plus particulièrement sur le contrôle attentionnel, un aspect précocement touché au cours du vieillissement (Raz, 2000; Bherer et al., 2008). Toutefois, les mécanismes par lesquels l’exercice physique aigu améliore la cognition demeurent limités. Malgré ses nombreuses implications théoriques et pratiques, la réponse aiguë de l’oxygénation cérébrale à l’exercice physique et sa relation avec la cognition sont trop peu étudiées. Cette thèse se consacre à cette question. Des études récentes en neuro-imagerie chez les jeunes adultes démontrent que la relation entre l’oxygénation cérébrale et l’intensité de l’exercice suit la forme d’un U inversé. Il existe un seuil au-delà duquel l’oxygénation cérébrale diminue avec l’augmentation de l’intensité de l’exercice. Supposant que les performances cognitives dépendent de la disponibilité de l’oxygène cérébral, cette relation en U inversé devrait affecter les performances cognitives. Avant de préciser le rôle exact de l’oxygénation cérébrale sur les fonctions cognitives, nous avons d’abord examiné le temps nécessaire pour que l’oxygénation cérébrale atteigne un état stable et la durée pendant laquelle cette période stable peut être maintenue lors de paliers de sept minutes à une puissance sous-maximale (40%, 60% et 85% de la puissance aérobie maximale). Nos résultats soulignent l’existence d’une relation inverse entre la durée de l’état stable et l’intensité de l’exercice. Suite à cette vérification méthodologique, la prochaine étape a été de tester la possible relation entre l’oxygénation cérébrale, l’intensité de l’exercice et les performances cognitives, au cours du processus de vieillissement. Les résultats de ces études démontrent que la chute de l’oxygénation cérébrale observée lors des exercices de haute intensité est associée avec une diminution des performances cognitives. Les résultats de cette thèse corrigent l’écart existant dans la documentation entre l’exercice, les fonctions cognitives et les mécanismes neurophysiologiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente une théorie de la fonction formelle et de la structure des phrases dans la musique contemporaine, théorie qui peut être utilisée aussi bien comme outil analytique que pour créer de nouvelles œuvres. Deux concepts théoriques actuels aident à clarifier la structure des phrases : les projections temporelles de Christopher Hasty et la théorie des fonctions formelles de William Caplin, qui inclut le concept de l’organisation formelle soudée versus lâche (tight-knit vs. loose). Les projections temporelles sont perceptibles grâce à l’accent mis sur les paramètres secondaires, comme le style du jeu, l’articulation et le timbre. Des sections avec une organisation formelle soudée ont des projections temporelles claires, qui sont créées par la juxtaposition des motifs distincts, généralement sous la forme d'une idée de base en deux parties. Ces projections organisent la musique en phrases de présentation, en phrases de continuité et finalement, à des moments formels charnières, en phrases cadentielles. Les sections pourvues d’une organisation plus lâche tendent à présenter des projections et mouvements harmoniques moins clairs et moins d’uniformité motivique. La structure des phrases de trois pièces tardives pour instrument soliste de Pierre Boulez est analysée : Anthèmes I pour violon (1991-1992) et deux pièces pour piano, Incises (2001) et une page d’éphéméride (2005). Les idées proposées dans le présent document font suite à une analyse de ces œuvres et ont eu une forte influence sur mes propres compositions, en particulier Lucretia Overture pour orchestre et 4 Impromptus pour flûte, saxophone soprano et piano, qui sont également analysés en détail. Plusieurs techniques de composition supplémentaires peuvent être discernés dans ces deux œuvres, y compris l'utilisation de séquence mélodiques pour contrôler le rythme harmonique; des passages composés de plusieurs couches musicales chacun avec un structure de phrase distinct; et le relâchement de l'organisation formelle de matériels récurrents. Enfin, la composition de plusieurs autres travaux antérieurs a donné lieu à des techniques utilisées dans ces deux œuvres et ils sont brièvement abordés dans la section finale.