442 resultados para Paramètres atmosphériques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour but d'étudier les propriétés des solutions à l'équation aux valeurs propres de l'opérateur de Laplace sur le disque lorsque les valeurs propres tendent vers l'in ni. En particulier, on s'intéresse au taux de croissance des normes ponctuelle et L1. Soit D le disque unitaire et @D sa frontière (le cercle unitaire). On s'inté- resse aux solutions de l'équation aux valeurs propres f = f avec soit des conditions frontières de Dirichlet (fj@D = 0), soit des conditions frontières de Neumann ( @f @nj@D = 0 ; notons que sur le disque, la dérivée normale est simplement la dérivée par rapport à la variable radiale : @ @n = @ @r ). Les fonctions propres correspondantes sont données par : f (r; ) = fn;m(r; ) = Jn(kn;mr)(Acos(n ) + B sin(n )) (Dirichlet) fN (r; ) = fN n;m(r; ) = Jn(k0 n;mr)(Acos(n ) + B sin(n )) (Neumann) où Jn est la fonction de Bessel de premier type d'ordre n, kn;m est son m- ième zéro et k0 n;m est le m-ième zéro de sa dérivée (ici on dénote les fonctions propres pour le problème de Dirichlet par f et celles pour le problème de Neumann par fN). Dans ce cas, on obtient que le spectre SpD( ) du laplacien sur D, c'est-à-dire l'ensemble de ses valeurs propres, est donné par : SpD( ) = f : f = fg = fk2 n;m : n = 0; 1; 2; : : :m = 1; 2; : : :g (Dirichlet) SpN D( ) = f : fN = fNg = fk0 n;m 2 : n = 0; 1; 2; : : :m = 1; 2; : : :g (Neumann) En n, on impose que nos fonctions propres soient normalisées par rapport à la norme L2 sur D, c'est-à-dire : R D F2 da = 1 (à partir de maintenant on utilise F pour noter les fonctions propres normalisées et f pour les fonctions propres quelconques). Sous ces conditions, on s'intéresse à déterminer le taux de croissance de la norme L1 des fonctions propres normalisées, notée jjF jj1, selon . Il est vi important de mentionner que la norme L1 d'une fonction sur un domaine correspond au maximum de sa valeur absolue sur le domaine. Notons que dépend de deux paramètres, m et n et que la dépendance entre et la norme L1 dépendra du rapport entre leurs taux de croissance. L'étude du comportement de la norme L1 est étroitement liée à l'étude de l'ensemble E(D) qui est l'ensemble des points d'accumulation de log(jjF jj1)= log : Notre principal résultat sera de montrer que [7=36; 1=4] E(B2) [1=18; 1=4]: Le mémoire est organisé comme suit. L'introdution et les résultats principaux sont présentés au chapitre 1. Au chapitre 2, on rappelle quelques faits biens connus concernant les fonctions propres du laplacien sur le disque et sur les fonctions de Bessel. Au chapitre 3, on prouve des résultats concernant la croissance de la norme ponctuelle des fonctions propres. On montre notamment que, si m=n ! 0, alors pour tout point donné (r; ) du disque, la valeur de F (r; ) décroit exponentiellement lorsque ! 1. Au chapitre 4, on montre plusieurs résultats sur la croissance de la norme L1. Le probl ème avec conditions frontières de Neumann est discuté au chapitre 5 et on présente quelques résultats numériques au chapitre 6. Une brève discussion et un sommaire de notre travail se trouve au chapitre 7.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le lien entre qualité de vie et santé est complexe et représente un concept parapluie dont la définition est influencée par des éléments symboliques. Sur ce plan, si le statut socioéconomique sert de référence à un modèle de qualité de vie c’est parce que les paramètres et les critères de satisfaction de la vie sont souvent définis à partir des valeurs matérielles d’une culture située dans un contexte géopolitique et économique particulier. Dans cette recherche les données du terrain rural et les habitudes de vie des familles et de leur communauté sont mises en lien avec l’environnement et servent d’indicateurs s’opposant à certains résultats des statistiques épidémiologiques sur la santé. Ainsi, afin d’accéder à une analyse des fondements théoriques des liens entre une vie de qualité et la santé, les données empiriques récoltées dans le cadre d’une enquête heuristique ont été alliées aux concepts de satisfaction des besoins fondamentaux dans leurs rapports avec le milieu écologique et le contexte créé par l’actualisation des capitaux sociaux, culturels et économiques. Cette perspective d’analyse permit donc de brosser un tableau plus large et nuancé sur des déterminants de la santé jusqu’ici demeurés silencieux au sein des enquêtes épidémiologiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail est consacré à l’étude de la coalescence de gouttelettes liquides à l’échelle du nanomètre. Nous nous sommes intéressés principalement à l’évolution du changement topologique des gouttelettes à partir de la rupture des surfaces au moment du contact initial jusqu’à la coalescence complète. Nous utilisons la dynamique moléculaire afin de simuler plusieurs types de gouttelettes soit en utilisant le potentiel empirique de type Stillinger-Weber pour des gouttelettes de silicium (l-Si) en 3 dimensions et le modèle Embedded Atom Method pour des gouttelettes de cuivre liquide (l-Cu) en 2d, quasi-2d (disques) et 3 dimensions. Qualitativement, toutes les simulations démontrent une coalescence similaire indépendamment de la dimension de calcul (2d à 3d), de la taille et de la température initiale des gouttelettes. La coalescence évolue par une déformation rapide des surfaces sans mixage important entre les atomes des deux gouttelettes initiales. De plus, nous étudions l’évolution du col de coalescence formé lors du contact initial entre les gouttelettes et, pour les systèmes en 3d, nous observons une transition claire d’un régime visqueux vers un régime inertiel du rayon de ce col, tel que suggéré par des modèles théoriques. Pour les gouttelettes de cuivre nous observons exactement le comportement des prédictions analytiques et confirmons que le premier régime suit un comportement visqueux sans aplatissement local des gouttelettes. La situation est différente pour les gouttelettes de l-Si où nous observons un effet plus grand, par rapport aux prédictions analytiques, du rayon et de la température initiale des gouttelettes sur l’évolution du col de coalescence. Nous suggérons que les paramètres décrivant l’évolution de la coalescence dépendent des propriétés des matériaux utilisés contrairement à la théorie universelle couramment utilisée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s’intéresse au système binaire massif CV Serpentis, composé d’une Wolf- Rayet riche en carbone et d’une étoile de la séquence principale, de type spectral O (WC8d + O8-9IV). D’abord, certains phénomènes affectant les étoiles massives sont mentionnés, de leur passage sur la séquence principale à leur mort (supernova). Au cours du premier cha- pitre, un rappel est fait concernant certaines bases de l’astrophysique stellaire observa- tionnelle (diagramme Hertzsprung-Russell, phases évolutives, etc...). Au chapitre suivant, un des aspects les plus importants de la vie des étoiles massives est abordé : la perte de masse sous forme de vents stellaires. Un historique de la découverte des vents ouvre le chapitre, suivi des fondements théoriques permettant d’expliquer ce phénomène. Ensuite, différents aspects propres aux vents stellaires sont présentés. Au troisième chapitre, un historique détaillé de CV Ser est présenté en guise d’introduc- tion à cet objet singulier. Ses principales caractéristiques connues y sont mentionnées. Finalement, le cœur de ce mémoire se retrouve au chapitre 4. Des courbes de lumière ultra précises du satellite MOST (2009 et 2010) montrent une variation apparente du taux de perte de masse de la WR de l’ordre de 62% sur une période orbitale de 29.701 jours. L’analyse des résidus permet de trouver une signature suggérant la présence de régions d’interaction en corotation (en anglais corotating interaction regions, ou CIR) dans le vent WR. Une nouvelle solution orbitale est présentée ainsi que les paramètres de la région de collision des vents et les types spectraux sont confirmés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’accessibilité aux soins de santé est une priorité de nombreux gouvernements à travers le monde. En Haïti, les gouvernements se sont succédés et ont tenté à travers les années des interventions dont les résultats ne sont souvent pas satisfaisants. Le programme d’assistance médicale cubain, actuellement appliqué dans le pays, est en œuvre dans plus d’une vingtaine de pays en développement, mais il existe très peu d’évaluations indépendantes qui permettent de l’appréhender. Cet ouvrage se donne pour objectif de vérifier le bien fondé de cette intervention en tenant compte du contexte, d’établir la plausibilité en fonction des moyens du pays et finalement, de proposer des solutions qui améliorent la situation. Pour répondre à ces objectifs, l’étude de cas a été adoptée comme stratégie de recherche. Cette technique permet de mieux analyser le contexte, et de comprendre ses effets sur le programme. Des entrevues semi-structurées ont été réalisées pour permettre de faire les analyses stratégique et logique nécessaires pour atteindre les objectifs sus-cités. Les entrevues ont visé successivement la compréhension du modèle théorique, la détermination des problèmes pertinents auxquels fait le système de santé, les causes de la difficulté de rétention des professionnels et finale l’analyse du modèle. L’évaluation a révélé que l’accessibilité aux soins de santé est complexe et qu’un grand nombre de facteurs l’influencent. En Haïti, ces facteurs ne sont pas différents de ceux recensés dans la littérature. Mais la composante géographique associée à l’aspect administratif du système de santé en général constituent les éléments qui auraient l’impact le plus important sur l’accessibilité du système de santé. Vu les conditions actuelles, la modernisation de la gestion représente l’avenue à privilégier en attendant que les moyens permettent d’agir sur les autres facteurs. La rétention des professionnels de santé est un facteur essentiel de l’accessibilité aux soins de santé. Pour être efficace, les mécanismes de rétention utilisés doivent s’accompagner de mesures comme l’amélioration des conditions de travail, ainsi qu’un salaire compétitif. Les conditions de vie dans le milieu rural haïtien ne peuvent en rien être comparées à celles des pays développés. On ne peut espérer les mêmes résultats avec les programmes de rétention utilisés par cette intervention. Tenant compte du contexte socioéconomique et du tableau épidémiologique haïtien, il serait peut-être plus efficient de créer de nouveaux corps de métier. Ces derniers devraient être en mesure de régler les problèmes de santé simples, et occasionneraient des coûts moins importants. Ce serait à court terme et même à moyen terme une solution viable dans le contexte actuel. Le programme actuel s’il semble respecter les données probantes en matière d’accessibilité aux soins, néglige d’incorporer les paramètres spécifiques au milieu haïtien, nécessaires à l’atteinte de ses objectifs. La politisation excessive est aussi un facteur qui à terme pourrait conduire à l’échec de ce programme. Si à court terme le programme parvient à augmenter le nombre de professionnels de santé dans le pays, il est peu probable que cela dure. Les moyens précaires du pays ne lui permettent pas de se payer des professionnels hautement qualifiés dans les milieux sous desservis. L’intervention pour réussir doit intégrer les caractéristiques particulières du milieu et mettre plus d’accent sur la gestion du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanoparticules polymériques biodégradable (NPs) sont apparues ces dernières années comme des systèmes prometteurs pour le ciblage et la libération contrôlée de médicaments. La première partie de cette étude visait à développer des NPs biodégradables préparées à partir de copolymères fonctionnalisés de l’acide lactique (poly (D,L)lactide ou PLA). Les polymères ont été étudiés comme systèmes de libération de médicaments dans le but d'améliorer les performances des NPs de PLA conventionnelles. L'effet de la fonctionnalisation du PLA par insertion de groupements chimiques dans la chaîne du polymère sur les propriétés physico-chimiques des NPs a été étudié. En outre, l'effet de l'architecture du polymère (mode d'organisation des chaînes de polymère dans le copolymère obtenu) sur divers aspects de l’administration de médicament a également été étudié. Pour atteindre ces objectifs, divers copolymères à base de PLA ont été synthétisés. Plus précisément il s’agit de 1) copolymères du poly (éthylène glycol) (PEG) greffées sur la chaîne de PLA à 2.5% et 7% mol. / mol. de monomères d'acide lactique (PEG2.5%-g-PLA et PEG7%-g-PLA, respectivement), 2) des groupements d’acide palmitique greffés sur le squelette de PLA à une densité de greffage de 2,5% (palmitique acid2.5%-g-PLA), 3) de copolymère « multibloc » de PLA et de PEG, (PLA-PEG-PLA)n. Dans la deuxième partie, l'effet des différentes densités de greffage sur les propriétés des NPs de PEG-g-PLA (propriétés physico-chimiques et biologiques) a été étudié pour déterminer la densité optimale de greffage PEG nécessaire pour développer la furtivité (« long circulating NPs »). Enfin, les copolymères de PLA fonctionnalisé avec du PEG ayant montré les résultats les plus satisfaisants en regard des divers aspects d’administration de médicaments, (tels que taille et de distribution de taille, charge de surface, chargement de drogue, libération contrôlée de médicaments) ont été sélectionnés pour l'encapsulation de l'itraconazole (ITZ). Le but est dans ce cas d’améliorer sa solubilité dans l'eau, sa biodisponibilité et donc son activité antifongique. Les NPs ont d'abord été préparées à partir de copolymères fonctionnalisés de PLA, puis ensuite analysés pour leurs paramètres physico-chimiques majeurs tels que l'efficacité d'encapsulation, la taille et distribution de taille, la charge de surface, les propriétés thermiques, la chimie de surface, le pourcentage de poly (alcool vinylique) (PVA) adsorbé à la surface, et le profil de libération de médicament. L'analyse de la chimie de surface par la spectroscopie de photoélectrons rayon X (XPS) et la microscopie à force atomique (AFM) ont été utilisés pour étudier l'organisation des chaînes de copolymère dans la formulation des NPs. De manière générale, les copolymères de PLA fonctionnalisés avec le PEG ont montré une amélioration du comportement de libération de médicaments en termes de taille et distribution de taille étroite, d’amélioration de l'efficacité de chargement, de diminution de l'adsorption des protéines plasmatiques sur leurs surfaces, de diminution de l’internalisation par les cellules de type macrophages, et enfin une meilleure activité antifongique des NPs chargées avec ITZ. En ce qui concerne l'analyse de la chimie de surface, l'imagerie de phase en AFM et les résultats de l’XPS ont montré la possibilité de la présence de davantage de chaînes de PEG à la surface des NPs faites de PEG-g-PLA que de NPS faites à partie de (PLA-PEG-PLA)n. Nos résultats démontrent que les propriétés des NPs peuvent être modifiées à la fois par le choix approprié de la composition en polymère mais aussi par l'architecture de ceux-ci. Les résultats suggèrent également que les copolymères de PEG-g-PLA pourraient être utilisés efficacement pour préparer des transporteurs nanométriques améliorant les propriétés de certains médicaments,notamment la solubilité, la stabilité et la biodisponibilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De déterminer si une stratégie de contrôle du rythme améliore la qualité de vie et / ou la capacité fonctionnelle par rapport à une stratégie de contrôle de la fréquence cardiaque chez les patients atteints de fibrillation auriculaire et d'insuffisance cardiaque congestive. Méthode: Pour évaluer la qualité de vie, le questionnaire SF-36 a été administré à l'inclusion et à 4 mois chez 749 patients de l’étude AF-CHF. Les paramètres de capacité fonctionnelle évalués ont été la classe fonctionnelle NYHA (1376 patients) et la distance de marche de six minutes (1099 patients). Résultats: Le type du traitement assigné n'a pas eu un impact significatif sur la qualité de vie ou la capacité fonctionnelle. Conclusion: La qualité de vie et la capacité fonctionnelle sont similaires chez les patients randomisés au contrôle du rythme par rapport au contrôle de la fréquence. Les hommes non-obèses avec moins de comorbidités semblent plus susceptibles de s'améliorer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons les résultats de trois campagnes d'observation d'un mois chacune dans le cadre de l'étude de la collision des vents dans les systèmes binaires Wolf-Rayet + OB. Ce travail se concentre sur l'étude des objets de l'hémisphère sud n'ayant jamais encore fait l'objet d'études poussées dans ce contexte. À cela, nous avons ajouté l'objet archétype pour ce type de systèmes : WR 140 (WC7pd + O5.5fc) qui a effectué son dernier passage périastre en janvier 2009. Les deux premières campagnes (spectroscopiques), ont permis une mise à jour des éléments orbitaux ainsi qu'une estimation de la géométrie de la zone de collision des vents et d'autres paramètres fondamentaux des étoiles pour 6 systèmes binaires : WR 12 (WN8h), 21 (WN5o+O7V), 30 (WC6+O7.5V), 31 (WN4o+O8), 47 (WN6o+O5) et 140. Une période non-orbitale courte (probablement reliée à la rotation) a également été mesurée pour un des objets : WR 69 (WC9d+OB), avec une période orbitale bien plus grande. La troisième campagne (photométrique) a révélé une variabilité étonnamment faible dans un échantillon de 20 étoiles WC8/9. Cela supporte l'idée que les pulsations ne sont pas courantes dans ce type d'étoiles et qu'il est peu probable que celles-ci soient le mécanisme dominant de formation de poussière, suggérant, par défaut, le rôle prédominant de la collision des vents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse caractérise les propriétés optiques des matériaux plasmoniques microstructurés et procède à l’évaluation des paramètres analytiques afin de les employer comme plateforme de biodétection en spectroscopie de résonance des plasmons de surface (SPR). Aux dimensions micrométriques, les matériaux plasmoniques présentent des caractéristiques optiques propres aux nano- et macromatériaux. La cartographie physicooptiques en SPR de matériaux méso- et microscopiques s’est effectuée à l’aide de films structurés de motifs périodiques triangulaires et circulaires fabriqués par une technique modifiée de lithographie par nanosphères (nanosphere lithography, NSL). À partir de cette vue d’ensemble, quelques films structurés ont été sélectionné en fonction d’aspects analytiques tels que la sensibilité et la résolution face aux variations d’indice de réfraction (RI) pour déterminer le potentiel de ces matériaux comme plateforme de biodetection. Les propriétés optiques distinctes des films microstructurés proviennent d’interactions résonantes entre les modes de plasmons de surface (SP) localisé et délocalisé identifiés par la relation de dispersion en SPR ainsi que l’imagerie Raman. Les conditions de résonance des modes SP dépendant de paramètres expérimentaux (λ, θ, η) tel qu’observés numériquement par rigorous coupled wave analysis (RCWA) et empiriquement. Ces travaux démontrent la nature plasmonique distincte des micro-matériaux et leur potentiel d’intégration aux techniques analytiques SPR existantes. Les matériaux plasmoniques micrométriques furent également étudiés pour l’implémentation de la SPR à une pointe de microscopie à force atomique (atomic force microscopy, AFM) combinant ainsi la spectroscopie à l’imagerie topographique. Des travaux préliminaires se sont concentrés sur la signature spectroscopique de leviers en silicium (Si) et en nitrure de silicium (Si3N4), l’impact d’un revêtement d’or sur les pointes et l’influence de milieu environnant. Une image d’origine plasmonique a été obtenue avec des leviers en Si3N4 revêtus d’or en transmission dans un environnement aqueux, indiquant ainsi le potentiel de ces pointes comme micro-biocapteur SPR. Ces résultats préliminaires servent de fondement pour orienter les prochaines investigations dans ce projet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.