391 resultados para Entropie linéaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’incontinence urinaire d’effort (IUE) est une condition fréquente en période postnatale pouvant affecter jusqu’à 77% des femmes. Neuf femmes sur dix souffrant d’IUE trois mois après l’accouchement, vont présenter une IUE cinq ans plus tard. Le traitement en physiothérapie de l’IUE par le biais d’un programme d’exercices de renforcement des muscles du plancher pelvien est reconnu comme étant un traitement de première ligne efficace. Les études ont prouvé l’efficacité de cette approche sur l’IUE persistante à court terme, mais les résultats de deux ECR à long terme n’ont pas démontré un maintien de l’effet de traitement. L’effet d’un programme en physiothérapie de renforcement du plancher pelvien intensif et étroitement supervisé sur l’IUE postnatale persistante avait été évalué lors d’un essai clinique randomisé il y a sept ans. Le but principal de la présente étude était d’évaluer l’effet de ce programme sept ans après la fin des interventions de l’ECR initial. Un objectif secondaire était de comparer l’effet de traitement à long terme entre un groupe ayant fait seulement des exercices de renforcement du plancher pelvien et un groupe ayant fait des exercices de renforcement du plancher pelvien et des abdominaux profonds. Un troisième objectif était d’explorer l’influence de quatre facteurs de risques sur les symptômes d’IUE et la qualité de vie à long terme. Les cinquante-sept femmes ayant complétées l’ECR initial ont été invitées à participer à l’évaluation du suivi sept ans. Vingt et une femmes ont participé à l’évaluation clinique et ont répondu à quatre questionnaires, tandis que dix femmes ont répondu aux questionnaires seulement. L’évaluation clinique incluait un pad test et la dynamométrie du plancher pelvien. La mesure d’effet primaire était un pad test modifié de 20 minutes. Les mesures d’effets secondaires étaient la dynamométrie du plancher pelvien, les symptômes d’IUE mesuré par le questionnaire Urogenital Distress Inventory, la qualité de vie mesurée par le questionnaire Incontinence Impact Questionnaire et la perception de la sévérité de l’IUE mesuré par l’Échelle Visuelle Analogue. De plus, un questionnaire portant sur quatre facteurs de risques soit, la présence de grossesses subséquentes, la v présence de constipation chronique, l’indice de masse corporel et la fréquence des exercices de renforcement du plancher pelvien de l’IUE, venait compléter l’évaluation. Quarante-huit pour-cent (10/21) des participantes étaient continentes selon de pad test. La moyenne d’amélioration entre le résultat pré-traitement et le suivi sept ans était de 26,9 g. (écart-type = 68,0 g.). Il n’y avait pas de différence significative des paramètres musculaires du plancher pelvien entre le pré-traitement, le post-traitement et le suivi sept ans. Les scores du IIQ et du VAS étaient significativement plus bas à sept ans qu’en prétraitement (IIQ : 23,4 vs 15,6, p = 0,007) et (VAS : 6,7 vs 5,1, p = 0,001). Les scores du UDI étaient plus élevés au suivi sept ans (15,6) qu’en pré-traitement (11,3, p = 0,041) et en post-traitement (5,7, p = 0,00). La poursuite des exercices de renforcement du plancher pelvien à domicile était associée à une diminution de 5,7 g. (p = 0,051) des fuites d’urine observées au pad test selon une analyse de régression linéaire. Les limites de cette étude sont ; la taille réduite de l’échantillon et un biais relié au désir de traitement pour les femmes toujours incontinentes. Cependant, les résultats semblent démontrer que l’effet du traitement à long terme d’un programme de renforcement des muscles du plancher pelvien qui est intensif et étroitement supervisé, est maintenu chez environ une femme sur deux. Bien que les symptômes d’IUE tel que mesuré par les pad test et le questionnaire UDI, semblent réapparaître avec le temps, la qualité de vie, telle que mesurée par des questionnaires, est toujours meilleure après sept qu’à l’évaluation initiale. Puisque la poursuite des exercices de renforcement du plancher pelvien est associée à une diminution de la quantité de fuite d’urine au pad test, les participantes devraient être encouragées à poursuivre leurs exercices après la fin d’un programme supervisé. Pour des raisons de logistique la collecte de donnée de ce projet de recherche s’est continuée après la rédaction de ce mémoire. Les résultats finaux sont disponibles auprès de Chantale Dumoulin pht, PhD., professeure agrée à l’Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les pratiques relationnelles de soin (PRS) sont au cœur même des normes et valeurs professionnelles qui définissent la qualité de l’exercice infirmier, mais elles sont souvent compromises par un milieu de travail défavorable. La difficulté pour les infirmières à actualiser ces PRS qui s’inscrivent dans les interactions infirmière-patient par un ensemble de comportements de caring, constitue une menace à la qualité des soins, tout en créant d’importantes frustrations pour les infirmières. En mettant l’accent sur l’aspect relationnel du processus infirmier, cette recherche, abordée sous l'angle du caring, renvoie à une vision novatrice de la qualité des soins et de l'organisation des services en visant à expliquer l’impact du climat organisationnel sur le façonnement des PRS et la satisfaction professionnelle d’infirmières soignantes en milieu hospitalier. Cette étude prend appui sur une adaptation du Quality-Caring Model© de Duffy et Hoskins (2003) qui combine le modèle d’évaluation de la qualité de Donabedian (1980, 1992) et la théorie du Human Caring de Watson (1979, 1988). Un devis mixte de type explicatif séquentiel, combinant une méthode quantitative de type corrélationnel prédictif et une méthode qualitative de type étude de cas unique avec niveaux d’analyse imbriqués, a été privilégié. Pour la section quantitative auprès d’infirmières soignantes (n = 292), différentes échelles de mesure validées, de type Likert ont permis de mesurer les variables suivantes : le climat organisationnel (global et cinq dimensions composites) ; les PRS privilégiées ; les PRS actuelles ; l’écart entre les PRS privilégiées et actuelles ; la satisfaction professionnelle. Des analyses de régression linéaire hiérarchique ont permis de répondre aux six hypothèses du volet quantitatif. Pour le volet qualitatif, les données issues des sources documentaires, des commentaires recueillis dans les questionnaires et des entrevues effectuées auprès de différents acteurs (n = 15) ont été traités de manière systématique, par analyse de contenu, afin d’expliquer les liens entre les notions d’intérêts. L’intégration des inférences quantitatives et qualitatives s’est faite selon une approche de complémentarité. Nous retenons du volet quantitatif qu’une fois les variables de contrôle prises en compte, seule une dimension composite du climat organisationnel, soit les caractéristiques de la tâche, expliquent 5 % de la variance des PRS privilégiées. Le climat organisationnel global et ses dimensions composites relatives aux caractéristiques du rôle, de l’organisation, du supérieur et de l’équipe sont de puissants facteurs explicatifs des PRS actuelles (5 % à 11 % de la variance), de l’écart entre les PRS privilégiées et actuelles (4 % à 9 %) ainsi que de la satisfaction professionnelle (13 % à 30 %) des infirmières soignantes. De plus, il a été démontré, qu’au-delà de l’important impact du climat organisationnel global et des variables de contrôle, la fréquence des PRS contribue à augmenter la satisfaction professionnelle des infirmières (ß = 0,31 ; p < 0,001), alors que l’écart entre les PRS privilégiées et actuelles contribue à la diminuer (ß = - 0,30 ; p < 0,001) dans des proportions fort similaires (respectivement 7 % et 8 %). Le volet qualitatif a permis de mettre en relief quatre ordres de facteurs qui expliquent comment le climat organisationnel façonne les PRS et la satisfaction professionnelle des infirmières. Ces facteurs sont: 1) l’intensité de la charge de travail; 2) l’approche d’équipe et la perception du rôle infirmier ; 3) la perception du supérieur et de l’organisation; 4) certaines caractéristiques propres aux patients/familles et à l’infirmière. L’analyse de ces facteurs a révélé d’intéressantes interactions dynamiques entre quatre des cinq dimensions composites du climat, suggérant ainsi qu’il soit possible d’influencer une dimension en agissant sur une autre. L’intégration des inférences quantitatives et qualitatives rend compte de l’impact prépondérant des caractéristiques du rôle sur la réalisation des PRS et la satisfaction professionnelle des infirmières, tout en suggérant d’adopter une approche systémique qui mise sur de multiples facteurs dans la mise en oeuvre d’interventions visant l’amélioration des environnements de travail infirmier en milieu hospitalier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons dans cette thèse des théorèmes d’existence pour des systèmes d’équations différentielles non-linéaires d’ordre trois, pour des systèmes d’équa- tions et d’inclusions aux échelles de temps non-linéaires d’ordre un et pour des systèmes d’équations aux échelles de temps non-linéaires d’ordre deux sous cer- taines conditions aux limites. Dans le chapitre trois, nous introduirons une notion de tube-solution pour obtenir des théorèmes d’existence pour des systèmes d’équations différentielles du troisième ordre. Cette nouvelle notion généralise aux systèmes les notions de sous- et sur-solutions pour le problème aux limites de l’équation différentielle du troisième ordre étudiée dans [34]. Dans la dernière section de ce chapitre, nous traitons les systèmes d’ordre trois lorsque f est soumise à une condition de crois- sance de type Wintner-Nagumo. Pour admettre l’existence de solutions d’un tel système, nous aurons recours à la théorie des inclusions différentielles. Ce résultat d’existence généralise de diverses façons un théorème de Grossinho et Minhós [34]. Le chapitre suivant porte sur l’existence de solutions pour deux types de sys- tèmes d’équations aux échelles de temps du premier ordre. Les résultats d’exis- tence pour ces deux problèmes ont été obtenus grâce à des notions de tube-solution adaptées à ces systèmes. Le premier théorème généralise entre autre aux systèmes et à une échelle de temps quelconque, un résultat obtenu pour des équations aux différences finies par Mawhin et Bereanu [9]. Ce résultat permet également d’obte- nir l’existence de solutions pour de nouveaux systèmes dont on ne pouvait obtenir l’existence en utilisant le résultat de Dai et Tisdell [17]. Le deuxième théorème de ce chapitre généralise quant à lui, sous certaines conditions, des résultats de [60]. Le chapitre cinq aborde un nouveau théorème d’existence pour un système d’in- clusions aux échelles de temps du premier ordre. Selon nos recherches, aucun résultat avant celui-ci ne traitait de l’existence de solutions pour des systèmes d’inclusions de ce type. Ainsi, ce chapitre ouvre de nouvelles possibilités dans le domaine des inclusions aux échelles de temps. Notre résultat a été obtenu encore une fois à l’aide d’une hypothèse de tube-solution adaptée au problème. Au chapitre six, nous traitons l’existence de solutions pour des systèmes d’équations aux échelles de temps d’ordre deux. Le premier théorème d’existence que nous obtenons généralise les résultats de [36] étant donné que l’hypothèse que ces auteurs utilisent pour faire la majoration a priori est un cas particulier de notre hypothèse de tube-solution pour ce type de systèmes. Notons également que notre définition de tube-solution généralise aux systèmes les notions de sous- et sur-solutions introduites pour les équations d’ordre deux par [4] et [55]. Ainsi, nous généralisons également des résultats obtenus pour des équations aux échelles de temps d’ordre deux. Finalement, nous proposons un nouveau résultat d’exis- tence pour un système dont le membre droit des équations dépend de la ∆-dérivée de la fonction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 20 ans, certains patients porteurs d’une carcinose péritonéale sont traités par une chirurgie de cytoréduction combinée avec une chimiohyperthermie intrapéritonéale (CHIP). Bien que l’oxaliplatine (OX) soit couramment utilisée lors de CHIP, une telle utilisation chez l’humain n’est supportée que par des études de phase II et il n’y a pas d’études précliniques caractérisant les propriétés de l’OX dans le contexte d’administration intrapéritonéale. L’objectif de ce projet de maîtrise est d’étudier l’effet de la température sur l’absorption tissulaire et systémique de l’OX administrée par voie intrapéritonéale chez le rat. Nous avons procédé à une perfusion intrapéritonéale de 3 différentes doses d’OX à 3 différentes températures pendant 25 minutes chez une total 35 rats Sprague-Dawley, puis effectué le dosage des concentrations d’OX dans différents compartiments. Nous avons observé une augmentation linéaire (p<0,05) entre la dose d’OX administrée et sa concentration dans tous les compartiments (péritoine, mésentère, sang portal et systémique). De plus, avec l’augmentation de la température de perfusion, nous avons observé une augmentation de la concentration d’OX dans le péritoine mais une diminution de sa concentration dans les compartiments systémique et portal (p<0,05). Ces résultats démontrent donc que la dose et l’hyperthermie augmentent indépendamment la pénétration tissulaire de l’OX et que l’hyperthermie limite son absorption systémique. Ces observations suggèrent que l’hyperthermie pourrait réduire la toxicité systémique de l’OX. Pour connaître la cinétique de l’OX, des études subséquentes doivent être faites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude était de déterminer l’impact d’une infection intra-mammaire (IIM) subclinique causée par staphylocoque coagulase-négative (SCN) ou Staphylococcus aureus diagnostiquée durant le premier mois de lactation chez les taures sur le comptage de cellules somatiques (CCS), la production laitière et le risque de réforme durant la lactation en cours. Des données bactériologiques provenant d’échantillons de lait composites de 2 273 taures Holstein parmi 50 troupeaux ont été interprétées selon les recommandations du National Mastitis Council. Parmi 1 691 taures rencontrant les critères de sélection, 90 (5%) étaient positives à S. aureus, 168 (10%) étaient positives à SCN et 153 (9%) étaient négatives (aucun agent pathogène isolé). Le CCS transformé en logarithme népérien (lnCCS) a été modélisé via une régression linéaire avec le troupeau comme effet aléatoire. Le lnCCS chez les groupes S. aureus et SCN était significativement plus élevé que dans le groupe témoin de 40 à 300 jours en lait (JEL) (P < 0.0001 pour tous les contrastes). La valeur journalière du lnSCC chez les groupes S. aureus et SCN était en moyenne 1.2 et 0.6 plus élevé que le groupe témoin respectivement. Un modèle similaire a été réalisé pour la production laitière avec l’âge au vêlage, le trait génétique lié aux parents pour la production laitière et le logarithme népérien du JEL de la pesée inclus. La production laitière n’était pas statistiquement différente entre les 3 groupes de culture de 40 à 300 JEL (P ≥ 0.12). Les modèles de survie de Cox ont révélé que le risque de réforme n’était pas statistiquement différent entre le groupe S. aureus ou SCN et le groupe témoin (P ≥ 0.16). La prévention des IIM causées par SCN et S. aureus en début de lactation demeure importante étant donné leur association avec le CCS durant la lactation en cours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construction d'un quotient, en topologie, est relativement simple; si $G$ est un groupe topologique agissant sur un espace topologique $X$, on peut considérer l'application naturelle de $X$ dans $X/G$, l'espace d'orbites muni de la topologie quotient. En géométrie algébrique, malheureusement, il n'est généralement pas possible de munir l'espace d'orbites d'une structure de variété. Dans le cas de l'action d'un groupe linéairement réductif $G$ sur une variété projective $X$, la théorie géométrique des invariants nous permet toutefois de construire un morphisme de variété d'un ouvert $U$ de $X$ vers une variété projective $X//U$, se rapprochant autant que possible d'une application quotient, au sens topologique du terme. Considérons par exemple $X\subseteq P^{n}$, une $k$-variété projective sur laquelle agit un groupe linéairement réductif $G$ et supposons que cette action soit induite par une action linéaire de $G$ sur $A^{n+1}$. Soit $\widehat{X}\subseteq A^{n+1}$, le cône affine au dessus de $\X$. Par un théorème de la théorie classique des invariants, il existe alors des invariants homogènes $f_{1},...,f_{r}\in C[\widehat{X}]^{G}$ tels que $$C[\widehat{X}]^{G}= C[f_{1},...,f_{r}].$$ On appellera le nilcone, que l'on notera $N$, la sous-variété de $\X$ définie par le locus des invariants $f_{1},...,f_{r}$. Soit $Proj(C[\widehat{X}]^{G})$, le spectre projectif de l'anneau des invariants. L'application rationnelle $$\pi:X\dashrightarrow Proj(C[f_{1},...,f_{r}])$$ induite par l'inclusion de $C[\widehat{X}]^{G}$ dans $C[\widehat{X}]$ est alors surjective, constante sur les orbites et sépare les orbites autant qu'il est possible de le faire; plus précisément, chaque fibre contient exactement une orbite fermée. Pour obtenir une application régulière satisfaisant les mêmes propriétés, il est nécessaire de jeter les points du nilcone. On obtient alors l'application quotient $$\pi:X\backslash N\rightarrow Proj(C[f_{1},...,f_{r}]).$$ Le critère de Hilbert-Mumford, dû à Hilbert et repris par Mumford près d'un demi-siècle plus tard, permet de décrire $N$ sans connaître les $f_{1},...,f_{r}$. Ce critère est d'autant plus utile que les générateurs de l'anneau des invariants ne sont connus que dans certains cas particuliers. Malgré les applications concrètes de ce théorème en géométrie algébrique classique, les démonstrations que l'on en trouve dans la littérature sont généralement données dans le cadre peu accessible des schémas. L'objectif de ce mémoire sera, entre autres, de donner une démonstration de ce critère en utilisant autant que possible les outils de la géométrie algébrique classique et de l'algèbre commutative. La version que nous démontrerons est un peu plus générale que la version originale de Hilbert \cite{hilbert} et se retrouve, par exemple, dans \cite{kempf}. Notre preuve est valide sur $C$ mais pourrait être généralisée à un corps $k$ de caractéristique nulle, pas nécessairement algébriquement clos. Dans la seconde partie de ce mémoire, nous étudierons la relation entre la construction précédente et celle obtenue en incluant les covariants en plus des invariants. Nous démontrerons dans ce cas un critère analogue au critère de Hilbert-Mumford (Théorème 6.3.2). C'est un théorème de Brion pour lequel nous donnerons une version un peu plus générale. Cette version, de même qu'une preuve simplifiée d'un théorème de Grosshans (Théorème 6.1.7), sont les éléments de ce mémoire que l'on ne retrouve pas dans la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une nouvelle notion d'enlacement pour les paires d'ensembles $A\subset B$, $P\subset Q$ dans un espace de Hilbert de type $X=Y\oplus Y^{\perp}$ avec $Y$ séparable, appellée $\tau$-enlacement, est définie. Le modèle pour cette définition est la généralisation de l'enlacement homotopique et de l'enlacement au sens de Benci-Rabinowitz faite par Frigon. En utilisant la théorie du degré développée dans un article de Kryszewski et Szulkin, plusieurs exemples de paires $\tau$-enlacées sont donnés. Un lemme de déformation est établi et utilisé conjointement à la notion de $\tau$-enlacement pour prouver un théorème d'existence de point critique pour une certaine classe de fonctionnelles sur $X$. De plus, une caractérisation de type minimax de la valeur critique correspondante est donnée. Comme corollaire de ce théorème, des conditions sont énoncées sous lesquelles l'existence de deux points critiques distincts est garantie. Deux autres théorèmes de point critiques sont démontrés dont l'un généralise le théorème principal de l'article de Kryszewski et Szulkin mentionné ci-haut.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs articles scientifiques et manuels de référence en médecine comportementale distinguent l'hyperactivité ou hyperkinésie de l’activité excessive en évaluant la réponse physiologique et comportementale des chiens suite à l’administration per os de 0.2 à 1.0 mg/kg de dextroamphétamine. Selon ces références, le chien atteint d’un syndrome hyperactif ou hyperkinésie, répondra de façon paradoxale à cette médication par une diminution de l’activité motrice accompagnée d’une réduction minimale de 15% de la fréquence respiratoire et de la fréquence cardiaque. L’objectif de la présente étude était de mesurer la variation de la température corporelle, de la fréquence cardiaque, de l’activité motrice et de différents comportements spécifiques chez un groupe de Beagles ayant reçu de la dextroamphétamine. La fiabilité d'un accéléromètre comme mesure objective d’activité motrice a aussi été évaluée. Dans le cadre de cette étude croisée contrôlée par placebo, douze Beagles de la colonie de recherche âgés entre 13 et 20 mois ont reçu une dose orale de 0.2 mg/kg de dextroamphétamine. Le moniteur cardiaque Polar® et un accéléromètre Actical® ont été utilisés pour enregistrer la fréquence cardiaque et l’activité motrice avant et après l’administration de la médication. La durée de chacun des comportements spécifiques a été compilée à l’aide du logiciel Noldus® et la température corporelle a été prise par thermomètre rectal. Le modèle équilibré de mesures répétées indique que les sujets ayant reçu la dextroamphétamine montrent une réduction significative (p = 0.044) de leur fréquence cardiaque comparativement aux chiens ayant reçu le placebo. Aucune variation significative n'a été observée concernant la température corporelle, l'activité motrice, et les autres comportements (léchage des babines, halètements, et bâillements) suite à l’administration de la dextroamphétamine. Une corrélation significative, linéaire et positive (p < 0,0001) entre les périodes de mouvements observées (vidéo) et les mesures d’activité enregistrées par l’accéléromètre a été observée. Les résultats de cette étude indiquent que les Beagles peuvent afficher des effets paradoxaux dans les 90 minutes suivant l’administration per os de dextroamphétamine à raison de 0.2 mg/kg.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse rapporte le greffage chimique de brosses de polymères neutres de poly(acrylate de tert-butyle) (PtBA) et de brosses chargées d’acide polyacrylique (PAA) sur des substrats de mica afin d’étudier leur conformation en fonction de la densité de greffage, du pH et de la force ionique. Le greffage est réalisé par polymérisation contrôlée par transfert d’atome (ATRP) initiée depuis la surface de mica afin de contrôler la croissance du polymère et sa densité de greffage. L’étude de la conformation des brosses de PtBA et de PAA a été menée avec la technique AFM en mesurant les épaisseurs des films à sec et gonflés sous différentes conditions de solvant, de pH et de force ionique. Une monocouche d’amorceurs est tout d’abord greffée sur du mica porteur de groupes hydroxyles créés par plasma (Ar/H2O). Cette couche a été caractérisée par des mesures d’angle de contact et par la technique TOF-SIMS. L’amorceur greffé a ensuite permis d’initier l’ATRP directement depuis la surface pour former des brosses neutres de PtBA liés de façon covalente au mica. La croissance linéaire de l’épaisseur du film avec la masse molaire du polymère en solution et le taux de conversion montre que la polymérisation est contrôlée. De plus, la ré-initiation des chaînes greffées atteste du caractère vivant de la polymérisation. L’hydrolyse des brosses de PtBA, confirmée par des mesures d’angle de contact, d’épaisseur et par FT-IR, conduit à des brosses de PAA. Les différentes couches greffées sont stables à l’air, en milieu organique et en milieu aqueux et leur gonflement est réversible. Le degreffage de la couche de PAA est observé suite à une longue exposition à pH basique. Cette étude représente le premier exemple de brosses greffées chimiquement sur du mica par polymérisation initiée depuis la surface. La variation des paramètres de la réaction de greffage de l’amorceur, tels que la concentration et la durée de réaction, a permis de contrôler le taux de recouvrement de l’amorceur et la densité de greffage du polymère. Une grande gamme de taux de recouvrement de l’amorceur est accessible et se traduit par un intervalle de densités de greffage allant de faibles à élevées (e.g. 0,04 chaîne/nm2 à 0,5 chaîne/nm2). L’étude de la conformation des chaînes de PtBA dans le DMF montre que cet intervalle de densités recouvre le régime crêpe au régime brosse. Le gonflement de brosses de PAA et la variation de la hauteur de la brosse L ont été étudiés en fonction de la densité de greffage, du pH et du sel ajouté cs (NaCl). Une transition brusque de collapsée à étirée est observée avec l’augmentation du pH, indépendamment de la densité de greffage. A pH neutre, les brosses sont collapsées et se comportent comme des brosses neutres en mauvais solvant. A pH basique, les brosses sont gonflées et chargées et se trouvent dans un régime de Pincus caractéristique des polyélectrolytes forts. En présence de sel, les charges sont partiellement écrantées et les répulsions électrostatiques dominent toujours dans la brosse. Cette étude contribue à une meilleure compréhension du comportement complexe des brosses de polyélectrolytes faibles et apporte un soutien expérimental à la théorie sur le comportement de ces brosses.