445 resultados para Commande optimale linéaire-quadratique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le thème de la mobilisation totale est au cœur de la réflexion actuelle sur le renouvellement des modes de subjectivation et des manières d’être-ensemble. En arrière-plan, on trouve la question de la compatibilité entre les processus vitaux humains et la modernité, bref, la question de la viabilité du processus de civilisation occidental. Au cœur du diagnostic: l’insuffisance radicale de la fiction de l’homo oeconomicus, modèle de l’individu privé sans liens sociaux et souffrant d’un déficit de sphère. La « communauté qui vient » (Agamben), la « politisation de l’existence » (Lopez Petit) et la création de « sphères régénérées » (Sloterdijk) nomment autant de tentatives pour penser le dépassement de la forme désormais impropre et insensée de l’individualité. Mais comment réaliser ce dépassement? Ou de manière plus précise : quelle traversée pour amener l’individu privé à opérer ce dépassement? Ce doctorat s’organise autour d’une urgence focale : [E]scape. Ce concept suggère un horizon de fuite immanent : il signe une sortie hors de l’individu privé et trace un plan d’idéalité permettant d’effectuer cette sortie. Concrètement, ce concept commande la production d’une série d’analyses théoriques et artistiques portant sur des penseurs contemporains tels que Foucault, Deleuze ou Sloterdijk, l’album Kid A de Radiohead ainsi que sur le cinéma et l’art contemporain chinois (Jia Zhangke, Wong Kar-Wai, Wong Xiaoshuai, Lou Ye, Shu Yong, Huang Rui, Zhang Huan, Zhu Yu, etc.). Ces analyses sont conçues comme autant de passages ou itinéraires de désubjectivation. Elles posent toutes, d’une manière ou d’une autre, le problème du commun et de l’être-ensemble, sur le seuil des non-lieux du capitalisme global. Ces itinéraires se veulent liminaux, c’est-à-dire qu’ils se constituent comme passages sur la ligne d’un dehors et impliquent une mise en jeu éthopoïétique. Sur le plan conceptuel, ils marquent résolument une distance avec le paradigme de la politique identitaire et la critique des représentations interculturelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons dans cette thèse des théorèmes d’existence pour des systèmes d’équations différentielles non-linéaires d’ordre trois, pour des systèmes d’équa- tions et d’inclusions aux échelles de temps non-linéaires d’ordre un et pour des systèmes d’équations aux échelles de temps non-linéaires d’ordre deux sous cer- taines conditions aux limites. Dans le chapitre trois, nous introduirons une notion de tube-solution pour obtenir des théorèmes d’existence pour des systèmes d’équations différentielles du troisième ordre. Cette nouvelle notion généralise aux systèmes les notions de sous- et sur-solutions pour le problème aux limites de l’équation différentielle du troisième ordre étudiée dans [34]. Dans la dernière section de ce chapitre, nous traitons les systèmes d’ordre trois lorsque f est soumise à une condition de crois- sance de type Wintner-Nagumo. Pour admettre l’existence de solutions d’un tel système, nous aurons recours à la théorie des inclusions différentielles. Ce résultat d’existence généralise de diverses façons un théorème de Grossinho et Minhós [34]. Le chapitre suivant porte sur l’existence de solutions pour deux types de sys- tèmes d’équations aux échelles de temps du premier ordre. Les résultats d’exis- tence pour ces deux problèmes ont été obtenus grâce à des notions de tube-solution adaptées à ces systèmes. Le premier théorème généralise entre autre aux systèmes et à une échelle de temps quelconque, un résultat obtenu pour des équations aux différences finies par Mawhin et Bereanu [9]. Ce résultat permet également d’obte- nir l’existence de solutions pour de nouveaux systèmes dont on ne pouvait obtenir l’existence en utilisant le résultat de Dai et Tisdell [17]. Le deuxième théorème de ce chapitre généralise quant à lui, sous certaines conditions, des résultats de [60]. Le chapitre cinq aborde un nouveau théorème d’existence pour un système d’in- clusions aux échelles de temps du premier ordre. Selon nos recherches, aucun résultat avant celui-ci ne traitait de l’existence de solutions pour des systèmes d’inclusions de ce type. Ainsi, ce chapitre ouvre de nouvelles possibilités dans le domaine des inclusions aux échelles de temps. Notre résultat a été obtenu encore une fois à l’aide d’une hypothèse de tube-solution adaptée au problème. Au chapitre six, nous traitons l’existence de solutions pour des systèmes d’équations aux échelles de temps d’ordre deux. Le premier théorème d’existence que nous obtenons généralise les résultats de [36] étant donné que l’hypothèse que ces auteurs utilisent pour faire la majoration a priori est un cas particulier de notre hypothèse de tube-solution pour ce type de systèmes. Notons également que notre définition de tube-solution généralise aux systèmes les notions de sous- et sur-solutions introduites pour les équations d’ordre deux par [4] et [55]. Ainsi, nous généralisons également des résultats obtenus pour des équations aux échelles de temps d’ordre deux. Finalement, nous proposons un nouveau résultat d’exis- tence pour un système dont le membre droit des équations dépend de la ∆-dérivée de la fonction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 20 ans, certains patients porteurs d’une carcinose péritonéale sont traités par une chirurgie de cytoréduction combinée avec une chimiohyperthermie intrapéritonéale (CHIP). Bien que l’oxaliplatine (OX) soit couramment utilisée lors de CHIP, une telle utilisation chez l’humain n’est supportée que par des études de phase II et il n’y a pas d’études précliniques caractérisant les propriétés de l’OX dans le contexte d’administration intrapéritonéale. L’objectif de ce projet de maîtrise est d’étudier l’effet de la température sur l’absorption tissulaire et systémique de l’OX administrée par voie intrapéritonéale chez le rat. Nous avons procédé à une perfusion intrapéritonéale de 3 différentes doses d’OX à 3 différentes températures pendant 25 minutes chez une total 35 rats Sprague-Dawley, puis effectué le dosage des concentrations d’OX dans différents compartiments. Nous avons observé une augmentation linéaire (p<0,05) entre la dose d’OX administrée et sa concentration dans tous les compartiments (péritoine, mésentère, sang portal et systémique). De plus, avec l’augmentation de la température de perfusion, nous avons observé une augmentation de la concentration d’OX dans le péritoine mais une diminution de sa concentration dans les compartiments systémique et portal (p<0,05). Ces résultats démontrent donc que la dose et l’hyperthermie augmentent indépendamment la pénétration tissulaire de l’OX et que l’hyperthermie limite son absorption systémique. Ces observations suggèrent que l’hyperthermie pourrait réduire la toxicité systémique de l’OX. Pour connaître la cinétique de l’OX, des études subséquentes doivent être faites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : Plusieurs expositions résidentielles ont été associées à la prévalence de l’asthme. Toutefois, peu d’études populationnelles ont examiné la relation entre ces facteurs et un asthme mal maîtrisé chez l’enfant. Objectif : Évaluer les facteurs environnementaux résidentiels associés à un asthme mal maîtrisé chez les enfants montréalais âgés de 6 mois à 12 ans. Méthodes : Les données sont tirées d’une enquête transversale menée en 2006 sur la santé respiratoire d’enfants montréalais âgés de 6 mois à 12 ans (n=7980). La maîtrise de l’asthme a été évaluée chez les enfants avec un asthme actif au cours de l’année précédent l’enquête (n=980) selon des critères recommandés par les lignes directrices canadiennes sur l’asthme. Les rapports de prévalence (RP) et les intervalles de confiance (IC) à 95 % caractérisant l’association entre les facteurs environnementaux, incluant la présence d’allergènes, d’irritants, d’humidité et de moisissures, et le risque d’un asthme mal maîtrisé ont été estimés à l’aide de modèles de régression log-binomiale. Les sujets avec une maîtrise acceptable de l’asthme ont été comparés à ceux dont la maladie était mal maîtrisée. Résultats : Des 980 enfants avec un asthme actif au cours de l’année précédant l’enquête, 36 % ont rencontré au moins un des critères des lignes directrices canadiennes suggérant un asthme mal maîtrisé. Les caractéristiques de la population associées à un asthme mal maîtrisé sont : un plus jeune âge, des antécédents d’atopie parentale, une faible scolarisation de la mère, une mère d’origine étrangère et le statut de locataire. Après ajustement pour l’âge de l’enfant, l’atopie parentale et l’exposition à la fumée de tabac au domicile, une intensité de trafic élevée à proximité du domicile (RP, 1,35; IC 95 %, 1,00-1,81) et la localisation au sous-sol de la chambre de l’enfant ou de sa résidence (RP 1,30; IC 95 %, 1,01-1,66) étaient associées à un risque accru d’asthme mal maîtrisé. Conclusions : Une maîtrise sous-optimale de l’asthme semble être associée à l’exposition au trafic routier et à des conditions d’humidité excessive et probablement de moisissures. Cette dernière exposition étant plus fréquente, elle a probablement un plus grand impact en matière de santé publique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’épidémie du VIH-1 dure maintenant depuis plus de 25 ans. La grande diversité génétique de ce virus est un obstacle majeur en vue de l’éradication de cette pandémie. Au cours des années, le VIH-1 a évolué en plus de cinquante sous-types ou formes recombinantes. Cette diversité génétique est influencée par diverses pressions de sélection, incluant les pressions du système immunitaire de l’hôte et les agents antirétroviraux (ARV). En effet, bien que les ARV aient considérablement réduit les taux de morbidité et de mortalité, en plus d’améliorer la qualité et l’espérance de vie des personnes atteintes du VIH-1, ces traitements sont complexes, dispendieux et amènent leur lot de toxicité pouvant mener à des concentrations plasmatiques sous-optimales pour contrôler la réplication virale. Ceci va permettre l’émergence de variantes virales portant des mutations de résistance aux ARV. Ce phénomène est encore plus complexe lorsque l’on prend en considération l’immense diversité génétique des différents sous-types. De plus, le virus du VIH est capable de persister sous forme latente dans diverses populations cellulaires, rendant ainsi son éradication extrêmement difficile. Des stratégies pouvant restreindre la diversité virale ont donc été préconisées dans le but de favoriser les réponses immunes de l’hôte pour le contrôle de l’infection et d’identifier des variantes virales offrant une meilleure cible pour des stratégies vaccinales ou immunothérapeutiques. Dans cet esprit, nous avons donc étudié, chez des sujets infectés récemment par le VIH-1, l’effet du traitement ARV précoce sur la diversité virale de la région C2V5 du gène enveloppe ainsi que sur la taille des réservoirs. En deuxième lieu, nous avons caractérisé la pression de sélection des ARV sur des souches virales de sous types variés non-B, chez des patients du Mali et du Burkina Faso afin d’évaluer les voies d’échappement viral dans un fond génétique différent du sous-type B largement prévalent en Amérique du Nord. Notre étude a démontré la présence d’une population virale très homogène et peu diversifiée dans les premières semaines suivant l’infection, qui évolue pour atteindre une diversification de +0,23% à la fin de la première année. Cette diversification est plus importante chez les sujets n’ayant pas initié de traitement. De plus, ceci s’accompagne d’un plus grand nombre de particules virales infectieuses dans les réservoirs viraux des cellules mononucléées du sang périphérique (PBMC) chez ces sujets. Ces résultats suggèrent que l’initiation précoce du traitement pourrait avoir un effet bénéfique en retardant l’évolution virale ainsi que la taille des réservoirs, ce qui pourrait supporter une réponse immune mieux ciblée et potentiellement des stratégies immunothérapeutiques permettant d’éradiquer le virus. Nous avons également suivi 801 sujets infectés par des sous-types non-B sur le point de débuter un traitement antirétroviral. Bien que la majorité des sujets ait été à un stade avancé de la maladie, plus de 75% des individus ont obtenu une charge virale indétectable après 6 mois d’ARV, témoignant de l’efficacité comparable des ARV sur les sous-types non-B et B. Toutefois, contrairement aux virus de sous-type B, nous avons observé différentes voies moléculaires de résistance chez les sous type non-B, particulièrement chez les sous-types AGK/AK/K pour lesquels les voies de résistances étaient associées de façon prédominante aux TAM2. De plus, bien que la divergence entre les virus retrouvés chez les patients d’une même région soit faible, nos analyses phylogénétiques ont permis de conclure que ces mutations de résistance se sont produites de novo et non à partir d’un ancêtre commun porteur de résistance. Cependant, notre dernière étude au Mali nous a permis d’évaluer la résistance primaire à près de 10% et des études phylogénétiques seront effectuées afin d’évaluer la circulation de ces souches résistantes dans la population. Ces études suggèrent qu’un contrôle de la réplication virale par les ARV peut freiner la diversité du VIH et ainsi ouvrir la voie à un contrôle immunologique ciblé, utilisant de nouvelles stratégies vaccinales ou immunothérapeutiques. Toutefois, une thérapie antirétrovirale sous-optimale (adhérence, toxicité) peut conduire à l’échappement virologique en favorisant l’émergence et la dissémination de souches résistantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université Bordeaux 1 (France)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude était de déterminer l’impact d’une infection intra-mammaire (IIM) subclinique causée par staphylocoque coagulase-négative (SCN) ou Staphylococcus aureus diagnostiquée durant le premier mois de lactation chez les taures sur le comptage de cellules somatiques (CCS), la production laitière et le risque de réforme durant la lactation en cours. Des données bactériologiques provenant d’échantillons de lait composites de 2 273 taures Holstein parmi 50 troupeaux ont été interprétées selon les recommandations du National Mastitis Council. Parmi 1 691 taures rencontrant les critères de sélection, 90 (5%) étaient positives à S. aureus, 168 (10%) étaient positives à SCN et 153 (9%) étaient négatives (aucun agent pathogène isolé). Le CCS transformé en logarithme népérien (lnCCS) a été modélisé via une régression linéaire avec le troupeau comme effet aléatoire. Le lnCCS chez les groupes S. aureus et SCN était significativement plus élevé que dans le groupe témoin de 40 à 300 jours en lait (JEL) (P < 0.0001 pour tous les contrastes). La valeur journalière du lnSCC chez les groupes S. aureus et SCN était en moyenne 1.2 et 0.6 plus élevé que le groupe témoin respectivement. Un modèle similaire a été réalisé pour la production laitière avec l’âge au vêlage, le trait génétique lié aux parents pour la production laitière et le logarithme népérien du JEL de la pesée inclus. La production laitière n’était pas statistiquement différente entre les 3 groupes de culture de 40 à 300 JEL (P ≥ 0.12). Les modèles de survie de Cox ont révélé que le risque de réforme n’était pas statistiquement différent entre le groupe S. aureus ou SCN et le groupe témoin (P ≥ 0.16). La prévention des IIM causées par SCN et S. aureus en début de lactation demeure importante étant donné leur association avec le CCS durant la lactation en cours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construction d'un quotient, en topologie, est relativement simple; si $G$ est un groupe topologique agissant sur un espace topologique $X$, on peut considérer l'application naturelle de $X$ dans $X/G$, l'espace d'orbites muni de la topologie quotient. En géométrie algébrique, malheureusement, il n'est généralement pas possible de munir l'espace d'orbites d'une structure de variété. Dans le cas de l'action d'un groupe linéairement réductif $G$ sur une variété projective $X$, la théorie géométrique des invariants nous permet toutefois de construire un morphisme de variété d'un ouvert $U$ de $X$ vers une variété projective $X//U$, se rapprochant autant que possible d'une application quotient, au sens topologique du terme. Considérons par exemple $X\subseteq P^{n}$, une $k$-variété projective sur laquelle agit un groupe linéairement réductif $G$ et supposons que cette action soit induite par une action linéaire de $G$ sur $A^{n+1}$. Soit $\widehat{X}\subseteq A^{n+1}$, le cône affine au dessus de $\X$. Par un théorème de la théorie classique des invariants, il existe alors des invariants homogènes $f_{1},...,f_{r}\in C[\widehat{X}]^{G}$ tels que $$C[\widehat{X}]^{G}= C[f_{1},...,f_{r}].$$ On appellera le nilcone, que l'on notera $N$, la sous-variété de $\X$ définie par le locus des invariants $f_{1},...,f_{r}$. Soit $Proj(C[\widehat{X}]^{G})$, le spectre projectif de l'anneau des invariants. L'application rationnelle $$\pi:X\dashrightarrow Proj(C[f_{1},...,f_{r}])$$ induite par l'inclusion de $C[\widehat{X}]^{G}$ dans $C[\widehat{X}]$ est alors surjective, constante sur les orbites et sépare les orbites autant qu'il est possible de le faire; plus précisément, chaque fibre contient exactement une orbite fermée. Pour obtenir une application régulière satisfaisant les mêmes propriétés, il est nécessaire de jeter les points du nilcone. On obtient alors l'application quotient $$\pi:X\backslash N\rightarrow Proj(C[f_{1},...,f_{r}]).$$ Le critère de Hilbert-Mumford, dû à Hilbert et repris par Mumford près d'un demi-siècle plus tard, permet de décrire $N$ sans connaître les $f_{1},...,f_{r}$. Ce critère est d'autant plus utile que les générateurs de l'anneau des invariants ne sont connus que dans certains cas particuliers. Malgré les applications concrètes de ce théorème en géométrie algébrique classique, les démonstrations que l'on en trouve dans la littérature sont généralement données dans le cadre peu accessible des schémas. L'objectif de ce mémoire sera, entre autres, de donner une démonstration de ce critère en utilisant autant que possible les outils de la géométrie algébrique classique et de l'algèbre commutative. La version que nous démontrerons est un peu plus générale que la version originale de Hilbert \cite{hilbert} et se retrouve, par exemple, dans \cite{kempf}. Notre preuve est valide sur $C$ mais pourrait être généralisée à un corps $k$ de caractéristique nulle, pas nécessairement algébriquement clos. Dans la seconde partie de ce mémoire, nous étudierons la relation entre la construction précédente et celle obtenue en incluant les covariants en plus des invariants. Nous démontrerons dans ce cas un critère analogue au critère de Hilbert-Mumford (Théorème 6.3.2). C'est un théorème de Brion pour lequel nous donnerons une version un peu plus générale. Cette version, de même qu'une preuve simplifiée d'un théorème de Grosshans (Théorème 6.1.7), sont les éléments de ce mémoire que l'on ne retrouve pas dans la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le vieillissement démographique augmente rapidement la représentation des personnes âgées de plus de 50 ans parmi les utilisateurs d’aides à la mobilité motorisées (AMMs), telles que le fauteuil roulant motorisé et le quadriporteur. Le but général de la thèse est de rendre compte d’une démarche d’analyse des effets des AMMs au cours des premiers 18 mois d’utilisation chez les adultes d’âge moyen et les aînés. Notre question de recherche concerne la nature et l'importance des effets sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que les liens entre les divers facteurs impliqués dans leur impact optimal. La thèse s’articule en trois volets, synthétique, méthodologique et analytique, dont les principaux résultats sont présentés dans quatre articles scientifiques. Le volet synthétique comprend une recension systématique qui révèle la représentation marginale des personnes âgées de plus de 50 ans dans les publications scientifiques sur les effets des AMMs et le faible niveau de preuve dans ce champ d’études. Les travaux liés à ce volet proposent également un cadre d’analyse reliant l’intention d’utiliser l’AMM, les habitudes de déplacements, les dimensions d’effets des AMMs sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que quatre catégories de cofacteurs associés à l’utilisation (personne, aide technique, intervention, environnement). Le volet méthodologique assemble un dispositif de mesure comprenant 5 questionnaires et 18 indicateurs arrimés au cadre d’analyse et démontre l’applicabilité de l’ensemble des questionnaires pour une administration téléphonique. La validation transculturelle de deux questionnaires implique deux études réalisées auprès d’utilisateurs d’AMMs âgés de 50 à 84 ans (n=45). Ces travaux confirment la fidélité test-retest et l’équivalence des questionnaires traduits avec la version d’origine. Finalement, le volet analytique se concentre sur l’étude des habitudes de déplacements chez 3 cohortes (n=116) de personnes âgées de 50 à 89 ans, recrutées en fonction du stade d’utilisation de l’AMM. Les résultats suggèrent une amélioration de l’aire de mobilité après l’utilisation initiale ou long terme de l’AMM en comparaison avec une cohorte en attente de l’AMM, ainsi qu’une augmentation significative de la fréquence des déplacements autour du domicile et dans le voisinage. Trois facteurs associés à une aire de mobilité optimale, à savoir le genre, la nature des objectifs de participation de l’utilisateur et le type d’appareil utilisé, sont identifiés par des analyses de régression linéaires contrôlant pour l’âge. La thèse soutient l’importance de tenir compte de l’environnement et d’une combinaison de facteurs reliés à la personne et à l’aide technique pour saisir les effets des AMMs au cours des premiers mois d’utilisation. Ces résultats ouvrent la voie au suivi systématique des utilisateurs d’AMMs par les professionels de réadaptation, puisqu’ils confirment l’utilité du dispositif pour en mesurer les effets et ciblent les déterminants de la mobilité des utilisateurs d’AMMs âgés de plus de 50 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.