17 resultados para K most critical paths

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'arthrose (OA) est une maladie articulaire dégénérative, classée comme la forme la plus fréquente au monde. Elle est caractérisée par la dégénérescence du cartilage articulaire, l’inflammation de la membrane synoviale, et le remodelage de l’os sous-chondral. Ces changements structurels et fonctionnels sont dues à de nombreux facteurs. Les cytokines, les prostaglandines (PG), et les espèces réactives de l'oxygène sont les principaux médiateurs impliqués dans la pathophysiologie de l'OA. L'interleukine-1β (IL-1β) est une cytokine pro-inflammatoire majeure qui joue un rôle crucial dans l'OA. L'IL-1β induit l'expression de la cyclooxygénase-2 (COX-2), la microsomale prostaglandine E synthase-1 (mPGES-1), la synthase inductible de l'oxyde nitrique (iNOS), ainsi que leurs produits la prostaglandine E2 (PGE2) et l'oxyde nitrique (NO). Ce sont des médiateurs essentiels de la réponse inflammatoire au cours de l'OA qui contribuent aux mécanismes des douleurs, de gonflement, et de destruction des tissus articulaires. Les modifications épigénétiques jouent un rôle très important dans la régulation de l’expression de ces gènes pro-inflammatoires. Parmi ces modifications, la méthylation/ déméthylation des histones joue un rôle critique dans la régulation des gènes. La méthylation/ déméthylation des histones est médiée par deux types d'enzymes: les histones méthyltransférases (HMT) et les histones déméthylases (HDM) qui favorisent l’activation et/ou la répression de la transcription. Il est donc nécessaire de comprendre les mécanismes moléculaires qui contrôlent l’expression des gènes de la COX-2, la mPGES-1, et l’iNOS. L'objectif de cette étude est de déterminer si la méthylation/déméthylation des histones contribute à la régulation de l’expression des gènes COX-2, mPGES-1, et iNOS dans des chondrocytes OA humains induits par l'IL-1β. Nous avons montré que la méthylation de la lysine K4 de l'histone H3 (H3K4) par SET-1A contribue à l’activation des gènes COX-2 et iNOS dans les chondrocytes humains OA induite par l'IL-1β. Nous avons également montré que la lysine K9 de l’histone H3 (H3K9) est déméthylée par LSD1, et que cette déméthylation contribue à l’expression de la mPGES-1 induite par IL-1β dans les chondrocytes humains OA. Nous avons aussi trouvé que les niveaux d'expression des enzymes SET-1A et LSD1 sont élevés au niveau du cartilage OA. Nos résultats montrent, pour la première fois, l'implication de la méthylation/ déméthylation des histones dans la régulation de l’expression des gènes COX-2, mPGES-1, et iNOS. Ces données suggèrent que ces mécanismes pourraient être une cible potentielle pour une intervention pharmacologique dans le traitement de la physiopathologie de l'OA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En janvier 2007, à 28 ans, Louise Brown est devenue maman. Trente ans, c'est le temps qu'il faut à une génération pour se renouveler. C'est aussi le temps, si bref à l'échelle de l'histoire, pour que les bouleversements induits par la science et les moeurs au ~e siècle modifient profondément le visage de la famille et de son ciment le plus intime, la filiation. Ce travail rend compte de la manière dont le droit appréhende ces changements dans des sociétés occidentales de plus en plus tiraillées entre leurs racines judéo-chrétiennes et leurs aspirations technologiques. Il cherche à comprendre la place du droit dans les nouveaux édifices familiaux et à évaluer la qualité des solutions que celui-ci propose face aux enjeux multiples et complexes de la procréation assistée. Il s'attache pour ce faire à l'examen de deux juridictions partageant un héritage commun à bien des égards, mais suivant des voies normatives différentes : la Suisse et le Québec. À ce titre, il définit des outils conceptuels nécessaires à la compréhension de la notion de filiation; il rend compte de la façon dont le droit a manipulé ces outils en régissant l'établissement de la filiation, la preuve de la filiation et la procréation assistée à proprement parler; et il conclut par une évaluation critique des solutions envisagées dans les deux systèmes étudiés. Il met ainsi en exergue les enjeux de la procréation assistée pour le droit de la filiation et la grande palette de solutions législatives envisageables. Il démontre que deux systèmes de droit peuvent traduire des préoccupations partagées par des dispositions diamétralement opposées. En particulier, l'égalité, la liberté et le bien de l'enfant se concrétisent selon des conceptions distinctes. L'attachement aux institutions se manifeste à des degrés variables. Les innovations scientifiques sont accueillies avec un enthousiasme plus ou moins soutenu. Tous ces facteurs sont les détenninants des familles suisse et québécoise, qui, pour s'être longtemps ressemblées, prennent aujourd'hui des chemins différents...mais pas irrémédiablement irréconciliables.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La pathologie de la fibrose kystique (FK) est causée par des mutations du gène codant pour le canal Cl- CFTR. Au niveau respiratoire, cette dysfonction du transport transépithélial de Cl- occasionne une altération de la composition et du volume du liquide de surface des voies aériennes. Une accumulation de mucus déshydraté favorise alors la colonisation bactérienne et une réponse inflammatoire chronique, entraînant des lésions épithéliales sévères au niveau des voies aériennes et des alvéoles pouvant culminer en défaillance respiratoire. Le principal objectif de mon projet de maîtrise était d’étudier les processus de réparation de l’épithélium alvéolaire sain, l’épithélium bronchique sain et FK à l’aide d’un modèle in vitro de plaies mécaniques. Nos résultats démontrent la présence d’une boucle autocrine EGF/EGFR contrôlant les processus de migration cellulaire et de réparation des lésions mécaniques. D’autre part, nos expériences montrent que l’EGF stimule l’activité et l’expression des canaux K+ KATP, KvLQT1 et KCa3.1 des cellules épithéliales respiratoires. L’activation de ces canaux est cruciale pour les processus de réparation puisque la majeure partie de la réparation stimulée à l’EGF est abolie en présence d’inhibiteurs de ces canaux. Nous avons également observé que les cellules FK présentent un délai de réparation, probablement causé par un défaut de la réponse EGF/EGFR et une activité/expression réduite des canaux K+. Nos résultats permettent de mieux comprendre les mécanismes de régulation des processus de réparation de l’épithélium sain et FK. De plus, ils ouvrent de nouvelles options thérapeutiques visant à promouvoir, à l’aide d’activateurs de canaux K+ et de facteurs de croissance, la régénération de l’épithélium respiratoire chez les patients atteints de FK.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : La vaccination est l’une des interventions de santé publique les plus efficaces et les plus efficientes. Comme dans la plupart des pays de la région Ouest africaine, le programme national de vaccination a bénéficié du soutien de nombreuses initiatives internationales et nationales dans le but d’accroître la couverture vaccinale. La politique vaccinale du Burkina Faso s’est appuyée sur différentes stratégies à savoir: la vaccination-prospection, la «vaccination commando», le Programme élargi de vaccination (PEV) et les Journées nationales de vaccination. La couverture vaccinale complète des enfants de 12 à 23 mois a certes augmenté, mais elle est restée en deçà des attentes passant de 34,7% en 1993, à 29,3% en 1998 et 43,9% en 2003. Objectif : Le but de cette thèse est d’analyser à plusieurs périodes et à différents niveaux, les facteurs associés à la vaccination complète des enfants de 12 à 23 mois en milieu rural au Burkina Faso. Méthodes : Nous avons utilisé plusieurs stratégies de recherche et quatre sources de données : - les enquêtes démographiques et de santé (EDS) de 1998-1999 et de 2003 - les annuaires statistiques de 1997 et de 2002 - des entretiens individuels auprès de décideurs centraux, régionaux et d’acteurs de terrain, œuvrant pour le système de santé du Burkina Faso - des groupes de discussion et des entretiens individuels auprès de populations desservies par des centres de santé et de promotion sociale (niveau le plus périphérique du système de santé) et du personnel local de santé. Des approches quantitatives (multiniveau) et qualitatives ont permis de répondre à plusieurs questions, les principaux résultats sont présentés sous forme de trois articles. Résultats : Article 1: « Les facteurs individuels et du milieu de vie associés à la vaccination complète des enfants en milieu rural au Burkina Faso : une approche multiniveau ». En 1998, bien que la propension à la vaccination s’accroisse significativement avec le niveau de vie des ménages et l’utilisation des services de santé, ces 2 variables n’expliquent pas totalement les différences de vaccination observées entre les districts. Plus de 37 % de la variation de la vaccination complète est attribuable aux différences entre les districts sanitaires. A ce niveau, si les ressources du district semblent jouer un rôle mineur, un accroissement de 1 % de la proportion de femmes éduquées dans le district accroît de 1,14 fois les chances de vaccination complète des enfants. Article 2: « Rates of coverage and determinants of complete vaccination of children in rural areas of Burkina Faso (1998 - 2003) ». Entre 1998 et 2003, la couverture vaccinale complète a augmenté en milieu rural, passant de 25,90% à 41,20%. Alors que les ressources du district n’ont présenté aucun effet significatif et que celui de l’éducation s’est atténué avec le temps, le niveau de vie et l’expérience d’utilisation des services de santé par contre, restent les facteurs explicatifs les plus stables de la vaccination complète des enfants. Mais, ils n’expliquent pas totalement les différences de vaccination complète qui persistent entre les districts. Malgré une tendance à l’homogénéisation des districts, 7.4% de variation de la vaccination complète en 2003 est attribuable aux différences entre les districts sanitaires. Article 3: « Cultures locales de vaccination : le rôle central des agents de santé. Une étude qualitative en milieu rural du Burkina Faso ». L’exploration des cultures locales de vaccination montre que les maladies cibles du PEV sont bien connues de la population et sont classées parmi les maladies du «blanc», devant être traitées au centre de santé. Les populations recourent à la prévention traditionnelle, mais elles attribuent la régression de la fréquence et de la gravité des épidémies de rougeole, coqueluche et poliomyélite à la vaccination. La fièvre et la diarrhée post vaccinales peuvent être vues comme un succès ou une contre-indication de la vaccination selon les orientations de la culture locale de vaccination. Les deux centres de santé à l’étude appliquent les mêmes stratégies et font face aux mêmes barrières à l’accessibilité. Dans une des aires de santé, l’organisation de la vaccination est la meilleure, le comité de gestion y est impliqué et l’agent de santé est plus disponible, accueille mieux les mères et est soucieux de s’intégrer à la communauté. On y note une meilleure mobilisation sociale. Le comportement de l’agent de santé est un déterminant majeur de la culture locale de vaccination qui à son tour, influence la performance du programme de vaccination. Tant dans la sphère professionnelle que personnelle il doit créer un climat de confiance avec la population qui acceptera de faire vacciner ses enfants, pour autant que le service soit disponible. Résultats complémentaires : le PEV du Burkina est bien structuré et bien supporté tant par un engagement politique national que par la communauté internationale. En plus de la persistance des inégalités de couverture vaccinale, la pérennité du programme reste un souci de tous les acteurs. Conclusion : Au delà des conclusions propres à chaque article, ce travail a permis d’identifier plusieurs facteurs critiques qui permettraient d’améliorer le fonctionnement et la performance du PEV du Burkina Faso et également de pays comparables. Le PEV dispose de ressources adéquates, ses dimensions techniques et programmatiques sont bien maîtrisées et les différentes initiatives internationales soutenues par les bailleurs de fonds lui ont apporté un support effectif. Le facteur humain est crucial : lors du recrutement du personnel de santé, une attention particulière devrait être accordée à l’adoption d’attitudes d’ouverture et d’empathie vis-à-vis de la population. Ce personnel devrait être en nombre suffisant au niveau périphérique et surtout sa présence et sa disponibilité devraient être effectives. Les liens avec la population sont à renforcer par une plus grande implication du comité de gestion dans l’organisation de la vaccination et en définissant plus clairement le rôle des agents de santé villageois. Ces différents points devraient constituer des objectifs du PEV et à ce titre faire l’objet d’un suivi et d’une évaluation adéquats. Finalement, bien que la gratuité officielle de la vaccination ait réduit les barrières financières, certaines entraves demeurent et elles devraient être levées pour améliorer l’accès aux services de vaccination.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"En janvier 2007, à 28 ans, Louise Brown est devenue maman. Trente ans, c’est le temps qu’il faut à une génération pour se renouveler. C’est aussi le temps, si bref à l’échelle de l’histoire, pour que les bouleversements induits par la science et les mœurs au XXème siècle modifient profondément le visage de la famille et de son ciment le plus intime, la filiation. Ce travail rend compte de la manière dont le droit appréhende ces changements dans des sociétés occidentales de plus en plus tiraillées entre leurs racines judéo-chrétiennes et leurs aspirations technologiques. Il cherche à comprendre la place du droit dans les nouveaux édifices familiaux et à évaluer la qualité des solutions que celui-ci propose face aux enjeux multiples et complexes de la procréation assistée. Il s’attache pour ce faire à l’examen de deux juridictions partageant un héritage commun à bien des égards, mais suivant des voies normatives différentes : la Suisse et le Québec. À ce titre, il définit des outils conceptuels nécessaires à la compréhension de la notion de filiation ; il rend compte de la façon dont le droit a manipulé ces outils en régissant l’établissement de la filiation, la preuve de la filiation et la procréation assistée à proprement parler ; et il conclut par une évaluation critique des solutions envisagées dans les deux systèmes étudiés. Il met ainsi en exergue les enjeux de la procréation assistée pour le droit de la filiation et la grande palette de solutions législatives envisageables. Il démontre que deux systèmes de droit peuvent traduire des préoccupations partagées par des dispositions diamétralement opposées. En particulier, l’égalité, la liberté et le bien de l’enfant se concrétisent selon des conceptions distinctes. L’attachement aux institutions se manifeste à des degrés variables. Les innovations scientifiques sont accueillies avec un enthousiasme plus ou moins soutenu. Tous ces facteurs sont les déterminants des familles suisse et québécoise, qui, pour s’être longtemps ressemblées, prennent aujourd’hui des chemins différents ... mais pas irrémédiablement irréconciliables."

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Grâce à leur flexibilité et à leur facilité d’installation, les réseaux maillés sans fil (WMNs) permettent un déploiement d’une infrastructure à faible coût. Ces réseaux étendent la couverture des réseaux filaires permettant, ainsi, une connexion n’importe quand et n’importe où. Toutefois, leur performance est dégradée par les interférences et la congestion. Ces derniers causent des pertes de paquets et une augmentation du délai de transmission d’une façon drastique. Dans cette thèse, nous nous intéressons au routage adaptatif et à la stabilité dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la conception d’une métrique de routage et à la sélection des passerelles permettant d’améliorer la performance des WMNs. Dans ce contexte nous proposons un protocole de routage à la source basé sur une nouvelle métrique. Cette métrique permet non seulement de capturer certaines caractéristiques des liens tels que les interférences inter-flux et intra-flux, le taux de perte des paquets mais également la surcharge des passerelles. Les résultats numériques montrent que la performance de cette métrique est meilleure que celle des solutions proposées dans la littérature. Dans une deuxième partie de la thèse, nous nous intéressons à certaines zones critiques dans les WMNs. Ces zones se trouvent autour des passerelles qui connaissent une concentration plus élevé du trafic ; elles risquent de provoquer des interférences et des congestions. À cet égard, nous proposons un protocole de routage proactif et adaptatif basé sur l’apprentissage par renforcement et qui pénalise les liens de mauvaise qualité lorsqu’on s’approche des passerelles. Un chemin dont la qualité des liens autour d’une passerelle est meilleure sera plus favorisé que les autres chemins de moindre qualité. Nous utilisons l’algorithme de Q-learning pour mettre à jour dynamiquement les coûts des chemins, sélectionner les prochains nœuds pour faire suivre les paquets vers les passerelles choisies et explorer d’autres nœuds voisins. Les résultats numériques montrent que notre protocole distribué, présente de meilleurs résultats comparativement aux protocoles présentés dans la littérature. Dans une troisième partie de cette thèse, nous nous intéressons aux problèmes d’instabilité des réseaux maillés sans fil. En effet, l’instabilité se produit à cause des changements fréquents des routes qui sont causés par les variations instantanées des qualités des liens dues à la présence des interférences et de la congestion. Ainsi, après une analyse de l’instabilité, nous proposons d’utiliser le nombre de variations des chemins dans une table de routage comme indicateur de perturbation des réseaux et nous utilisons la fonction d’entropie, connue dans les mesures de l’incertitude et du désordre des systèmes, pour sélectionner les routes stables. Les résultats numériques montrent de meilleures performances de notre protocole en comparaison avec d’autres protocoles dans la littérature en termes de débit, délai, taux de perte des paquets et l’indice de Gini.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les naines brunes sont des objets de masse intermédiaire entre celle nécessaire pour former une étoile et celle d'une planète. Les naines brunes sont classées, des plus chaudes aux plus froides, en types spectraux L, T et Y, caractérisés par une couleur J-K moyenne qui varie de 1.2 à 1.8 pour les étoiles de type L0 à L8, et de 1.8 à -0.5 pour les étoiles de type L8 à T8. Par ailleurs, la couleur J-K de certains types spectraux présente une dispersion de l'ordre d'une magnitude. Ce travail tente de faire la lumière sur la nature de cette grande dispersion, présente dans la couleur J-K des naines brunes de type L2. Les observations ont été réalisées avec la caméra infrarouge CPAPIR à l'Observatoire du Mont Mégantic. Nous avons ciblé un total de 22 naines brunes qui ont été observées en K, et 12 parmi celles-ci ont aussi été observées en J. Chacune des naines brunes a été calibrée à l'aide d'une étoile standard, ce qui rend nos résultats indépendants des données 2MASS. Nous observons une corrélation entre les couleurs J-K de nos données et de celles de 2MASS. Cela montre que la grande dispersion en J-K de nos données et des données 2MASS est due aux propriétés physiques des naines brunes et non à des erreurs observationnelles. L'examen des facteurs qui pourraient être responsables de cette grande dispersion, soit la classification spectrale, la métallicité, la gravité de surface, une binarité non résolue, la présence de nuages de condensats et la rotation, montre que la gravité de surface serait le facteur le plus susceptible d'être responsable de la grande dispersion des valeurs de J-K.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La dégradation protéolytique du collagène de type II est considérée comme étant un facteur majeur dans le processus irréversible de dégradation de la matrice cartilagineuse lors d’ostéoarthrose. Outre les collagénases de la famille des métaloprotéinases de la matrice (MMP-1, -8, -13), la cathepsine K est parmi les seules enzymes susceptibles de dégrader la triple hélice intacte du collagène de type II, devenant ainsi un élément pertinent pour les recherches sur l’ostéoarthrose. L’objectif à court terme de notre étude consiste en l’identification et la caractérisation de sites de clivage spécifiques de la cathepsine K sur le collagène de type II équin. La technique d’électrophorèse SDS-PAGE 1D permet la visualisation des produits de digestion et la validation des résultats de la caractérisation moléculaire des fragments protéolytiques. La caractérisation est réalisée en combinant la digestion trypsique précédant l’analyse HPLC-ESI/MS. Les résultats ont permis d’établir les sites, présents sur la carte peptidique de la molécule de collagène de type II équin, des 48 résidus prolines (P) et 5 résidus lysines (K) supportant une modification post-traductionnelle. De plus, 6 fragments majeurs, différents de ceux produits par les MMPs, sont observés par SDS-PAGE 1D puis confirmés par HPLC-ESI/MS, correspondant aux sites suivants : F1 [G189-K190], F2 [G252-P253], F3 [P326-G327], F4 [P428-G429], F5 [P563-G564] et F6 [P824-G825]. Le fragment F1 nouvellement identifié suggère un site de clivage différent de l’étude antérieure sur le collagène de type II bovin et humain. L’objectif à long terme serait le développement d’anticorps spécifiques au site identifié, permettant de suivre l’activité protéolytique de la cathepsine K par immunohistochimie et ÉLISA, dans le cadre du diagnostic de l’ostéoarthrose.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nurse Managers need today more than ever instruments that can be used to justify the billions of dollars that are invested in the healthcare sector annually. The objective of the study was to establish the validity and reliability of the Nursing Intensity Critical Care Questionnaire (NICCQ) in a cardiac surgery intensive care unit (CSICU) of a tertiary hospital. An expert panel evaluated the questionnaire’s content validity while generalizability theory was used to estimate the G and D coefficients. Decision studies enabled the investigators to determine if the current ward functioning of having one nurse rate one patient is adequate. Also, exploratory factorial analyses (EFA) preceded by principal component analyses (PCA) looked at establishing the factorial structure for the NICCQ. Finally, the NICCQ was correlated with a severity of illness score known as the Acute Physiology And Chronic Health Evaluation II (APACHE II) to estimate the correlation between patient illness and nursing intensity of care. The NICCQ was used by nurses using a sample of patients who had undergone cardiac surgery and were hospitalized on a CSICU of a tertiary teaching hospital. A convenience sample of nurses and patients on the CSICU was used to reflect the procedures and usual functioning of the unit. Each item on the questionnaire measured nursing intensity of care using a three point ordinal scale (Light, Moderate, and Severe) for the first 11 items, and a five point ordinal scale for the global assessment item (including the intermediate categories light/moderate and moderate/severe). The questionnaire proved to be both valid and able to be generalized to all nurses working in the CSICU. Overall results showed that 94.4% of the item generalizability coefficients indicated acceptable to excellent reliability, with most (86.1%) being larger than .90. The EFA established a simple 4 factor structure that explained little of the variance (32%). A correlation coefficient of 0.36 indicated that patient’ severity of illness is somewhat correlated with nursing intensity of care. The study showed that the NICCQ is a valid questionnaire with a generalizability coefficient that is large enough to be used by nurses’ managers for administrative purposes. Further research using larger samples would be needed to further test the factor structure of the NICCQ.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La nature iconoclaste de l'ère postmoderne se manifeste dans une révolution contre les normes littéraires préétablies. Cet iconoclasme est plus flagrant dans la fantaisie urbaine. Dans un environnement désordonné, fragmenté et très stéréotypé, la fantaisie urbaine est considérée comme un événement qui défie tout jugement, et toute stratification sociale. Bien qu'elle ait été bien accueillie par les lecteurs et qu'elle a obtenue de fortes ventes, c'est seulement depuis deux décennies que ces genres ont commencé à attirer l'attention académique. Ce travail peut être considéré comme une tentative pour comprendre la fantaisie urbaine à travers la série d'une de ses écrivains les plus éminents, Laurell K. Hamilton. En conséquence, j’ai choisi trois romans de sa série Anita Blake: Guilty Pleasures (1993), Circus of the Damned (1995) et Blue Moon (1998). Les paramètres stylistiques et thématiques dans ses romans créent une philosophie postmoderne de subversion, qui valide et invalide les discussions sur la structure du signe, la violence, et la réaction du lecteur. Le premier chapitre étudie la construction du sens à travers la structure de la langue de la fantaisie urbaine. Il traite la signification que le résultat de l'interaction entre les différents signes linguistiques. Il suit également l'évolution de ce que Derrida appelle «inflated signs», qui sont au coeur de la régénération du sens à travers les romans. La saturation dans ces signes implique une «absence» qui s'affiche à travers la désintégration du système de la langue et les ruptures récurrentes de sa structure globale. Le deuxième chapitre se concentre sur les tendances de la violence dans les romans de la fantaisie urbaine qui rendent les jeux de pouvoir des personnages truculents et leurs réactions apparaissent inadmissibles. Il examine la violence par rapport à ses causes et sa ii logique. Grâce aux concepts de Derrida de l’‘arché-violence’, de ‘décision’ et de ‘sacrifice,’ je démontre que la violence est inévitable dans le monde créé de Hamilton et dans le monde qu'elle simule. Le troisième chapitre examine la réaction du lecteur sur les événements exotiques et la caractérisation paranormale des romans de Hamilton. Il révèle comment la fantaisie urbaine conteste la conception de Wolfgang Iser de réaction du lecteur et le concept d'‘apparence’ de Jean Baudrillard. J’insiste sur le fait que les lecteurs de la fantaisie urbaine ne sont plus des interprètes ou des réceptifs passifs d'images paranormaux. En effet, l'interaction entre l’auteur et le lecteur, que ces romans entrainent, défie ces conceptions réductrices de la réaction du lecteur.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La synthèse de siliciures métalliques sous la forme de films ultra-minces demeure un enjeu majeur en technologie CMOS. Le contrôle du budget thermique, afin de limiter la diffusion des dopants, est essentiel. Des techniques de recuit ultra-rapide sont alors couramment utilisées. Dans ce contexte, la technique de nanocalorimétrie est employée afin d'étudier, in situ, la formation en phase solide des siliciures de Ni à des taux de chauffage aussi élevés que 10^5 K/s. Des films de Ni, compris entre 9.3 et 0.3 nm sont déposés sur des calorimètres avec un substrat de a-Si ou de Si(100). Des mesures de diffraction de rayons X, balayées en température à 3 K/s, permettent de comparer les séquences de phase obtenues à bas taux de chauffage sur des échantillons de contrôle et à ultra-haut taux de chauffage sur les calorimètres. En premier lieu, il est apparu que l'emploi de calorimètres de type c-NC, munis d'une couche de 340 nm de Si(100), présente un défi majeur : un signal endothermique anormal vient fausser la mesure à haute température. Des micro-défauts au sein de la membrane de SiNx créent des courts-circuits entre la bande chauffante de Pt du calorimètre et l'échantillon métallique. Ce phénomène diminue avec l'épaisseur de l'échantillon et n'a pas d'effet en dessous de 400 °C tant que les porteurs de charge intrinsèques au Si ne sont pas activés. Il est possible de corriger la mesure de taux de chaleur en fonction de la température avec une incertitude de 12 °C. En ce qui a trait à la formation des siliciures de Ni à ultra-haut taux de chauffage, l'étude montre que la séquence de phase est modifiée. Les phases riches en m étal, Ni2Si et théta, ne sont pas détectées sur Si(100) et la cinétique de formation favorise une amorphisation en phase solide en début de réaction. Les enthalpies de formation pour les couches de Ni inférieures à 10 nm sont globalement plus élevées que dans le cas volumique, jusqu' à 66 %. De plus, les mesures calorimétriques montrent clairement un signal endothermique à haute température, témoignant de la compétition que se livrent la réaction de phase et l'agglomération de la couche. Pour les échantillons recuits a 3 K/s sur Si(100), une épaisseur critique telle que décrite par Zhang et Luo, et proche de 4 nm de Ni, est supposée. Un modèle est proposé, basé sur la difficulté de diffusion des composants entre des grains de plus en plus petits, afin d'expliquer la stabilité accrue des couches de plus en plus fines. Cette stabilité est également observée par nanocalorimétrie à travers le signal endothermique. Ce dernier se décale vers les hautes températures quand l'épaisseur du film diminue. En outre, une 2e épaisseur critique, d'environ 1 nm de Ni, est remarquée. En dessous, une seule phase semble se former au-dessus de 400 °C, supposément du NiSi2.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le Staphylococcus aureus résistant à la méthicilline (SARM) est un enjeu majeur en santé publique. Il est responsable d’une grande variété d’infections. Les “Livestock Associated-MRSA” (LA-MRSA) sont des SARM ayant comme origine les animaux de production tels le porc ou la volaille. Ils constituent un risque de transmission à l’humain via la chaîne alimentaire. Les LA-MRSA peuvent former du biofilm ce qui augmente leur tolérance aux stress environnementaux. Le biofilm est partiellement régulé par le système Agr. Il n’existe aucune donnée sur les ‘LA-MRSA’ d’origine aviaire au Québec. Les objectifs de ce projet étaient : (i) de déterminer la prévalence de ces SARM dans la viande de poulet et le poulet à griller de la province de Québec et (ii) de caractériser les isolats retrouvés. La collecte d’échantillons s’est effectuée dans 43 épiceries (309 cuisses et pilons de poulet) et dans deux abattoirs (échantillons nasaux et fécaux de 200 poulets) de la Montérégie. La prévalence de SARM a été évaluée à 1.29% (IC 95%: 0.35-3.28) et 0% dans la viande et les oiseaux respectivement. Les isolats testés se sont révélés résistants aux bêta-lactamines (n=15), à la tétracycline (n=10), à l’oxytétracycline (n=10), à la spectinomycine (n=10) et à la tobramycine (n=1). Le typage a révélé deux clones différents (ST398-V, n=10; et ST8-IVa ’USA300’, n=5). La présence de gènes de résistance aux antibiotiques (blaZ, blaR, blaI, erm(A), lnu(A), aad(D), fosB, tet(K), tet(L) et spc) ainsi que plusieurs gènes codant pour l’évasion du système immunitaire (IEC), la production de toxines ou encore pour la production de biofilm ont aussi été détectés. Une forte production de biofilm a été observée pour la majorité des isolats (n=11) à l’exception de certains isolats ST398. Le taux d’expression du système Agr n’a révélé aucune différence particulière entre les SARM testés. Pour conclure, nos données indiquent une faible prévalence de SARM chez la volaille et la viande de poulet. Les isolats ont été catégorisés en deux génotypes, dont un portant plus de gènes de résistance aux antibiotiques (ST398) et l’autre possédant plus de gènes de virulence (ST8).