316 resultados para BAS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comparativement au génome contenu dans le noyau de la cellule de plante, nos connaissances des génomes des deux organelles de cette cellule, soit le plastide et la mitochondrie, sont encore très limitées. En effet, un nombre très restreint de facteurs impliqués dans la réplication et la réparation de l’ADN de ces compartiments ont été identifiés à ce jour. Au cours de notre étude, nous avons démontré l’implication de la famille de protéines Whirly dans le maintien de la stabilité des génomes des organelles. Des plantes mutantes pour des gènes Whirly chez Arabidopsis thaliana et Zea mays montrent en effet une augmentation du nombre de molécules d’ADN réarrangées dans les plastides. Ces nouvelles molécules sont le résultat d’une forme de recombinaison illégitime nommée microhomology-mediated break-induced replication qui, en temps normal, se produit rarement dans le plastide. Chez un mutant d’Arabidopsis ne possédant plus de protéines Whirly dans les plastides, ces molécules d’ADN peuvent même être amplifiées jusqu’à cinquante fois par rapport au niveau de l’ADN sauvage et causer un phénotype de variégation. L’étude des mutants des gènes Whirly a mené à la mise au point d’un test de sensibilité à un antibiotique, la ciprofloxacine, qui cause des bris double brin spécifiquement au niveau de l’ADN des organelles. Le mutant d’Arabidopsis ne contenant plus de protéines Whirly dans les plastides est plus sensible à ce stress que la plante sauvage. L’agent chimique induit en effet une augmentation du nombre de réarrangements dans le génome du plastide. Bien qu’un autre mutant ne possédant plus de protéines Whirly dans les mitochondries ne soit pas plus sensible à la ciprofloxacine, on retrouve néanmoins plus de réarrangements dans son ADN mitochondrial que dans celui de la plante sauvage. Ces résultats suggèrent donc une implication pour les protéines Whirly dans la réparation des bris double brin de l’ADN des organelles de plantes. Notre étude de la stabilité des génomes des organelles a ensuite conduit à la famille des protéines homologues des polymérases de l’ADN de type I bactérienne. Plusieurs groupes ont en effet suggéré que ces enzymes étaient responsables de la synthèse de l’ADN dans les plastides et les mitochondries. Nous avons apporté la preuve génétique de ce lien grâce à des mutants des deux gènes PolI d’Arabidopsis, qui encodent des protéines hautement similaires. La mutation simultanée des deux gènes est létale et les simples mutants possèdent moins d’ADN dans les organelles des plantes en bas âge, confirmant leur implication dans la réplication de l’ADN. De plus, les mutants du gène PolIB, mais non ceux de PolIA, sont hypersensibles à la ciprofloxacine, suggérant une fonction dans la réparation des bris de l’ADN. En accord avec ce résultat, la mutation combinée du gène PolIB et des gènes des protéines Whirly du plastide produit des plantes avec un phénotype très sévère. En définitive, l’identification de deux nouveaux facteurs impliqués dans le métabolisme de l’ADN des organelles nous permet de proposer un modèle simple pour le maintien de ces deux génomes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature décrit certains phénomènes de réorganisation physiologique et fonctionnelle dans le cerveau des aveugles de naissance, notamment en ce qui a trait au traitement de l’information tactile et auditive. Cependant, le système olfactif des aveugles n’a reçu que très peu d’attention de la part des chercheurs. Le but de cette étude est donc de comprendre comment les aveugles traitent l’information olfactive au niveau comportemental et d’investiguer les substrats neuronaux impliqués dans ce processus. Puisque, en règle générale, les aveugles utilisent leurs sens résiduels de façon compensatoire et que le système olfactif est extrêmement plastique, des changements au niveau de l’organisation anatomo-fonctionnelle pourraient en résulter. Par le biais de méthodes psychophysiques et d’imagerie cérébrale (Imagerie par Résonance Magnétique fonctionnelle-IRMf), nous avons investigué les substrats anatomo-fonctionnels sollicités par des stimuli olfactifs. Nous avons trouvé que les aveugles ont un seuil de détection plus bas que les voyants, mais que leur capacité à discriminer et identifier des odeurs est similaire au groupe contrôle. Ils ont aussi plus conscience de l’environnement olfactif. Les résultats d’imagerie révèlent un signal BOLD plus intense dans le cortex orbitofrontal droit, le thalamus, l’hippocampe droit et le cortex occipital lors de l’exécution d’une tâche de détection d’odeur. Nous concluons que les individus aveugles se fient d’avantage à leur sens de l’odorat que les voyants afin d’évoluer dans leur environnement physique et social. Cette étude démontre pour la première fois que le cortex visuel des aveugles peut être recruté par des stimuli olfactifs, ce qui prouve que cette région assume des fonctions multimodales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Popol Vuh, récit historique du peuple maya quiché, a été traduit des dizaines de fois. Jusqu’au milieu du 20e siècle, bon nombre de ces traductions se fondaient sur la version réalisée en 1861 par Brasseur de Bourbourg, un missionnaire français. Pour souligner le travail du traducteur, nous avons étudié sa traduction non pas d’un point de vue comparatif des deux textes, mais du point de vue du paratexte, c’est-à-dire ce qui entoure le texte (page de titre, préface, notes, illustrations, etc.). Pour ce faire, nous avons dressé le cadre théorique du paratexte à l’appui des écrits de Genette et de Lane, puis nous l’avons appliqué à celui de la traduction du Popol Vuh de Brasseur de Bourbourg. D’une taille colossale, ce paratexte nous renseigne sur ce qui a motivé le travail du traducteur et sur ce qu’il a fait. L’étude de son avant-propos nous indique clairement que son but est de faire connaître la culture des Amériques sous un jour nouveau, et le Popol Vuh est pour lui l’exemple parfait d’une richesse littéraire, historique et culturelle jusque-là largement ignorée. Cette partie du paratexte de Brasseur de Bourbourg nous prépare à la lecture, alors que les nombreuses notes de bas de page nous guident pendant celle-ci. Force est toutefois d’admettre que le paratexte de cet ouvrage est si imposant qu’il porte ombrage à la traduction. Bref, l’étude du paratexte nous amène à aborder la traduction de Brasseur de Bourbourg d’un oeil critique, en fonction de ce que nous dit le paratexte. La lecture du paratexte et la connaissance de ses tenants et aboutissants devraient donc faire d’un simple lecteur un véritable lecteur averti, qu’il s’agisse d’une traduction ou de tout autre texte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte de la mondialisation contemporaine, le développement d’une structure de gouvernance à plusieurs niveaux nous oblige à revoir notre compréhension de la souveraineté de l’État et de l’exercice de la démocratie. Notre objectif consiste à présenter la pensée de David Held au sujet des conséquences de ces transformations de la gouvernance politique sur la théorie démocratique. Dans un premier temps, nous analyserons les conséquences de l’atténuation de la souveraineté de l’État, dorénavant partagée avec diverses organisations supranationales, sur la théorie de l’État démocratique moderne. Nous verrons comment Held répond au déficit démocratique constaté au sein de ces organisations, en adaptant le principe de subsidiarité au système de gouvernance multicouche émergeant, et ce, afin de rétablir la congruence entre les décideurs et les destinataires de leurs décisions, caractéristique de l’activité (libérale) démocratique. Dans un deuxième temps, nous présenterons les fondements normatifs du modèle théorique qu’il préconise pour assurer la démocratisation de ce nouveau système de gouvernance. Nous verrons pourquoi, selon Held, la poursuite de l’idéal démocratique exige aujourd’hui la mise en oeuvre d’une variété de droits, inspirés des valeurs sociales-démocrates, qu’il faut enchâsser dans le cadre constitutionnel de toutes les institutions de gouvernance du monde contemporain. De plus, nous dégagerons les objectifs institutionnels qu’il faut atteindre afin de parvenir à la réalisation d’une social-démocratie mondiale. Nous conclurons avec une brève analyse critique de son interprétation du principe de subsidiarité et de son approche “du haut vers le bas” (top-down) des processus conduisant à la démocratisation des institutions supranationales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Par une approche analytique, cette étude en éthique clinique a examiné la problématique de la demande d’assistance médicalisée pour mourir formulée dans le cadre des soins de fin de vie. Partant du fait que cette demande sollicite les soignants dans leur savoir et leur savoir-faire, surtout dans leur savoir-être, cette étude rend d’abord compte d’un fait : bon gré mal gré l’interdit de l’euthanasie par la loi et la déontologie médicale, ainsi que le débat contradictoire à son sujet qui dure déjà voici quelques décennies, il arrive de temps à autres que les soignants œuvrant en soins de fin de vie, soient confrontés à une demande d’assistance médicalisée pour mourir. Cette demande qui émane de certaines personnes en fin de vie et / ou de leurs proches, est souvent source de malaise pour les soignants à l’endroit de qui elle crée des défis majeurs et fait naître des dilemmes éthiques importants. Plus particulièrement, cette demande interroge toujours la finalité même des soins de fin de vie : est-ce que l’aide pour mourir fait partie de ces soins ? En réponse à cette question difficile, cette démarche réflexive de soignant chercheur en éthique montre qu’il est difficile de donner une réponse binaire en forme de oui / non ; il est difficile de donner une réponse d’application universalisable, et de définir une généralisable conduite à tenir devant une telle demande, car chaque cas est singulier et unique à son genre. Cette étude montre prioritairement que l’humanisation de la mort est à la fois un enjeu éthique important et un défi majeur pour notre société où la vie des individus est médicalisée de la naissance à la mort. En conséquence, parce que la demande d’assistance médicalisée pour mourir sollicite les soignants dans leur savoir et leur savoir-faire, cette étude montre toute l’importance de la réflexivité et de la créativité que doivent développer les soignants pour apporter une réponse constructive à chaque demande : une réponse humanisant le mourir et la mort elle-même, c’est-à-dire une réponse qui soit, sur le plan éthique, raisonnable et cohérente, une réponse qui soit sur le plan humain, porteuse de sens. D’où, outre l’axiologie, cette démarche réflexive montre que l’interdisciplinarité, la sémantique, l’herméneutique et les grilles d’analyse en éthique, constituent des outils réflexifs efficaces pouvant mieux aider les soignants dans leur démarche. Sur quelles bases éthiques, les soignants doivent-ils examiner une demande d’assistance médicalisée pour mourir, demande qui se présente toujours sous la forme d’un dilemme éthique? Cette question renvoie entre autre au fait que cette demande sollicite profondément les soignants dans leur savoir-être en relation des soins de fin de vie. Aussi bonnes les unes que les autres, qu’on soit pour ou contre l’euthanasie, plusieurs stratégies et méthodes d’analyse sont proposées aux soignants pour la résolution des conflits des valeurs et des dilemmes éthiques. Mais, ce n’est pas sur cette voie-là que cette étude invite les soignants. C’est plutôt par leur réflexivité et leur créativité, enrichies principalement par leur humanisme, leur expérience de vie, leur intuition, et secondairement par les différentes méthodes d’analyse, que selon chaque contexte, les soignants par le souci permanent de bien faire qui les caractérisent, trouveront toujours par eux-mêmes ce qui convient de faire dans l’ici et maintenant de chaque demande. C’est pourquoi, devant une demande d’assistance médicalisée pour mourir qui leur est adressée dans le cadre des soins de fin de vie, cette démarche éthique invite donc les soignants à être « des cliniciens créatifs, des praticiens réflexifs» . C’est pour cette raison, sur le plan proprement dit de la réflexion éthique, cette étude fait apparaître les repères de l’éthique humaniste de fin de vie comme bases axiologiques sur lesquels les soignants peuvent construire une démarche crédible pour répondre au mieux à cette demande. L’éthique humaniste de fin de vie située dans le sillage de l’humanisme médical , où l’humain précède le médical, renvoie au fait qu’en soins de fin de vie où émerge une demande d’aide à la mort, entre le demandeur de cette aide et le soignant, tout doit être basé sur une confiante relation d’homme à homme, même si du côté du soignant, son savoir être dans cette relation est aussi enrichi par sa compétence, ses connaissances et son expérience ou son savoir-faire. Basée sur l’humanité du soignant dans la démarche de soins, l’éthique humaniste de fin de vie en tant que pratique réflexive émerge de la créativité éthique du soignant lui-même et de l’équipe autour de lui ; et cette éthique se situe entre interrogation et transgression, et se définit comme une éthique « du vide-de-sens-à-remplir » dans un profond souci humain de bien faire. Car, exclue l’indifférence à la demande de l’assistance médicalisée pour mourir, son acceptation ou son refus par le soignant, doit porter sur l’humanisation de la mort. Cette dernière étant fondamentalement définie par rapport à ce qui déshumanise la fin de vie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La bursite infectieuse aviaire (IBD) est une des causes majeures de pertes économiques pour l’industrie aviaire. La vaccination est le principal outil de contrôle de cette maladie et les oiseaux susceptibles doivent être vaccinés aussitôt que le niveau des anticorps maternels (MA) anti-IBDV est suffisamment bas. L’estimation du moment de vaccination est habituellement déterminée par la formule de Deventer qui utilise le titre initial de MA anti-IBDV et la demi-vie des anticorps pour prédire l’évolution du titre. Dans la présente étude, l’effet du gain de poids sur la vitesse de disparition des MA a été étudié dans le but de l’utiliser pour prédire la détermination du moment de la vaccination. L’analyse des taux d’anticorps neutralisants par ELISA a montré que les poussins avec une forte croissance avaient un taux de disparition plus rapide des MA que ceux à faible croissance. Une formule pour la prédiction du moment de vaccination contre le IBDV, basée sur le gain de poids et le niveau des MA a été développée et vérifiée. La prédiction du moment de vaccination avec cette formule a montré une haute corrélation avec les titres de MA mesurés par ELISA. Le virus de l’anémie infectieuse aviaire (CIAV) est une cause importante d’immunosuppression chez le poulet augmentant la pathogénicité des infections secondaires et en entraînant une réponse humorale suboptimale et une forte mortalité. D’autre part, l’infections sub-clinique du au CIAV provoque une immunosuppression qui facilite la coinfection par d’autre virus tel que le IBDV. Les effets de la coinfection à J1 avec une souche vaccinale de CIAV CAV-VAC® (Intervet) et à J14 avec une souche faiblement virulente de IBDV isolée au Québec, sur l’état de santé des poussins, sur la persistance virale et sur la réponse immunitaire ont été étudiés autant chez des poussins de 1 jour d’âge exempts d’agents pathogènes specifique (SPF) que ceux provenant d’élevages commerciaux. Les résultats ont montré que l’inoculation de la souche vaccinale du CIAV a entraîné une infection sub-clinique, une persistance virale dans la rate et le thymus, une altération de la thymopoièse et une réponse humorale temporaire chez les poussins SPF. Ces effets ont aussi été mis en évidence chez des poussins d’élevage commerciaux malgré des taux élevés de MA. Lors de l’infection avec la souche de IBDV chez des poussins déjà vaccinés contre le CIAV, la persistance du CIAV dans les organes lymphoïdes a été aggravée par une présence de réponses humorales temporaires contre les deux virus et une altération des populations lymphocytaires dans les organes lymphoïdes. Par contre, la présence des MA contre le CIAV a limité temporairement ces effets. Ces travaux ont mis en évidence des désordres immunitaires cellulaires et humoraux et une persistance virale chez des poussins vaccinés contre le CIAV et co-infectés avec le IBDV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La paroi vasculaire est composée de cellules endothéliales, de cellules musculaires lisses vasculaires et de fibroblastes qui sont entourés d’un réseau structuré et complexe de protéines, la matrice extracellulaire. Les interactions réciproques entre la matrice et les cellules sont nécessaires à la croissance, au développement et au remodelage. Or, différents contextes pathologiques entraînent la perturbation de ces interactions et sont la cause de différentes maladies. Au cours du vieillissement, la matrice extracellulaire des grosses artères élastiques est modifiée. Ainsi, les lamelles élastiques de la paroi vasculaire se fragmentent ou sont dégradées, en plus de calcifier. De même, l’accumulation de protéines plus rigides, comme le collagène, entraîne le développement de la fibrose. Ces modulations vont mener à l’augmentation de la rigidité artérielle et au développement de l’hypertension systolique isolée. En utilisant un modèle animal de calcification basé sur l’inhibition d’une protéine anti-calcifiante, la matrix Gla protein, avec la warfarine, nous avons étudié la séquence des événements impliqués dans le développement de l’hypertension systolique isolée. Nous avons observé l’activation précoce et transitoire de MMP-9, puis du TGF-ß, précédant la modulation phénotypique des cellules musculaires lisses vasculaires, la calcification et les changements hémodynamiques. L’inhibition des métalloprotéinases et du TGF-ß a permis de prévenir la calcification vasculaire. Nous avons également étudié le rôle joué par une enzyme de la matrice extracellulaire, la transglutaminase 2, dans le développement de la calcification associée à l’hypertension systolique isolée. À l’aide d’un nouvel inhibiteur de cette enzyme, qui a permis de prévenir la calcification, nous avons établi que la transglutaminase était un élément clé dans le processus pathologique. Ces travaux ont permis de démontré l’intérêt de nouvelles avenues thérapeutiques ciblant directement la matrice extracellulaire, particulièrement la MMP-9, le TGF-ß et la transglutaminase 2, dans la pathologie de l’hypertension systolique isolée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire se propose d’aborder le concept adornien de matériau musical selon deux de ses moments essentiels : l’intégration et la désintégration. Dans un premier temps, il s’agira d’analyser la critique de l’Aufklärung, selon laquelle la rationalité éclairée, par la domination progressive de la nature, se transforme en son contraire, le mythe. Cette analyse servira de base théorique pour la compréhension du concept de matériau. Dans un deuxième temps, il conviendra d’examiner la tendance progressiste—exemplifiée dans la sonate classique de Beethoven—vers l’intégration du matériau musical, comprise comme un moment dans le processus plus large de rationalisation sociale identifié par Max Weber. Dans un troisième temps, il conviendra d’examiner la tendance régressive—exemplifiée dans les œuvres du Beethoven tardif, de Mahler et de Berg—vers la désintégration du matériau musical, une tendance qui reflète les aspects noirs de l’Aufklärung, à savoir la fragmentation sociale et la réification. Enfin, nous évaluerons quelques commentaires critiques soulevant des doutes quant à la validité d’un concept de matériau musical basé sur une philosophie de l’histoire qui, malgré ses distances, ne s’échappe pas de ses origines hégéliennes.