356 resultados para Revenu moyen
Resumo:
Le facteur le plus important de pronostic de l'asthme professionnel (AP) est la durée des symptômes avant le retrait de lʼexposition à lʼagent causant lʼAP. La qualité de vie réduite, la détresse psychologique et les maladies psychiatriques sont des conditions souvent associées à l'AP. Notre objectif était d'identifier les facteurs, incluant le statut socioéconomique, qui ont une influence sur lʼintervalle de temps nécessaire pour présenter une requête à une agence médicolégale à la suite de lʼapparition de symptômes dʼasthme et de confirmer qu'un tel délai est associé à un moins bon pronostic respiratoire et à des coûts directs plus élevés. En outre, nous avons examiné la relation entre les variables cliniques et socio-économiques dʼune part et leur influence sur les facteurs psychologiques et économiques dʼautre part chez des travailleurs atteints d'AP. Ensuite, nous avons voulu évaluer si les individus souffrant de détresse psychologique (DP) et de morbidité psychiatrique pourraient être identifiés en utilisant un instrument mesurant la qualité de vie (QV). Lʼétude a été effectuée auprès dʼindividus ayant déposé des demandes d'indemnisation pourʼAP auprès du Commission de la sécurité et de la santé du travail du Québec (CSST). Les données ont été recueillies au moment de la réévaluation, soit environ deux ans et demi après le diagnostic. Outre la collecte des marqueurs cliniques de l'asthme, les individus ont été soumis à une évaluation générale de leur histoire sociodémographique et médicale, à une brève entrevue psychiatrique (évaluation des soins primaires des troubles mentaux, PRIME-MD) et à un ensemble de questionnaires, incluant le Questionnaire sur la qualité de vie - AQLQ(S), le Questionnaire respiratoire de St. George (SGRQ) et le Psychiatric Symptom Index (PSI).Soixante personnes ont été incluses dans l'étude. Etre plus âgé, avoir un revenu supérieur à 30 000$ CA etêtre atteint dʼAP dû à un allergène de haut poids moléculaire ont une association positive avec le nombre dʼannées dʼexposition avec symptômes avant le retrait. Au cours de la période de suivi, le nombre dʼannées dʼexposition avec symptômes était plus grand chez les individus ayant une hyperréactivité bronchique persistante. Par ailleurs, la présence de symptômes au poste de travail pendant moins d'un an est associée à une réduction des coûts directs. Les paramètres de QV et de DP avaient des corrélations modérées avec les marqueurs cliniques de lʼAP. Les plus fortes associations avec ces variables ont pu être observées dans les cas de la sévérité de l'asthme, des statuts dʼemploi et matrimonial, du revenu et de la durée de la période de travail avec l'employeur. Un seuil de 5,1 au niveau de la sous-échelle de la fonction émotionnelle de lʼAQLQ(S) sʼest avéré avoir la meilleure valeur discriminante pour distinguer les individus avec ou sans détresse psychiatrique cliniquement significative selon le PSI. Nous avons été en mesure d'identifier les variables socio-économiques associées à un intervalle plus long dʼexposition professionnelle en présence de symptômes dʼasthme. De même, une plus longue période d'exposition a été associée à un moins bon pronostic de la maladie et à des coûts de compensation plus élevés. Ces résultats s'avèrent utiles pour la surveillance de lʼAP qui pourrait cibler ces sous-groupes d'individus. La QV et la PS sont fréquemment réduites chez les individus atteints d'AP qui perçoivent une compensation. Elles sont associées à des marqueurs cliniques de lʼasthme et à des facteurs socio-économiques. En outre, nos résultats suggèrent que le questionnaire de lʼAQLQ(S) peut être utilisé pour identifier les individus avec un niveau de détresse psychologique potentiellement significatif.
Resumo:
Cette thèse veut déterminer la contribution de Julien Macho, membre de l’Ordre des ermites de saint Augustin de Lyon, à la vie culturelle de son époque. Son œuvre n’est pas, à proprement parler, une œuvre originale, mais un ensemble de traductions du latin au français, de corrections et d’éditions de textes religieux ou moraux. Ses livres ont été publiés dans une courte période, entre 1473 et 1480, et plusieurs rééditions, de la fin du 15e s. et du début du 16e s., sont connues. Il est question, à cette époque, à Lyon comme ailleurs en France, d’un grand désordre dans l’organisation religieuse et les critiques se font entendre de part et d’autre du pays. Devant la décadence de l’Église, la piété privée commence à se développer, une piété qui a besoin d’un nouveau support pour rendre accessibles les enseignements moraux à une population bourgeoise de plus en plus lettrée. Or, conscient de ces récents développements, Macho oriente tout son travail dans le but précis de rejoindre, en langue vernaculaire, un vaste auditoire. L’objectif de cette thèse de doctorat est d’analyser une partie de l’œuvre de Macho dans le but de mieux comprendre les intentions de l’auteur. Ce but premier permettra aussi de documenter, par un biais nouveau, une période charnière du développement intellectuel occidental, le passage du Moyen Âge à la Renaissance. Le travail comporte trois parties. Dans la première partie, il a fallu entreprendre une étude approfondie des contextes social, historique et intellectuel de cette période : tout d’abord, l’histoire de l’Ordre des ermites de saint Augustin et de l’enseignement offert à leurs membres, dans le contexte de la spiritualité en France à la fin du 15e siècle; par la suite, il convenait de présenter un survol de la ville de Lyon, de son Église et du développement de l’imprimerie dans cette ville. La deuxième partie porte sur les œuvres attribuées, à tort ou à raison, à Macho, vu la carence de recherches sur Julien Macho lui-même, et sur une enquête systématique pour apporter une preuve de l’existence de ce traducteur. La troisième partie s’attache à une lecture de deux œuvres de l’augustin lyonnais : une de longue tradition littéraire, Ésope, l’adaptation d’un recueil de fables, et une religieuse, rattachée à la pratique religieuse contemporaine, le Mirouer de la redemption de lumain lignage. Ésope est l’œuvre la plus originale de Macho, c’est-à-dire l’ouvrage où il est le plus intervenu comparativement au texte original. La comparaison avec sa source, l’Äsop latin-allemand d’Heinrich Steinhöwel, a montré comment le fabuliste lyonnais s’en est détaché pour ajouter à son texte un grand nombre de proverbes. Le Mirouer de la redemption de lumain lignage, une somme de toutes les observances de la vie religieuse et des lectures qu’un chrétien doit connaître, intègre des parties d’une autre œuvre bien connue, la Légende dorée, une pratique que l’on ne retrouve pas dans les autres traductions françaises du Speculum humanae salvationis. Loin d’être une analyse exhaustive de l’œuvre, la compilation des citations et du contenu même du texte permet de cerner en quoi consistait une certaine pratique de la religion au 15e siècle. Il en résulte un panorama du contexte culturel dans lequel vivait Julien Macho, théologien, prieur et traducteur et des œuvres qui lui sont attribuée. Un personnage dont l’étude montre un intellectuel représentatif de son époque, la fin du 15e siècle.
Resumo:
À la lecture d’ouvrages philosophiques anciens, nous sommes souvent surpris par la virulence des critiques adressées à l’écriture, dans la mesure où ces critiques nous parviennent au moyen de textes écrits. N’est-il pas paradoxal de tout à la fois rejeter et utiliser une même technologie ? Ou est-ce que les pratiques de l’oralité et de l’écriture des philosophes grecs, telles que ceux-ci les décrivent dans leurs ouvrages, peuvent être cohérentes avec leurs critiques ? Notre thèse visait, d’une part, à répondre à ce questionnement en confrontant les pratiques des philosophes anciens aux critiques qu’ils adressent à l’écriture, par le biais d’une étude systématique des discours sur la lecture et l’écriture dans des textes anciens d’auteurs et d’époques variés, et notamment des textes qui n’ont pas l’écriture pour objet. D’autre part, comme les travaux déjà publiés sur ce thème tentaient le plus souvent de trouver le point de rupture entre la tradition orale et la tradition écrite (cf. Havelock 1963, Lentz 1989), nous avons voulu inscrire notre objet d’étude dans une plus longue durée, ce qui nous a permis de constater qu’une rupture radicale entre les philosophes de tradition orale et ceux appartenant à la tradition écrite n’avait pas eu lieu, et que l’on observait plutôt une continuité des critiques et des pratiques de l’oralité et de l’écriture depuis l’époque classique jusqu’à l’Antiquité tardive. Malgré le développement de nouveaux supports matériels pour l’écriture, l’émergence d’une religion du livre, et la mise à l’écrit des poèmes homériques, la tradition philosophique grecque témoigne d’un usage circonspect de l’écriture et du refus de rejeter définitivement l’oralité.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Cette étude vise à comprendre quelle était la place des camélidés chez les Moche du centre urbain de Guadalupito de la vallée de Santa au Pérou. Les données ostéologiques analysées ont été obtenues grâce aux travaux effectués par le projet archéologique PSUM (Proyecto Santa de la Universidad de Montreal) de l’Université de Montréal. Dans ce document, une synthèse concernant les Moche de la côte nord du Pérou est d’abord présentée. Puis, il sera question de décrire le site archéologique Guadalupito et d’effectuer des observations concernant les camélidés d’Amérique du sud. Ce sont surtout les données zooarchéologiques qui ont été considérées pour répondre aux questions de recherche de ce travail. La céramique, les fibres de camélidés et les données ethnohistoriques ainsi qu’ethnographiques concernant les camélidés ont également été sujets à quelques observations afin de pouvoir répondre aux questions de recherche de manière holistique. Les résultats ont dévoilé qu’une grande quantité des camélidés du centre urbain de Guadalupito ont été exploités pour leur viande. Les camélidés constituaient une denrée alimentaire de base pour les gens qui fréquentaient les secteurs associés à l’élite. Plusieurs autres camélidés ont été utilisés comme animal de charge, car ils sont morts à un âge plus avancé. Aussi, il y avait des échanges entre la côte et la sierra, car de la laine tissé selon un style de la sierra a été trouvée. Certains camélidés étaient également utilisés lors de rituel et/ou pour leur cuir. Les lamas offraient une source stable de protéines, car ces animaux étaient sous le contrôle des Moche. Enfin, le camélidé a été le mammifère le plus polyvalent avant l’arrivée des animaux en provenance de l’Europe et il a représenté un moyen de transport et une source de nourriture fiable et significative chez les Moche.
Resumo:
La membrane cellulaire est principalement une bicouche phospholipidique constituant une barrière qui régule les échanges entre la cellule et son environnement. Son intérieur hydrophobe empêche le passage d’espèces hydrophiles, chargées, de grande masse moléculaire et polaires, qui sont généralement transportées par des protéines à travers la bicouche. Dans certains cas de systèmes défectueux (e.g. les canalopathies), l’équilibre des concentrations en ions à l’intérieur et à l’extérieur des cellules est perturbé et les cellules sont compromises. C’est pourquoi le développement de transporteurs transmembranaires synthétiques est nécessaire. De nombreux travaux ont été faits dans le développement de transporteurs synthétiques d’anions (particulièrement du chlorure). Dans cette thèse, nous présentons nos travaux sur un nouveau transporteur d’anion appelé axe parapluie, capable de changer de conformation dépendamment de la polarité de son environnement. Dans un premier temps, nous avons conçu le design, puis synthétisé ces axes parapluie qui montrent une importante activité en tant que transporteur de chlorures. Ces composés réunissent deux concepts : - Le parapluie, constitué d’acides biliaires amphiphiles (une face hydrophile, une face hydrophobe). La flexibilité des articulations combinée à la grande surface des acides choliques permettent d’empêcher les interactions défavorables entre les parties hydrophiles et hydrophobes, ce qui facilite l’insertion dans la bicouche. - Un site ammonium secondaire en tant que site de reconnaissance, capable de former des ponts hydrogène avec des ions chlorure. De plus, l’axe peut complexer une roue de type éther couronne pour former un pseudo-rotaxane ou rotaxane parapluie ce qui résulte en l’inhibition partielle de leurs propriétés de transport. Ceci nous mène au second objectif de cette thèse, le développement d’un nouveau moyen de transport pour les médicaments cycliques. Certains macrocycles polaires et biologiquement actifs tels que les nactines ont besoin d’atteindre leur objectif à l’intérieur de la cellule pour jouer leur rôle. La membrane cellulaire est alors un obstacle. Nous avons imaginé tirer profit de notre axe parapluie pour transporter un médicament cyclique (en tant que roue d’un rotaxane parapluie). Les assemblages des rotaxanes parapluie furent accomplis par la méthode de clipage. Le comportement de l’axe et du rotaxane parapluie fut étudié par RMN et fluorimétrie. Le mouvement du parapluie passant d’une conformation fermée à exposée dépendamment du milieu fut observé pour le rotaxane parapluie. Il en fut de même pour les interactions entre le rotaxane parapluie et des vésicules constituées de phospholipides. Finalement, la capacité du rotaxane parapluie à franchir la bicouche lipidique pour transporter la roue à l’intérieur de la vésicule fut démontrée à l’aide de liposomes contenant de la α-chymotrypsine. Cette dernière pu cliver certains liens amide de l’axe parapluie afin de relarguer la roue.
Resumo:
L’effondrement et le démantèlement de l’Empire ottoman à la suite de la Première Guerre mondiale ont conduit les Grandes puissances européennes à opérer un partage territorial du Proche-Orient, légitimé par le système des mandats de la Société des Nations (SDN). Sans précédent, cette administration internationale marqua le point de départ de l’internationalisation de la question de la Palestine, dont le droit international allait servir de socle à une nouvelle forme de colonialisme. Au lendemain de la Seconde Guerre mondiale, l’Organisation des Nations Unies (ONU) continua l’action entreprise par la SDN en s’occupant également de cette question sur la demande des Britanniques. En novembre 1947, l’ONU décida du partage de la Palestine en deux Etats pour résoudre les conflits entre sionistes et nationalistes arabes. Si ce partage fut accepté par les sionistes, il fut rejeté par les Etats arabes voisins et de nombreux Arabes palestiniens. Les affrontements opposant nationalistes arabes et sionistes de Palestine laissèrent place au conflit israélo-arabe après la proclamation d’Indépendance de l’Etat d’Israël en mai 1948. Au commencement de la guerre froide, les Etats-Unis et l’URSS prirent conscience de l’intérêt géostratégique de cette région, progressivement désinvestie par la France et la Grande-Bretagne. Dans cette étude, nous verrons comment la scène interétatique et la communauté internationale, successivement composée de la SDN puis de l’ONU, ont en partie scellé le sort du Proche et Moyen-Orient. Nous consacrerons également une analyse au rôle joué par les idéologies nationalistes arabes et sionistes, qui tiennent une place centrale au sein de ce conflit.
Resumo:
En Amérique du Nord, Mycoplasma bovis est le plus pathogène des mycoplasmes retrouvés chez les bovins. Les principales maladies qu’on lui associe (maladies respiratoires, mammites, arthrites septiques et otites moyennes et/ou internes) constituent un défi à l’industrie laitière à cause de la difficulté à les traiter et à les prévenir par une vaccination. L’objectif principal de ce projet était d’étudier l’excrétion nasale et la réponse sérologique à M. bovis chez les génisses de remplacement, entre la naissance et 7 mois d’âge, dans 4 troupeaux laitiers au Québec. Quatre-vingt-trois paires mère/génisse provenant de 4 cohortes de bovins laitiers étaient prélevées mensuellement (génisses : 0 à 7 mois ; mères : 0, 1 et 5 mois après vêlage). Écouvillons nasaux et échantillons de lait étaient analysés par culture bactériologique et par immunofluorescence indirecte. Les anticorps circulants étaient détectés par le test ELISA. À la naissance, la prévalence sérologique des génisses était supérieure à celle des mères (P = 0,01). La transmission de M. bovis aux génisses par le lait et par l’excrétion nasale des mères était faible. L’âge moyen (jour) d’une génisse à sa 1ère excrétion nasale et sa 1ère séroconversion à M. bovis était loin de la période néonatale: 77,5 ± 11,2 (n = 22) et 96,8 ± 7,4 (n = 36) respectivement. Conclusion, les vaches adultes n’ont constitué qu’une voie mineure de transmission de M. bovis aux génisses, la principale voie de transmission était fort probablement le contact direct ou indirect avec d’autres génisses excrétrices nasales de M. bovis.
Resumo:
Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.
Criteria for the validation of specialized verb equivalents : application in bilingual terminography
Resumo:
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.
Resumo:
Ce mémoire explore le concept de diffusion des archives à l’ère du Web 2.0. Dans le contexte nord-américain, la diffusion en archivistique englobe les aspects de promotion, de mise en valeur et de communication des archives. Le Web 2.0 offre un potentiel très intéressant pour la diffusion d’archives. Ce moyen de diffusion est défini comme étant un ensemble de principes et de technologies qui crée et facilite l’interaction entre plusieurs individus. Peu d’études ont été menées sur la diffusion des archives à l’ère du Web 2.0, c’est pourquoi notre recherche s’est intéressée à un milieu qui a intégré le Web 2.0 afin d’instaurer un dialogue avec ses usagers, connus et potentiels, pour exploiter ses archives et augmenter sa visibilité, soit le Musée McCord. Dans cette étude de cas simple certains membres du personnel du Musée McCord ont été rencontrés, afin de découvrir les motivations de l’institution à se lancer dans l’utilisation d’outils issus de ces technologies. De plus, l’étude a permis d’observer quels outils ont été choisis, comment et pourquoi. Ensuite, les avantages et les désavantages de cette nouvelle utilisation ont été mis en lumière. Enfin, les étapes de la mise en place d’outils du Web 2.0 sont exposées.
Resumo:
L'intégralité de ce projet a été réalisé à l'aide de logiciels sous licence libre.
Resumo:
Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables. Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle. Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources. Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique.
Resumo:
Objectif : L'évaluation de l'acuité visuelle (AV) chez la personne âgée atteinte de troubles cognitifs peut être limitée par le manque de collaboration ou les difficultés de communication du patient. Très peu d'études ont examiné l'AV chez les patients atteints de déficits sévères de la cognition. L’objectif de cette étude était d’évaluer l'AV chez la personne âgée vulnérable ayant des troubles cognitifs à l'aide d'échelles variées afin de vérifier leur capacité à répondre à ces échelles. Méthodes: Trois groupes de 30 sujets chacun ont été recrutés. Le premier groupe était constitué de sujets jeunes (Moy.±ET: 24.9±3.5ans) et le second, de sujets âgés (70.0±4.5ans), ne présentant aucun trouble de la cognition ou de la communication. Le troisième groupe, composé de sujets atteints de démence faible à sévère (85.6±6.9ans), a été recruté au sein des unités de soins de longue durée de l’Institut Universitaire de Gériatrie de Montréal. Le test du Mini-Mental State Examination (MMSE) a été réalisé pour chaque sujet afin de déterminer leur niveau cognitif. L’AV de chaque participant a été mesurée à l’aide de six échelles validées (Snellen, cartes de Teller, ETDRS-lettres,-chiffres,-Patty Pics,-E directionnel) et présentées selon un ordre aléatoire. Des tests non paramétriques ont été utilisés afin de comparer les scores d’AV entre les différentes échelles, après une correction de Bonferroni-Holm pour comparaisons multiples. Résultats: Le score moyen au MMSE chez les sujets atteints de démence était de 9.8±7.5, alors qu’il était de 17.8±3.7 et 5.2±4.6 respectivement, chez les sujets atteints de démence faible à modérée (MMSE supérieur ou égal à 13; n=11) et sévère (MMSE inférieur à 13; n=19). Tous les sujets des groupes 1 et 2 ont répondu à chacune des échelles. Une grande majorité de sujets avec démence ont répondu à toutes les échelles (n=19) alors qu’un seul sujet n’a répondu à aucune échelle d’AV. Au sein du groupe 3, les échelles d’AV fournissant les scores les plus faibles ont été les cartes de Teller (20/65) et les Patty Pics (20/62), quelque soit le niveau cognitif du sujet, alors que les meilleurs scores d’AV ont été obtenus avec les échelles de Snellen (20/35) et les lettres ETDRS (20/36). Une grande proportion de sujets avec démence sévère ont répondu aux cartes de Teller (n=18) mais le score d’AV obtenu était le plus faible (20/73). Au sein des trois groupes, l’échelle de lettres-ETDRS était la seule dont les scores d’AV ne différaient pas de ceux obtenus avec l’échelle de Snellen traditionnelle. Conclusions: L’acuité visuelle peut être mesurée chez la personne âgée atteinte de troubles cognitifs ou de la communication. Nos résultats indiquent que les échelles les plus universelles, utilisant des lettres comme optotypes, peuvent être utilisées avec de bons résultats chez les personnes âgées atteintes de démence sévère. Nos résultats suggèrent de plus que la mesure d’acuité visuelle doit être tentée chez toutes les personnes, peu importe leur niveau cognitif.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal