43 resultados para render

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is often thought that a tariff reduction, by opening up the domestic market to foreign firms, should lessen the need for a policy aimed at discouraging domestic mergers. This implicitly assumes that the tariff in question is sufficiently high to prevent foreign firms from selling in the domestic market. However, not all tariffs are prohibitive, so that foreign firms may be present in the domestic market before it is abolished. Furthermore, even if the tariff is prohibitive, a merger of domestic firms may render it nonprohibitive, thus inviting foreign firms to penetrate the domestic market. In this paper, we show, using a simple example, that in the latter two cases, abolishing the tariff may in fact make the domestic merger more profitable. Hence, trade liberalization will not necessarily reduce the profitability of domestic mergers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des Études supérieures en vue de l'obtention du grade de LL.M. en Maîtrise en droit Option recherche"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de LLM en droit"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En salle d’opération, les tâches de l’anesthésiste sont nombreuses. Alors que l’utilisation de nouveaux outils technologiques l’informe plus fidèlement sur ce qui se passe pour son patient, ces outils font que ses tâches deviennent plus exigeantes. En vue de diminuer cette charge de travail, nous avons considérer l’administration automatique d’agents anesthésiques en se servant de contrôle en boucle fermée. À cette fin, nous avons développé un système d’administration d’un agent anesthésique (le propofol) visant à maintenir à un niveau optimal la perte de conscience du patient pendant toute la durée d’une chirurgie. Le système comprend un ordinateur, un moniteur d’anesthésie et une pompe de perfusion. L’ordinateur est doté d’un algorithme de contrôle qui, à partir d’un indice (Bispectral IndexTM ou BIS) fournit par le moniteur d’anesthésie détermine le taux d’infusion de l’agent anesthésiant. Au départ, l’anesthésiste choisit une valeur cible pour la variable de contrôle BIS et l’algorithme, basé sur système expert, calcule les doses de perfusion de propofol de sorte que la valeur mesurée de BIS se rapproche le plus possible de la valeur cible établie. Comme interface-utilisateur pour un nouveau moniteur d’anesthésie, quatre sortes d’affichage ont été considérés: purement numérique, purement graphique, un mélange entre graphique et numérique et un affichage graphique intégré (soit bidimensionnel). À partir de 20 scenarios différents où des paramètres normaux et anormaux en anesthésie étaient présentés à des anesthésistes et des résidents, l’étude des temps de réaction, de l’exactitude des réponses et de la convivialité (évaluée par le NASA-TLX) a montré qu’un affichage qui combine des éléments graphiques et numériques était le meilleur choix comme interface du système. Une étude clinique a été réalisée pour comparer le comportement du système d’administration de propofol en boucle fermée comparativement à une anesthésie contrôlée de façon manuelle et conventionnelle où le BIS était aussi utilisé. Suite à l’approbation du comité d’éthique et le consentement de personnes ayant à subir des chirurgies générales et orthopédiques, 40 patients ont été distribués également et aléatoirement soit dans le Groupe contrôle, soit dans le Groupe boucle fermée. Après l’induction manuelle de propofol (1.5 mg/kg), le contrôle en boucle fermée a été déclenché pour maintenir l’anesthésie à une cible de BIS fixée à 45. Dans l’autre groupe, le propofol a été administré à l’aide d’une pompe de perfusion et l’anesthésiste avait aussi à garder manuellement l’indice BIS le plus proche possible de 45. En fonction du BIS mesuré, la performance du contrôle exercé a été définie comme excellente pendant les moments où la valeur du BIS mesurée se situait à ±10% de la valeur cible, bonne si comprise de ±10% à ±20%, faible si comprise de ±20% à ±30% ou inadéquate lorsque >±30%. Dans le Groupe boucle fermée, le système a montré un contrôle excellent durant 55% du temps total de l’intervention, un bon contrôle durant 29% du temps et faible que pendant 9% du temps. Le temps depuis l’arrêt de la perfusion jusqu’à l’extubation est de 9 ± 3.7 min. Dans le Groupe contrôle, un contrôle excellent, bon, et faible a été enregistré durant 33%, 33% et 15% du temps respectivement et les doses ont été changées manuellement par l’anesthésiste en moyenne 9.5±4 fois par h. L’extubation a été accomplie après 11.9 ± 3.3 min de l’arrêt de la perfusion. Dans le Groupe boucle fermée, un contrôle excellent a été obtenu plus longtemps au cours des interventions (P<0.0001) et un contrôle inadéquat moins longtemps (P=0.001) que dans le Groupe contrôle. Le système en boucle fermée d’administration de propofol permet donc de maintenir plus facilement l’anesthésie au voisinage d’une cible choisie que l’administration manuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude se concentre sur le travail de Nancy Fraser sur la justice sociale, lequel a suscité beaucoup d’intérêt dans la littérature au cours des dernières années. La reconnaissance et la redistribution sont les deux piliers originaux de son approche: les désavantages dont souffrent les gens dus au dénigrement culturel ou à la privation économique. Ces deux concepts servent à diagnostiquer et fournir le soutien moral aux multiples luttes que les victimes d’injustice entreprennent avec l’objectif d’établir une participation plus égalitaire à la société. Cependant, que peut-elle dire cette approche des groupes qui sont marginalisés et cherchent l’autogouvernance (ou la séparation même) plutôt que l’intégration dans la société? Le travail de Fraser manifeste une résistance envers les droits du groupe, et un silence quant à l’autodétermination. Mon intervention prend comme objectif d’inclure ces formes d’injustice dans son approche, la rendant plus sensible aux dynamiques des groupes et capable de répondre à leurs revendications trop souvent négligées sous prétexte de l’égalité. La question est, l’égalité de qui?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le VIH-1 a développé plusieurs mécanismes menant à la dégradation de son récepteur cellulaire, la molécule CD4, dans le but d’augmenter la relâche de particules virales infectieuses et d’éviter que la cellule soit surinfectée. L’un de ces mécanismes est la dégradation, induite par la protéine virale Vpu, du CD4 nouvellement synthétisé au niveau du réticulum endoplasmique (RE). Vpu doit lier CD4 et recruter l’ubiquitine ligase cellulaire SCFβ-TrCP, via sa liaison à β-TrCP, afin de dégrader CD4. Puisque CD4 doit être retenu au RE pour permettre à Vpu d’induire sa dégradation via le système ubiquitine-protéasome, il a été suggéré que ce processus implique un mécanisme semblable à une voie cellulaire de dégradation des protéines mal-repliées appelée ERAD (« endoplasmic reticulum-associated degradation »). La dégradation par ERAD implique généralement la dislocation des protéines du RE vers le cytoplasme afin de permettre leur poly-ubiquitination et leur dégradation par le protéasome. Nous avons démontré que Vpu induit la poly-ubiquitination de CD4 dans des cellules humaines. Nos résultats suggèrent aussi que CD4 doit subir une dislocation afin d’être dégradé par le protéasome en présence de Vpu. De plus, un mutant transdominant négatif de l’ATPase p97, qui est impliquée dans la dislocation des substrats ERAD, inhibe complètement la dégradation de CD4 par Vpu. Enfin, nos résultats ont montré que l’ubiquitination sur des résidus accepteurs de l’ubiquitine (lysines) de la queue cytoplasmique de CD4 n’était pas essentielle, mais que la mutation des lysines ralentit le processus de dégradation de CD4. Ce résultat suggère que l’ubiquitination de la queue cytosolique de CD4 pourrait représenter un événement important dans le processus de dégradation induit par Vpu. L’attachement de l’ubiquitine a généralement lieu sur les lysines de la protéine ciblée. Toutefois, l’ubiquitination sur des résidus non-lysine (sérine, thréonine et cystéine) a aussi été démontrée. Nous avons démontré que la mutation de tous les sites potentiels d’ubiquitination cytoplasmiques de CD4 (K, C, S et T) inhibe la dégradation par Vpu. De plus, la présence de cystéines dans la queue cytoplasmique apparaît suffisante pour rendre CD4 sensible à Vpu en absence de lysine, sérine et thréonine. Afin d’expliquer ces résultats, nous proposons un modèle dans lequel l’ubiquitination de la queue cytosolique de CD4 serait nécessaire à sa dégradation et où les sites d’ubiquitination de CD4 seraient sélectionnés de façon non spécifique par l’ubiquitine ligase recrutée par Vpu. Enfin, nous avons observé que la co-expression d’une protéine Vpu incapable de recruter β-TrCP (Vpu S52,56/D) semble stabiliser le CD4 qui est retenu au RE. De plus, d’autres mutants de Vpu qui semblent capables de recruter β-TrCP et CD4 sont toutefois incapables d’induire sa dégradation. Ces résultats suggèrent que l’association de Vpu à CD4 et β-TrCP est essentielle mais pas suffisante pour induire la dégradation de CD4. Par conséquent, ces résultats soulèvent la possibilité que Vpu puisse recruter d’autres facteurs cellulaires pour induire la dégradation de CD4. Les résultats présentés ont permis de mieux définir le mécanisme de dégradation de CD4 par Vpu dans des cellules humaines. De plus, ces résultats nous ont permis d’élaborer un modèle dans lequel l’ubiquitine ligase cellulaire SCFβ-TrCP démontre de la flexibilité dans le choix des résidus à ubiquitiner afin d’induire la dégradation de CD4. Enfin, ces études jettent un oeil nouveau sur le rôle de Vpu dans ce processus puisque nos résultats suggèrent que Vpu doive recruter d’autres partenaires cellulaires, mis à part β-TrCP, pour induire la dégradation de CD4.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation de l'expérience comme un mode de détermination des faits, c'est-à-dire comme un élément qui comble les lacunes dans l'ensemble des éléments de preuve dans le procès civil, est un thème quelque peu tabou. La doctrine est souvent basée sur la prémisse voulant que le décideur rende une décision uniquement en vertu des éléments de preuve et qu'il doit absolument s'abstenir d'insérer aux constatations quoi que ce soit qui n'est pas présent dans les éléments de preuve. Cette vision est éloignée de la réalité juridique. Dans la première partie, nous allons aborder les principes procéduraux qui empêchent l'utilisation de l'expérience comme mode de détermination des faits. Ce sont le principe de la reconstruction de l'événement du passé, le principe de l'abstraction des connaissances acquises hors du procès et le principe de l'exclusion de la preuve par ouï-dire. Ensuite, nous portons notre attention sur les différents types d'expérience, c'est-à-dire l'expérience profane, divisible en bon sens et sens commun, et l'expérience scientifique, ainsi sur leurs modes de fonctionnement dans le procès civil. La première partie se termine par une brève confrontation des différents types d'expérience avec les principes procéduraux. La deuxième partie est consacré à l'analyse de l'expérience dans trois instruments juridiques: la connaissance d'office, la présomption de fait et le témoignage d'expert. Nous nous intéressons principalement à vérifier si l'expérience fonctionne à l'intérieur de ces instruments juridiques comme mode de détermination des faits et ensuite quelles sont les limites que le droit pose à l'expérience dans ce rôle. L'analyse va confirmer que le principal instrument par lequel l'expérience comme mode de détermination des faits pénètre dans le procès civil est la présomption de fait.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre mémoire cherche à identifier les traces du cinéma de “l’âge d’or” dans le cinéma mexicain des années quatre-vingt-dix. Au Mexique, l’apogée que le cinéma industriel a connu entre 1935 et 1955 a établi les principaux genres et normes du cinéma national. Le cinéma produit durant cette période, abondamment diffusé par la télévision et la vidéo et apprécié de la critique, continue d’influencer la production contemporaine. En concentrant notre analyse sur deux films en particulier, Danzón (1991) de María Novaro et La ley de Herodes (1999) de Luis Estrada, nous étudions d’une part, comment le cinéma des années quatre-vingt-dix rend hommage au cinéma de l’âge d’or et, d’autre part, comment on l’utilise pour commenter les nouvelles tendances dans la politique et la production culturelle. La diffusion continue du cinéma de l’âge d’or nous permet d’expliquer en partie son influence sur les cinéastes mexicains contemporains. Par ailleurs, le contexte de néolibéralisme et de globalisation des années quatre-vingt-dix nous permet d’avancer d’autres hypothèses concernant les raisons qui ont amené ces cinéastes à récupérer des éléments de la culture “nationale-populaire”. Nous pensons que ce contexte pourrait expliquer autant l’hommage que la critique que font les films contemporains du cinéma de l’âge d’or. Notre analyse des références au cinéma de l’âge d’or dans le cinéma des années quatre-vingt-dix s’appuie sur la théorie de l’intertextualité dans le cinéma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de territoire n’aura jamais suscité autant de débats et de passions. Son devenir mobilise à bien des égards la construction collective d’un dessein se matérialisant par des formes qui informent des forces tout autant que par des forces qui investissent des formes lesquelles traduisent les valeurs du moment. Par conséquent, cette projection dans un avenir partagé amène des exigences sociales en matière d’édification du projet de territoire mettant à l’ordre du jour la complexité d’une telle entreprise. L’enchevêtrement d’actions et de logiques qui s’y opèrent et qui s’y expriment pour en élaborer, dans la plus grande incertitude, les contours d’un futur souhaité nous presse de s’y prononcer : la construction complexe d’un dessein territorial s’exhibant nous interpelle quant à son évaluation voire quant à sa reformulation. Parmi les modalités d’expression qui permettent une telle délibération, il y a l’énoncé visuel. Médiation discursive privilégiée, elle autorise l’élaboration et la mise en scène collective d’un devenir territorial possible. Or depuis quelques années, au couple projet / représentation, vient se superposer une autre médiation, celle du numérique. Portée par le développement des technologies de l’information, celle-ci s’invite dans le champ de l’édification du projet de territoire. En s’alliant avec la puissance de l’image, elle recompose les représentations d’un dessein territorial collectivement formulé, ouvrant un nouvel espace d’actions à l’occasion d’une démarche de planification. Démarche de plus en plus complexe. De surcroit, la présente recherche tient cette complexité non comme un mot «fourre-tout» ou une tare dont il faudrait se débarrasser, mais se résout à l’affronter en s’inscrivant dans un paradigme en pleine gestation, celui de la «pensée complexe». La fécondité autant conceptuelle qu’opératoire d’une telle inscription permettra de jeter un regard renouvelé sur une pratique à travers une de ses modalités discursives à la fois la plus manifeste et la moins questionnée, à savoir l’énoncé visuel. En fin de compte, les représentations notamment celles construites et véhiculées par le numérique sauront-elles rendre compte et relever le défi de l’édification collective d’un projet de territoire qui se pose dans toute sa complexité ? Telle est en substance le questionnement dont cette recherche s’attellera à apporter des éléments de réponse et à esquisser de nouvelles perspectives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sites apuriniques/apyrimidiniques (AP) sont des sites de l’ADN hautement mutagène. Les dommages au niveau de ces sites peuvent survenir spontanément ou être induits par une variété d’agents. Chez l’humain, les sites AP sont réparés principalement par APE1, une enzyme de réparation de l’ADN qui fait partie de la voie de réparation par excision de base (BER). APE1 est une enzyme multifonctionnelle; c’est une AP endonucléase, 3’-diestérase et un facteur redox impliqué dans l’activation des facteurs de transcription. Récemment, il a été démontré qu’APE1 interagit avec l’enzyme glycolytique GAPDH. Cette interaction induit l’activation d’APE1 par réduction. En outre, la délétion du gène GAPDH sensibilise les cellules aux agents endommageant l’ADN, induit une augmentation de formation spontanée des sites AP et réduit la prolifération cellulaire. A partir de toutes ces données, il était donc intéressant d’étudier l’effet de la délétion de GAPDH sur la progression du cycle cellulaire, sur la distribution cellulaire d’APE1 et d’identifier la cystéine(s) d’APE1 cible(s) de la réduction par GAPDH. Nos travaux de recherche ont montré que la déficience en GAPDH cause un arrêt du cycle cellulaire en phase G1. Cet arrêt est probablement dû à l’accumulation des dommages engendrant un retard au cours duquel la cellule pourra réparer son ADN. De plus, nous avons observé des foci nucléaires dans les cellules déficientes en GAPDH qui peuvent représenter des agrégats d’APE1 sous sa forme oxydée ou bien des focis de la protéine inactive au niveau des lésions d’ADN. Nous avons utilisé la mutagénèse dirigée pour créer des mutants (Cys en Ala) des sept cystéines d’APE1 qui ont été cloné dans un vecteur d’expression dans les cellules de mammifères. Nous émettons l’hypothèse qu’au moins un mutant ou plus va être résistant à l’inactivation par oxydation puisque l’alanine ne peut pas s’engager dans la formation des ponts disulfures. Par conséquent, on anticipe que l’expression de ce mutant dans les cellules déficientes en GAPDH pourrait restaurer une distribution cellulaire normale de APE1, libérerait les cellules de l’arrêt en phase G1 et diminuerait la sensibilité aux agents endommageant l’ADN. En conclusion, il semble que GAPDH, en préservant l’activité d’APE1, joue un nouveau rôle pour maintenir l’intégrité génomique des cellules aussi bien dans les conditions normales qu’en réponse au stress oxydatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les livres et programmes sur la petite-enfance se multiplient et, de plus en plus, l’accent est mis autant par les experts que l’État sur les premières années de la vie de l’enfant. Le regard semble davantage posé sur les compétences des parents pour privilégier le développement cognitif et moteur de leur progéniture, avec l’objectif de pouvoir éviter à cette dernière des trajectoires considérées comme « déviantes ». Ce regard atteint cependant différemment les parents d’une même société. Alors qu’il s’adresse à un groupe restreint de parents ne stimulant peut-être pas assez leurs enfants de la manière promulguée par l’État, certains auteurs mettent de l’avant une tendance d’autres parents à surstimuler leur enfant (Corwin, 2006; Guthrie et Matthews, 2002; Duclos, 2006; Proulx, 2004; Elkind, 1983; Honoré, 2008; Rosenfeld et Wise, 2000). Pour d’autres encore, cette injonction de « produire » un enfant « compétent » s’ajoute à des stress déjà présents tels que la pauvreté ou la pression au travail. La tendance à surstimuler, surprogrammer ou surautonomiser les enfants dans le but de « produire » des enfants « compétents » est qualifiée d’hyper-parentage, de parentage excessif ou de surparentage et n’est pas sans rappeler la course à la performance étudiée pour les adultes par Ehrenberg (2001[1991]) ou de Gaulejac (2005). En suivant ce dernier auteur ou Perrenoud (2008), pour qui la tendance à gérer la famille comme une entreprise proviendrait d’une « contagion » du monde du travail, cette recherche porte sur le lien entre la manière dont les parents envisagent le cheminement de leur enfant et leur propre expérience de travail, en comparaison avec les discours des experts et de l’État.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le devoir d’accommodement raisonnable a fait couler beaucoup d’encre, au Québec et ailleurs au Canada, au cours de la dernière décennie. Depuis la première fois où elle fût énoncée par la Cour suprême du Canada en 1985, les tribunaux ont été appelés à se prononcer à maintes reprises sur cette notion. Partant d’un concept juridique vague et peu précis, les décideurs ont cherché à définir le concept d’accommodement raisonnable à travers une étude approfondie de sa seule limite : la contrainte excessive. Il est désormais acquis que les employeurs ont l’obligation d’adapter le travail et les lieux de travail pour permettre aux personnes handicapées d’avoir accès à l’emploi sans discrimination. Le syndicat, tout comme le salarié visé par une demande d’accommodement, a également l’obligation de collaborer à la recherche de mesures de redressement. Ce mémoire propose une étude jurisprudentielle des concepts d’accommodements raisonnables et de contrainte excessive. Notre analyse portera sur les décisions des tribunaux judiciaires et administratifs rendues au Québec entre 1999 et 2010. La présente étude a pour objet principal d’analyser l’étendue de la notion de contrainte et à la circonscrire avec clarté et précision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs aminoglycosides font partie d’une famille d’antibiotiques à large spectre d’action. Les aminoglycosides ayant une activité antibiotique viennent interférer dans la synthèse protéique effectuée par les bactéries. Les protéines mal codées entraineront la mort cellulaire. Au fil des années, de nombreux cas de résistance ont émergé après une utilisation soutenue des aminoglycosides. De nombreux aminoglycosides semi-synthétiques ont été synthétisés avec comme objectif de restaurer leur activité antimicrobienne. Parmi les modifications ayant connu du succès, notons la didésoxygénation d’un diol et l’introduction de la chaine latérale HABA. Des études précédentes ont montré l’efficacité de ces modifications sur les aminoglycosides. Les présents travaux portent sur l’installation de la chaine latérale HABA et la didésoxygénation d’un diol sur la paromomycine et la néomycine. La didésoxygénation sélective des diols a été effectuée en utilisant la méthodologie développée par Garegg et Samuelsson, une variation de la réaction de Tipson-Cohen. Cette méthode a permis l’obtention du motif didésoxygéné sur les cycles A et D dans des rendements jamais égalés pour ce motif synthétique. La chaîne latérale a été introduite en tirant profit de la réactivité et de la sélectivité d’un carbamate cyclique. Ces méthodes combinées ont permis la synthèse efficace de nombreux analogues semi-synthétiques nouveaux. La 3',4'-didéhydro-N-1-HABA-néomycine et la 3',4',3''',4'''-tétradésoxy-N-1-HABA-néomycine montrent une activité impressionnante contre des souches de bactéries résistantes aux aminoglycosides. Des tests de toxicité effectués en collaboration avec Achaogen Inc. ont démontré que ces composés sont relativement toxiques sur les cellules rénales de type H2K, ce qui réduit de façon importante leur index thérapeutique. Afin d’abaisser la toxicité des composés, la relation entre toxicité et basicité a été explorée. Des substitutions de l’amine en 6''' ont été effectuées afin d’abaisser la basicité de l’amine. Les résultats de toxicité et d’activité antimicrobienne démontrent une corrélation importante entre la basicité des amines et la toxicité/activité des aminoglycosides antibiotiques. L’effet d’une modulation du pKa a aussi été exploré en installant des chaines fluorées sur l’amine en 6''' de la paromomycine et de la néomycine. Une séquence synthtétique pour isoler l’amine en 6''' de la néomycine a aussi été développée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La luxation du genou, bien que très rare, demeure une blessure dévastatrice car elle entraîne de multiples complications en raison de la nature complexe du traumatisme associé à cette lésion. La luxation peut résulter d'un traumatisme à haute ou basse énergie. Les blessures sévères aux ligaments et aux structures associées donnent à la luxation du genou un potentiel élevé d'atteinte fonctionnelle. Le traitement conservateur, qui était considéré comme acceptable auparavant, est maintenant réservé à un très faible pourcentage de patients. La reconstruction chirurgicale est maintenant préconisée dans la plupart des cas, mais de nombreuses options existent et le traitement chirurgical optimal à préconiser reste controversé. Certains chirurgiens recommandent la reconstruction complète de tous les ligaments endommagés le plus tôt possible, tandis que d'autres, craignant l’établissement d’arthrofibrose, limitent l'intervention chirurgicale immédiate à la reconstruction du ligament croisé postérieur et de l'angle postéro-externe. En raison des multiples structures endommagées lors d’une luxation du genou, les chirurgiens utilisent couramment la combinaison des autogreffes et des allogreffes pour compléter la reconstruction ligamentaire. Les complications associées au prélèvement de la greffe, l'allongement de la greffe, l’affaiblissement précoce du greffon ainsi que les risques de transmission de maladies ont poussé les chirurgiens à rechercher différentes options d’intervention. L'utilisation de matériaux synthétiques pour le remplacement du ligament lésé a été proposée dans les années ´80. Après une première vague d'enthousiasme, les résultats décevants à long terme et les taux élevés d'échec ont diminué sa popularité. Depuis lors, une nouvelle génération de ligaments artificiels a vu le jour et parmi eux, le Ligament Advanced Reinforced System (LARS) a montré des résultats prometteurs. Il a été utilisé récemment dans les reconstructions isolées du ligament croisé antérieur et du ligament croisé postérieur pour lesquelles il a montré de bons résultats à court et moyen termes. Le but de cette étude rétrospective était d'évaluer la fonction et la stabilité du genou après la luxation aiguë suivant la reconstruction des ligaments croisés avec le ligament artificiel de type LARS. Cette étude a évalué 71 patients présentant une luxation du genou et qui ont subi une chirurgie de reconstruction du ligament croisé antérieur et du ligament croisé postérieur à l'aide du ligament LARS. Suite à la chirurgie le même protocole intensif de réadaptation a été suivi pour tous les patients, où la mise en charge progressive était permise après une période d’environ 6 semaines pendant laquelle la force musculaire et la stabilité dynamique se rétablissaient. Les outils d’évaluation utilisés étaient le score Lysholm, le formulaire de «l’International Knee Documentation Committee», le «Short Form-36», les tests cliniques de stabilité du genou, l'amplitude de mouvement articulaire à l’aide d’un goniomètre et la radiographie en stress Telos à 30° et 90° de flexion du genou. Le même protocole d’évaluation a été appliqué au genou controlatéral pour des fins de comparaison. Les résultats subjectifs et objectifs de cette étude sont satisfaisants et suggèrent que la réparation et la reconstruction combinées avec ligaments LARS est une alternative valable pour le traitement des luxations aiguës du genou. Ces résultats démontrent que ces interventions produisent des effets durables en termes d’amélioration de la fonction et révèlent la durabilité à long terme des ligaments artificiels LARS. Les patients sont à la fois plus autonomes et plus satisfaits avec le temps, même si la luxation du genou est considérée comme une catastrophe au moment où elle se produit. Des études prospectives randomisées sont maintenant nécessaires afin de comparer la sélection de la greffe et le délai de reconstruction chirurgicale.