495 resultados para systèmes inductibles
Resumo:
La différentiation entre le « soi » et le « non-soi » est un processus biologique essentiel à la vie. Les peptides endogènes présentés par les complexes majeurs d’histocompatibilité de classe I (CMH I) représentent le fondement du « soi » pour les lymphocytes T CD8+. On donne le nom d’immunopeptidome à l’ensemble des peptides présentés à la surface cellulaire par les molécules du CMH I. Nos connaissances concernant l’origine, la composition et la plasticité de l’immunopeptidome restent très limitées. Dans le cadre de cette thèse, nous avons développé une nouvelle approche par spectrométrie de masse permettant de définir avec précision : la nature et l’abondance relative de l’ensemble des peptides composant l’immunopeptidome. Nous avons trouvé que l’immunopeptidome, et par conséquent la nature du « soi » immun, est surreprésenté en peptides provenant de transcrits fortement abondants en plus de dissimuler une signature tissu-spécifique. Nous avons par la suite démontré que l’immunopeptidome est plastique et modulé par l’activité métabolique de la cellule. Nous avons en effet constaté que les modifications du métabolisme cellulaire par l’inhibition de mTOR (de l’anglais mammalian Target Of Rapamycin) provoquent des changements dynamiques dans la composition de l’immunopeptidome. Nous fournissons également la première preuve dans l’étude des systèmes que l’immunopeptidome communique à la surface cellulaire l’activité de certains réseaux biochimiques ainsi que de multiples événements métaboliques régulés à plusieurs niveaux à l’intérieur de la cellule. Nos découvertes ouvrent de nouveaux horizons dans les domaines de la biologie des systèmes et de l’immunologie. En effet, notre travail de recherche suggère que la composition de l’immunopeptidome est modulée dans l’espace et le temps. Il est par conséquent très important de poursuivre le développement de méthodes quantitatives au niveau des systèmes qui nous permettront de modéliser la plasticité de l’immunopeptidome. La simulation et la prédiction des variations dans l’immunopeptidome en réponse à différents facteurs cellulaires intrinsèques et extrinsèques seraient hautement pertinentes pour la conception de traitements immunothérapeutiques.
Resumo:
Le terme délibération connaît une forte actualité. Des initiatives et des expérimentations se font jour sur ce thème dans des contextes organisationnels très différents. Les recherches sur les processus de décision éthique et l’analyse de plusieurs expérimentations sur ce thème nous conduisent à focaliser notre attention sur les processus décisionnels en lien avec ces nouvelles pratiques délibératives. S’agissant de la décision éthique et de sa légitimité, plus que l’analyse des convergences dans les systèmes de représentation et de jugement éthiques, la priorité doit être donnée à l’analyse du processus délibératif lui-même. Partant de cette conception, nous analysons comment des démarches et méthodes expérimentales proposées aux acteurs intègrent cette conception de la légitimité par la procédure délibérative.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.
Resumo:
À cause de la nature complexe et non linéaire de leurs opérations, les salles d’urgence (SU) constituent des entités organisationnelles uniques dans le domaine de la santé. Les SU subissent des pressions accrues résultant des dynamiques des sociétés contemporaines et de leurs systèmes de santé, et font face ainsi à des défis uniques comme l’engorgement. Contrairement aux croyances dominantes sur le phénomène, le présent travail de recherche établit que ce problème est en réalité une manifestation de pauvre performance systémique plutôt qu’une faillite opérationnelle. Alors, pour les SU, la performance organisationnelle relève une importance incontestable. En effet, l’étude de la performance organisationnelle est un sujet de recherche qui intéresse de nombreux chercheurs des services de santé. Il s’agit, néanmoins, d’un concept historiquement difficile à définir à cause de son caractère complexe, multidimensionnel et paradoxal. Le modèle EGIPSS, basé sur la théorie de l’action sociale de Parsons, est capable de saisir cette complexité et constitue un cadre conceptuel robuste et exhaustif, pouvant s’adapter à des contextes divers. Ce mémoire adopte le modèle EGIPSS pour présenter un outil global et intégré d’évaluation de la performance organisationnelle de la salle d’urgences de l’Hôpital Général Régional 46 à Guadalajara, au Mexique. Cet instrument est conçu pour prendre en compte spécifiquement les particularités propres des SU, ainsi que les caractéristiques organisationnelles uniques de l'Hôpital Général Régional 46. Enfin, le développement de ce projet de mémoire contribue aux efforts d’amélioration continue de la performance de cet établissement, et enrichit les connaissances sur les urgences en tant qu’unités organisationnelles.
Resumo:
Nous avons étudié l’application de plusieurs mesures d’isotopes stables afin de caractériser les processus du cycle de l’azote et les sources d’azote dans les lacs tempérés à diverses échelles spatiales et temporelles. Les résultats d’une étude à travers 65 lacs sur un gradient trophique ont démontré que le ratio d’isotopes stables d’azote (δ15N) des sédiments de surface est un indicateur de l’importance relative des sources d’azote anthropique, mais que ce ratio peut être altéré par la diagenèse. La mesure du δ15N des sédiments demeure néanmoins un outil permettant de déterminer à long terme le changement des charges en azote anthropique aux écosystèmes lacustres et les causes de l’eutrophisation de ces systèmes. Nos résultats d’une étude sur la variation saisonnière de plusieurs isotopes stables dans trois lacs peu profonds situés sur un gradient trophique et ayant différents régimes de stratification ont démontré que cette approche est prometteuse dans les lacs mésotrophes et stratifiés. Dans ces systèmes, le δ15N de la matière organique particulaire (MOP) aurait le potentiel de déterminer les sources d’azote assimilées par le phytoplancton. Cependant les mesures d’isotopes stables du carbone (δ13C) et du ratio C:N indiquent que les apports de matières organiques du bassin versant peuvent altérer les relations observées. Nous avons également constaté une déviation de la relation 1:1 entre les isotopes stables d’azote et d’oxygène (δ18O) du nitrate (NO3-) indiquant son assimilation et sa nitrification simultanée. Cette application est particulièrement prometteuse puisque la nitrification est méconnue dans les lacs et peut exacerber les effets de l’eutrophisation.
Resumo:
Les pédiatres intensivistes ont plusieurs éléments disponibles pour guider leurs décisions par rapport à la ventilation mécanique. Par contre, aucune étude prospective ne décrit les éléments auxquels les intensivistes se réfèrent pour modifier les paramètres du respirateur. Objectifs : Décrire la pratique actuelle de la modification des paramètres du respirateur aux soins intensifs du CHU Sainte-Justine, un hôpital pédiatrique tertiaire. Hypothèse : 80% des modifications des paramètres du respirateur influant sur l’épuration du CO2 sont liées à l’analyse de la PCO2 ou du pH et 80% des modifications des paramètres d’oxygénation sont liés à l’analyse de l’oxymétrie de pouls. Méthodes : En se servant d’un logiciel de recueil de données, les soignants ont enregistré un critère de décision primaire et tous les critères de décision secondaires menant à chaque modification de paramètre du respirateur au moment même de la modification. Résultats : Parmi les 194 modifications des paramètres du respirateur influant sur l’épuration du CO2, faites chez vingts patients, 42.3% ±7.0% avaient pour critère primaire la PCO2 ou le pH sanguin. Parmi les 41 modifications de la pression expiratoire positive et les 813 modifications de la fraction d’oxygène inspirée, 34.1% ±14.5% et 84.5% ±2.5% avaient pour critère primaire l’oxymétrie de pouls, respectivement. Conclusion : Les médecins surestiment le rôle de la PCO2 et du pH sanguins et sousestiment le rôle d’autres critères de décision dans la gestion de la ventilation mécanique. L’amélioration de notre compréhension de la pratique courante devrait aider à l’éboration des systèmes d’aide à la décision clinique en assistance respiratoire.
Resumo:
La membrane cellulaire est principalement une bicouche phospholipidique constituant une barrière qui régule les échanges entre la cellule et son environnement. Son intérieur hydrophobe empêche le passage d’espèces hydrophiles, chargées, de grande masse moléculaire et polaires, qui sont généralement transportées par des protéines à travers la bicouche. Dans certains cas de systèmes défectueux (e.g. les canalopathies), l’équilibre des concentrations en ions à l’intérieur et à l’extérieur des cellules est perturbé et les cellules sont compromises. C’est pourquoi le développement de transporteurs transmembranaires synthétiques est nécessaire. De nombreux travaux ont été faits dans le développement de transporteurs synthétiques d’anions (particulièrement du chlorure). Dans cette thèse, nous présentons nos travaux sur un nouveau transporteur d’anion appelé axe parapluie, capable de changer de conformation dépendamment de la polarité de son environnement. Dans un premier temps, nous avons conçu le design, puis synthétisé ces axes parapluie qui montrent une importante activité en tant que transporteur de chlorures. Ces composés réunissent deux concepts : - Le parapluie, constitué d’acides biliaires amphiphiles (une face hydrophile, une face hydrophobe). La flexibilité des articulations combinée à la grande surface des acides choliques permettent d’empêcher les interactions défavorables entre les parties hydrophiles et hydrophobes, ce qui facilite l’insertion dans la bicouche. - Un site ammonium secondaire en tant que site de reconnaissance, capable de former des ponts hydrogène avec des ions chlorure. De plus, l’axe peut complexer une roue de type éther couronne pour former un pseudo-rotaxane ou rotaxane parapluie ce qui résulte en l’inhibition partielle de leurs propriétés de transport. Ceci nous mène au second objectif de cette thèse, le développement d’un nouveau moyen de transport pour les médicaments cycliques. Certains macrocycles polaires et biologiquement actifs tels que les nactines ont besoin d’atteindre leur objectif à l’intérieur de la cellule pour jouer leur rôle. La membrane cellulaire est alors un obstacle. Nous avons imaginé tirer profit de notre axe parapluie pour transporter un médicament cyclique (en tant que roue d’un rotaxane parapluie). Les assemblages des rotaxanes parapluie furent accomplis par la méthode de clipage. Le comportement de l’axe et du rotaxane parapluie fut étudié par RMN et fluorimétrie. Le mouvement du parapluie passant d’une conformation fermée à exposée dépendamment du milieu fut observé pour le rotaxane parapluie. Il en fut de même pour les interactions entre le rotaxane parapluie et des vésicules constituées de phospholipides. Finalement, la capacité du rotaxane parapluie à franchir la bicouche lipidique pour transporter la roue à l’intérieur de la vésicule fut démontrée à l’aide de liposomes contenant de la α-chymotrypsine. Cette dernière pu cliver certains liens amide de l’axe parapluie afin de relarguer la roue.
Resumo:
La dépression est une pathologie grave qui, malgré de multiples stratégies thérapeutiques, demeure résistante chez un tiers des patients. Les techniques de stimulation cérébrale sont devenues une alternative intéressante pour les patients résistants à diverses pharmacothérapies. La stimulation du nerf vague (SNV) a ainsi fait preuve de son efficacité en clinique et a récemment été approuvée comme traitement additif pour la dépression résistante. Cependant, les mécanismes d’action de la SNV en rapport avec la dépression n’ont été que peu étudiés. Cette thèse a donc eu comme premier objectif de caractériser l’impact de la SNV sur les différents systèmes monoaminergiques impliqués dans la pathophysiologie de la dépression, à savoir la sérotonine (5-HT), la noradrénaline (NA) et la dopamine (DA), grâce à l’utilisation de techniques électrophysiologiques et de la microdialyse in vivo chez le rat. Des études précliniques avaient déjà révélé qu’une heure de SNV augmente le taux de décharge des neurones NA du locus coeruleus, et que 14 jours de stimulation sont nécessaires pour observer un effet comparable sur les neurones 5-HT. Notre travail a démontré que la SNV modifie aussi le mode de décharge des neurones NA qui présente davantage de bouffées, influençant ainsi la libération terminale de NA, qui est significativement augmentée dans le cortex préfrontal et l’hippocampe après 14 jours. L’augmentation de la neurotransmission NA s’est également manifestée par une élévation de l’activation tonique des récepteurs postsynaptiques α2-adrénergiques de l’hippocampe. Après lésion des neurones NA, nous avons montré que l’effet de la SNV sur les neurones 5-HT était indirect, et médié par le système NA, via l’activation des récepteurs α1-adrénergiques présents sur les neurones du raphé. Aussi, tel que les antidépresseurs classiques, la SNV augmente l’activation tonique des hétérorécepteurs pyramidaux 5-HT1A, dont on connait le rôle clé dans la réponse thérapeutique aux antidépresseurs. Par ailleurs, nous avons constaté que malgré une diminution de l’activité électrique des neurones DA de l’aire tegmentale ventrale, la SNV induit une augmentation de la DA extracellulaire dans le cortex préfrontal et particulièrement dans le noyau accumbens, lequel joue un rôle important dans les comportements de récompense et l’hédonie. Un deuxième objectif a été de caractériser les paramètres optimaux de SNV agissant sur la dépression, en utilisant comme indicateur le taux de décharge des neurones 5-HT. Des modalités de stimulation moins intenses se sont avérées aussi efficaces que les stimulations standards pour augmenter l’activité électrique des neurones 5-HT. Ces nouveaux paramètres de stimulation pourraient s’avérer bénéfiques en clinique, chez des patients ayant déjà répondu à la SNV. Ils pourraient minimiser les effets secondaires reliés aux périodes de stimulation et améliorer ainsi la qualité de vie des patients. Ainsi, ces travaux de thèse ont caractérisé l’influence de la SNV sur les trois systèmes monoaminergiques, laquelle s’avère en partie distincte de celle des antidépresseurs classiques tout en contribuant à son efficacité en clinique. D’autre part, les modalités de stimulation que nous avons définies seraient intéressantes à tester chez des patients recevant la SNV, car elles devraient contribuer à l’amélioration des bénéfices cliniques de cette thérapie.
Resumo:
Cette thèse s'intéresse au lien qui existe entre le système électoral et deux comportements importants de la vie civique, soit la participation à une élection et la désertion stratégique du candidat préféré vers un autre candidat. Ces thèmes sont abordés dans de nombreux et de très importants ouvrages en science politique. En passant par la théorie (Downs, 1957) jusqu'à des études de terrain par l'entremise de sondages (Abramson, 2010; Blais, 2010), diverses méthodologies ont été employées pour mieux expliquer les choix des électeurs. Ma contribution à l'avancement des connaissances dans ce domaine passe par l'usage de la méthode expérimentale pour mieux saisir les similitudes et différences dans les comportements des électeurs sous le système uninominal à un tour (UT) et la représentation proportionnelle (RP) ainsi que les mécanismes au niveau individuel qui produisent ces similitudes et différences. Le cœur de la thèse est composé des trois articles dont voici les résumés : Article 1. Des élections expérimentales faites à Montréal, Paris et Bruxelles permettent d'estimer l’influence directe du mode de scrutin sur la décision des électeurs de voter ou non, et de voter pour leur parti préféré ou non. En tout, 16 groupes de 21 électeurs votent sous différents systèmes électoraux, soit le UT et la RP. Les préférences sont attribuées aléatoirement et connues de tous les participants. Nos résultats indiquent que le vote n'est pas globalement plus sincère et que la participation électorale n'est pas plus élevée sous le système proportionnel. Toutefois, nous observons moins de désertion d'un petit parti sous le système proportionnel. Article 2. Les expériences permettent également d'expliquer pourquoi les électeurs votent parfois pour un parti autre que leur parti préféré. La conclusion principale est que la décision de voter de façon sincère ou non est influencée par les préférences individuelles, mais aussi par les perceptions des chances de gagner des candidats ainsi que des chances que son propre vote puisse décider le résultat de l'élection. Les électeurs qui désertent leur premier choix prennent en considération quel candidat est le plus près de leurs positions politiques, mais également de la viabilité de cette alternative. De plus, les électeurs qui aiment prendre des risques ont davantage tendance à déserter. Article 3. Le modèle de l'électeur pivot est mis à l'épreuve pour mieux comprendre la décision de voter ou non lors d'une élection. Nos expériences permettent de répliquer, avec un devis expérimental différent, les résultats importants des travaux de Duffy et Tavits (2008). Nos résultats confirment que la perception d'être pivot augmente la participation, que ces perceptions sont sujettes à la surestimation et que cette surestimation ne décline pas complètement dans le temps. Nous allons également plus loin que les recherches de Duffy et Tavits et nous trouvons que la participation n'est pas plus forte sous RP que sous UT et que la probabilité d'être pivot a un impact plus important chez les électeurs évitant de prendre des risques.
Resumo:
Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.
Resumo:
Les réseaux maillés sans fil (RMSF), grâce à leurs caractéristiques avantageuses, sont considérés comme une solution efficace pour le support des services de voix, vidéo et de données dans les réseaux de prochaine génération. Le standard IEEE 802.16-d a spécifié pour les RMSF, à travers son mode maillé, deux mécanismes de planifications de transmission de données; à savoir la planification centralisée et la planification distribuée. Dans ce travail, on a évalué le support de la qualité de service (QdS) du standard en se focalisant sur la planification distribuée. Les problèmes du système dans le support du trafic de voix ont été identifiés. Pour résoudre ces problèmes, on a proposé un protocole pour le support de VoIP (AVSP) en tant qu’extension au standard original pour permettre le support de QdS au VoIP. Nos résultats préliminaires de simulation montrent qu’AVSP offre une bonne amélioration au support de VoIP.
Resumo:
Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.
Criteria for the validation of specialized verb equivalents : application in bilingual terminography
Resumo:
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal