989 resultados para Extraction semi-automatique de termes
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
A semi-gas kinetics (SGK) model for performance analyses of flowing chemical oxygen-iodine laser (COIL) is presented. In this model, the oxygen-iodine reaction gas flow is treated as a continuous medium, and the effect of thermal motions of particles of different laser energy levels on the performances of the COIL is included and the velocity distribution function equations are solved by using the double-parameter perturbational method. For a premixed flow, effects of different chemical reaction systems, different gain saturation models and temperature, pressure, yield of excited oxygen, iodine concentration and frequency-shift on the performances of the COIL are computed, and the calculated output power agrees well with the experimental data. The results indicate that the power extraction of the SGK model considering 21 reactions is close to those when only the reversible pumping reaction is considered, while different gain saturation models and adjustable parameters greatly affect the output power, the optimal threshold gain range, and the length of power extraction.
Resumo:
Nous proposons une approche semi-automatique pour la rétro-ingénierie des diagrammes de séquence d’UML. Notre approche commence par un ensemble de traces d'exécution qui sont automatiquement alignées pour déterminer le comportement commun du système. Les diagrammes de séquence sont ensuite extraits avec l’aide d’une visualisation interactive, qui permet la navigation dans les traces d'exécution et la production des opérations d'extraction. Nous fournissons une illustration concrète de notre approche avec une étude de cas, et nous montrons en particulier que nos diagrammes de séquence générés sont plus significatifs et plus compacts que ceux qui sont obtenus par les méthodes automatisées.
Resumo:
Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs.
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.
Resumo:
Este trabajo tiene como objetivo describir la experiencia de implementación y desarrollo del Portal de revistas de la Facultad de Humanidades y Ciencias de Educación de la Universidad Nacional de La Plata a fin de que pueda ser aprovechada por todos aquellos que emprendan iniciativas de características similares. Para ello, se realiza en primer lugar un repaso por la trayectoria de la Facultad respecto a la edición de revistas científicas y la labor bibliotecaria para contribuir a su visualización. En segundo orden, se exponen las tareas llevadas adelante por la Prosecretaría de Gestión Editorial y Difusión (PGEyD) de la Facultad para concretar la puesta en marcha del portal. Se hace especial referencia a la personalización del software, a la metodología utilizada para la carga masiva de información en el sistema (usuarios y números retrospectivos) y a los procedimientos que permiten la inclusión en repositorio institucional y en el catálogo web de todos los contenidos del portal de manera semi-automática. Luego, se hace alusión al trabajo que se está realizando en relación al soporte y a la capacitación de los editores. Se exponen, después, los resultados conseguidos hasta el momento en un año de trabajo: creación de 10 revistas, migración de 4 títulos completos e inclusión del 25de las contribuciones publicadas en las revistas editadas por la FaHCE. A modo de cierre se enuncian una serie de desafíos que la Prosecretaría se ha propuesto para mejorar el Portal y optimizar los flujos de trabajo intra e interinstitucionales
Resumo:
Este trabajo tiene como objetivo describir la experiencia de implementación y desarrollo del Portal de revistas de la Facultad de Humanidades y Ciencias de Educación de la Universidad Nacional de La Plata a fin de que pueda ser aprovechada por todos aquellos que emprendan iniciativas de características similares. Para ello, se realiza en primer lugar un repaso por la trayectoria de la Facultad respecto a la edición de revistas científicas y la labor bibliotecaria para contribuir a su visualización. En segundo orden, se exponen las tareas llevadas adelante por la Prosecretaría de Gestión Editorial y Difusión (PGEyD) de la Facultad para concretar la puesta en marcha del portal. Se hace especial referencia a la personalización del software, a la metodología utilizada para la carga masiva de información en el sistema (usuarios y números retrospectivos) y a los procedimientos que permiten la inclusión en repositorio institucional y en el catálogo web de todos los contenidos del portal de manera semi-automática. Luego, se hace alusión al trabajo que se está realizando en relación al soporte y a la capacitación de los editores. Se exponen, después, los resultados conseguidos hasta el momento en un año de trabajo: creación de 10 revistas, migración de 4 títulos completos e inclusión del 25de las contribuciones publicadas en las revistas editadas por la FaHCE. A modo de cierre se enuncian una serie de desafíos que la Prosecretaría se ha propuesto para mejorar el Portal y optimizar los flujos de trabajo intra e interinstitucionales
Resumo:
Este trabajo tiene como objetivo describir la experiencia de implementación y desarrollo del Portal de revistas de la Facultad de Humanidades y Ciencias de Educación de la Universidad Nacional de La Plata a fin de que pueda ser aprovechada por todos aquellos que emprendan iniciativas de características similares. Para ello, se realiza en primer lugar un repaso por la trayectoria de la Facultad respecto a la edición de revistas científicas y la labor bibliotecaria para contribuir a su visualización. En segundo orden, se exponen las tareas llevadas adelante por la Prosecretaría de Gestión Editorial y Difusión (PGEyD) de la Facultad para concretar la puesta en marcha del portal. Se hace especial referencia a la personalización del software, a la metodología utilizada para la carga masiva de información en el sistema (usuarios y números retrospectivos) y a los procedimientos que permiten la inclusión en repositorio institucional y en el catálogo web de todos los contenidos del portal de manera semi-automática. Luego, se hace alusión al trabajo que se está realizando en relación al soporte y a la capacitación de los editores. Se exponen, después, los resultados conseguidos hasta el momento en un año de trabajo: creación de 10 revistas, migración de 4 títulos completos e inclusión del 25de las contribuciones publicadas en las revistas editadas por la FaHCE. A modo de cierre se enuncian una serie de desafíos que la Prosecretaría se ha propuesto para mejorar el Portal y optimizar los flujos de trabajo intra e interinstitucionales
Resumo:
Pour rester compétitives, les entreprises forestières cherchent à contrôler leurs coûts d’approvisionnement. Les abatteuses-façonneuses sont pourvues d’ordinateurs embarqués qui permettent le contrôle et l’automatisation de certaines fonctions. Or, ces technologies ne sont pas couramment utilisées et sont dans le meilleur des cas sous-utilisées. Tandis que l’industrie manifeste un intérêt grandissant pour l’utilisation de ces ordinateurs, peu de travaux de recherche ont porté sur l’apport en productivité et en conformité aux spécifications de façonnage découlant de l’usage de ces systèmes. L’objectif de l’étude était de mesurer les impacts des trois degrés d’automatisation (manuel, semi-automatique et automatique) sur la productivité (m3/hmp) et le taux de conformité des longueurs et des diamètre d’écimage des billes façonnées (%). La collecte de données s’est déroulée dans les secteurs de récolte de Produits forestiers résolu au nord du Lac St-Jean entre les mois de janvier et d’août 2015. Un dispositif en blocs complets a été mis en place pour chacun des cinq opérateurs ayant participé à l’étude. Un seuil de 5 % a été employé pour la réalisation de l’analyse des variances, après la réalisation de contrastes. Un seul cas a présenté un écart significatif de productivité attribuable au changement du degré d’automatisation employé, tandis qu’aucune différence significative n’a été détectée pour la conformité des diamètres d’écimage; des tendances ont toutefois été constatées. Les conformités de longueur obtenues par deux opérateurs ont présenté des écarts significatifs. Ceux-ci opérant sur deux équipements distincts, cela laisse entrevoir l’impact que peut aussi avoir l’opérateur sur le taux de conformité des longueurs.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
Introduction : Les nourrissons, vu la grande compliance de leur cage thoracique, doivent maintenir activement leur volume pulmonaire de fin d’expiration (VPFE). Ceci se fait par interruption précoce de l’expiration, et par le freinage expiratoire au niveau laryngé et par la persistance de la contraction des muscles inspiratoires. Chez les nourrissons ventilés mécaniquement, notre équipe a montré que le diaphragme est activé jusqu’à la fin de l’expiration (activité tonique). Il n’est pas clair si cette activité tonique diaphragmatique compense pour l’absence de freinage laryngé liée à l’intubation endotrachéale. Objectif : Notre objectif est de déterminer si l’activité tonique diaphragmatique persiste après l’extubation chez les nourrissons et si elle peut être observée chez les enfants plus âgés. Méthode : Ceci est une étude observationnelle longitudinale prospective de patients âgés de 1 semaine à 18 ans admis aux soins intensifs pédiatriques (SIP), ventilés mécaniquement pour >24 heures et avec consentement parental. L’activité électrique du diaphragme (AEdi) a été enregistrée à l’aide d’une sonde nasogastrique spécifique à 4 moments durant le séjour aux SIP : en phase aigüe, pré et post-extubation et au congé. L’AEdi a été analysée de façon semi-automatique. L’AEdi tonique a été définie comme l’AEdi durant le dernier quartile de l’expiration. Résultats : 55 patients avec un âge médian de 10 mois (écart interquartile: 1-48) ont été étudiés. Chez les nourrissons (<1an, n=28), l’AEdi tonique en pourcentage de l’activité inspiratoire était de 48% (30-56) en phase aigüe, 38% (25-44) pré-extubation, 28% (17-42) post-extubation et 33% (22-43) au congé des SIP (p<0.05, ANOVA, avec différence significative entre enregistrements 1 et 3-4). Aucun changement significatif n’a été observé pré et post-extubation. L’AEdi tonique chez les patients plus âgés (>1an, n=27) était négligeable en phases de respiration normale (0.6mcv). Par contre, une AEdi tonique significative (>1mcv et >10%) a été observée à au moins un moment durant le séjour de 10 (37%) patients. La bronchiolite est le seul facteur indépendant associé à l’activité tonique diaphragmatique. Conclusion : Chez les nourrissons, l’AEdi tonique persiste après l’extubation et elle peut être réactivée dans certaines situations pathologiques chez les enfants plus âgés. Elle semble être un indicateur de l’effort du patient pour maintenir son VPFE. D’autres études devraient être menées afin de déterminer si la surveillance de l’AEdi tonique pourrait faciliter la détection de situations de ventilation inappropriée.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
Introduction : Les nourrissons, vu la grande compliance de leur cage thoracique, doivent maintenir activement leur volume pulmonaire de fin d’expiration (VPFE). Ceci se fait par interruption précoce de l’expiration, et par le freinage expiratoire au niveau laryngé et par la persistance de la contraction des muscles inspiratoires. Chez les nourrissons ventilés mécaniquement, notre équipe a montré que le diaphragme est activé jusqu’à la fin de l’expiration (activité tonique). Il n’est pas clair si cette activité tonique diaphragmatique compense pour l’absence de freinage laryngé liée à l’intubation endotrachéale. Objectif : Notre objectif est de déterminer si l’activité tonique diaphragmatique persiste après l’extubation chez les nourrissons et si elle peut être observée chez les enfants plus âgés. Méthode : Ceci est une étude observationnelle longitudinale prospective de patients âgés de 1 semaine à 18 ans admis aux soins intensifs pédiatriques (SIP), ventilés mécaniquement pour >24 heures et avec consentement parental. L’activité électrique du diaphragme (AEdi) a été enregistrée à l’aide d’une sonde nasogastrique spécifique à 4 moments durant le séjour aux SIP : en phase aigüe, pré et post-extubation et au congé. L’AEdi a été analysée de façon semi-automatique. L’AEdi tonique a été définie comme l’AEdi durant le dernier quartile de l’expiration. Résultats : 55 patients avec un âge médian de 10 mois (écart interquartile: 1-48) ont été étudiés. Chez les nourrissons (<1an, n=28), l’AEdi tonique en pourcentage de l’activité inspiratoire était de 48% (30-56) en phase aigüe, 38% (25-44) pré-extubation, 28% (17-42) post-extubation et 33% (22-43) au congé des SIP (p<0.05, ANOVA, avec différence significative entre enregistrements 1 et 3-4). Aucun changement significatif n’a été observé pré et post-extubation. L’AEdi tonique chez les patients plus âgés (>1an, n=27) était négligeable en phases de respiration normale (0.6mcv). Par contre, une AEdi tonique significative (>1mcv et >10%) a été observée à au moins un moment durant le séjour de 10 (37%) patients. La bronchiolite est le seul facteur indépendant associé à l’activité tonique diaphragmatique. Conclusion : Chez les nourrissons, l’AEdi tonique persiste après l’extubation et elle peut être réactivée dans certaines situations pathologiques chez les enfants plus âgés. Elle semble être un indicateur de l’effort du patient pour maintenir son VPFE. D’autres études devraient être menées afin de déterminer si la surveillance de l’AEdi tonique pourrait faciliter la détection de situations de ventilation inappropriée.
Resumo:
Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.