171 resultados para corpus especializado bilingue
em Consorci de Serveis Universitaris de Catalunya (CSUC), Spain
Resumo:
Corpus constituido desde 1993 hasta la actualidad en el marco del proyecto Corpus del Institut Universitari de Lingüística Aplicada (IULA) de la Universidad Pompeu Fabra. Este proyecto recopila textos escritos en cinco lenguas diferentes (catalán, castellano, inglés, francés y alemán) de las áreas de especialidad de la economía, el derecho,el medio ambiente, la medicina y la informática.
Resumo:
El videoclip, al unir imagen y música, se presenta como un producto audiovisual de éxito, capaz de movilizar cuerpos, miradas, gestos en una gozosa y prolífica fruición. El encuentro del videoclip y del cuerpo en esta investigación, además de marcar las influencias mutuas de ambos “cuerpos”, se interesa por la potencia del medio “clíptico” en la producción de nuevas corporeidades y de nuevas narrativas
Resumo:
Mitjançant el mètode de treball terminològic proposat per la Teoria Comunicativa de la Terminologia (TCT) es realitza una anàlisi d'un corpus bilingüe ad hoc sobre Cultura de Pau per establir el mapa de la xarxa conceptual del terme "pau" i les seves col·locacions en castellà i anglès. Aquestes s'obtenen mitjançant un sistema d'extracció de terminologia. Aquest treball pretén ser una primera aproximació a la terminologia de la Cultura de Pau. L'estudi es realitza des d'un punt de vista interdisciplinari tenint en compte les aportacions teòriques procedents de la TCT, la lingüística de corpus i les xarxes conceptuals
Resumo:
Aquest treball analitza, mitjançant un petit corpus de textos mèdics especialitzats publicats en llengua espanyola d'Espanya (13.470 paraules) i llengua russa (12.318 paraules), els usos i freqüències dels tipus oracionals i dels girs de participi i gerundi en el llenguatge científic. L'objectiu del treball és descriure aquests aspectes sintàctics de la prosa científica original en aquestes dues llengües per tal de conèixer i evitar els calcs sintàctics en la traducció dels textos mèdics. Una sintaxi sense calcs ajuda a adequar el text meta a les expectatives del lector, en aquest cas l'especialista mèdic
Resumo:
Este artículo describe una metodología de construcción de WordNets que se basa en la traducción automática de un corpus en inglés desambiguado por sentidos. El corpus que utilizamos está formado por las propias glosas de WN 3.0 etiquetadas semánticamente y por el corpus Semcor. Los resultados de precisión son comparables a los obtenidos mediante métodos basados en diccionarios bilingües para las mismas lenguas. La metodología descrita se está utilizando, en combinación con otras estrategias, en la creación de los WordNets 3.0 del español y catalán.
Resumo:
Estudi de la neologia semàntica verbal en català a partir d'un corpus de dades format per neologismes semàntics verbals apareguts en la premsa escrita en català durant els anys 2010 i 2011. Relació entre la neologia semàntica i la metàfora com a recurs cognitiu.
Resumo:
Els objectius del projecte “Les traduccions de Carles Riba i Marià Manent al Corpus Literari Digital” són diversos: d’una banda, digitalitzar totes les edicions originals de les traduccions publicades per Carles Riba i Marià Manent; d’altra banda, fer un inventari de tots els textos continguts en aquestes traduccions (de poesia, de narrativa i de teatre); i finalment, introduir els registres dins la plataforma del Corpus Literari Digital de la Càtedra Màrius Torres. La digitalització ha permès de preservar digitalment el patrimoni literari constituït per aquestes traduccions de dos dels autors i traductors més importants de la literatura catalana del segle XX. L’inventari dels textos de cadascun dels seus volums de traduccions (poemes, narracions i obres de teatre) ha permès de constituir una base de dades en la qual es registren totes les versions diferents de cadascun dels textos traduïts que Riba i Manent van anar revisant al llarg de la seva vida. Finalment, la inclusió d’aquests registres bibliogràfics dins la plataforma del Corpus Literari Digital de la Càtedra Màrius Torres permet la seva consulta en línia i la possibilitat de trobar, per a cada text, totes les seves versions i de visualitzar la imatge del document original, la qual cosa facilitarà als investigadors l’estudi de la història textual de les traduccions, la de l’evolució de la llengua literària dels autors, entre altres possibilitats.
Resumo:
A number of experimental methods have been reported for estimating the number of genes in a genome, or the closely related coding density of a genome, defined as the fraction of base pairs in codons. Recently, DNA sequence data representative of the genome as a whole have become available for several organisms, making the problem of estimating coding density amenable to sequence analytic methods. Estimates of coding density for a single genome vary widely, so that methods with characterized error bounds have become increasingly desirable. We present a method to estimate the protein coding density in a corpus of DNA sequence data, in which a ‘coding statistic’ is calculated for a large number of windows of the sequence under study, and the distribution of the statistic is decomposed into two normal distributions, assumed to be the distributions of the coding statistic in the coding and noncoding fractions of the sequence windows. The accuracy of the method is evaluated using known data and application is made to the yeast chromosome III sequence and to C.elegans cosmid sequences. It can also be applied to fragmentary data, for example a collection of short sequences determined in the course of STS mapping.
Resumo:
Basándonos en la teoría de la relevancia, en este artículo analizamos el papel de los marcadores de reformulación (MR) en la localización de zonas discursivas relevantes en el discurso especializado. Con el estudio presentado, demostramos que el uso de los MR puede serde utilidad para la construcción de herramientas que pretendan el reconocimiento automático de la terminología con el mínimo esfuerzo de procesamiento y apuntamos la necesaria continuación de dicho trabajo con el estudio de la densidad reformulativa de los textos especializados y de la posible interrelación entre la densidad terminológica y la densidad de tratamiento de la terminología.
Resumo:
Uno de los objetivos principales del trabajo terminográfico es la identificación de conocimientosobre los términos que aparecenen textos especializados. Para confeccionar diccionarios, glosarios u ontologías, los terminógrafos suelen buscar definiciones sobre los términos que pretenden definir. La búsqueda de definiciones se puede hacer apartir de corpus especializados, donde normalmente aparecen en contextos definitorios, es decir, en fragmentos de texto donde un autor explícitamente define el término en cuestión. Hoy en día hay un interés creciente por automatizar este proceso, basado enla búsqueda de patrones definitorios sobre corpus especializados anotados morfosintácticamente. En este artículo presentamos una investigación centrada en la extracción automática de contextos definitorios. Presentamos una metodología que incluye tres procesos automáticos diferentes: la extracción de ocurrencias de patrones definitorios, el filtradode contextos no relevantes, y la identificación de elementos constitutivos, es decir, términos, definiciones y patrones pragmáticos.
Resumo:
Neste artigo presentamos unha revisión teórica sobre o concepto especializado e a relación que mantén coa variación. Nós defendemos que existe un grao de motivación importante na denominación terminolóxica e que, a través dela, se fan visibles uns trazos semánticos determinados, achegándonos así unha visión particular do concepto. Por último facemos unha proposta de análise da variación terminolóxica consistnete en recompilar as diferentes variantes e analizar o contenido semántico expresado na denominación. Os exemplos foron tirados dun corpus de textos bilingüe francés-galego sobre o marisqueo.
Resumo:
El projecte central que es duu a terme a l'Institut Universitari de Lingüística Aplicada (IULA) de la Universitat Pompeu Fabra és el corpus de Llenguatges especialitzats. En el marc d'aquest projecte —que implica cinc dominis d'especialitat (dret, economia, informàtica, medi ambient i medicina) i cinc llengües (català, castellà, francès, anglès i alemany)— s'han desenvolupat dos etiquetaris per a la llengua catalana i castellana. Amb el desenvolupament d'aquests etiquetaris es pretén facilitar l'etapa del processament lingüístic del corpus. En aquest paper es discuteixen, d'una banda, alguns aspectes teòrics relatius a la construcció d'etiquetaris i, de l'altra, es presenten els dos etiquetaris que s'han elaborat a l'IULA.
Resumo:
En aquest paper, es presenten els criteris de treball que s'han seguit durant els 10 anys en què s'ha anat constituint el corpus de l'IULA. S'exposa l'estat de les dades del corpus, els recursos lèxics utilitzats per al tractament de les dades (diccionaris i etiquetaris) i les eines constituïdes o adaptades. Es dedica especial atenció a la documentació de la cadena de treball de processament del corpus, des de l'adquisició dels textos en format electrònic fins a la seva incorporació definitiva al corpus.
Resumo:
El principal projecte de recerca desenvolupat a l'Institut Universitari de Lingüística Aplicada (IULA) de la Universitat Pompeu Fabra és el projecte de Llenguatges especialitzats, sota el qual s'aglutina la totalitat dels investigadors pertanyents a aquest centre. És en aquest marc de recerca on es duu a terme la constitució d'un corpus plurilingüe (català, castellà, francès, anglès i alemany), especialitzat en les àrees del dret, l'economia, la informàtica, el medi ambient i la medicina. En aquest article es descriuen els criteris que s'han tingut en compte per al disseny d'aquest recurs lingüístic i cada una de les fases de desenvolupament que s'han seguit. El resultat de diferents estadis en el procés d'elaboració del corpus es mostra en un conjunt d'annexos al final de l'article, on s'incorpora, a més, una síntesi de l'estat actual del projecte, periòdicament actualitzada.
Resumo:
L'edició de textos fent ús de mitjans informàtics ha comportat avantatges i inconvenients. Mentre que ha fet molt accessible l'edició acurada de textos també ha provocat tot un seguit de problemes, un del quals és la dificultat de compartir recursos.Per altra banda, la lingüística necessita emprar corpus voluminosos per conèixer amb més precisió i fonament el comportament real del llenguatge. És evident que l'obtenció i consegüent preparació d'un corpus per a la seva explotació esdevé un procés costós en temps i recursos, motiu pel qual és força atractiu i gairebé necessari compartir aquest material de recerca amb altres organitzacions. En aquest treball s'examinen les diferents propostes d'aplicació de l'estàndard SGML (Standard Generalized Markup Language) en la constitució de corpus textuals per a la recerca lingüística, amb èmfasi especial en les solucions proposades a l'Institut Universitari de Lingüística Aplicada de la Universitat Pompeu Fabra.