995 resultados para corpus especializado bilingue
Resumo:
Este estudo objetivou analisar os processos que levam os pais e responsáveis a perceber a doença depressiva nos filhos adolescentes e compreender a influência das crenças em saúde e dos hábitos culturais na procura de tratamento especializado. Utilizando o método de estudo de caso qualitativo, foram entrevistados quatro pais e responsáveis de adolescentes, com diagnóstico de depressão atendidos em um ambulatório de saúde mental de Campinas. Os dados foram interpretados por análise de conteúdo temático. Segundo os pressupostos teóricos do Modelo de Crenças em Saúde (MCS), foram criadas e discutidas as categorias: a percepção dos pais e responsáveis quanto à suscetibilidade à doença depressiva; a percepção dos pais e responsáveis quanto à severidade da doença depressiva; estímulo externo influenciando a busca de tratamento especializado; as barreiras e benefícios percebidos para busca de atendimento especializado; variáveis estruturais e sociais influenciando na busca de atendimento especializado.
Resumo:
Els objectius del projecte “Les traduccions de Carles Riba i Marià Manent al Corpus Literari Digital” són diversos: d’una banda, digitalitzar totes les edicions originals de les traduccions publicades per Carles Riba i Marià Manent; d’altra banda, fer un inventari de tots els textos continguts en aquestes traduccions (de poesia, de narrativa i de teatre); i finalment, introduir els registres dins la plataforma del Corpus Literari Digital de la Càtedra Màrius Torres. La digitalització ha permès de preservar digitalment el patrimoni literari constituït per aquestes traduccions de dos dels autors i traductors més importants de la literatura catalana del segle XX. L’inventari dels textos de cadascun dels seus volums de traduccions (poemes, narracions i obres de teatre) ha permès de constituir una base de dades en la qual es registren totes les versions diferents de cadascun dels textos traduïts que Riba i Manent van anar revisant al llarg de la seva vida. Finalment, la inclusió d’aquests registres bibliogràfics dins la plataforma del Corpus Literari Digital de la Càtedra Màrius Torres permet la seva consulta en línia i la possibilitat de trobar, per a cada text, totes les seves versions i de visualitzar la imatge del document original, la qual cosa facilitarà als investigadors l’estudi de la història textual de les traduccions, la de l’evolució de la llengua literària dels autors, entre altres possibilitats.
Resumo:
A number of experimental methods have been reported for estimating the number of genes in a genome, or the closely related coding density of a genome, defined as the fraction of base pairs in codons. Recently, DNA sequence data representative of the genome as a whole have become available for several organisms, making the problem of estimating coding density amenable to sequence analytic methods. Estimates of coding density for a single genome vary widely, so that methods with characterized error bounds have become increasingly desirable. We present a method to estimate the protein coding density in a corpus of DNA sequence data, in which a ‘coding statistic’ is calculated for a large number of windows of the sequence under study, and the distribution of the statistic is decomposed into two normal distributions, assumed to be the distributions of the coding statistic in the coding and noncoding fractions of the sequence windows. The accuracy of the method is evaluated using known data and application is made to the yeast chromosome III sequence and to C.elegans cosmid sequences. It can also be applied to fragmentary data, for example a collection of short sequences determined in the course of STS mapping.
Resumo:
Basándonos en la teoría de la relevancia, en este artículo analizamos el papel de los marcadores de reformulación (MR) en la localización de zonas discursivas relevantes en el discurso especializado. Con el estudio presentado, demostramos que el uso de los MR puede serde utilidad para la construcción de herramientas que pretendan el reconocimiento automático de la terminología con el mínimo esfuerzo de procesamiento y apuntamos la necesaria continuación de dicho trabajo con el estudio de la densidad reformulativa de los textos especializados y de la posible interrelación entre la densidad terminológica y la densidad de tratamiento de la terminología.
Resumo:
Uno de los objetivos principales del trabajo terminográfico es la identificación de conocimientosobre los términos que aparecenen textos especializados. Para confeccionar diccionarios, glosarios u ontologías, los terminógrafos suelen buscar definiciones sobre los términos que pretenden definir. La búsqueda de definiciones se puede hacer apartir de corpus especializados, donde normalmente aparecen en contextos definitorios, es decir, en fragmentos de texto donde un autor explícitamente define el término en cuestión. Hoy en día hay un interés creciente por automatizar este proceso, basado enla búsqueda de patrones definitorios sobre corpus especializados anotados morfosintácticamente. En este artículo presentamos una investigación centrada en la extracción automática de contextos definitorios. Presentamos una metodología que incluye tres procesos automáticos diferentes: la extracción de ocurrencias de patrones definitorios, el filtradode contextos no relevantes, y la identificación de elementos constitutivos, es decir, términos, definiciones y patrones pragmáticos.
Resumo:
Neste artigo presentamos unha revisión teórica sobre o concepto especializado e a relación que mantén coa variación. Nós defendemos que existe un grao de motivación importante na denominación terminolóxica e que, a través dela, se fan visibles uns trazos semánticos determinados, achegándonos así unha visión particular do concepto. Por último facemos unha proposta de análise da variación terminolóxica consistnete en recompilar as diferentes variantes e analizar o contenido semántico expresado na denominación. Os exemplos foron tirados dun corpus de textos bilingüe francés-galego sobre o marisqueo.
Resumo:
El projecte central que es duu a terme a l'Institut Universitari de Lingüística Aplicada (IULA) de la Universitat Pompeu Fabra és el corpus de Llenguatges especialitzats. En el marc d'aquest projecte —que implica cinc dominis d'especialitat (dret, economia, informàtica, medi ambient i medicina) i cinc llengües (català, castellà, francès, anglès i alemany)— s'han desenvolupat dos etiquetaris per a la llengua catalana i castellana. Amb el desenvolupament d'aquests etiquetaris es pretén facilitar l'etapa del processament lingüístic del corpus. En aquest paper es discuteixen, d'una banda, alguns aspectes teòrics relatius a la construcció d'etiquetaris i, de l'altra, es presenten els dos etiquetaris que s'han elaborat a l'IULA.
Resumo:
En aquest paper, es presenten els criteris de treball que s'han seguit durant els 10 anys en què s'ha anat constituint el corpus de l'IULA. S'exposa l'estat de les dades del corpus, els recursos lèxics utilitzats per al tractament de les dades (diccionaris i etiquetaris) i les eines constituïdes o adaptades. Es dedica especial atenció a la documentació de la cadena de treball de processament del corpus, des de l'adquisició dels textos en format electrònic fins a la seva incorporació definitiva al corpus.
Resumo:
El principal projecte de recerca desenvolupat a l'Institut Universitari de Lingüística Aplicada (IULA) de la Universitat Pompeu Fabra és el projecte de Llenguatges especialitzats, sota el qual s'aglutina la totalitat dels investigadors pertanyents a aquest centre. És en aquest marc de recerca on es duu a terme la constitució d'un corpus plurilingüe (català, castellà, francès, anglès i alemany), especialitzat en les àrees del dret, l'economia, la informàtica, el medi ambient i la medicina. En aquest article es descriuen els criteris que s'han tingut en compte per al disseny d'aquest recurs lingüístic i cada una de les fases de desenvolupament que s'han seguit. El resultat de diferents estadis en el procés d'elaboració del corpus es mostra en un conjunt d'annexos al final de l'article, on s'incorpora, a més, una síntesi de l'estat actual del projecte, periòdicament actualitzada.
Resumo:
L'edició de textos fent ús de mitjans informàtics ha comportat avantatges i inconvenients. Mentre que ha fet molt accessible l'edició acurada de textos també ha provocat tot un seguit de problemes, un del quals és la dificultat de compartir recursos.Per altra banda, la lingüística necessita emprar corpus voluminosos per conèixer amb més precisió i fonament el comportament real del llenguatge. És evident que l'obtenció i consegüent preparació d'un corpus per a la seva explotació esdevé un procés costós en temps i recursos, motiu pel qual és força atractiu i gairebé necessari compartir aquest material de recerca amb altres organitzacions. En aquest treball s'examinen les diferents propostes d'aplicació de l'estàndard SGML (Standard Generalized Markup Language) en la constitució de corpus textuals per a la recerca lingüística, amb èmfasi especial en les solucions proposades a l'Institut Universitari de Lingüística Aplicada de la Universitat Pompeu Fabra.
Resumo:
En el presente trabajo se presenta un estado de la cuestión desde diferentes disciplinas sobre los sintagmas nominales extensos especializados (SNEE) de más de tres tokens en inglés y en español en textos especializados del nivel experto-experto en el área del genoma. Se propone una metodología para describir y clasificar los SNEE a partir de 500.000 palabras en cada lengua de modo que se definan regularidades y se propongan soluciones para los diferentes profesionales del lenguaje.
Resumo:
A medida que el tamaño de un corpus aumenta, aumenta también el número de concordancias obtenidas al consultar una forma. Un número muy elevado de concordancias, de cientos o de miles, dificulta la sistematicidad de la tarea del lexicógrafo. La propuesta del artículo consiste en el uso de un sistema automático de agrupación de concordancias según su similitud léxica (es decir, qué elementos léxicos comparten), con el objetivo de presentar dichas concordancias agrupadas y asociadas a un único representante de todo el conjunto de las que son consideradas como léxicamente similares, de manera que la cardinalidad efectiva de los datos de corpus se vea reducida. El sistema se ha desarrollado teniendo en cuenta las ventajas de una arquitectura distribuida, por lo que cada una de las partes del sistema (stemming, identificación de stop words, cálculo de similitud entre concordancias, ordenación final de los datos, etc.) se ha desarrollado en módulos diferentes que pueden estar alojados en servidores, ya que las necesidades de cálculo del sistema harían que su uso desde un ordenador personal resultara muy lento.
Resumo:
O presente trabalho trata-se de estudo de corte transversal, com objetivo de avaliar a conduta dos profissionais de enfermagem vítimas de acidentes com material biológico, do Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo, no estado de São Paulo, referente ao atendimento e ao seguimento clínico especializado. A população foi composta por 1.215 profissionais de enfermagem, entrevistados entre os anos de 2010 e 2011, dos quais 636 (52,3%) sofreram acidentes com material biológico e 182 (28,6%) não procuraram atendimento no serviço especializado. O motivo mais frequentemente relatado foi atribuir pouco risco ao acidente. Assim, acredita-se que os motivos alegados pelos profissionais para não procurarem o atendimento, para não completarem a terapêutica e nem o seguimento clínico podem contribuir para a proposição de estratégias capazes de aumentar a adesão às medidas profiláticas após exposição ocupacional a material biológico.