23 resultados para specialized corpora
Resumo:
Presentation for the 5th International Conference on Corpus Linguistics (CILC 2013), V Congreso Internacional de Lingüistica de Corpus.
Resumo:
[Es] La teoría creacionista, universalmente en vigor antes de Darwin (y aún hoy sostenida por más de uno) sostenía que había habido una mente (divina), encargada de diseñar al hombre; que le puso ojos para que viera, oídos, mente para que pensara...Desde Darwin, por el contrario, se opina que la necesidad de enfrentarse a problemas diversos hizo que la mente fuera diversificándose, a través de sucesivas selecciones de las mentes más adaptativas. Según esto: 1.-¿Existen maquinarias biológicas “especializadas” en nuestro cerebro?. Y si existieran, 2.-¿Se desarrollan de forma espontánea?; es decir, sin esfuerzo ni instrucción formal? 3.-¿Se despliegan de forma inconsciente, autónoma y similar en todos los seres humanos? En definitiva: ¿Existe algo (facultad psicológica, órgano mental, sistema neurológico, módulo computacional…) que permita decir que las personas saben esto… o aquello… en el mismo sentido que las arañas saben tejer o los pájaros construir sus nidos?
Resumo:
[ES] La influencia que las características individuales del personal de una empresa ejercen sobre su nivel de satisfacción laboral ha sido ampliamente analizada en la literatura al respecto, dedicando una especial atención a la variable edad pero también al género como un elemento determinante de los niveles de satisfacción de los recursos humanos. En numerosas investigaciones se constata que las mujeres presentan un nivel superior de satisfacción al de los varones.
Resumo:
Presentado en el XIII Coloquio Internacional ARYS "Alimentos divinos banquetes humanos. Sacrificios, comidas rituales y tabúes alimentarios en el Mundo Antiguo", celebrado en Jarandilla de la Vera, 16-18 de diciembre de 2010.
Resumo:
In this article we describe the methodology developed for the semiautomatic annotation of EPEC-RolSem, a Basque corpus labeled at predicate level following the PropBank-VerbNet model. The methodology presented is the product of detailed theoretical study of the semantic nature of verbs in Basque and of their similarities and differences with verbs in other languages. As part of the proposed methodology, we are creating a Basque lexicon on the PropBank-VerbNet model that we have named the Basque Verb Index (BVI). Our work thus dovetails the general trend toward building lexicons from tagged corpora that is clear in work conducted for other languages. EPEC-RolSem and BVI are two important resources for the computational semantic processing of Basque; as far as the authors are aware, they are also the first resources of their kind developed for Basque. In addition, each entry in BVI is linked to the corresponding verb-entry in well-known resources like PropBank, VerbNet, WordNet, Levin’s Classification and FrameNet. We have also implemented several automatic processes to aid in creating and annotating the BVI, including processes designed to facilitate the task of manual annotation.
Resumo:
Background Protein inference from peptide identifications in shotgun proteomics must deal with ambiguities that arise due to the presence of peptides shared between different proteins, which is common in higher eukaryotes. Recently data independent acquisition (DIA) approaches have emerged as an alternative to the traditional data dependent acquisition (DDA) in shotgun proteomics experiments. MSE is the term used to name one of the DIA approaches used in QTOF instruments. MSE data require specialized software to process acquired spectra and to perform peptide and protein identifications. However the software available at the moment does not group the identified proteins in a transparent way by taking into account peptide evidence categories. Furthermore the inspection, comparison and report of the obtained results require tedious manual intervention. Here we report a software tool to address these limitations for MSE data. Results In this paper we present PAnalyzer, a software tool focused on the protein inference process of shotgun proteomics. Our approach considers all the identified proteins and groups them when necessary indicating their confidence using different evidence categories. PAnalyzer can read protein identification files in the XML output format of the ProteinLynx Global Server (PLGS) software provided by Waters Corporation for their MSE data, and also in the mzIdentML format recently standardized by HUPO-PSI. Multiple files can also be read simultaneously and are considered as technical replicates. Results are saved to CSV, HTML and mzIdentML (in the case of a single mzIdentML input file) files. An MSE analysis of a real sample is presented to compare the results of PAnalyzer and ProteinLynx Global Server. Conclusions We present a software tool to deal with the ambiguities that arise in the protein inference process. Key contributions are support for MSE data analysis by ProteinLynx Global Server and technical replicates integration. PAnalyzer is an easy to use multiplatform and free software tool.
Resumo:
[Es]Actualmente ninguna área científica es ajena a la revolución de la nanociencia; las nanopartículas atraen el interés de muchos investigadores desde el punto de vista de la ciencia fundamental y para sus aplicaciones tecnológicas. Las nanopartículas ofrecen la posibilidad de fabricar sensores que sean capaces de detectar desde un virus hasta concentraciones de substancias patógenas que no pueden ser detectadas por los métodos convencionales. Hoy en día existes 82 tratamientos contra el cáncer basadas en la utilización de nanopartículas y los materiales composite con nanopartículas se utilizan como medio de protección frente la radiación del rango de microondas. En la rama de ciencias ambientales, las nanopartículas metálicas sirven como materiales anticontaminantes. En este trabajo se ha estudiado la estructura y las propiedades magnéticas de las nanopartículas de FeNi preparadas mediante el método de explosión eléctrica de hilo. Con la técnica de Rayos–X(DRX) se ha determinado que las nanopartículas se cristalizan en un sistema cúbico FCC con un parámetro de celda de 3.596 Å, también, se ha obtenido el tamaño de dominio coherente que es de 35 nm. La muestra se ha sometido a un programa de temperatura controlada para seguir la evolución de la estructura cristalina y del tamaño del cristal, tanto en atmósfera oxidante como en vacío. Para el aprendizaje de los microscopios utilizados en este trabajo, se ha asistido al curso “Fundamentos de microscopia electrónica de barrido y microanálisis” impartido por SGIker de la UPV/EHU. Se han empleado los microscopios electrónicos SEM y TEM para obtener imágenes de gran resolución de la muestra y analizar su contenido elemental. Partiendo de las imágenes sacadas por el SEM se ha calculado el valor medio del tamaño de las partículas de la muestra, 58 nm. Mediante el Mastersizer 2000 se ha medido el tamaño de las partículas y/o agregados por método de difracción láser, disgregando la muestra todo lo posible hasta conseguir el tamaño medio que se aproxime al de una sola partícula, 100nm. Por último, para la caracterización magnética se ha servido del VSM que mide el momento magnético de una muestra cuando ésta vibra en presencia de un campo magnético estático, consiguiendo una imanación de saturación de 125 emu/g. Hemos fabricado y caracterizado las nanopartículas magnéticas de hierro-níquel y los resultados obtenidos han sido enviados a un congreso especializado de ciencia de materiales (ISMANAM - 2013, Italia).
Resumo:
158 p. : graf.
Resumo:
[EU]Hizkuntzaren prozesamenduko teknikak erabilita, poesia-sorkuntza automatikoan lehen urratsak eman dira. Hau erdiesteko, corpusen prozesamenduan oinarritutako bilaketak erabili dira, bai bilaketa arruntak eta baita bilaketa semantiko aurreratuak ere, horretarako IXA taldean garatutako tresna ezberdinak erabiliaz. Hizkuntza poetikoko testuek, gramatikaltasun eta metrika hertsitik haratago, semantika eta pragmatika barneratuta dituzte. Lan honetan semantikaren auziari heldu zaio nagusiki.
Resumo:
[EU]Master bukaerako proiektu honetan, SNOMED CT sare semantikoa euskaratzeko aplikazioaren lehenengo urratsak azaltzen ditugu. Horretarako, SNOMED CTren sakoneko analisia egin dugu, eta bio-zientzien domeinuko euskarazko baliabideak aztertu ditugu. Aplikazioaren diseinu osoa egin dugu, euskarazko ordainak lortzeko algoritmo bat definituz. Algoritmo horren lehenengo urratsa izan da inplementatu duguna, hiztegi espezializatuen parekatzeari dagokiona, alegia. Aplikazioaren hastapen hauetan emaitza itxaropentsuak lortu ditugu.
Resumo:
14 p.
Resumo:
Revista OJS
Resumo:
Edited by Andrea Abel, Chiara Vettori, Natascia Ralli.
Resumo:
RESUMEN: En este trabajo se plasma la transcendencia que tiene la lectura en el desarrollo integral de las personas. Del mismo modo, consideramos fundamental que se fomente la lectura en la escuela desde la etapa de infantil. El supuesto de nuestro trabajo es que la escuela cuenta con un espacio que contiene todo lo necesario para fomentar el hábito lector: la biblioteca escolar. Para nuestra investigación nos hemos acercado a un centro escolar de Amorebieta (Bizkaia) para conocer si el funcionamiento de las bibliotecas escolares se realiza siguiendo los patrones que se consideran adecuados desde la literatura especializada en el tema.
Resumo:
El trabajo consiste en realizar un análisis económico-financiero de las empresas del sector del comercio al por menor en establecimientos no especializados, con predominio en productos alimenticios establecidas en el País Vasco, centrándose especialmente en el diagnóstico de su situación actual y la evolución reciente de su liquidez, riesgo y rentabilidad. The work consists of carry out an economic and financial analysis of companies in the retail trade in non-specialized sector, stores with food products based in the Basque Country, especially focusing on the diagnosis of the current situation and recent developments their liquidity, risk and profitability.