913 resultados para Jordi Arbonès
Resumo:
Background: A number of studies have used protein interaction data alone for protein function prediction. Here, we introduce a computational approach for annotation of enzymes, based on the observation that similar protein sequences are more likely to perform the same function if they share similar interacting partners. Results: The method has been tested against the PSI-BLAST program using a set of 3,890 protein sequences from which interaction data was available. For protein sequences that align with at least 40% sequence identity to a known enzyme, the specificity of our method in predicting the first three EC digits increased from 80% to 90% at 80% coverage when compared to PSI-BLAST. Conclusion: Our method can also be used in proteins for which homologous sequences with known interacting partners can be detected. Thus, our method could increase 10% the specificity of genome-wide enzyme predictions based on sequence matching by PSI-BLAST alone.
Resumo:
Purpose: To evaluate the suitability of an improved version of an automatic segmentation method based on geodesic active regions (GAR) for segmenting cerebral vasculature with aneurysms from 3D X-ray reconstruc-tion angiography (3DRA) and time of °ight magnetic resonance angiography (TOF-MRA) images available in the clinical routine.Methods: Three aspects of the GAR method have been improved: execution time, robustness to variability in imaging protocols and robustness to variability in image spatial resolutions. The improved GAR was retrospectively evaluated on images from patients containing intracranial aneurysms in the area of the Circle of Willis and imaged with two modalities: 3DRA and TOF-MRA. Images were obtained from two clinical centers, each using di®erent imaging equipment. Evaluation included qualitative and quantitative analyses ofthe segmentation results on 20 images from 10 patients. The gold standard was built from 660 cross-sections (33 per image) of vessels and aneurysms, manually measured by interventional neuroradiologists. GAR has also been compared to an interactive segmentation method: iso-intensity surface extraction (ISE). In addition, since patients had been imaged with the two modalities, we performed an inter-modality agreement analysis with respect to both the manual measurements and each of the two segmentation methods. Results: Both GAR and ISE di®ered from the gold standard within acceptable limits compared to the imaging resolution. GAR (ISE, respectively) had an average accuracy of 0.20 (0.24) mm for 3DRA and 0.27 (0.30) mm for TOF-MRA, and had a repeatability of 0.05 (0.20) mm. Compared to ISE, GAR had a lower qualitative error in the vessel region and a lower quantitative error in the aneurysm region. The repeatabilityof GAR was superior to manual measurements and ISE. The inter-modality agreement was similar between GAR and the manual measurements. Conclusions: The improved GAR method outperformed ISE qualitatively as well as quantitatively and is suitable for segmenting 3DRA and TOF-MRA images from clinical routine.
Resumo:
The quantification of wall motion in cerebral aneurysms is becoming important owing to its potential connection to rupture, and as a way to incorporate the effects of vascular compliance in computational fluid dynamics (CFD) simulations.Most of papers report values obtained with experimental phantoms, simulated images, or animal models, but the information for real patients is limited. In this paper, we have combined non-rigid registration (IR) with signal processing techniques to measure pulsation in real patients from high frame rate digital subtraction angiography (DSA). We have obtained physiological meaningful waveforms with amplitudes in therange 0mm-0.3mm for a population of 18 patients including ruptured and unruptured aneurysms. Statistically significant differences in pulsation were found according to the rupture status, in agreement with differences in biomechanical properties reported in the literature.
Resumo:
Morphological descriptors are practical and essential biomarkers for diagnosis andtreatment selection for intracranial aneurysm management according to the current guidelinesin use. Nevertheless, relatively little work has been dedicated to improve the three-dimensionalquanti cation of aneurysmal morphology, automate the analysis, and hence reduce the inherentintra- and inter-observer variability of manual analysis. In this paper we propose a methodologyfor the automated isolation and morphological quanti cation of saccular intracranial aneurysmsbased on a 3D representation of the vascular anatomy.
Resumo:
In this article we present a hybrid approach for automatic summarization of Spanish medical texts. There are a lot of systems for automatic summarization using statistics or linguistics, but only a few of them combining both techniques. Our idea is that to reach a good summary we need to use linguistic aspects of texts, but as well we should benefit of the advantages of statistical techniques. We have integrated the Cortex (Vector Space Model) and Enertex (statistical physics) systems coupled with the Yate term extractor, and the Disicosum system (linguistics). We have compared these systems and afterwards we have integrated them in a hybrid approach. Finally, we have applied this hybrid system over a corpora of medical articles and we have evaluated their performances obtaining good results.
Resumo:
El projecte central que es duu a terme a l'Institut Universitari de Lingüística Aplicada (IULA) de la Universitat Pompeu Fabra és el corpus de Llenguatges especialitzats. En el marc d'aquest projecte —que implica cinc dominis d'especialitat (dret, economia, informàtica, medi ambient i medicina) i cinc llengües (català, castellà, francès, anglès i alemany)— s'han desenvolupat dos etiquetaris per a la llengua catalana i castellana. Amb el desenvolupament d'aquests etiquetaris es pretén facilitar l'etapa del processament lingüístic del corpus. En aquest paper es discuteixen, d'una banda, alguns aspectes teòrics relatius a la construcció d'etiquetaris i, de l'altra, es presenten els dos etiquetaris que s'han elaborat a l'IULA.
Resumo:
En aquest paper, analitzem les principals ontologies amb la finalitat de dibuixar un panorama general d'una de les eines més utilitzades en l'estructuració del coneixement. En primer lloc, presentem una àmplia descripció de les cinc ontologies més difoses entre la comunitat científica dedicada a la gestió de la informació. Seguidament, repassem breument algunes de les eines de gestió que s'utilitzen per crear i actualitzar ontologies. I, finalment, presentem algunes conclusions en relació a la selecció d'una ontologia i d'un sistema de gestió per a la seva utilització en el marc dels projectes vigents del grup IULATERM.
Resumo:
Des de l'aparició de TERMINO l'any 1990 fins avui dia s'han portat a terme una sèrie de projectes per dissenyar diferents tipus d'extractors automàtics de terminologia, però malgrat la gran quantitat d'estudis que s'estan realitzant en aquesta línia, els resultats no són del tot satisfactoris. Aquest article presenta una anàlisi dels principals sistemes d'extracció automàtica de terminologia amb la finalitat de dibuixar un panorama general de l'estat de la qüestió. L'estudi comença amb la descripció de diversos sistemes d'extracció de terminologia; en el segon apartat, es comparen els diferents sistemes. L'informe finalitza amb unes conclusions sobre els sistemes analitzats i sobre els criteris que podrien guiar una proposta d'un sistema integrador d'extracció de terminologia.
Resumo:
En aquest paper, es presenten els criteris de treball que s'han seguit durant els 10 anys en què s'ha anat constituint el corpus de l'IULA. S'exposa l'estat de les dades del corpus, els recursos lèxics utilitzats per al tractament de les dades (diccionaris i etiquetaris) i les eines constituïdes o adaptades. Es dedica especial atenció a la documentació de la cadena de treball de processament del corpus, des de l'adquisició dels textos en format electrònic fins a la seva incorporació definitiva al corpus.
Resumo:
El principal projecte de recerca desenvolupat a l'Institut Universitari de Lingüística Aplicada (IULA) de la Universitat Pompeu Fabra és el projecte de Llenguatges especialitzats, sota el qual s'aglutina la totalitat dels investigadors pertanyents a aquest centre. És en aquest marc de recerca on es duu a terme la constitució d'un corpus plurilingüe (català, castellà, francès, anglès i alemany), especialitzat en les àrees del dret, l'economia, la informàtica, el medi ambient i la medicina. En aquest article es descriuen els criteris que s'han tingut en compte per al disseny d'aquest recurs lingüístic i cada una de les fases de desenvolupament que s'han seguit. El resultat de diferents estadis en el procés d'elaboració del corpus es mostra en un conjunt d'annexos al final de l'article, on s'incorpora, a més, una síntesi de l'estat actual del projecte, periòdicament actualitzada.
Resumo:
L'edició de textos fent ús de mitjans informàtics ha comportat avantatges i inconvenients. Mentre que ha fet molt accessible l'edició acurada de textos també ha provocat tot un seguit de problemes, un del quals és la dificultat de compartir recursos.Per altra banda, la lingüística necessita emprar corpus voluminosos per conèixer amb més precisió i fonament el comportament real del llenguatge. És evident que l'obtenció i consegüent preparació d'un corpus per a la seva explotació esdevé un procés costós en temps i recursos, motiu pel qual és força atractiu i gairebé necessari compartir aquest material de recerca amb altres organitzacions. En aquest treball s'examinen les diferents propostes d'aplicació de l'estàndard SGML (Standard Generalized Markup Language) en la constitució de corpus textuals per a la recerca lingüística, amb èmfasi especial en les solucions proposades a l'Institut Universitari de Lingüística Aplicada de la Universitat Pompeu Fabra.
Resumo:
Aquest working paper és un estudi preliminar que té com a objectiu analitzar acústicament diverses variables fonètiques amb la finalitat forense d'identificació de parlants: les freqüències dels dos primers formants de la vocal [ə] quan s'utilitza com a falca, la duració dels segments [m] tenint en compte el context sil·làbic i, finalment, l'estudi dels pics de freqüències en les fricatives estridents sordes -[s]- utilitzant l'anàlisi LPC. Els resultats revelen diferències estadísticament significatives entre els parlants.
Resumo:
Michel Foucault hace pública por primera vez su tesis sobre el biopoder en 1975 y muere en 1984 con tan sólo cincuenta y ocho años, razón por la cual podemos considerar que sus ideas quizá hubieran podido desarrollarse más de haber vivido más tiempo.
Resumo:
El objeto del presente trabajo es el analizar la crítica de Nietzsche al concepto de verdad, tratando de identificar aquellos elementos filosóficos fundamentales que le hacen adoptar una de las actitudes más radicales e influyentes del pensamiento contemporáneo.De este modo he elegido los núcleos de su filosofía que ponen en cuestión prácticamente toda la tradición de pensamiento de ccidente.
Resumo:
El siguiente trabajo es un estudio sobre las dinámicas y los contenidos de la comunicación política de Silvio Berlusconi y su partido, analizada mediante una perspectiva histórica y sociológica y mediante el análisis de cuatro discursospronunciados por Berlusconi a lo largo de 15 años.Para el análisis del discurso se utiliza la metodología elaborada por Jordi Pericot yArantxa Capdevila a partir de la “Teoría de la Argumentación” de Chaïm Perelman y dela teoría de los mundos posibles.