957 resultados para corpora, terminologia, termini, estrazione automatica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of this research is to build and analyze a parallel corpus in the field of remote sensing in order to identify, according to its frequency, specialized collocations in English and then search for their equivalents in Portuguese. The research is based on the interdisciplinary approach of Corpus-Based Translation Studies (BAKER, 1995; CAMARGO, 2007), Corpus Linguistics (BERBER SARDINHA, 2004; TOGNINI-BONELLI, 2001), Phraseology (ORENHA-OTTAIANO, 2009; PAVEL, 1993), and some principles of Terminology (BARROS, 2004). For manipulating the corpora, the program WordSmith Tools (SCOTT, 2012) version 6.0 is used. To support this study, two comparable corpora in English and Portuguese were also built from articles published in both national and international journals in remote sensing. The results show that the collocations in Portuguese seem to be still in the process of conventionalization, as the translators made use of greater variation in their translational options, which can be a way to make the text clearer for the reader.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This papers deals with theoretical and methodological problems concerning the definition of criteria for the selection of sources for the study of language. Our work discussed the use and the importance of genre in the process of corpora construction as variation search – synchronic and diachronic.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This article presents an investigation of four linguistic phenomena of the Portuguese in different synchronicities. These research are about construction, description and analysis of corpora for the creation of databases that support linguistic description.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This study aims at investigating the existence of a Greek terminological legacy in the Brazilian grammatical organization, taking into account that the initial Greek grammar is the source of our grammar, through the Latin grammar, and that the field defined by it is a reference point for studying the evolution of Western thought about language. The theoretical and methodological approach is based on Historical Linguistics along the lines that guided the extensive research on the emergence of grammar in the West, which is the source of the information organized here (NEVES, 2005). The reflections focus on the examination of nomenclature, considering that it conceptually maps the set of positions assumed, and in general maintained, that deserve consideration. Among other things, the survey compared both Greek terms inherited in the continuous current of the grammatical thinking with Greek terms introduced later, and terms transliterated from the Greek with terms modeled on the Latin translation. In addition, there have been cases of names that were changed while the concept was kept and cases of concepts that were changed while the name was kept. Anyway, the examination of the nomenclature reveals the undeniable existence of a Greek legacy in the organization of the Portuguese grammar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Estudos Linguísticos - IBILCE

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Estudos Linguísticos - IBILCE

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUÇÃO: Muitos termos da área de Atenção Primária à Saúde não são utilizados adequadamente. É importante resgatar a origem desses termos, a fim de entender porque são usados de maneiras diferentes por trabalhadores da saúde e pela população leiga. OBJETIVO: Pesquisar e discutir os significados e usos de termos ligados àAtenção Primária à Saúde. MÉTODO: Revisão, em diferentes fontes, de significados de termos como Atenção Primária à Saúde, medicina de família, clínica geral, medicina interna, Programa Saúde da Família. RESULTADOS: Referências diferentes geralmente têm o mesmo significado para termos similares. Alguns termos, como, por exemplo, "clínica médica", que na prática significa "medicina interna", não têmorigem clara. DISCUSSÃO: Muitos termos são usados indevidamente por causa de diferentes interesses e motivos históricos. Este trabalho não pretende esgotar a discussão sobre a importância da terminologia na Atenção Primária. É um campo relevante de investigação, porque pode ajudar a comunicação entre pacientes, profissionais da saúde e políticos e, em especial, colaborar para o adequado entendimento pelos estudantes deste cenário de prática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectives: to define in patients undergoing surgery for mitral regurgitation (MR) the risk of thrombo-embolic complications, particularly ischemic stroke (IS) compared to that in the general population. Background: MR is frequent, occurs mostly in the elderly and guidelines recommend surgery in asymptomatic patients but IS risks are unknown. Methods: in 1344 patients (65±12 years) consecutively operated for MR (procedures: 897 valve repair, MRep; 447 valve replacement, 231 mechanical, MVRm; 216 biological, MVRb), thrombo-embolic complications particularly IS (diagnosed by a neurologist) during follow-up were assessed early (<30 days), mid-term (30-180 days) and long-term (180 days). Results: IS occurred in 130 patients and IS or transient ischemic attack in 201. IS rates were 1.9±0.4% and 2.7±0.5%, at 30 and 180 days and 8.1±0.8% at 5 years. IS rates were lowest after MRep vs. MVRb and MVRm (6.1±0.9, 8±2.1 and 16.1±2.7% at 5 years, p<0.001). Comparison to IS expected rates in the population showed high risk within 30 days of surgery (Risk-ratio 41[26-60], p<0.001 but p>0.10 between procedures) and moderate risk after 30 days (risk-ratio 1.7 overall, p<0.001; 1.3 for MRep, p=0.07; 0.98 for MVRb, p=0.95; 4.8 for MVRm, p<0.001). Beyond 180 days, IS risk declined further and was not different from the general population for MRep (1.2, p=0.30) and for MVRb (0.9, p=0.72). Risk of IS or transient ischemic attack was higher than the general population in all groups up to 180 days. The risk of bleeding beyond 30 days was lowest in MRep vs. MVRb and MVRm (7±1, 14±4 and 16±3% at 10 years, p<0.001). Conclusion: thrombo-embolic complications after MR surgery are both reason for concern and encouragement. IS risk is notable early, irrespective of the procedure performed, but long-term is not higher than in the general population after MRep and MVRb. Preference for MRep should be emphasized and trials aimed at preventing IS should be conducted to reduce the thrombo-embolic and hemorrhagic risk in patients undergoing surgery for MR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Phenol and cresols represent a good example of primary chemical building blocks of which 2.8 million tons are currently produced in Europe each year. Currently, these primary phenolic building blocks are produced by refining processes from fossil hydrocarbons: 5% of the world-wide production comes from coal (which contains 0.2% of phenols) through the distillation of the tar residue after the production of coke, while 95% of current world production of phenol is produced by the distillation and cracking of crude oil. In nature phenolic compounds are present in terrestrial higher plants and ferns in several different chemical structures while they are essentially absent in lower organisms and in animals. Biomass (which contain 3-8% of phenols) represents a substantial source of secondary chemical building blocks presently underexploited. These phenolic derivatives are currently used in tens thousand of tons to produce high cost products such as food additives and flavours (i.e. vanillin), fine chemicals (i.e. non-steroidal anti-inflammatory drugs such as ibuprofen or flurbiprofen) and polymers (i.e. poly p-vinylphenol, a photosensitive polymer for electronic and optoelectronic applications). European agrifood waste represents a low cost abundant raw material (250 millions tons per year) which does not subtract land use and processing resources from necessary sustainable food production. The class of phenolic compounds is essentially constituted by simple phenols, phenolic acids, hydroxycinnamic acid derivatives, flavonoids and lignans. As in the case of coke production, the removal of the phenolic contents from biomass upgrades also the residual biomass. Focusing on the phenolic component of agrifood wastes, huge processing and marketing opportunities open since phenols are used as chemical intermediates for a large number of applications, ranging from pharmaceuticals, agricultural chemicals, food ingredients etc. Following this approach we developed a biorefining process to recover the phenolic fraction of wheat bran based on enzymatic commercial biocatalysts in completely water based process, and polymeric resins with the aim of substituting secondary chemical building blocks with the same compounds naturally present in biomass. We characterized several industrial enzymatic product for their ability to hydrolize the different molecular features that are present in wheat bran cell walls structures, focusing on the hydrolysis of polysaccharidic chains and phenolics cross links. This industrial biocatalysts were tested on wheat bran and the optimized process allowed to liquefy up to the 60 % of the treated matter. The enzymatic treatment was also able to solubilise up to the 30 % of the alkali extractable ferulic acid. An extraction process of the phenolic fraction of the hydrolyzed wheat bran based on an adsorbtion/desorption process on styrene-polyvinyl benzene weak cation-exchange resin Amberlite IRA 95 was developed. The efficiency of the resin was tested on different model system containing ferulic acid and the adsorption and desorption working parameters optimized for the crude enzymatic hydrolyzed wheat bran. The extraction process developed had an overall yield of the 82% and allowed to obtain concentrated extracts containing up to 3000 ppm of ferulic acid. The crude enzymatic hydrolyzed wheat bran and the concentrated extract were finally used as substrate in a bioconversion process of ferulic acid into vanillin through resting cells fermentation. The bioconversion process had a yields in vanillin of 60-70% within 5-6 hours of fermentation. Our findings are the first step on the way to demonstrating the economical feasibility for the recovery of biophenols from agrifood wastes through a whole crop approach in a sustainable biorefining process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[EN]Qualitative and quantitative research approaches are often considered as incompatible, and when they are brought together in a study, the analyses often stay within the realm of the same research field. The study at hand aims at combining the two methods from the perspectives of different disciplines and tries to determine to which degree a corpus-based analysis might support the traditional content-focused approach to qualitative data and render additional results.