993 resultados para Real examples
Resumo:
A generalized off-shell unitarity relation for the two-body scattering T matrix in a many-body medium at finite temperature is derived, through a consistent real-time perturbation expansion by means of Feynman diagrams. We comment on perturbation schemes at finite temperature in connection with an erroneous formulation of the Dyson equation in a paper recently published.
Resumo:
En agosto de 1868 un equipo de geómetras de la Junta General de Estadística, dirigido por José Giralt Torner, inició los trabajos de campo necesarios para proceder a una representación cartográfica fiable del Real Sitio de Riofrío (Segovia). El levantamiento formaba parte de un proyecto más ambicioso, que tenía por objeto el inventario y deslinde del patrimonio territorial de la Corona. Los planos formados por los geómetras de la Junta de Estadística, que se conservan inéditos en el archivo del Instituto Geográfico Nacional, constituyen un conjunto documental de notable valor geohistório, sin posible parangón entre las fuentes iconográficas del siglo XIX. Este artículo, que se apoya esencialmente en fuentes primarias, da cuenta de la cartografía conservada, describe la técnica de levantamiento, e identifica a los protagonistas de tales trabajos.
Resumo:
We examine the trajectories of the real unit labour costs (RULCs) in a selection of Eurozone economies. Strong asymmetries in the convergence process of the RULCs and its components —real wages, capital intensity, and technology— are uncovered through decomposition and cluster analyses. In the last three decades, the PIIGS (Portugal, Ireland, Italy, Greece, and Spain) succeeded in reducing their RULCs by more than their northern partners. With the exception of Ireland, however, technological progress was weak; it was through capital intensification that periphery economies gained efficiency and competitiveness. Cluster heterogeneity, and lack of robustness in cluster composition, is a reflection of the difficulties in achieving real convergence and, by extension, nominal convergence. We conclude by outlining technology as the key convergence factor, and call for a renewed attention to real convergence indicators to strengthen the process of European integration.
Resumo:
In the past decades drug discovery practice has escaped from the complexity of the formerly used phenotypic screening in animals to focus on assessing drug effects on isolated protein targets in the search for drugs that exclusively and potently hit one selected target, thought to be critical for a given disease, while not affecting at all any other target to avoid the occurrence of side-effects. However, reality does not conform to these expectations, and, conversely, this approach has been concurrent with increased attrition figures in late-stage clinical trials, precisely due to lack of efficacy and safety. In this context, a network biology perspective of human disease and treatment has burst into the drug discovery scenario to bring it back to the consideration of the complexity of living organisms and particularly of the (patho)physiological environment where protein targets are (mal)functioning and where drugs have to exert their restoring action. Under this perspective, it has been found that usually there is not one but several disease-causing genes and, therefore, not one but several relevant protein targets to be hit, which do not work on isolation but in a highly interconnected manner, and that most known drugs are inherently promiscuous. In this light, the rationale behind the currently prevailing single-target-based drug discovery approach might even seem a Utopia, while, conversely, the notion that the complexity of human disease must be tackled with complex polypharmacological therapeutic interventions constitutes a difficult-torefuse argument that is spurring the development of multitarget therapies.
Resumo:
BACKGROUND: This study examined potential predictors of remission among patients treated for major depressive disorder (MDD) in a naturalistic clinical setting, mostly in the Middle East, East Asia, and Mexico. METHODS: Data for this post hoc analysis were taken from a 6-month prospective, noninterventional, observational study that involved 1,549 MDD patients without sexual dysfunction at baseline in 12 countries worldwide. Depression severity was measured using the Clinical Global Impression of Severity and the 16-item Quick Inventory of Depressive Symptomatology Self-Report (QIDS-SR16). Depression-related pain was measured using the pain-related items of the Somatic Symptom Inventory. Remission was defined as a QIDS-SR16 score ≤5. Generalized estimating equation regression models were used to examine baseline factors associated with remission during follow-up. RESULTS: Being from East Asia (odds ratio [OR] 0.48 versus Mexico; P<0.001), a higher level of depression severity at baseline (OR 0.77, P=0.003, for Clinical Global Impression of Severity; OR 0.92, P<0.001, for QIDS-SR16), more previous MDD episodes (OR 0.92, P=0.007), previous treatments/therapies for depression (OR 0.78, P=0.030), and having any significant psychiatric and medical comorbidity at baseline (OR 0.60, P<0.001) were negatively associated with remission, whereas being male (OR 1.29, P=0.026) and treatment with duloxetine (OR 2.38 versus selective serotonin reuptake inhibitors, P<0.001) were positively associated with remission. However, the association between Somatic Symptom Inventory pain scores and remission no longer appeared to be significant in this multiple regression (P=0.580), (P=0.008 in descriptive statistics), although it remained significant in a subgroup of patients treated with selective serotonin reuptake inhibitors (OR 0.97, P=0.023), but not in those treated with duloxetine (P=0.182). CONCLUSION: These findings are largely consistent with previous reports from the USA and Europe. They also highlight the potential mediating role of treatment with duloxetine on the negative relationship between depression-related pain and outcomes of depression.
Resumo:
Aquest projecte es basa en el modelatge i simulació de sistemes utilitzant un simulador digital, i pretén ser una guia docent com a eina d’ajuda per a una assignatura que, a priori, s’impartirà a la Universitat de Vic. La simulació és una tècnica que permet representar el comportament de processos (físics, productius, de serveis, etc.) sense necessitat d’accedir al sistema real. Per analitzar, estudiar i millorar el comportament d’un sistema mitjançant la tècnica de la simulació digital és necessari primer desenvolupar un model conceptual que descrigui les variables d’interès, i després implementar-lo en un simulador per poder analitzar els resultats. ARENA és el software de simulació que s’estudia en aquest projecte i es presenta com una eina que permet la descripció complerta de l’experiència que una entitat desenvolupa a l’interior del sistema mentre flueix a través d’aquest. En concret s’utilitza la versió ARENA 10.0. Pel que fa a l’estructura del projecte, primerament s’introdueixen conceptes teòrics referents a la simulació, així com avantatges i inconvenients i els camps d’aplicació de la simulació. Seguidament i ja centrats en l’Arena, s’analitza un exemple senzill per començar-ne a veure el funcionament. Posteriorment, es van estudiant varis exemples amb complexitat progressiva. Aquests exemples es desenvolupen pas a pas de manera que es puguin anar provant amb el simulador. En el transcurs del projecte es van estudiant les eines de l’Arena i les seves possibilitats, així com els resultats obtinguts i les interpretacions d’aquests. Aquest projecte pretén, doncs, donar conceptes introductoris en el camp de la simulació en general, i, en particular, descriure eines bàsiques sobre el funcionament de l’Arena.
Resumo:
The difference between the actual ECN 42 triacylglyceride content in vegetable oils, obtained by HPLC analysis, and the theoretical value calculated from the fatty acid composition was applied to detect the addition of seed oils with high contents of linoleic acid to olive oils commercialized in Brazil. The results indicate that samples analyzed were probably adulterated with low commercial value seed oils, rich in linoleic acid, like soybean, sunflower or corn.
Resumo:
En la societat d’avui dia, les empreses depenen en gran part dels seus recursos informàtics. La seva capacitat de supervivència i innovació en el mercat actual, on la competitivitat és cada dia més forta, passa per una infraestructura informàtica que els permeti, no només desplegar i implantar ordinadors i servidors de manera ràpida i eficient sinó que també les protegeixi contra parades del sistema informàtic, problemes amb servidors, caigudes o desastres físics de hardware. Per evitar aquests problemes informàtics susceptibles de poder parar el funcionament d’una empresa es va començar a treballar en el camp de la virtualització informàtica amb l’objectiu de poder trobar solucions a aquests problemes a la vegada que s’aprofitaven els recursos de hardware existents d’una manera més òptim a i eficient, reduint així també el cost de la infraestructura informàtica. L’objectiu principal d’aquest treball és veure en primer pla la conversió d’una empresa real amb una infraestructura informàtica del tipus un servidor físic -una funció cap a una infraestructura virtual del tipus un servidor físic -varis servidors virtual -vàries funcions. Analitzarem l’estat actual de l’empresa, servidors i funcions, adquirirem el hardware necessari i farem la conversió de tots els seus servidors cap a una nova infraestructura virtual. Faig especial atenció a les explicacions de perquè utilitzo una opció i no un altre i també procuro sempre donar vàries opcions. Igualment remarco en quadres verds observacions a tenir en compte complementàries al que estic explicant en aquell moment, i en quadres vermells temes en els que s’ha de posar especial atenció en el moment en que es fan. Finalment, un cop feta la conversió, veurem els molts avantatges que ens ha reportat aquesta tecnologia a nivell de fiabilitat, estabilitat, capacitat de tolerància a errades, capacitat de ràpid desplegament de noves màquines, capacitat de recuperació del sistema i aprofitament de recursos físics
Resumo:
Digitoitu 8. 1. 2009
Resumo:
La simulació de la realitat és un fenomen que va sorgir fa uns anys per tal de predir esdeveniments sense haver de malbaratar recursos. El problema inicial de la simulació va ser la necessitat de simplificar la realitat a causa de la manca de capacitat dels ordinadors de l’època. Amb aquest projecte volem ajudar, per exemple, a estudis científics sobre la difusió de la contaminació en grans nuclis a causa de l’efecte del vent, càlculs de trajectòries amb forces externes degudes al vent, o incorporar en el món de la multimèdia efectes realistes de vent. El principal objectiu d’aquest projecte és desenvolupar un sistema que permeti realitzar simulacions realistes de vent per un paisatge 2D, i estudiar com el vent és veu afectat per la geometria de l’escena. Un punt important, és que tot ha de ser en temps real. Per aconseguir-ho, utilitzarem tècniques basades en el mètode de Lattice-Boltzmann, el qual consisteix en una xarxa regular que representa el fluid en posicions discretes, i estudiar com flueix. Escollint els paràmetres correctes de la simulació, es pot demostrar que aquest mètode convergeix a les equacions continues de Navier-Stokes, les qual són les més importants per descriure el comportament macroscòpic d’un fluid. Per accelerar tots els càlculs, utilitzarem la capacitat i la potencia de les targes gràfiques, ajustarem l’algorisme per poder-lo utilitzar en paral•lel, tot tenint en compte les restriccions de les GPUs. També haurem de generar un sistema per poder llegir les escenes 2D sobre les que realitzarem la simulació. Finalment, haurem de “pintar” el vent per tal de poder visualitzar el resultat de la simulació
Resumo:
Un bon sistema d’il.luminació juga un paper molt important per tal que els videojocs siguin realistes i atractius per a l’usuari. El projecte intenta optimitzar el sistema d’il.luminació de manera que la càrrega que representa per al sistema sigui inferior, sense haver de renunciar a la qualitat que tindríem sense fer servir aquest sistema. Amb dos objectius molt concrets: entendre i implementar l’algoritme de lightcuts i aconseguir una optimització en una escena utilitzant aquest algoritme
Resumo:
Web application performance testing is an emerging and important field of software engineering. As web applications become more commonplace and complex, the need for performance testing will only increase. This paper discusses common concepts, practices and tools that lie at the heart of web application performance testing. A pragmatic, hands-on approach is assumed where applicable; real-life examples of test tooling, execution and analysis are presented right next to the underpinning theory. At the client-side, web application performance is primarily driven by the amount of data transmitted over the wire. At the server-side, selection of programming language and platform, implementation complexity and configuration are the primary contributors to web application performance. Web application performance testing is an activity that requires delicate coordination between project stakeholders, developers, system administrators and testers in order to produce reliable and useful results. Proper test definition, execution, reporting and repeatable test results are of utmost importance. Open-source performance analysis tools such as Apache JMeter, Firebug and YSlow can be used to realise effective web application performance tests. A sample case study using these tools is presented in this paper. The sample application was found to perform poorly even under the moderate load incurred by the sample tests.
Resumo:
The chemistry of natural products has been remarkably growing in the past few decades in Brazil. Aspects related to the isolation and identification of new natural products, as well as their biological activities, have been achieved in different laboratories working on this subject in the country. More recently, the introduction of new molecular biology tools has strongly influenced the research on natural products, mainly those produced by microorganisms, creating new possibilities to assess the chemical diversity of secondary metabolites. This paper describes some ideas on how the research on natural products can have a considerable input from molecular biology in the generation of chemical diversity. We also explore the role of microbial natural products in mediating interspecific interactions and their relevance to ecological studies. Examples of the generation of chemical diversity are highlighted by using genome mining, mutasynthesis, combinatorial biosynthesis, metagenomics, and synthetic biology, while some aspects of microbial ecology are also discussed. The idea to bring up this topic is linked to the remarkable development of molecular biology techniques to generate useful chemicals from different organisms. Here, we focus mainly on microorganisms, even though similar approaches have also been applied to the study of plants and other organisms. Investigations in the frontier of chemistry and biology require interactions between different areas, characterizing the interdisciplinarity of this research field. The necessity of a real integration of chemistry and biology is pivotal to finding correct answers to a number of biological phenomena. The use of molecular biology tools to generate chemical diversity and control biosynthetic pathways is largely explored in the production of important biologically active compounds. Finally, we briefly comment on the Brazilian organization of research in this area, the necessity of new strategies for the graduation programs, and the establishment of networks as a way of organization to overcome some of the problems faced in the area of natural products.