597 resultados para usages


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The immune system evolved to protect organisms from an infinite variety of disease-causing agents but to avoid harmful responses to self. However, such a powerf~dl efense mechanism requires regulation. Immune regulation includes homeostatic and cellmediated targeted mechanisms to the activation, differentiation and function of antigen-triggered immuno-competent cells and irnmunoregulatory cells. The regulation of the immune system has been a major challenge for the management of autoimmune disorders, tumor immunity, infectious diseases and organ transplants. However, irnmuno-modulatory procedures used by modern medicine to induce immunoregulatory function have deleterious side effects. Ashwangandha (Withania somnifera), an herb used in Ayurvedic medicine is being tested and used in experimental and clinical cases with potential immuno-modulatory functions without any side effects. Here we propose future usages of Ashwangandha for immuno-regulatory function in translational research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: This investigation of the concept of faith is divided into two parts. Part One evaluates a topical philosophical interpretation of faith as irreducibly disjunctive, collecting the best fragmented ideas as to what constitutes faith in a recent family resemblance exposition as an objective for an adequate essentialist analysis of the concept of faith to achieve. Part Two offers a more extended essentialist analysis of the concept of faith as unconditional patience in the eventuality of a positive future state, and a detailed reduction of six supposedly disparate family resemblance senses of faith to this single definition. Criteria for a satisfactory analysis of faithfulness are considered and defended. In contrast with what has become a standard doxastic-epistemic interpretation of faith as persistent unjustified or even unjustifiable belief, a concept of faith is advanced that appears to satisfy the necessary and sufficient criteria identified. Systematic comparison with a variety of usages of the word “faith” suggests that the analysis agrees with many and arguably most applications of this sometimes loosely understood term. Implications of the analysis of the concept of faith are considered and defended against anticipated objections. Pascal’s wager is critically examined in relation to matters of religious faith, along with positivist meaningfulness requirements that seem to conflict especially with epistemically ungrounded belief, the power of faith, and the metaphorical size of mustard seeds. The inquiry concludes with a synthesis of five aspects of six supposedly distinct senses of faith under the single essentialist reductive umbrella of unconditional patience in the eventuality of a positive future state.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The word 'palaver' is colloquially associated with useless verbiage and the nuisance of a tediously long, aimless and superfluous debate. At the same time, it insinuates an uncivilized culture of discourse beyond reason. Thus it appears to be of vaguely exotic origin but still firmly set in the European lexicon. Yet behind this contemporary meaning there lies a long history of linguistic and cultural transfers which is encased in a context of different usages of language and their intersections. By tracing the usage and semantics of 'palaver' in various encyclopaedias, glossaries and dictionaries of English, French, German, Portuguese and Spanish, the following article explores the rich history of this word. Moreover, it also regards the travelling semantics of the term 'palaver' as a process of cultural transfer that can be likened to the microcellular workings of a (retro)virus. Viral reproduction and evolution work through processes of transfer that enable the alteration of the host to adjust it to the replication and reproduction of the virus. In some cases, these processes also allow for the mutation or modification of the virus, making it suitable for transfer from one host to another. The virus is thus offered here as a vital model for cultural transfer: It not only encompasses the necessary adoption and adaption of contents or objects of cultural transfer in different contexts. It contributes to a conceptual understanding of the transferal residue that the transferred content is endowed with by its diversifying contexts. This model thereby surpasses an understanding of cultural transfer as literal translation or transmission: it conceptualizes cultural transfer as an agent of evolutionary processes, allowing for mutational effects of transfer as endowment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el 2004, el Frente Amplio (coalición de izquierda) venció las elecciones en Uruguay. Uno de los cambios fue una revisión del período de la dictadura militar, especialmente en el aspecto educativo: la enseñanza escolar sobre la dictadura entró en el orden del día, con ventajas y problemas de la enseñanza de la historia reciente. Desde la incorporación de la enseñanza de la historia reciente en Uruguay, se discute la noción de laicidad -de largo uso en el debate público- como uno de los condicionantes más fuertes de la didáctica de la historia. Fueron analizados dos grupos de sujetos envueltos en ese debate: los políticos de los partidos tradicionales y los profesores de historia. Se permite proponer una revisión de la noción de laicidad, al mantener su papel de definición de un espacio público, pero garantizando criterios que también sean públicos, construidos intersubjetivamente

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el 2004, el Frente Amplio (coalición de izquierda) venció las elecciones en Uruguay. Uno de los cambios fue una revisión del período de la dictadura militar, especialmente en el aspecto educativo: la enseñanza escolar sobre la dictadura entró en el orden del día, con ventajas y problemas de la enseñanza de la historia reciente. Desde la incorporación de la enseñanza de la historia reciente en Uruguay, se discute la noción de laicidad -de largo uso en el debate público- como uno de los condicionantes más fuertes de la didáctica de la historia. Fueron analizados dos grupos de sujetos envueltos en ese debate: los políticos de los partidos tradicionales y los profesores de historia. Se permite proponer una revisión de la noción de laicidad, al mantener su papel de definición de un espacio público, pero garantizando criterios que también sean públicos, construidos intersubjetivamente

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el 2004, el Frente Amplio (coalición de izquierda) venció las elecciones en Uruguay. Uno de los cambios fue una revisión del período de la dictadura militar, especialmente en el aspecto educativo: la enseñanza escolar sobre la dictadura entró en el orden del día, con ventajas y problemas de la enseñanza de la historia reciente. Desde la incorporación de la enseñanza de la historia reciente en Uruguay, se discute la noción de laicidad -de largo uso en el debate público- como uno de los condicionantes más fuertes de la didáctica de la historia. Fueron analizados dos grupos de sujetos envueltos en ese debate: los políticos de los partidos tradicionales y los profesores de historia. Se permite proponer una revisión de la noción de laicidad, al mantener su papel de definición de un espacio público, pero garantizando criterios que también sean públicos, construidos intersubjetivamente

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In an increasing number of applications (e.g., in embedded, real-time, or mobile systems) it is important or even essential to ensure conformance with respect to a specification expressing resource usages, such as execution time, memory, energy, or user-defined resources. In previous work we have presented a novel framework for data size-aware, static resource usage verification. Specifications can include both lower and upper bound resource usage functions. In order to statically check such specifications, both upper- and lower-bound resource usage functions (on input data sizes) approximating the actual resource usage of the program which are automatically inferred and compared against the specification. The outcome of the static checking of assertions can express intervals for the input data sizes such that a given specification can be proved for some intervals but disproved for others. After an overview of the approach in this paper we provide a number of novel contributions: we present a full formalization, and we report on and provide results from an implementation within the Ciao/CiaoPP framework (which provides a general, unified platform for static and run-time verification, as well as unit testing). We also generalize the checking of assertions to allow preconditions expressing intervals within which the input data size of a program is supposed to lie (i.e., intervals for which each assertion is applicable), and we extend the class of resource usage functions that can be checked.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La termografía infrarroja (TI) es una técnica no invasiva y de bajo coste que permite, con el simple acto de tomar una fotografía, el registro sin contacto de la energía que irradia el cuerpo humano (Akimov & Son’kin, 2011, Merla et al., 2005, Ng et al., 2009, Costello et al., 2012, Hildebrandt et al., 2010). Esta técnica comenzó a utilizarse en el ámbito médico en los años 60, pero debido a los malos resultados como herramienta diagnóstica y la falta de protocolos estandarizados (Head & Elliot, 2002), ésta se dejó de utilizar en detrimento de otras técnicas más precisas a nivel diagnóstico. No obstante, las mejoras tecnológicas de la TI en los últimos años han hecho posible un resurgimiento de la misma (Jiang et al., 2005, Vainer et al., 2005, Cheng et al., 2009, Spalding et al., 2011, Skala et al., 2012), abriendo el camino a nuevas aplicaciones no sólo centradas en el uso diagnóstico. Entre las nuevas aplicaciones, destacamos las que se desarrollan en el ámbito de la actividad física y el deporte, donde recientemente se ha demostrado que los nuevos avances con imágenes de alta resolución pueden proporcionar información muy interesante sobre el complejo sistema de termorregulación humana (Hildebrandt et al., 2010). Entre las nuevas aplicaciones destacan: la cuantificación de la asimilación de la carga de trabajo físico (Čoh & Širok, 2007), la valoración de la condición física (Chudecka et al., 2010, 2012, Akimov et al., 2009, 2011, Merla et al., 2010), la prevención y seguimiento de lesiones (Hildebrandt et al., 2010, 2012, Badža et al., 2012, Gómez Carmona, 2012) e incluso la detección de agujetas (Al-Nakhli et al., 2012). Bajo estas circunstancias, se acusa cada vez más la necesidad de ampliar el conocimiento sobre los factores que influyen en la aplicación de la TI en los seres humanos, así como la descripción de la respuesta de la temperatura de la piel (TP) en condiciones normales, y bajo la influencia de los diferentes tipos de ejercicio. Por consiguiente, este estudio presenta en una primera parte una revisión bibliográfica sobre los factores que afectan al uso de la TI en los seres humanos y una propuesta de clasificación de los mismos. Hemos analizado la fiabilidad del software Termotracker, así como su reproducibilidad de la temperatura de la piel en sujetos jóvenes, sanos y con normopeso. Finalmente, se analizó la respuesta térmica de la piel antes de un entrenamiento de resistencia, velocidad y fuerza, inmediatamente después y durante un período de recuperación de 8 horas. En cuanto a la revisión bibliográfica, hemos propuesto una clasificación para organizar los factores en tres grupos principales: los factores ambientales, individuales y técnicos. El análisis y descripción de estas influencias deben representar la base de nuevas investigaciones con el fin de utilizar la TI en las mejores condiciones. En cuanto a la reproducibilidad, los resultados mostraron valores excelentes para imágenes consecutivas, aunque la reproducibilidad de la TP disminuyó ligeramente con imágenes separadas por 24 horas, sobre todo en las zonas con valores más fríos (es decir, zonas distales y articulaciones). Las asimetrías térmicas (que normalmente se utilizan para seguir la evolución de zonas sobrecargadas o lesionadas) también mostraron excelentes resultados pero, en este caso, con mejores valores para las articulaciones y el zonas centrales (es decir, rodillas, tobillos, dorsales y pectorales) que las Zonas de Interés (ZDI) con valores medios más calientes (como los muslos e isquiotibiales). Los resultados de fiabilidad del software Termotracker fueron excelentes en todas las condiciones y parámetros. En el caso del estudio sobre los efectos de los entrenamientos de la velocidad resistencia y fuerza en la TP, los resultados muestran respuestas específicas según el tipo de entrenamiento, zona de interés, el momento de la evaluación y la función de las zonas analizadas. Los resultados mostraron que la mayoría de las ZDI musculares se mantuvieron significativamente más calientes 8 horas después del entrenamiento, lo que indica que el efecto del ejercicio sobre la TP perdura por lo menos 8 horas en la mayoría de zonas analizadas. La TI podría ser útil para cuantificar la asimilación y recuperación física después de una carga física de trabajo. Estos resultados podrían ser muy útiles para entender mejor el complejo sistema de termorregulación humano, y por lo tanto, para utilizar la TI de una manera más objetiva, precisa y profesional con visos a mejorar las nuevas aplicaciones termográficas en el sector de la actividad física y el deporte Infrared Thermography (IRT) is a safe, non-invasive and low-cost technique that allows the rapid and non-contact recording of the irradiated energy released from the body (Akimov & Son’kin, 2011; Merla et al., 2005; Ng et al., 2009; Costello et al., 2012; Hildebrandt et al., 2010). It has been used since the early 1960’s, but due to poor results as diagnostic tool and a lack of methodological standards and quality assurance (Head et al., 2002), it was rejected from the medical field. Nevertheless, the technological improvements of IRT in the last years have made possible a resurgence of this technique (Jiang et al., 2005; Vainer et al., 2005; Cheng et al., 2009; Spalding et al., 2011; Skala et al., 2012), paving the way to new applications not only focused on the diagnose usages. Among the new applications, we highlighted those in physical activity and sport fields, where it has been recently proven that a high resolution thermal images can provide us with interesting information about the complex thermoregulation system of the body (Hildebrandt et al., 2010), information than can be used as: training workload quantification (Čoh & Širok, 2007), fitness and performance conditions (Chudecka et al., 2010, 2012; Akimov et al., 2009, 2011; Merla et al., 2010; Arfaoui et al., 2012), prevention and monitoring of injuries (Hildebrandt et al., 2010, 2012; Badža et al., 2012, Gómez Carmona, 2012) and even detection of Delayed Onset Muscle Soreness – DOMS- (Al-Nakhli et al., 2012). Under this context, there is a relevant necessity to broaden the knowledge about factors influencing the application of IRT on humans, and to better explore and describe the thermal response of Skin Temperature (Tsk) in normal conditions, and under the influence of different types of exercise. Consequently, this study presents a literature review about factors affecting the application of IRT on human beings and a classification proposal about them. We analysed the reliability of the software Termotracker®, and also its reproducibility of Tsk on young, healthy and normal weight subjects. Finally, we examined the Tsk thermal response before an endurance, speed and strength training, immediately after and during an 8-hour recovery period. Concerning the literature review, we proposed a classification to organise the factors into three main groups: environmental, individual and technical factors. Thus, better exploring and describing these influence factors should represent the basis of further investigations in order to use IRT in the best and optimal conditions to improve its accuracy and results. Regarding the reproducibility results, the outcomes showed excellent values for consecutive images, but the reproducibility of Tsk slightly decreased with time, above all in the colder Regions of Interest (ROI) (i.e. distal and joint areas). The side-to-side differences (ΔT) (normally used to follow the evolution of some injured or overloaded ROI) also showed highly accurate results, but in this case with better values for joints and central ROI (i.e. Knee, Ankles, Dorsal and Pectoral) than the hottest muscle ROI (as Thigh or Hamstrings). The reliability results of the IRT software Termotracker® were excellent in all conditions and parameters. In the part of the study about the effects on Tsk of aerobic, speed and strength training, the results of Tsk demonstrated specific responses depending on the type of training, ROI, moment of the assessment and the function of the considered ROI. The results showed that most of muscular ROI maintained warmer significant Tsk 8 hours after the training, indicating that the effect of exercise on Tsk last at least 8 hours in most of ROI, as well as IRT could help to quantify the recovery status of the athlete as workload assimilation indicator. Those results could be very useful to better understand the complex skin thermoregulation behaviour, and therefore, to use IRT in a more objective, accurate and professional way to improve the new IRT applications for the physical activity and sport sector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia el papel de la metáfora como instrumento arquitectónico en el debate y las propuestas para superar la ortodoxia de la arquitectura moderna a partir de mediados del siglo XX. En arquitectura, la utilización del procedimiento que constituye la metáfora se apoya en una consideración semántica de la arquitectura y se ha usado constantemente a lo largo de la historia para desarrollar nuevas propuestas, basándose en la comparación con modelos conocidos. En este trabajo se examina la notable presencia que adquirió este instrumento en las propuestas críticas a la arquitectura moderna ortodoxa, debido a la importancia que tuvieron los aspectos semánticos en el debate sobre la continuidad y vigencia de los postulados de la arquitectura moderna. Con este estudio se ha indagado sobre las razones y la frecuencia con las que aquellos arquitectos que adoptaron una actitud crítica hacia la arquitectura moderna se refirieron a las relaciones metafóricas en sus propuestas alternativas. Para mostrar cómo las metáforas formaron parte de los mecanismos de cambio de la arquitectura en este periodo, recuperando un mayor potencial creativo para abordar los proyectos arquitectónicos, se han estudiado una serie de ejemplos pertinentes y relevantes. En cada uno de los capítulos se han analizado las objeciones más importantes que fueron planteadas frente a la arquitectura moderna por un arquitecto o grupo de arquitectos, seleccionados entre aquéllos que tomaron parte en este debate, y se estudia la inclusión de la metáfora en las alternativas que propusieron en cada caso. Además de una actitud crítica con la arquitectura moderna, todos los arquitectos seleccionados comparten una consideración semántica de la arquitectura y han expuesto sus ideas y posturas tanto en obras proyectadas y construidas, como en escritos o comentarios sobre su manera de entender y proyectar arquitectura. Esta doble producción ha permitido analizar, comparativamente, el papel de la metáfora en sus enfoques y propuestas críticas y en la realización de sus obras como alternativas a las mismas. Al mismo tiempo, la investigación profundiza en el conocimiento de la utilización de la metáfora como herramienta arquitectónica. A través del recorrido por las distintas maneras de entender este instrumento que pueden observarse en algunos de los arquitectos de la segunda mitad del siglo XX, se exponen tanto las posibilidades como los aspectos más críticos de la utilización de la metáfora en arquitectura. La variada utilización de la noción de metáfora en arquitectura se ve reflejada en las diversas consideraciones que hacen de la misma los arquitectos estudiados. La tesis se ha ocupado de distinguir cada uno de estos enfoques, haciéndose eco de la pluralidad con la que puede abordarse el concepto de metáfora de manera general y en arquitectura en particular. Así, algunos arquitectos del Team 10, la utilizan como un instrumento de ampliación y renovación semántica de la arquitectura moderna, que propone una síntesis de lo viejo y lo nuevo. Para Robert Venturi, se trata de un recurso con capacidad de persuadir y recrear, renovando semánticamente la arquitectura. Charles Jencks considera que es un procedimiento semántico esencial de la arquitectura, olvidado por los arquitectos modernos, cuya recuperación supone un rasgo diferencial de la arquitectura posmoderna respecto a la moderna. Para Aldo Rossi, es una manera de materializar las relaciones analógicas que constituyen su propuesta para proyectar una arquitectura de racionalismo exaltado frente a un racionalismo convencional. Peter Eisenman la valora porque inventa otras arquitecturas diferentes a las preconcebidas anteriormente, a pesar de que rechaza su capacidad representativa y expresiva. Rafael Moneo la utiliza para contraponerse al determinismo, como instrumento de innovación de la forma arquitectónica que construye una dinámica entre la contingencia y la necesidad. Finalmente, para Frank Gehry supone un procedimiento creativo y subjetivo con el que enfrentarse tanto a la arquitectura moderna como a la posmoderna con una arquitectura nueva y abierta a referencias inusuales. De esta manera, a través de los distintos capítulos, el estudio pretende componer un mosaico de posturas que manifieste los vínculos y las diferencias existentes entre estos arquitectos con relación a los temas estudiados: crítica y alternativas a la arquitectura moderna, semántica de la arquitectura, metáfora y otros conceptos relacionados. A su vez, la aparición continuada de la metáfora en los diferentes capítulos, y de los temas con los que está relacionada, manifiesta el protagonismo de esta herramienta arquitectónica en las propuestas de evolución y cambio de la arquitectura del periodo estudiado. ABSTRACT This thesis studies the role of the metaphor as an architectural tool in the debate and proposals to overcome the orthodoxy of modern architecture that took place since the middle part of the Twentieth Century. In architecture, the usage of the process which the metaphor constitutes is based in a semantic consideration of architecture and historically it has been used many times to develop new proposals, always based in the comparison with known models. This work examines the significant presence that this tool acquired in the proposals critical with orthodox modern architecture, due to the importance that the semantic aspects had in the debate on the continuity and validity of modern architecture’s postulates. This study also looks into the motives and frequency that those architects which adopted a critical attitude towards modern architecture alluded to the metaphorical relations in their alternative proposals. To demonstrate how during that period metaphors were imbued in the mechanisms of change of architecture, recovering a higher creative potential to approach architectural projects, a series of pertinent and relevant examples are studied. Each chapter examines the most important objections on modern architecture made by an architect or group of architects, selected among those who participated in this debate, and studies the inclusion of metaphor in the alternatives proposed in each case. Besides a critical attitude towards modern architecture, all the selected architects share a semantic consideration of architecture and have exposed their ideas and postures through projected and finalized works as in writings or commentaries on their way of understanding and projecting architecture. This double production allowed to analyse, in a comparatively manner, the role of metaphor in their approaches and critical proposals as in the execution of their works. At the same time, the research conducted further analyses the body of knowledge on the usage of metaphor as an architectural tool. By looking over the different ways some of the architects of the second half of the Twentieth Century understood this tool, both the possibilities and the most critical aspects of the usage of the metaphor in architecture can be exposed. The various usages of the notion of metaphor in architecture are reflected in the multiple considerations done about it by the selected architects. This thesis differentiates each one of those approaches, echoing the plurality with which the concept of metaphor can be addressed both in broader terms and more particularly in architecture. In this sense, some architects of Team 10 used it as a mean of semantic extension and renewal of modern architecture, proposing a synthesis between the old and the new. For Robert Venturi it is a resource with the capacity to persuade and recreate, semantically renewing architecture. Charles Jencks considers it an essential semantic procedure of architecture, forgotten by the modern architects, and which recovery represents a differential trait of post-modern architecture in relation to modern architecture. For Aldo Rossi, is a way of materializing the analogical relations which represent his proposal to project architecture of exalted rationalism as opposed to a more conventional rationalism. Peter Eisenman values it because it invents other architectures different from the preconceived before, even if he refuses its representational and expressive capacity. Rafael Moneo uses it to counter determinism, as an innovation tool of the architectonical form which generates dynamics between contingency and necessity. Finally, for Frank Gehry it supposes a creative and subjective process to face both modern architecture and post-modern architecture with a new architecture open to unusual references. As such, through its different chapters, this study aims to compose a mosaic of postures which expresses the links and the differences between those architects in relation to the topics examined: criticism and alternatives to modern architecture, semantics of architecture, metaphor and other related concepts. At the same time, the continuous presence of the metaphor in the different chapters, and of the issues it relates to, shows the importance of this tool in the proposals of evolution and change of architecture in the period considered.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La relación entre la ingeniería y la medicina cada vez se está haciendo más estrecha, y debido a esto se ha creado una nueva disciplina, la bioingeniería, ámbito en el que se centra el proyecto. Este ámbito cobra gran interés debido al rápido desarrollo de nuevas tecnologías que en particular permiten, facilitan y mejoran la obtención de diagnósticos médicos respecto de los métodos tradicionales. Dentro de la bioingeniería, el campo que está teniendo mayor desarrollo es el de la imagen médica, gracias al cual se pueden obtener imágenes del interior del cuerpo humano con métodos no invasivos y sin necesidad de recurrir a la cirugía. Mediante métodos como la resonancia magnética, rayos X, medicina nuclear o ultrasonidos, se pueden obtener imágenes del cuerpo humano para realizar diagnósticos. Para que esas imágenes puedan ser utilizadas con ese fin hay que realizar un correcto tratamiento de éstas mediante técnicas de procesado digital. En ése ámbito del procesado digital de las imágenes médicas es en el que se ha realizado este proyecto. Gracias al desarrollo del tratamiento digital de imágenes con métodos de extracción de información, mejora de la visualización o resaltado de rasgos de interés de las imágenes, se puede facilitar y mejorar el diagnóstico de los especialistas. Por todo esto en una época en la que se quieren automatizar todos los procesos para mejorar la eficacia del trabajo realizado, el automatizar el procesado de las imágenes para extraer información con mayor facilidad, es muy útil. Actualmente una de las herramientas más potentes en el tratamiento de imágenes médicas es Matlab, gracias a su toolbox de procesado de imágenes. Por ello se eligió este software para el desarrollo de la parte práctica de este proyecto, su potencia y versatilidad simplifican la implementación de algoritmos. Este proyecto se estructura en dos partes. En la primera se realiza una descripción general de las diferentes modalidades de obtención de imágenes médicas y se explican los diferentes usos de cada método, dependiendo del campo de aplicación. Posteriormente se hace una descripción de las técnicas más importantes de procesado de imagen digital que han sido utilizadas en el proyecto. En la segunda parte se desarrollan cuatro aplicaciones en Matlab para ejemplificar el desarrollo de algoritmos de procesado de imágenes médicas. Dichas implementaciones demuestran la aplicación y utilidad de los conceptos explicados anteriormente en la parte teórica, como la segmentación y operaciones de filtrado espacial de la imagen, así como otros conceptos específicos. Las aplicaciones ejemplo desarrolladas han sido: obtención del porcentaje de metástasis de un tejido, diagnóstico de las deformidades de la columna vertebral, obtención de la MTF de una cámara de rayos gamma y medida del área de un fibroadenoma de una ecografía de mama. Por último, para cada una de las aplicaciones se detallará su utilidad en el campo de la imagen médica, los resultados obtenidos y su implementación en una interfaz gráfica para facilitar su uso. ABSTRACT. The relationship between medicine and engineering is becoming closer than ever giving birth to a recently appeared science field: bioengineering. This project is focused on this subject. This recent field is becoming more and more important due to the fast development of new technologies that provide tools to improve disease diagnosis, with regard to traditional procedures. In bioengineering the fastest growing field is medical imaging, in which we can obtain images of the inside of the human body without need of surgery. Nowadays by means of the medical modalities of magnetic resonance, X ray, nuclear medicine or ultrasound, we can obtain images to make a more accurate diagnosis. For those images to be useful within the medical field, they should be processed properly with some digital image processing techniques. It is in this field of digital medical image processing where this project is developed. Thanks to the development of digital image processing providing methods for data collection, improved visualization or data highlighting, diagnosis can be eased and facilitated. In an age where automation of processes is much sought, automated digital image processing to ease data collection is extremely useful. One of the most powerful image processing tools is Matlab, together with its image processing toolbox. That is the reason why that software was chosen to develop the practical algorithms in this project. This final project is divided into two main parts. Firstly, the different modalities for obtaining medical images will be described. The different usages of each method according to the application will also be specified. Afterwards we will give a brief description of the most important image processing tools that have been used in the project. Secondly, four algorithms in Matlab are implemented, to provide practical examples of medical image processing algorithms. This implementation shows the usefulness of the concepts previously explained in the first part, such as: segmentation or spatial filtering. The particular applications examples that have been developed are: calculation of the metastasis percentage of a tissue, diagnosis of spinal deformity, approximation to the MTF of a gamma camera, and measurement of the area of a fibroadenoma in an ultrasound image. Finally, for each of the applications developed, we will detail its usefulness within the medical field, the results obtained, and its implementation in a graphical user interface to ensure ease of use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las prestaciones y características de los dispositivos móviles actuales los sitúa a un nivel similar a los ordenadores de escritorio tradicionales en cuanto a funcionalidad y posibilidades de uso, añadiendo además la movilidad y la sensación de pertenencia al usuario que se deriva de ésta. Estas cualidades convierten a las plataformas móviles de computación en verdaderos ordenadores personales, y cada día es más popular su utilización en ámbitos distintos del ocio y las comunicaciones propiamente dichas, pasando a convertirse en herramientas de apoyo a la productividad también en el entorno profesional y corporativo. La utilización del dispositivo móvil como parte de una infraestructura de telecomunicaciones da lugar a nuevas expresiones de problemas clásicos de gestión y seguridad. Para tratar de abordarlos con la flexibilidad y la escalabilidad necesarias se plantean alternativas novedosas que parten de enfoques originales a estos problemas, como las ideas y conceptos que se engloban en la filosofía del Control de Acceso a la Red (Network Access Control, o NAC). La mayoría de los planteamientos de NAC se basan, en el ámbito de la seguridad, en comprobar ciertas características del dispositivo móvil para tratar de determinar hasta qué punto puede éste suponer una amenaza para los recursos de la red u otros usuarios de la misma. Obtener esta información de forma fiable resulta extremadamente difícil si se caracteriza el dispositivo mediante un modelo de caja blanca, muy adecuado dada la apertura propia de los sistemas operativos móviles actuales, muy diferentes de los de antaño, y la ausencia de un marco de seguridad efectivo en ellos. Este trabajo explora el Estado de la Técnica en este ámbito de investigación y plantea diferentes propuestas orientadas a cubrir las deficiencias de las soluciones propuestas hasta el momento y a satisfacer los estrictos requisitos de seguridad que se derivan de la aplicación del modelo de caja blanca, materializándose en última instancia en la definición de un mecanismo de evaluación de características arbitrarias de un cierto dispositivo móvil basado en Entornos Seguros de Ejecución (Trusted Execution Environments, o TEEs) con elevadas garantías de seguridad compatible con los planteamientos actuales de NAC. ABSTRACT The performance and features of today’s mobile devices make them able to compete with traditional desktop computers in terms of functionality and possible usages. In addition to this, they sport mobility and the stronger sense of ownership that derives from it. These attributes change mobile computation platforms into truly personal computers, allowing them to be used not only for leisure or as mere communications devices, but also as supports of productivity in professional and corporative environments. The utilization of mobile devices as part of a telecommunications infrastructure brings new expressions of classic management and security problems with it. In order to tackle them with appropriate flexibility and scalability, new alternatives are proposed based on original approaches to these problems, such as the concepts and ideas behind the philosophy of Network Access Control (NAC). The vast majority of NAC proposals are based, security-wise, on checking certain mobile device’s properties in order to evaluate how probable it is for it to become a threat for network resources or even other users of the infrastructure. Obtaining this information in a reliable and trustworthy way is extremely difficult if the device is characterized using a white-box model, which is the most appropriate if the openness of today’s mobile operating systems, very different from former ones, and the absence of an effective security framework are taken into account. This work explores the State of the Art related with the aforementioned field of research and presents different proposals targeted to overcome the deficiencies of current solutions and satisfy the strict security requirements derived from the application of the white box model. These proposals are ultimately materialized in the definition of a high-security evaluation procedure of arbitrary properties of a given mobile device based on Trusted Execution Environments (TEEs) which is compatible with modern NAC approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With more than 10 fully sequenced, publicly available prokaryotic genomes, it is now becoming possible to gain useful insights into genome evolution. Before the genome era, many evolutionary processes were evaluated from limited data sets and evolutionary models were constructed on the basis of small amounts of evidence. In this paper, I show that genes on the Borrelia burgdorferi genome have two separate, distinct, and significantly different codon usages, depending on whether the gene is transcribed on the leading or lagging strand of replication. Asymmetrical replication is the major source of codon usage variation. Replicational selection is responsible for the higher number of genes on the leading strands, and transcriptional selection appears to be responsible for the enrichment of highly expressed genes on these strands. Replicational–transcriptional selection, therefore, has an influence on the codon usage of a gene. This is a new paradigm of codon selection in prokaryotes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Predicted highly expressed (PHX) and putative alien genes determined by codon usages are characterized in the genome of Deinococcus radiodurans (strain R1). Deinococcus radiodurans (DEIRA) can survive very high doses of ionizing radiation that are lethal to virtually all other organisms. It has been argued that DEIRA is endowed with enhanced repair systems that provide protection and stability. However, predicted expression levels of DNA repair proteins with the exception of RecA tend to be low and do not distinguish DEIRA from other prokaryotes. In this paper, the capability of DEIRA to resist extreme doses of ionizing and UV radiation is attributed to an unusually high number of PHX chaperone/degradation, protease, and detoxification genes. Explicitly, compared with all current complete prokaryotic genomes, DEIRA contains the greatest number of PHX detoxification and protease proteins. Other sources of environmental protection against severe conditions of UV radiation, desiccation, and thermal effects for DEIRA are the several S-layer (surface structure) PHX proteins. The top PHX gene of DEIRA is the multifunctional tricarboxylic acid (TCA) gene aconitase, which, apart from its role in respiration, also alerts the cell to oxidative damage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Structurally neighboring residues are categorized according to their separation in the primary sequence as proximal (1-4 positions apart) and otherwise distal, which in turn is divided into near (5-20 positions), far (21-50 positions), very far ( > 50 positions), and interchain (from different chains of the same structure). These categories describe the linear distance histogram (LDH) for three-dimensional neighboring residue types. Among the main results are the following: (i) nearest-neighbor hydrophobic residues tend to be increasingly distally separated in the linear sequence, thus most often connecting distinct secondary structure units. (ii) The LDHs of oppositely charged nearest-neighbors emphasize proximal positions with a subsidiary maximum for very far positions. (iii) Cysteine-cysteine structural interactions rarely involve proximal positions. (iv) The greatest numbers of interchain specific nearest-neighbors in protein structures are composed of oppositely charged residues. (v) The largest fraction of side-chain neighboring residues from beta-strands involves near positions, emphasizing associations between consecutive strands. (vi) Exposed residue pairs are predominantly located in proximal linear positions, while buried residue pairs principally correspond to far or very far distal positions. The results are principally invariant to protein sizes, amino acid usages, linear distance normalizations, and over- and underrepresentations among nearest-neighbor types. Interpretations and hypotheses concerning the LDHs, particularly those of hydrophobic and charged pairings, are discussed with respect to protein stability and functionality. The pronounced occurrence of oppositely charged interchain contacts is consistent with many observations on protein complexes where multichain stabilization is facilitated by electrostatic interactions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considerando a importância da represa do Lobo, os indícios de eutrofização encontrados na área e tendo a recreação como seu principal uso, buscou-se, neste trabalho, avaliar a qualidade da água nos rios tributários e na represa, e sua adequação a balneabilidade. Para os afluentes do sistema, estimando-se, ainda, a contribuição dos mesmos ao aporte de materiais à represa, foram amostrados o córrego do Geraldo, a confluência dos córregos Água Branca e Limoeiro, o rio Itaqueri (antes da mineradora), o ribeirão do Lobo, o córrego das Perdizes, avaliando-se parâmetros físicos, químicos e biológicos da água e a vazão dos rios, em dois períodos (agosto/setembro e dezembro) de 2002. Os resultados, com base no índice de estado trófico, indicam que a maioria dos tributários, com exceção do córrego Água Branca (eutrófico), é oligotrófico. Na represa o estudo teve avaliações mensais para alguns parâmetros (nutrientes totais e dissolvidos, clorofila total e material em suspensão) e semanais para outros (pH, condutividade elétrica, temperatura da água, oxigênio dissolvido e coliformes fecais) ao longo de um ano (dezembro de 2001 a dezembro de 2002), em nove pontos, abrangendo a região de foz do rio Itaqueri, córrego do Geraldo e ribeirão do Lobo, quatro pontos distribuídos na praia do balneário Santo Antônio e um ponto a jusante da represa. A foz do rio Itaqueri apresentou-se meso-eutrófica no período, enquanto os outros pontos avaliados, oligotróficos. Apesar da condição favorável apresentada, a análise temporal dos dados (com estudos realizados nos últimos 30 anos), mostra uma evidente e preocupante alteração nas condições originárias desse sistema, indicando um evidente processo de eutrofização do reservatório, associado aos usos e ocupação da bacia hidrográfica (resíduos domiciliares, turismo, agricultura e pecuária). Em relação a balneabilidade os principais pontos de contaminação fecal na represa são as entradas dos tributários, enquanto o corpo da represa foi considerado excelente em todo o período amostrado. O córrego Água Branca, como corpo receptor do esgoto de Itirapina, é o mais comprometido dos corpos de água avaliados, além de ser o principal contribuinte de nutrientes e coliformes fecais para a represa do Lobo, através do rio Itaqueri.