873 resultados para Usages linguistiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In an increasing number of applications (e.g., in embedded, real-time, or mobile systems) it is important or even essential to ensure conformance with respect to a specification expressing resource usages, such as execution time, memory, energy, or user-defined resources. In previous work we have presented a novel framework for data size-aware, static resource usage verification. Specifications can include both lower and upper bound resource usage functions. In order to statically check such specifications, both upper- and lower-bound resource usage functions (on input data sizes) approximating the actual resource usage of the program which are automatically inferred and compared against the specification. The outcome of the static checking of assertions can express intervals for the input data sizes such that a given specification can be proved for some intervals but disproved for others. After an overview of the approach in this paper we provide a number of novel contributions: we present a full formalization, and we report on and provide results from an implementation within the Ciao/CiaoPP framework (which provides a general, unified platform for static and run-time verification, as well as unit testing). We also generalize the checking of assertions to allow preconditions expressing intervals within which the input data size of a program is supposed to lie (i.e., intervals for which each assertion is applicable), and we extend the class of resource usage functions that can be checked.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La termografía infrarroja (TI) es una técnica no invasiva y de bajo coste que permite, con el simple acto de tomar una fotografía, el registro sin contacto de la energía que irradia el cuerpo humano (Akimov & Son’kin, 2011, Merla et al., 2005, Ng et al., 2009, Costello et al., 2012, Hildebrandt et al., 2010). Esta técnica comenzó a utilizarse en el ámbito médico en los años 60, pero debido a los malos resultados como herramienta diagnóstica y la falta de protocolos estandarizados (Head & Elliot, 2002), ésta se dejó de utilizar en detrimento de otras técnicas más precisas a nivel diagnóstico. No obstante, las mejoras tecnológicas de la TI en los últimos años han hecho posible un resurgimiento de la misma (Jiang et al., 2005, Vainer et al., 2005, Cheng et al., 2009, Spalding et al., 2011, Skala et al., 2012), abriendo el camino a nuevas aplicaciones no sólo centradas en el uso diagnóstico. Entre las nuevas aplicaciones, destacamos las que se desarrollan en el ámbito de la actividad física y el deporte, donde recientemente se ha demostrado que los nuevos avances con imágenes de alta resolución pueden proporcionar información muy interesante sobre el complejo sistema de termorregulación humana (Hildebrandt et al., 2010). Entre las nuevas aplicaciones destacan: la cuantificación de la asimilación de la carga de trabajo físico (Čoh & Širok, 2007), la valoración de la condición física (Chudecka et al., 2010, 2012, Akimov et al., 2009, 2011, Merla et al., 2010), la prevención y seguimiento de lesiones (Hildebrandt et al., 2010, 2012, Badža et al., 2012, Gómez Carmona, 2012) e incluso la detección de agujetas (Al-Nakhli et al., 2012). Bajo estas circunstancias, se acusa cada vez más la necesidad de ampliar el conocimiento sobre los factores que influyen en la aplicación de la TI en los seres humanos, así como la descripción de la respuesta de la temperatura de la piel (TP) en condiciones normales, y bajo la influencia de los diferentes tipos de ejercicio. Por consiguiente, este estudio presenta en una primera parte una revisión bibliográfica sobre los factores que afectan al uso de la TI en los seres humanos y una propuesta de clasificación de los mismos. Hemos analizado la fiabilidad del software Termotracker, así como su reproducibilidad de la temperatura de la piel en sujetos jóvenes, sanos y con normopeso. Finalmente, se analizó la respuesta térmica de la piel antes de un entrenamiento de resistencia, velocidad y fuerza, inmediatamente después y durante un período de recuperación de 8 horas. En cuanto a la revisión bibliográfica, hemos propuesto una clasificación para organizar los factores en tres grupos principales: los factores ambientales, individuales y técnicos. El análisis y descripción de estas influencias deben representar la base de nuevas investigaciones con el fin de utilizar la TI en las mejores condiciones. En cuanto a la reproducibilidad, los resultados mostraron valores excelentes para imágenes consecutivas, aunque la reproducibilidad de la TP disminuyó ligeramente con imágenes separadas por 24 horas, sobre todo en las zonas con valores más fríos (es decir, zonas distales y articulaciones). Las asimetrías térmicas (que normalmente se utilizan para seguir la evolución de zonas sobrecargadas o lesionadas) también mostraron excelentes resultados pero, en este caso, con mejores valores para las articulaciones y el zonas centrales (es decir, rodillas, tobillos, dorsales y pectorales) que las Zonas de Interés (ZDI) con valores medios más calientes (como los muslos e isquiotibiales). Los resultados de fiabilidad del software Termotracker fueron excelentes en todas las condiciones y parámetros. En el caso del estudio sobre los efectos de los entrenamientos de la velocidad resistencia y fuerza en la TP, los resultados muestran respuestas específicas según el tipo de entrenamiento, zona de interés, el momento de la evaluación y la función de las zonas analizadas. Los resultados mostraron que la mayoría de las ZDI musculares se mantuvieron significativamente más calientes 8 horas después del entrenamiento, lo que indica que el efecto del ejercicio sobre la TP perdura por lo menos 8 horas en la mayoría de zonas analizadas. La TI podría ser útil para cuantificar la asimilación y recuperación física después de una carga física de trabajo. Estos resultados podrían ser muy útiles para entender mejor el complejo sistema de termorregulación humano, y por lo tanto, para utilizar la TI de una manera más objetiva, precisa y profesional con visos a mejorar las nuevas aplicaciones termográficas en el sector de la actividad física y el deporte Infrared Thermography (IRT) is a safe, non-invasive and low-cost technique that allows the rapid and non-contact recording of the irradiated energy released from the body (Akimov & Son’kin, 2011; Merla et al., 2005; Ng et al., 2009; Costello et al., 2012; Hildebrandt et al., 2010). It has been used since the early 1960’s, but due to poor results as diagnostic tool and a lack of methodological standards and quality assurance (Head et al., 2002), it was rejected from the medical field. Nevertheless, the technological improvements of IRT in the last years have made possible a resurgence of this technique (Jiang et al., 2005; Vainer et al., 2005; Cheng et al., 2009; Spalding et al., 2011; Skala et al., 2012), paving the way to new applications not only focused on the diagnose usages. Among the new applications, we highlighted those in physical activity and sport fields, where it has been recently proven that a high resolution thermal images can provide us with interesting information about the complex thermoregulation system of the body (Hildebrandt et al., 2010), information than can be used as: training workload quantification (Čoh & Širok, 2007), fitness and performance conditions (Chudecka et al., 2010, 2012; Akimov et al., 2009, 2011; Merla et al., 2010; Arfaoui et al., 2012), prevention and monitoring of injuries (Hildebrandt et al., 2010, 2012; Badža et al., 2012, Gómez Carmona, 2012) and even detection of Delayed Onset Muscle Soreness – DOMS- (Al-Nakhli et al., 2012). Under this context, there is a relevant necessity to broaden the knowledge about factors influencing the application of IRT on humans, and to better explore and describe the thermal response of Skin Temperature (Tsk) in normal conditions, and under the influence of different types of exercise. Consequently, this study presents a literature review about factors affecting the application of IRT on human beings and a classification proposal about them. We analysed the reliability of the software Termotracker®, and also its reproducibility of Tsk on young, healthy and normal weight subjects. Finally, we examined the Tsk thermal response before an endurance, speed and strength training, immediately after and during an 8-hour recovery period. Concerning the literature review, we proposed a classification to organise the factors into three main groups: environmental, individual and technical factors. Thus, better exploring and describing these influence factors should represent the basis of further investigations in order to use IRT in the best and optimal conditions to improve its accuracy and results. Regarding the reproducibility results, the outcomes showed excellent values for consecutive images, but the reproducibility of Tsk slightly decreased with time, above all in the colder Regions of Interest (ROI) (i.e. distal and joint areas). The side-to-side differences (ΔT) (normally used to follow the evolution of some injured or overloaded ROI) also showed highly accurate results, but in this case with better values for joints and central ROI (i.e. Knee, Ankles, Dorsal and Pectoral) than the hottest muscle ROI (as Thigh or Hamstrings). The reliability results of the IRT software Termotracker® were excellent in all conditions and parameters. In the part of the study about the effects on Tsk of aerobic, speed and strength training, the results of Tsk demonstrated specific responses depending on the type of training, ROI, moment of the assessment and the function of the considered ROI. The results showed that most of muscular ROI maintained warmer significant Tsk 8 hours after the training, indicating that the effect of exercise on Tsk last at least 8 hours in most of ROI, as well as IRT could help to quantify the recovery status of the athlete as workload assimilation indicator. Those results could be very useful to better understand the complex skin thermoregulation behaviour, and therefore, to use IRT in a more objective, accurate and professional way to improve the new IRT applications for the physical activity and sport sector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia el papel de la metáfora como instrumento arquitectónico en el debate y las propuestas para superar la ortodoxia de la arquitectura moderna a partir de mediados del siglo XX. En arquitectura, la utilización del procedimiento que constituye la metáfora se apoya en una consideración semántica de la arquitectura y se ha usado constantemente a lo largo de la historia para desarrollar nuevas propuestas, basándose en la comparación con modelos conocidos. En este trabajo se examina la notable presencia que adquirió este instrumento en las propuestas críticas a la arquitectura moderna ortodoxa, debido a la importancia que tuvieron los aspectos semánticos en el debate sobre la continuidad y vigencia de los postulados de la arquitectura moderna. Con este estudio se ha indagado sobre las razones y la frecuencia con las que aquellos arquitectos que adoptaron una actitud crítica hacia la arquitectura moderna se refirieron a las relaciones metafóricas en sus propuestas alternativas. Para mostrar cómo las metáforas formaron parte de los mecanismos de cambio de la arquitectura en este periodo, recuperando un mayor potencial creativo para abordar los proyectos arquitectónicos, se han estudiado una serie de ejemplos pertinentes y relevantes. En cada uno de los capítulos se han analizado las objeciones más importantes que fueron planteadas frente a la arquitectura moderna por un arquitecto o grupo de arquitectos, seleccionados entre aquéllos que tomaron parte en este debate, y se estudia la inclusión de la metáfora en las alternativas que propusieron en cada caso. Además de una actitud crítica con la arquitectura moderna, todos los arquitectos seleccionados comparten una consideración semántica de la arquitectura y han expuesto sus ideas y posturas tanto en obras proyectadas y construidas, como en escritos o comentarios sobre su manera de entender y proyectar arquitectura. Esta doble producción ha permitido analizar, comparativamente, el papel de la metáfora en sus enfoques y propuestas críticas y en la realización de sus obras como alternativas a las mismas. Al mismo tiempo, la investigación profundiza en el conocimiento de la utilización de la metáfora como herramienta arquitectónica. A través del recorrido por las distintas maneras de entender este instrumento que pueden observarse en algunos de los arquitectos de la segunda mitad del siglo XX, se exponen tanto las posibilidades como los aspectos más críticos de la utilización de la metáfora en arquitectura. La variada utilización de la noción de metáfora en arquitectura se ve reflejada en las diversas consideraciones que hacen de la misma los arquitectos estudiados. La tesis se ha ocupado de distinguir cada uno de estos enfoques, haciéndose eco de la pluralidad con la que puede abordarse el concepto de metáfora de manera general y en arquitectura en particular. Así, algunos arquitectos del Team 10, la utilizan como un instrumento de ampliación y renovación semántica de la arquitectura moderna, que propone una síntesis de lo viejo y lo nuevo. Para Robert Venturi, se trata de un recurso con capacidad de persuadir y recrear, renovando semánticamente la arquitectura. Charles Jencks considera que es un procedimiento semántico esencial de la arquitectura, olvidado por los arquitectos modernos, cuya recuperación supone un rasgo diferencial de la arquitectura posmoderna respecto a la moderna. Para Aldo Rossi, es una manera de materializar las relaciones analógicas que constituyen su propuesta para proyectar una arquitectura de racionalismo exaltado frente a un racionalismo convencional. Peter Eisenman la valora porque inventa otras arquitecturas diferentes a las preconcebidas anteriormente, a pesar de que rechaza su capacidad representativa y expresiva. Rafael Moneo la utiliza para contraponerse al determinismo, como instrumento de innovación de la forma arquitectónica que construye una dinámica entre la contingencia y la necesidad. Finalmente, para Frank Gehry supone un procedimiento creativo y subjetivo con el que enfrentarse tanto a la arquitectura moderna como a la posmoderna con una arquitectura nueva y abierta a referencias inusuales. De esta manera, a través de los distintos capítulos, el estudio pretende componer un mosaico de posturas que manifieste los vínculos y las diferencias existentes entre estos arquitectos con relación a los temas estudiados: crítica y alternativas a la arquitectura moderna, semántica de la arquitectura, metáfora y otros conceptos relacionados. A su vez, la aparición continuada de la metáfora en los diferentes capítulos, y de los temas con los que está relacionada, manifiesta el protagonismo de esta herramienta arquitectónica en las propuestas de evolución y cambio de la arquitectura del periodo estudiado. ABSTRACT This thesis studies the role of the metaphor as an architectural tool in the debate and proposals to overcome the orthodoxy of modern architecture that took place since the middle part of the Twentieth Century. In architecture, the usage of the process which the metaphor constitutes is based in a semantic consideration of architecture and historically it has been used many times to develop new proposals, always based in the comparison with known models. This work examines the significant presence that this tool acquired in the proposals critical with orthodox modern architecture, due to the importance that the semantic aspects had in the debate on the continuity and validity of modern architecture’s postulates. This study also looks into the motives and frequency that those architects which adopted a critical attitude towards modern architecture alluded to the metaphorical relations in their alternative proposals. To demonstrate how during that period metaphors were imbued in the mechanisms of change of architecture, recovering a higher creative potential to approach architectural projects, a series of pertinent and relevant examples are studied. Each chapter examines the most important objections on modern architecture made by an architect or group of architects, selected among those who participated in this debate, and studies the inclusion of metaphor in the alternatives proposed in each case. Besides a critical attitude towards modern architecture, all the selected architects share a semantic consideration of architecture and have exposed their ideas and postures through projected and finalized works as in writings or commentaries on their way of understanding and projecting architecture. This double production allowed to analyse, in a comparatively manner, the role of metaphor in their approaches and critical proposals as in the execution of their works. At the same time, the research conducted further analyses the body of knowledge on the usage of metaphor as an architectural tool. By looking over the different ways some of the architects of the second half of the Twentieth Century understood this tool, both the possibilities and the most critical aspects of the usage of the metaphor in architecture can be exposed. The various usages of the notion of metaphor in architecture are reflected in the multiple considerations done about it by the selected architects. This thesis differentiates each one of those approaches, echoing the plurality with which the concept of metaphor can be addressed both in broader terms and more particularly in architecture. In this sense, some architects of Team 10 used it as a mean of semantic extension and renewal of modern architecture, proposing a synthesis between the old and the new. For Robert Venturi it is a resource with the capacity to persuade and recreate, semantically renewing architecture. Charles Jencks considers it an essential semantic procedure of architecture, forgotten by the modern architects, and which recovery represents a differential trait of post-modern architecture in relation to modern architecture. For Aldo Rossi, is a way of materializing the analogical relations which represent his proposal to project architecture of exalted rationalism as opposed to a more conventional rationalism. Peter Eisenman values it because it invents other architectures different from the preconceived before, even if he refuses its representational and expressive capacity. Rafael Moneo uses it to counter determinism, as an innovation tool of the architectonical form which generates dynamics between contingency and necessity. Finally, for Frank Gehry it supposes a creative and subjective process to face both modern architecture and post-modern architecture with a new architecture open to unusual references. As such, through its different chapters, this study aims to compose a mosaic of postures which expresses the links and the differences between those architects in relation to the topics examined: criticism and alternatives to modern architecture, semantics of architecture, metaphor and other related concepts. At the same time, the continuous presence of the metaphor in the different chapters, and of the issues it relates to, shows the importance of this tool in the proposals of evolution and change of architecture in the period considered.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La relación entre la ingeniería y la medicina cada vez se está haciendo más estrecha, y debido a esto se ha creado una nueva disciplina, la bioingeniería, ámbito en el que se centra el proyecto. Este ámbito cobra gran interés debido al rápido desarrollo de nuevas tecnologías que en particular permiten, facilitan y mejoran la obtención de diagnósticos médicos respecto de los métodos tradicionales. Dentro de la bioingeniería, el campo que está teniendo mayor desarrollo es el de la imagen médica, gracias al cual se pueden obtener imágenes del interior del cuerpo humano con métodos no invasivos y sin necesidad de recurrir a la cirugía. Mediante métodos como la resonancia magnética, rayos X, medicina nuclear o ultrasonidos, se pueden obtener imágenes del cuerpo humano para realizar diagnósticos. Para que esas imágenes puedan ser utilizadas con ese fin hay que realizar un correcto tratamiento de éstas mediante técnicas de procesado digital. En ése ámbito del procesado digital de las imágenes médicas es en el que se ha realizado este proyecto. Gracias al desarrollo del tratamiento digital de imágenes con métodos de extracción de información, mejora de la visualización o resaltado de rasgos de interés de las imágenes, se puede facilitar y mejorar el diagnóstico de los especialistas. Por todo esto en una época en la que se quieren automatizar todos los procesos para mejorar la eficacia del trabajo realizado, el automatizar el procesado de las imágenes para extraer información con mayor facilidad, es muy útil. Actualmente una de las herramientas más potentes en el tratamiento de imágenes médicas es Matlab, gracias a su toolbox de procesado de imágenes. Por ello se eligió este software para el desarrollo de la parte práctica de este proyecto, su potencia y versatilidad simplifican la implementación de algoritmos. Este proyecto se estructura en dos partes. En la primera se realiza una descripción general de las diferentes modalidades de obtención de imágenes médicas y se explican los diferentes usos de cada método, dependiendo del campo de aplicación. Posteriormente se hace una descripción de las técnicas más importantes de procesado de imagen digital que han sido utilizadas en el proyecto. En la segunda parte se desarrollan cuatro aplicaciones en Matlab para ejemplificar el desarrollo de algoritmos de procesado de imágenes médicas. Dichas implementaciones demuestran la aplicación y utilidad de los conceptos explicados anteriormente en la parte teórica, como la segmentación y operaciones de filtrado espacial de la imagen, así como otros conceptos específicos. Las aplicaciones ejemplo desarrolladas han sido: obtención del porcentaje de metástasis de un tejido, diagnóstico de las deformidades de la columna vertebral, obtención de la MTF de una cámara de rayos gamma y medida del área de un fibroadenoma de una ecografía de mama. Por último, para cada una de las aplicaciones se detallará su utilidad en el campo de la imagen médica, los resultados obtenidos y su implementación en una interfaz gráfica para facilitar su uso. ABSTRACT. The relationship between medicine and engineering is becoming closer than ever giving birth to a recently appeared science field: bioengineering. This project is focused on this subject. This recent field is becoming more and more important due to the fast development of new technologies that provide tools to improve disease diagnosis, with regard to traditional procedures. In bioengineering the fastest growing field is medical imaging, in which we can obtain images of the inside of the human body without need of surgery. Nowadays by means of the medical modalities of magnetic resonance, X ray, nuclear medicine or ultrasound, we can obtain images to make a more accurate diagnosis. For those images to be useful within the medical field, they should be processed properly with some digital image processing techniques. It is in this field of digital medical image processing where this project is developed. Thanks to the development of digital image processing providing methods for data collection, improved visualization or data highlighting, diagnosis can be eased and facilitated. In an age where automation of processes is much sought, automated digital image processing to ease data collection is extremely useful. One of the most powerful image processing tools is Matlab, together with its image processing toolbox. That is the reason why that software was chosen to develop the practical algorithms in this project. This final project is divided into two main parts. Firstly, the different modalities for obtaining medical images will be described. The different usages of each method according to the application will also be specified. Afterwards we will give a brief description of the most important image processing tools that have been used in the project. Secondly, four algorithms in Matlab are implemented, to provide practical examples of medical image processing algorithms. This implementation shows the usefulness of the concepts previously explained in the first part, such as: segmentation or spatial filtering. The particular applications examples that have been developed are: calculation of the metastasis percentage of a tissue, diagnosis of spinal deformity, approximation to the MTF of a gamma camera, and measurement of the area of a fibroadenoma in an ultrasound image. Finally, for each of the applications developed, we will detail its usefulness within the medical field, the results obtained, and its implementation in a graphical user interface to ensure ease of use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las prestaciones y características de los dispositivos móviles actuales los sitúa a un nivel similar a los ordenadores de escritorio tradicionales en cuanto a funcionalidad y posibilidades de uso, añadiendo además la movilidad y la sensación de pertenencia al usuario que se deriva de ésta. Estas cualidades convierten a las plataformas móviles de computación en verdaderos ordenadores personales, y cada día es más popular su utilización en ámbitos distintos del ocio y las comunicaciones propiamente dichas, pasando a convertirse en herramientas de apoyo a la productividad también en el entorno profesional y corporativo. La utilización del dispositivo móvil como parte de una infraestructura de telecomunicaciones da lugar a nuevas expresiones de problemas clásicos de gestión y seguridad. Para tratar de abordarlos con la flexibilidad y la escalabilidad necesarias se plantean alternativas novedosas que parten de enfoques originales a estos problemas, como las ideas y conceptos que se engloban en la filosofía del Control de Acceso a la Red (Network Access Control, o NAC). La mayoría de los planteamientos de NAC se basan, en el ámbito de la seguridad, en comprobar ciertas características del dispositivo móvil para tratar de determinar hasta qué punto puede éste suponer una amenaza para los recursos de la red u otros usuarios de la misma. Obtener esta información de forma fiable resulta extremadamente difícil si se caracteriza el dispositivo mediante un modelo de caja blanca, muy adecuado dada la apertura propia de los sistemas operativos móviles actuales, muy diferentes de los de antaño, y la ausencia de un marco de seguridad efectivo en ellos. Este trabajo explora el Estado de la Técnica en este ámbito de investigación y plantea diferentes propuestas orientadas a cubrir las deficiencias de las soluciones propuestas hasta el momento y a satisfacer los estrictos requisitos de seguridad que se derivan de la aplicación del modelo de caja blanca, materializándose en última instancia en la definición de un mecanismo de evaluación de características arbitrarias de un cierto dispositivo móvil basado en Entornos Seguros de Ejecución (Trusted Execution Environments, o TEEs) con elevadas garantías de seguridad compatible con los planteamientos actuales de NAC. ABSTRACT The performance and features of today’s mobile devices make them able to compete with traditional desktop computers in terms of functionality and possible usages. In addition to this, they sport mobility and the stronger sense of ownership that derives from it. These attributes change mobile computation platforms into truly personal computers, allowing them to be used not only for leisure or as mere communications devices, but also as supports of productivity in professional and corporative environments. The utilization of mobile devices as part of a telecommunications infrastructure brings new expressions of classic management and security problems with it. In order to tackle them with appropriate flexibility and scalability, new alternatives are proposed based on original approaches to these problems, such as the concepts and ideas behind the philosophy of Network Access Control (NAC). The vast majority of NAC proposals are based, security-wise, on checking certain mobile device’s properties in order to evaluate how probable it is for it to become a threat for network resources or even other users of the infrastructure. Obtaining this information in a reliable and trustworthy way is extremely difficult if the device is characterized using a white-box model, which is the most appropriate if the openness of today’s mobile operating systems, very different from former ones, and the absence of an effective security framework are taken into account. This work explores the State of the Art related with the aforementioned field of research and presents different proposals targeted to overcome the deficiencies of current solutions and satisfy the strict security requirements derived from the application of the white box model. These proposals are ultimately materialized in the definition of a high-security evaluation procedure of arbitrary properties of a given mobile device based on Trusted Execution Environments (TEEs) which is compatible with modern NAC approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With more than 10 fully sequenced, publicly available prokaryotic genomes, it is now becoming possible to gain useful insights into genome evolution. Before the genome era, many evolutionary processes were evaluated from limited data sets and evolutionary models were constructed on the basis of small amounts of evidence. In this paper, I show that genes on the Borrelia burgdorferi genome have two separate, distinct, and significantly different codon usages, depending on whether the gene is transcribed on the leading or lagging strand of replication. Asymmetrical replication is the major source of codon usage variation. Replicational selection is responsible for the higher number of genes on the leading strands, and transcriptional selection appears to be responsible for the enrichment of highly expressed genes on these strands. Replicational–transcriptional selection, therefore, has an influence on the codon usage of a gene. This is a new paradigm of codon selection in prokaryotes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Predicted highly expressed (PHX) and putative alien genes determined by codon usages are characterized in the genome of Deinococcus radiodurans (strain R1). Deinococcus radiodurans (DEIRA) can survive very high doses of ionizing radiation that are lethal to virtually all other organisms. It has been argued that DEIRA is endowed with enhanced repair systems that provide protection and stability. However, predicted expression levels of DNA repair proteins with the exception of RecA tend to be low and do not distinguish DEIRA from other prokaryotes. In this paper, the capability of DEIRA to resist extreme doses of ionizing and UV radiation is attributed to an unusually high number of PHX chaperone/degradation, protease, and detoxification genes. Explicitly, compared with all current complete prokaryotic genomes, DEIRA contains the greatest number of PHX detoxification and protease proteins. Other sources of environmental protection against severe conditions of UV radiation, desiccation, and thermal effects for DEIRA are the several S-layer (surface structure) PHX proteins. The top PHX gene of DEIRA is the multifunctional tricarboxylic acid (TCA) gene aconitase, which, apart from its role in respiration, also alerts the cell to oxidative damage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Structurally neighboring residues are categorized according to their separation in the primary sequence as proximal (1-4 positions apart) and otherwise distal, which in turn is divided into near (5-20 positions), far (21-50 positions), very far ( > 50 positions), and interchain (from different chains of the same structure). These categories describe the linear distance histogram (LDH) for three-dimensional neighboring residue types. Among the main results are the following: (i) nearest-neighbor hydrophobic residues tend to be increasingly distally separated in the linear sequence, thus most often connecting distinct secondary structure units. (ii) The LDHs of oppositely charged nearest-neighbors emphasize proximal positions with a subsidiary maximum for very far positions. (iii) Cysteine-cysteine structural interactions rarely involve proximal positions. (iv) The greatest numbers of interchain specific nearest-neighbors in protein structures are composed of oppositely charged residues. (v) The largest fraction of side-chain neighboring residues from beta-strands involves near positions, emphasizing associations between consecutive strands. (vi) Exposed residue pairs are predominantly located in proximal linear positions, while buried residue pairs principally correspond to far or very far distal positions. The results are principally invariant to protein sizes, amino acid usages, linear distance normalizations, and over- and underrepresentations among nearest-neighbor types. Interpretations and hypotheses concerning the LDHs, particularly those of hydrophobic and charged pairings, are discussed with respect to protein stability and functionality. The pronounced occurrence of oppositely charged interchain contacts is consistent with many observations on protein complexes where multichain stabilization is facilitated by electrostatic interactions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considerando a importância da represa do Lobo, os indícios de eutrofização encontrados na área e tendo a recreação como seu principal uso, buscou-se, neste trabalho, avaliar a qualidade da água nos rios tributários e na represa, e sua adequação a balneabilidade. Para os afluentes do sistema, estimando-se, ainda, a contribuição dos mesmos ao aporte de materiais à represa, foram amostrados o córrego do Geraldo, a confluência dos córregos Água Branca e Limoeiro, o rio Itaqueri (antes da mineradora), o ribeirão do Lobo, o córrego das Perdizes, avaliando-se parâmetros físicos, químicos e biológicos da água e a vazão dos rios, em dois períodos (agosto/setembro e dezembro) de 2002. Os resultados, com base no índice de estado trófico, indicam que a maioria dos tributários, com exceção do córrego Água Branca (eutrófico), é oligotrófico. Na represa o estudo teve avaliações mensais para alguns parâmetros (nutrientes totais e dissolvidos, clorofila total e material em suspensão) e semanais para outros (pH, condutividade elétrica, temperatura da água, oxigênio dissolvido e coliformes fecais) ao longo de um ano (dezembro de 2001 a dezembro de 2002), em nove pontos, abrangendo a região de foz do rio Itaqueri, córrego do Geraldo e ribeirão do Lobo, quatro pontos distribuídos na praia do balneário Santo Antônio e um ponto a jusante da represa. A foz do rio Itaqueri apresentou-se meso-eutrófica no período, enquanto os outros pontos avaliados, oligotróficos. Apesar da condição favorável apresentada, a análise temporal dos dados (com estudos realizados nos últimos 30 anos), mostra uma evidente e preocupante alteração nas condições originárias desse sistema, indicando um evidente processo de eutrofização do reservatório, associado aos usos e ocupação da bacia hidrográfica (resíduos domiciliares, turismo, agricultura e pecuária). Em relação a balneabilidade os principais pontos de contaminação fecal na represa são as entradas dos tributários, enquanto o corpo da represa foi considerado excelente em todo o período amostrado. O córrego Água Branca, como corpo receptor do esgoto de Itirapina, é o mais comprometido dos corpos de água avaliados, além de ser o principal contribuinte de nutrientes e coliformes fecais para a represa do Lobo, através do rio Itaqueri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo tratamos de presentar, en esencia, una serie de actividades encaminadas a la adquisición del léxico especializado en economía y finanzas. Tras repasar brevemente algunos de los supuestos y postulados de la teoría comunicativa de la terminología (TCT), ejemplificar algunos fenómenos terminológicos en el ámbito de los planes de refinanciación de la crisis en España y reseñar algunos de los puntos que conviene tener en cuenta en la enseñanza de lenguas para fines específicos, presentamos diferentes actividades basadas en las etapas en las que es posible dividir el proceso de adquisición de vocabulario especializado. Se trata de diferentes tipos de actividades, enfocadas no sólo para especialistas no castellanoparlantes, sino también para mediadores lingüísticos (traductores en formación, por ejemplo), que inciden fundamentalmente en los aspectos terminológicos del lenguaje, como, entre otras cosas, en el tipo de relaciones conceptuales que se estable entre el léxico o el tipo de variación terminológica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les années 1960 au Québec sont marquées par un vigoureux courant nationaliste prônant l’affirmation politique et culturelle des francophones dans la province. Également, le phénomène de l’américanisation du territoire québécois s’accélère. C’est dans ce cadre historique particulier que naissent en 1968 les Expos de Montréal, équipe du circuit de baseball le plus important au monde, soit la Ligue du baseball majeur. La MLB s’installe alors dans un territoire où le baseball est centenaire. L’objectif de ce mémoire est d’étudier les débats et réactions suscités par l’avènement de Montréal dans le baseball majeur, en déterminant l’influence qu’y ont joué le nationalisme québécois des années 1960, l’américanisation du Québec et la longue histoire du baseball dans la province. Si les deux communautés linguistiques de celle-ci sont ici à l’étude, il n’en demeure pas moins que l’attention est davantage portée sur les francophones que les anglophones. En effet, ceux-ci ont semblé davantage interpelés par la création des Expos. D’ailleurs, parmi les deux groupes, les positions les plus documentées sont celles des chroniqueurs sportifs, qui se retrouvent donc au cœur de notre étude. Les opinions d’amateurs de baseball, de politiciens, d’hommes d’affaires ou de simples citoyens québécois sont également rapportées et analysées, mais dans une plus faible mesure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The peppers can be very diverse, from sweet to hot peppers, varying in shape, in colour, in properties and usages. While some are eaten in the fresh state, many of them undergo a drying process to be preserved for a longer time and to increase availability and convenience. Hence, after harvesting, in many cases a drying operation is involved, and the present chapter aims to address this operation, of pivotal importance. In ancient times, the drying of foods in general and peppers in particular was done by exposure to the solar radiation. However, despite its cheapness and easiness, this process involved many drawbacks, like long drying times, probability of adverse atmospheric conditions and contaminations of the product. Hence, nowadays its usage is reduced. The most popular industrial drying method is the hot air convective drying. However, the high temperatures to which the product is exposed can cause changes in the composition and nutritional value as well as in the physical properties or organoleptic quality of the products. Other alternative methods can be used, but sometimes they are more expensive or more time consuming, such as is the case of freeze drying. Still, this last also has visible advantages from the quality point of view, minimizing the changes in texture, colour, flavour or nutrients. The knowledge of adequate drying operating conditions allows the optimization of the product characteristics, and hence to know the drying kinetics or the isotherms is fundamental to properly design the most adequate drying processes, and therefore preserve the organoleptic characteristics as well as the bioactive compounds present.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude naît à la suite d'un contact direct avec l'une des manifestations contemporaines des variétés de français qui caractérisent Paris et dont l'histoire est liée à l'urbanisation de la ville, l'Argot des jeunes parisiens. Ce langage naît en effet de l'opposition des jeunes des catégories populaires vivant dans des quartiers dits « sensibles » aux pratiques des jeunes issus des classes moyennes et supérieures. Mais l'émergence de pratiques langagières argotiques n'est pas un phénomène récent. En effet la langue française a toujours été déstructurée pour masquer ou crypter des informations surtout chez les classes sociales les plus basses, au milieu desquelles vivaient les criminels. Le point de départ est donc la définition du langage argotique qui, en gardant la phonologie et la syntaxe de la langue française commune, introduit un lexique nouveau pour nommer les activités qui sont propres à des communautés spécifiques et que l'on analysera au cours de cette recherche. On parlera donc des premières sociétés criminelles caractérisées par l'usage de ce type de langage et de la découverte du première document argotique officiel à l'intérieur duquel on a retrouvé une description détaillée des expressions utilisées par un groupe de malfaiteurs. On se focalisera ensuite sur les attitudes linguistiques qui viennent d'une vision du monde typique des classes sociales les plus basses et qui comportent différents procédés de formation de mots propres au langage parallèle à la langue d'usage commun. On abordera enfin la condition des jeunes banlieusards de nos jours, qui, à cause du manque d'intérêt de la société qui les entoure, cherchent à s' évader de la condition de marginalité dans laquelle ils vivent à travers la création d'un langage qui puisse seconder leur sentiment d'appartenance au même groupe social et qu'ils utilisent comme instrument d'évasion d'une réalité aliénante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les années 1960 au Québec sont marquées par un vigoureux courant nationaliste prônant l’affirmation politique et culturelle des francophones dans la province. Également, le phénomène de l’américanisation du territoire québécois s’accélère. C’est dans ce cadre historique particulier que naissent en 1968 les Expos de Montréal, équipe du circuit de baseball le plus important au monde, soit la Ligue du baseball majeur. La MLB s’installe alors dans un territoire où le baseball est centenaire. L’objectif de ce mémoire est d’étudier les débats et réactions suscités par l’avènement de Montréal dans le baseball majeur, en déterminant l’influence qu’y ont joué le nationalisme québécois des années 1960, l’américanisation du Québec et la longue histoire du baseball dans la province. Si les deux communautés linguistiques de celle-ci sont ici à l’étude, il n’en demeure pas moins que l’attention est davantage portée sur les francophones que les anglophones. En effet, ceux-ci ont semblé davantage interpelés par la création des Expos. D’ailleurs, parmi les deux groupes, les positions les plus documentées sont celles des chroniqueurs sportifs, qui se retrouvent donc au cœur de notre étude. Les opinions d’amateurs de baseball, de politiciens, d’hommes d’affaires ou de simples citoyens québécois sont également rapportées et analysées, mais dans une plus faible mesure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Divided in 4 "divisions," each accompanied respectively by 30, 20, 30, 20 lithographs after designs of the author.