866 resultados para Revolutionary Tendency of Peronism


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid -GDEM- se dedica, entre otras cosas, al estudio y mejora del consumo en sistemas empotrados. Es en este lugar y sobre este tema donde el proyecto a exponer ha tomado forma y desarrollo. Según un artículo de la revista online Revista de Electrónica Embebida, un sistema empotrado o embebido es aquel “sistema controlado por un microprocesador y que gracias a la programación que incorpora o que se le debe incorporar, realiza una función específica para la que ha sido diseñado, integrando en su interior la mayoría de los elementos necesarios para realizar dicho función”. El porqué de estudiar sobre este tema responde a que, cada vez, hay mayor presencia de sistemas empotrados en nuestra vida cotidiana. Esto es debido a que se está tendiendo a dotar de “inteligencia” a todo lo que puedan hacer nuestra vida un poco más fácil. Nos podemos encontrar dichos sistemas en fábricas, oficinas de atención a los ciudadanos, sistemas de seguridad de hogar, relojes, móviles, lavadoras, hornos, aspiradores y un largo etcétera en cualquier aparato que nos podamos imaginar. A pesar de sus grandes ventajas, aún hay grandes inconvenientes. El mayor problema que supone a día de hoy es la autonomía del mismo sistema, ya que hablamos de aparatos que muchas veces están alimentados por baterías -para ayudar a su portabilidad–. Por esto, se está intentando dotar a dichos sistemas de una capacidad de ahorro de energía y toma de decisiones que podrían ayudar a duplicar la autonomía de dicha batería. Un ejemplo claro son los Smartphones de hoy en día, unos aparatos casi indispensables que pueden tener una autonomía de un día. Esto es poco práctico para el usuario en caso de viajes, trabajo u otras situaciones en las que se le dé mucho uso y no pueda tener acceso a una red eléctrica. Es por esto que surge la necesidad de investigar, sin necesidad de mejorar el hardware del sistema, una manera de mejorar esta situación. Este proyecto trabajará en esa línea creando un sistema automático de medida el cual generará las corrientes que servirán como entrada para verificar el sistema de adquisición que junto con la tarjeta Beagle Board permitirá la toma de decisiones en relación con el consumo de energía. Para realizar este sistema, nos ayudaremos de diferentes herramientas que podremos encontrar en el laboratorio del GDEM, como la fuente de alimentación Agilent y la Beagle Board –como principales herramientas de trabajo- . El objetivo principal será la simulación de unas señales que, después de pasar un proceso de conversión y tratado, harán la función de representación del consumo de cada una de las partes que pueden formar un sistema empotrado genérico. Por lo tanto, podemos decir que el sistema hará la funcionalidad de un banco de pruebas que ayudará a simular dicho consumo para que el microprocesador del sistema pueda llegar a tomar alguna decisión. ABSTRACT. The Electronic and Microelectronic Design Group of Universidad Politécnica de Madrid -GDEM- is in charge, between other issues, of improving the embedded system’s consumption. It is in this place and about this subject where the exposed project has taken shape and development. According to an article from de online magazine Revista de Electronica Embebida, an embedded system is “the one controlled by a microprocessor and, thanks to the programing that it includes, it carries out a specific function what it has been designed for, being integrated in it the most necessary elements for realizing the already said function”. The because of studying this subject, answers that each time there is more presence of the embedded system in our daily life. This is due to the tendency of providing “intelligence” to all what can make our lives easier. We can find this kind of systems in factories, offices, security systems, watchers, mobile phones, washing machines, ovens, hoovers and, definitely, in all kind of machines what we can think of. Despite its large vantages, there are still some inconveniences. Nowadays, the most important problem is the autonomy of the system itself when machines that have to be supplied by batteries –making easier the portability-. Therefore, this project is going after a save capacity of energy for the system as well as being able to take decisions in order to duplicate batteries’ autonomy. Smartphones are a clear example. They are a very successful product but the autonomy is just one day. This is not practical for users, at all, if they have to travel, to work or to do any activity that involves a huge use of the phone without a socket nearby. That is why the need of investigating a way to improve this situation. This project is working on this line, creating an automatic system that will generate the currents for verifying the acquisition system that, with the beagle board, will help taking decisions regarding the energy’s consumption. To carry out this system, we need different tools that we can find in the laboratory of the group previously mentioned, like power supply Agilent and the Beagle Board – as main working tools –. The main goal is the simulation of some signals that, after a conversion process, will represent de consumption of each of the parts in the embedded generic system. Therefore, the system will be a testing ground that simulate the consumption, once sent to the processor, to be processed and so the microprocessor system might take some decision.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de esta tesis fin de máster es la construcción mediante técnicas evolutivas de bases de conocimiento con reglas difusas para desarrollar un sistema autónomo que sea capaz de jugar con destreza a un videojuego de lucha en 2D. El uso de la lógica difusa permite manejar imprecisión, la cual está implícita en las variables de entrada al sistema y favorece la comprensión a nivel humano del comportamiento general del controlador. Se ha diseñado, para obtener la base de conocimiento que permita al sistema tomar las decisiones adecuadas durante el combate, un nuevo operador para algoritmos evolutivos. Se ha observado que la programación genética guiada por gramáticas (PGGG) muestra un sesgo debido al cruce que se suele emplear para obtener nuevos individuos en el proceso evolutivo. Para solventar este problema, se propone el método de sedimentación, capaz de evitar la tendencia que tiene la PGGG a generar bases de conocimiento con pocas reglas, de forma independiente a la gramática. Este método se inspira en la sedimentación que se produce en el fondo de los lechos marinos y permite obtener un sustrato de reglas óptimas que forman la solución final una vez que converge el algoritmo.---ABSTRACT---The objective of this thesis is the construction by evolutionary techniques of fuzzy rule-base system to develop an autonomous controller capable of playing a 2D fighting game. The use of fuzzy logic handles imprecision, which is implicit in the input variables of the system and makes the behavior of the controller easier to understand by humans. A new operator for evolutionary algorithms is designed to obtain the knowledge base that allows the system to take appropriate decision during combat. It has been observed that the grammar guided genetic programming (GGGP) shows a bias due to the crossing that is often used for obtaining new individuals in the evolutionary process. To solve this problem, the sedimentation method, able to avoid the tendency of the PGGG to generate knowledge bases with few rules, independently of the grammar is proposed. This method is inspired by the sedimentation that occurs on the bottom of the seabed and creates an optimal rules substrate that ends on the final solution once the algorithm converges.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The conception of IoT (Internet of Things) is accepted as the future tendency of Internet among academia and industry. It will enable people and things to be connected at anytime and anyplace, with anything and anyone. IoT has been proposed to be applied into many areas such as Healthcare, Transportation,Logistics, and Smart environment etc. However, this thesis emphasizes on the home healthcare area as it is the potential healthcare model to solve many problems such as the limited medical resources, the increasing demands for healthcare from elderly and chronic patients which the traditional model is not capable of. A remarkable change in IoT in semantic oriented vision is that vast sensors or devices are involved which could generate enormous data. Methods to manage the data including acquiring, interpreting, processing and storing data need to be implemented. Apart from this, other abilities that IoT is not capable of are concluded, namely, interoperation, context awareness and security & privacy. Context awareness is an emerging technology to manage and take advantage of context to enable any type of system to provide personalized services. The aim of this thesis is to explore ways to facilitate context awareness in IoT. In order to realize this objective, a preliminary research is carried out in this thesis. The most basic premise to realize context awareness is to collect, model, understand, reason and make use of context. A complete literature review for the existing context modelling and context reasoning techniques is conducted. The conclusion is that the ontology-based context modelling and ontology-based context reasoning are the most promising and efficient techniques to manage context. In order to fuse ontology into IoT, a specific ontology-based context awareness framework is proposed for IoT applications. In general, the framework is composed of eight components which are hardware, UI (User Interface), Context modelling, Context fusion, Context reasoning, Context repository, Security unit and Context dissemination. Moreover, on the basis of TOVE (Toronto Virtual Enterprise), a formal ontology developing methodology is proposed and illustrated which consists of four stages: Specification & Conceptualization, Competency Formulation, Implementation and Validation & Documentation. In addition, a home healthcare scenario is elaborated by listing its well-defined functionalities. Aiming at representing this specific scenario, the proposed ontology developing methodology is applied and the ontology-based model is developed in a free and open-source ontology editor called Protégé. Finally, the accuracy and completeness of the proposed ontology are validated to show that this proposed ontology is able to accurately represent the scenario of interest.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es, en el encuentro de los edificios con el terreno, donde el suelo como realidad se transforma en cualidad arquitectónica. La presente tesis aborda el estudio del plano del suelo, haciendo una revisión crítica de la arquitectura como mecanismo de pensamiento proyectual. Este análisis se enmarca a partir de los años sesenta, por considerar que es cuando comienza a evidenciarse la ruptura respecto a la herencia del Movimiento Moderno. Es entonces cuando la arquitectura marca un punto de inflexión, y empiezan a surgir diferentes actitudes metodológicas respecto al suelo, totalmente nuevas. Las clásicas acciones de encuentro como posar, elevar o enterrar fueron poco a poco sustituidas por otras más complejas como plegar, inclinar o esponjar. Utilizando como marco de restricción los encuentros o desencuentros del objeto arquitectónico con el terreno, se analiza el suelo como estrategia arquitectónica tratando de demostrar como su manipulación puede ser una eficaz herramienta con la que establecer relaciones específicas con el lugar. La capacidad que presenta el suelo, como elemento arquitectónico, de explorar y modificar las características de cada entorno, hacen de esta superficie una eficiente forma de contextualización. Por tanto, la manipulación del suelo que aquí se plantea, opera transcodificando los elementos específicos de cada lugar y actúa como estrategia arquitectónica que pone en relación al edificio con el contexto, modificando las particularidades formales de dicho plano. Frente a la tendencia que reduce la expresión arquitectónica a una simple apariencia formal autónoma, se plantea la manipulación del plano del suelo como mecanismo de enraizamiento con el lugar, enfatizando para ello la condición terrestre de la arquitectura. El plano del suelo es el que ata al edificio mediante la gravedad a la corteza terrestre. En realidad se trata de realzar el carácter mediador del suelo en la arquitectura, definiendo para ello el establecimiento de elementos comunes entre realidades distintas, potenciando el valor del suelo como herramienta que puede transcodificar el entorno, trasformando su datos en elementos arquitectónicos concretos. En este proceso de traducción de información, el suelo pasa de ser un objeto pasivo a ser uno operativo, convirtiéndose en parte activa de las acciones que sobre él se ejercen. La tesis tiene también como propósito demostrar cómo, la clave de la rápida evolución que el suelo como estrategia arquitectónica ha sufrido en los últimos años, mucho debe a la expansión del suelo en otras artes como en la escultura, y mas concretamente en el landart. Surgen entonces nuevas disciplinas, en las que se propone la comprensión del lugar en los proyectos desarrollando una visión integral del mundo natural, convirtiéndolo en un tejido viviente y conector que pone en relación las actividades que sustenta. También encontramos en Utzon, y sus plataformas geológicas, al precursor de la importancia que más tarde se le daría al plano del suelo en la arquitectura, ya que inicia cierta actitud crítica, que hizo avanzar hacia una arquitectura más expresiva que requería nuevos mecanismos que la relacionasen con el suelo que los soportaba, proponiendo con sus plataformas una transformación infraestructural del suelo. Con su interpretación transcultural de las estructuras espaciales arquetípicas mayas, chinas y japonesas, irá enriqueciendo el panorama arquitectónico, adquiriendo de este modo más valor el contexto que acabará por ser entendido de forma más compleja. Los proyectos de arquitectura en muchas ocasiones se han convertido en territorios propicios de especulación donde construir teoría arquitectónica. Desde este contexto se analizan cuatro estrategias de suelo a través del estudio de cuatro posiciones arquitectónicas muy significativas desde el punto de vista de la manipulación del plano del suelo, que construyen una interesante metodología proyectual con la que operar. Los casos de estudio, propuestos son; la Terminal Pasajeros (1996-2002) en Yokohama del estudio FOA, la Casa de la Música (1999-2005) de OMA en Oporto, el Memorial Judío (1998-2005) de Berlín de Peter Eisenman, y por último el Museo MAXXI (1998-2009) de Zaha Hadid en Roma. Descubrir las reglas, referencias y metodologías que cada uno nos propone, nos permite descubrir cuáles son los principales posicionamientos en relación al proyecto y su relación con el lugar. Las propuestas aquí expuestas abordan una nueva forma de entender el suelo, que hizo avanzar a la arquitectura hacia nuevos modos de encuentro con el terreno. Nos permite también establecer cuáles son las principales aportaciones arquitectónicas del suelo, como estrategia arquitectónica, que han derivado en su reformulación. Dichas contribuciones abren nuevas formas de abordar la arquitectura basadas en el movimiento y en la flexibilidad funcional, o en la superposición de flujos de información y circulación. También plantean nuevas vías desdibujando la figura contra el fondo, y refuerzan la idea del suelo como plataforma infraestructural que ya había sido enunciada por Utzon. Se trata en definitiva de proponer la exploración de la superficie del suelo como el elemento más revelador de las formas emergentes del espacio. ABSTRACT Where the building hits the ground, it is where the latter as reality becomes architectural quality. This thesis presents the study of the ground plane, making a critical review of architecture as a mechanism of projectual thought. This analysis starts from the sixties, because it is when the break begins to be demonstrated with regard to the inheritance of the Modern Movement. It is then when architecture marks a point of inflexion, and different, completely new methodological attitudes to the ground start to emerge. The classic meeting action like place, raise or bury are gradually replaced by more complex operations such as fold, bend or fluff up. Framing it within the meetings or disagreements between architectural object and ground, we analyzed it as architectural strategy trying to show how handling can be an effective tool to establish a specific relationship with the place. The capacity ground has, as an architectural element, to explore and modify the characteristics of each environment, makes this area an efficient tool for contextualization. Therefore, the manipulation of ground that is analyzed here, operates transcoding the specifics of each place and acts as architectural strategy that relates to the building with the context, modifying the structural peculiarities of such plane. Opposite to the reductive tendency of the architectural expression to a simple formal autonomous appearance, the manipulation of the ground plane is considered as a rooting mechanism place that emphasises the earthly condition of architecture. The ground plane is the one that binds the building by gravity to the earth’s crust. In fact, it tries to study the mediating character of the ground in architecture, defining for it to establish commonalities among different realities, enhancing the value of the ground as a tool that can transcode the environment, transforming its data into specific architectural elements. In this process of translating information, the ground goes from being a liability, to become active part of the actions exerted on the object. The thesis also tries to demonstrate how the key of the rapid evolution that the ground likes architectural strategy has gone through recently, much due to its use expansion in other arts such as sculpture. New disciplines arise then, in which one proposes the local understanding in the projects, developing an integral vision of the natural world and turning it into an element linking the activities it supports. We also find in Utzon, and his geological platforms, the precursor of the importance that later would be given to the ground plane in architecture, since it initiates a certain critical attitude, which advances towards a more expressive architecture, with new mechanisms that relate to the ground that it sits in, proposing with its platforms an infrastructural transformation of the ground. With his transcultural interpretation of the spatial archetypal structures, he will enrich the architectural discourse, making the context become understood in more complex ways. Architectural projects in many cases have become territories prone to architectural theory speculation. Within this context, four strategies are analyzed through the study of four very significant architectural positions, from the point of view of handling the ground plane, and the project methodology within which to operate. The case studies analyzed are; Passenger Terminal (1996-2002) in Yokohama from FOA, The House of the music (1999-2005) the OMA in Oporto, The Jew monument (1998-2005) in Berlin the Peter Eisenman, and finally the MAXXI Museum (1998-2009) the Zaha Hadid in Rome. Discovering the rules, references and methodologies that each of those offer, it allows to discover what the main positions are regarding the building and its relationship with the place where it is located. The proposals exposed here try to shed a different light on the ground, which architecture advancing in new ways on how meet it. The crossing of the different studied positions, allows us to establish what the main contributions of ground as architectural strategy are. Such contributions open up new approaches to architecture based on movement and functional flexibility, overlapping information flow and circulation, consider new ways that blur the figure against the background, and reinforce the idea of ground as infrastructural platform, already raised by Utzon. Summarizing, it tries to propose the exploration of the ground plane as the most revealing form of spatial exploration.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O posicionamento da maxila no esqueleto craniofacial tem sido motivo de investigação por diversos autores ao longo do tempo. Traduzindo suas idéias por meio de medidas lineares ou angulares, tais autores definiram o que consideraram como a posição ideal , normal , ou aceitável da maxila, relacionando-a, na maioria das vezes, com a base do crânio. A partir da avaliação de indivíduos com oclusão considerada normal e com bom equilíbrio facial, eram calculados valores médios e desvios-padrão de determinadas medidas, os quais eram tomados como parâmetros para avaliações cefalométricas de pacientes distintos. Diante das divergências de opiniões encontradas na literatura, a proposta do presente estudo foi avaliar o posicionamento da maxila nos sentidos vertical, ântero-posterior e a sua inclinação, numa amostra de 94 indivíduos com oclusão normal. Foram determinadas correlações entre medidas do próprio indivíduo: OPI-N com OPI-ENA e N-ENA com ENA-ENP. A partir dos fortes índices de correlação encontrados, concluiu-se que a medida OPI-N pode ser tomada como referência para determinação de OPI-ENA, da mesma forma que ENA-ENP pode ser considerada para determinação de N-ENA, definindo respectivamente a posição da maxila nos sentidos sagital e vertical. A inclinação da maxila, representada aqui pelo ângulo OPI.ENA.ENP, teve valor médio estatisticamente próximo a 0o (zero), indicando forte tendência do prolongamento posterior do plano palatino (ENA-ENP) tangenciar a base posterior do crânio (ponto OPI), o que se revela uma importante característica de indivíduos com oclusão normal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O posicionamento da maxila no esqueleto craniofacial tem sido motivo de investigação por diversos autores ao longo do tempo. Traduzindo suas idéias por meio de medidas lineares ou angulares, tais autores definiram o que consideraram como a posição ideal , normal , ou aceitável da maxila, relacionando-a, na maioria das vezes, com a base do crânio. A partir da avaliação de indivíduos com oclusão considerada normal e com bom equilíbrio facial, eram calculados valores médios e desvios-padrão de determinadas medidas, os quais eram tomados como parâmetros para avaliações cefalométricas de pacientes distintos. Diante das divergências de opiniões encontradas na literatura, a proposta do presente estudo foi avaliar o posicionamento da maxila nos sentidos vertical, ântero-posterior e a sua inclinação, numa amostra de 94 indivíduos com oclusão normal. Foram determinadas correlações entre medidas do próprio indivíduo: OPI-N com OPI-ENA e N-ENA com ENA-ENP. A partir dos fortes índices de correlação encontrados, concluiu-se que a medida OPI-N pode ser tomada como referência para determinação de OPI-ENA, da mesma forma que ENA-ENP pode ser considerada para determinação de N-ENA, definindo respectivamente a posição da maxila nos sentidos sagital e vertical. A inclinação da maxila, representada aqui pelo ângulo OPI.ENA.ENP, teve valor médio estatisticamente próximo a 0o (zero), indicando forte tendência do prolongamento posterior do plano palatino (ENA-ENP) tangenciar a base posterior do crânio (ponto OPI), o que se revela uma importante característica de indivíduos com oclusão normal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os papeis de homens e mulheres na sociedade contemporânea têm sido reestruturados, assim como a própria noção das estruturas familiares se renova. Algumas marcas estão atentas a essas mudanças e, no contexto mercadológico, fica evidente que os consumidores são diversos, com novas demandas e expectativas pelo reconhecimento dessa diversidade. Esta dissertação discute a mudança de abordagem na representação da família, demonstrando suas mutações de papeis na publicidade, esta vista como um produto sociocultural. Para tanto foi desenvolvida uma pesquisa qualitativa subsidiada pela análise de discurso de linha francesa. Primeiramente, o estudo qualitativo se desenvolve a partir de uma abordagem bibliográfica e documental e uma parte empírica de análise de discurso de campanhas publicitárias dos últimos anos, selecionadas a partir de seu foco nas representações familiares contemporâneas, de marcas que as tratem com naturalidade e demonstrem aceitar essas transições, buscando-as através da análise de casos múltiplos de amostras intencionais os avanços quando se trata dos modelos familiares, elementos que se desviam de representação conservadora da família. Demonstrou-se que há uma tendência de algumas marcas reforçarem qual é o público que desejam atingir através de suas construções discursivas que apontam para o reconhecimento das famílias reconstituídas, para a adoção e para a homo e monoparentalidade, ou seja, para a confirmação da existência dos variados tipos de família.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alanine-based peptides of defined sequence and length show measurable helix contents, allowing them to be used as a model system both for analyzing the mechanism of helix formation and for investigating the contributions of side-chain interactions to protein stability. Extensive characterization of many peptide sequences with varying amino acid contents indicates that the favorable helicity of alanine-based peptides can be attributed to the large helix-stabilizing propensity of alanine. Based on their analysis of alanine-rich sequences N-terminally linked to a synthetic helix-inducing template, Kemp and coworkers [Kemp, D. S., Boyd, J. G. & Muendel, C. C. (1991) Nature (London) 352, 451–454; Kemp, D. S., Oslick, S. L. & Allen, T. J. (1996) J. Am. Chem. Soc. 118, 4249–4255] argue that alanine is helix-indifferent, however, and that the favorable helix contents of alanine-based peptides must have some other explanation. Here, we show that the helix contents of template-nucleated sequences are influenced strongly by properties of the template–helix junction. A model in which the helix propensities of residues at the template–peptide junction are treated separately brings the results from alanine-based peptides and template-nucleated helices into agreement. The resulting model provides a physically plausible resolution of the discrepancies between the two systems and allows the helix contents of both template-nucleated and standard peptide helices to be predicted by using a single set of helix propensities. Helix formation in both standard peptides and template–peptide conjugates can be attributed to the large intrinsic helix-forming tendency of alanine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We have carried out conformational energy calculations on alanine-based copolymers with the sequence Ac-AAAAAXAAAA-NH2 in water, where X stands for lysine or glutamine, to identify the underlying source of stability of alanine-based polypeptides containing charged or highly soluble polar residues in the absence of charge–charge interactions. The results indicate that ionizable or neutral polar residues introduced into the sequence to make them soluble sequester the water away from the CO and NH groups of the backbone, thereby enabling them to form internal hydrogen bonds. This solvation effect dictates the conformational preference and, hence, modifies the conformational propensity of alanine residues. Even though we carried out simulations for specific amino acid sequences, our results provide an understanding of some of the basic principles that govern the process of folding of these short sequences independently of the kind of residues introduced to make them soluble. In addition, we have investigated through simulations the effect of the bulk dielectric constant on the conformational preferences of these peptides. Extensive conformational Monte Carlo searches on terminally blocked 10-mer and 16-mer homopolymers of alanine in the absence of salt were carried out assuming values for the dielectric constant of the solvent ɛ of 80, 40, and 2. Our simulations show a clear tendency of these oligopeptides to augment the α-helix content as the bulk dielectric constant of the solvent is lowered. This behavior is due mainly to a loss of exposure of the CO and NH groups to the aqueous solvent. Experimental evidence indicates that the helical propensity of the amino acids in water shows a dramatic increase on addition of certain alcohols, such us trifluoroethanol. Our results provide a possible explanation of the mechanism by which alcohol/water mixtures affect the free energy of helical alanine oligopeptides relative to nonhelical ones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Complexity originates from the tendency of large dynamical systems to organize themselves into a critical state, with avalanches or "punctuations" of all sizes. In the critical state, events which would otherwise be uncoupled become correlated. The apparent, historical contingency in many sciences, including geology, biology, and economics, finds a natural interpretation as a self-organized critical phenomenon. These ideas are discussed in the context of simple mathematical models of sandpiles and biological evolution. Insights are gained not only from numerical simulations but also from rigorous mathematical analysis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work, new coordination polymers based on two different classes of synthons are presented. In addition, manganese-based metallacrowns of magnetic interest are studied, both in the solid state and in solution. Firstly, functionalized bispyrazolylmethane derivatives are employed as bridging ligands for the establishment of silver-based coordination polymers; the influence of the substituent groups and of the counterions on the supramolecular packing is also investigated. Secondly, the use of metallacrown (MC) complexes as building blocks for porous coordination polymers is discussed. The design of a new metallacrown species is presented, which shows the tendency of aggregating in the solid state to form coordination polymers. Two new coordination polymers are indeed reported, of which one is the first MC-based permanently porous coordination network ever presented. The solid resists solvent evacuation and exhibits gas uptake ability. Furthermore, the isolation and characterization of a new metallacryptate species based on manganese ions is described. The metal-rich structure comprises nine Mn(II)/Mn(III) ions and presents an inverse metallacrown core subunit that binds a μ3-O2- ion. The metallacryptate is isolated in high yields and stable in solution. Lastly, a family of 3d-4f heterometallic metallacrowns is characterized in solution by means of UV-Vis spectrophotometry and of paramagnetically shifted 1H-NMR. The lanthanide-induced shifts observed in the spectra are employed to describe the molecules behaviour in solution and are qualitatively related to the magnetic properties of the compounds.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Silagens de milho são mais propensas à deterioração quando expostas ao ar. As leveduras assimiladoras de ácido lático são frequentemente os primeiros microrganismos a iniciar a deterioração aeróbia nas silagens. Alguns estudos reportam que silagem de milho aerobicamente instável está associada à redução no consumo, na produção de leite e depressão no teor de gordura do leite. Portanto, o objetivo deste estudo foi avaliar a influência de inoculação de leveduras (Pichia norvegensis) e a exposição ao ar por 48 horas sobre o valor nutritivo das silagens e o desempenho de vacas leiteiras. O milho foi colhido com 34% de MS, tratado sem (Controle) ou com P. norvegensis, na dose 1×105 ufc/g MV (Levedura) e armazenado silos tipo bolsa (40 t/silo). Após 123 dias de armazenamento, os silos foram abertos e a silagem foi fornecida para vacas leiteiras. Diariamente, as silagens foram retiradas e fornecidas imediatamente (Fresca) ou após 48 horas de exposição (Exposta). Vinte vacas Holandesas foram distribuídas em 5 quadrados latinos replicados 4×4, com períodos de 21 dias (15 d para adaptação + 6 d para amostragem). As dietas foram formuladas para conter: 53% silagem de milho, 8% caroço de algodão, 18% farelo de soja, 9,5% polpa cítrica, 9% milho seco moído e 2,5% premix vitamínico e mineral. Os quatro tratamentos foram assim constituídos: silagem controle fresca (CF), silagem controle exposta (CE), silagem inoculada com levedura fresca (LF) e silagem inoculada com levedura exposta (LE). A inoculação com levedura aumentou as perdas de matéria seca (P<0,001) e reduziu o tempo de estabilidade aeróbia (P=0,03) das silagens de milho. No ensaio de desempenho animal, reduziu a produção de leite corrigida para 3,5% de gordura (P=0,03) e a eficiência alimentar (ELL leite/CMS) (P<0,01), porém não alterou o teor de gordura do leite. Quanto aos efeitos da exposição ao ar por 48 horas, estes reduziram a concentração de ácido lático (P<0,001), que consequentemente aumentou o pH (P=0,004) das silagens, além de reduzir outros produtos de fermentação. A exposição também reduziu a produção de leite corrigido para gordura (P=0,02) e a eficiência alimentar (P=0,10). Nenhum tratamento alterou o consumo de MS. Houve tendência para redução da digestibilidade da MS e FDN e do NDT, quando as silagens foram expostas ao ar. A inoculação com leveduras e a exposição ao ar por 48 horas deprimem o desempenho animal através da redução no valor nutritivo das silagens de milho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde o seu desenvolvimento na década de 1970 a tomografia computadorizada (TC) passou por grandes mudanças tecnológicas, tornando-se uma importante ferramenta diagnóstica para a medicina. Consequentemente o papel da TC em diagnóstico por imagem expandiu-se rapidamente, principalmente devido a melhorias na qualidade da imagem e tempo de aquisição. A dose de radiação recebida por pacientes devido a tais procedimentos vem ganhando atenção, levando a comunidade científica e os fabricantes a trabalharem juntos em direção a determinação e otimização de doses. Nas últimas décadas muitas metodologias para dosimetria em pacientes têm sido propostas, baseadas especialmente em cálculos utilizando a técnica Monte Carlo ou medições experimentais com objetos simuladores e dosímetros. A possibilidade de medições in vivo também está sendo investigada. Atualmente as principais técnicas para a otimização da dose incluem redução e/ou modulação da corrente anódica. O presente trabalho propõe uma metodologia experimental para estimativa de doses absorvidas pelos pulmões devido a protocolos clínicos de TC, usando um objeto simulador antropomórfico adulto e dosímetros termoluminescentes de Fluoreto de Lítio (LiF). Sete protocolos clínicos diferentes foram selecionados, com base em sua relevância com respeito à otimização de dose e frequência na rotina clínica de dois hospitais de grande porte: Instituto de Radiologia do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (InRad) e Instituto do Câncer do Estado de São Paulo Octávio Frias de Oliveira (ICESP). Quatro protocolos de otimização de dose foram analisados: Auto mA, Auto + Smart mA, Baixa Dose (BD) e Ultra Baixa Dose (UBD). Os dois primeiros protocolos supracitados buscam redução de dose por meio de modulação da corrente anódica, enquanto os protocolos BD e UBD propõem a redução do valor da corrente anódica, mantendo-a constante. Os protocolos BD e UBD proporcionaram redução de dose de 72,7(8) % e 91(1) %, respectivamente; 16,8(1,3) % e 35,0(1,2) % de redução de dose foram obtidas com os protocolos Auto mA e Auto + Smart mA, respectivamente. As estimativas de dose para os protocolos analisados neste estudo são compatíveis com estudos similares publicados na literatura, demonstrando a eficiência da metodologia para o cálculo de doses absorvidas no pulmão. Sua aplicabilidade pode ser estendida a diferentes órgãos, diferentes protocolos de CT e diferentes tipos de objetos simuladores antropomórficos (pediátricos, por exemplo). Por fim, a comparação entre os valores de doses estimadas para os pulmões e valores de estimativas de doses dependentes do tamanho (Size Specific Dose Estimates SSDE) demonstrou dependência linear entre as duas grandezas. Resultados de estudos similares exibiram comportamentos similares para doses no reto, sugerindo que doses absorvidas pelos uma órgãos podem ser linearmente dependente dos valores de SSDE, com coeficientes lineares específicos para cada órgão. Uma investigação mais aprofundada sobre doses em órgãos é necessária para avaliar essa hipótese.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O propósito do presente estudo foi investigar e monitorar a remoção de cistos de Giardia spp. e oocistos de Cryptosporidium spp. por diferentes processos de uma estação de tratamento de esgoto (ETE) em escala plena, composta basicamente por tratamento preliminar, reator UASB e flotador por ar dissolvido, e verificar a ocorrência desses protozoários no lodo do reator UASB e do flotador. Além disso, avaliou-se a remoção desses parasitos pelo processo de flotação por ar dissolvido em escala de bancada (equipamento Flotateste). Analisou-se a qualidade das amostras a partir de variáveis físicas e químicas, e pela detecção de microrganismos indicadores - E. coli, coliformes totais e Clostridium perfringens. Os métodos de detecção de protozoários se basearam nas etapas de concentração (tripla centrifugação ou filtração em membrana seguida de tripla centrifugação); purificação por separação imunomagnética (IMS); detecção por reação de imunofluorescência direta (RID). As recuperações de cistos variaram de 32,6 a 67,0 % dependendo do método adotado, já para os oocistos as recuperações estiveram na faixa de 5,6 a 12,0 %. Na ETE-Monjolinho foram detectadas significativas quantidades de cistos de Giardia spp. em 100% das amostras de esgoto analisadas, com concentração média de 1,89 x 104 e 2,35 x 102 cistos.L-1 no esgoto bruto e tratado, respectivamente. Já os oocistos de Cryptosporidium spp. foram detectados em 39,0 % das amostras de esgoto, com concentração média de 1,35 x 102 oocistos.L-1 no esgoto bruto e 5,87 oocistos.L-1 em esgoto tratado (após flotador). A remoção global da ETE para remoção de Giardia spp. foi em média 2,03 log. O lodo do reator UASB e lodo do flotador apresentaram altas quantidade de (oo)cistos, constatando-se a tendência desses sistemas em concentrar os (oo)cistos por seus processos físicos. Algumas correlações significativas foram encontradas, como correlação entre a concentração de cistos no lodo e a variável sólidos totais, a concentração de cistos no esgoto bruto e as variáveis cor aparente, DQO total e particulada, e a concentração de cistos no efluente UASB e o microrganismo Clostridium perfringens. Diferentemente do flotador em escala plena, o processo do flotação por ar dissolvido em escala de bancada alcançou elevadas remoções médias de cistos de Giardia spp., entre 2,5 e 2,7 log nas diferentes condições de floculação estudadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recorrentemente apresentada como uma das mais importantes revistas culturais da Argentina no século XX e como uma das mais significativas publicações latino-americanas desse tipo na segunda metade do século passado, Punto de Vista, publicada entre 1978 e 2008, ainda não teve, não obstante a sua relevância, a devida atenção dos historiadores (e mesmo de especialistas de outras áreas). Nos estudos produzidos a seu respeito, os intérpretes se dedicaram predominantemente a analisar a revista durante a ditadura militar de 1976 a 1983, o chamado Proceso de Reorganización Nacional, e/ou se ocuparam, no máximo, de sua inserção na sociedade argentina nos primeiros momentos da redemocratização, após o término da ditadura. Caracterizada por desenvolver, durante os seus trinta anos de circulação, um projeto de crítica política da cultura atento à crítica cultural e literária, à produção ensaística e em periódicos, aos saberes e aos debates específicos como os da Psicologia/Psicanálise e da Arquitetura e aos outros objetos da cultura como as artes plásticas, o cinema, a fotografia, a música, os meios de comunicação (sobretudo a televisão) e a indústria cultural, a revista também problematizou a atuação dos intelectuais enquanto intérpretes da cultura e da política diante dos desafios e das transformações locais e internacionais dos anos 1970 em diante, ofereceu uma crítica da esquerda e do peronismo e se posicionou nos debates a respeito da democracia configurados na Argentina a partir da década de 1980. Punto de Vista foi tomada, neste estudo, como fonte e objeto e foi interpretada entre 1978 e 2008 a partir dos pressupostos da História Intelectual de inspiração francesa. Procurou-se evidenciar algumas das linhas de força da publicação, explicitando como a revista propôs certas políticas da cultura, constituiu uma perspectiva de análise da cultura intelectual e organizou uma avaliação das culturas políticas, além de estruturar um lugar social, político e cultural específico na Argentina, ao mesmo tempo próximo e distante das tradições e dos grupos da esquerda a partir dos quais o periódico se originou.