982 resultados para Simulated annealing acoplado. Metaheurística. Eficiência paralela. Escalabilidade paralela
Resumo:
This work reports evidence of the induced migration of Mn2+ ions in Cd(1-x)MnxS nanocrystals (NCs) by selecting a specific thermal treatment for each sample. The growth and characterization of these magnetic dots were investigated by atomic force microscopy (AFM), optical absorption (OA), and electronic paramagnetic resonance (EPR) techniques. The comparison of experimental and simulated EPR spectra confirms the incorporation of Mn2+ ions both in the core and at the dot surface regions. The thermal treatment of a magnetic sample, via selected annealing temperature and/or time, affects the fine and hyperfine interaction constants which modify the shape and the intensity of the EPR transition spectrum. The identification of these changes has allowed tracing the magnetic ion migration from core to surface regions of a dot as well as inferring the local density of the magnetic impurity ions. (C) 2011 Elsevier Ltd. All rights reserved.
Resumo:
Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.
Resumo:
Impulse response measurements are carried out in laboratory facilities at Ecophon, Sweden, simulating a typical classroom with varying suspended ceilings and furniture arrangements. The aim of these measurements is to build a reliable database of acoustical parameters in order to have enough data to validate the new acoustical simulation tool which is under development at Danmarks Tekniske Universitet, Denmark. The different classroom configurations are also simulated using ODEON Room Acoustics software and are compared with the measurements. The resulting information is essential for the development of the acoustical simulation tool because it will enable the elimination of prediction errors, especially those below the Schroeder frequency. The surface impedance of the materials used during the experiments is measured in a Kundt’s tube at DTU, in order to characterize them as accurately as possible at the time of incorporation into the model. A brief study about porous materials frequently used in classrooms is presented. Wide diferences are found between methods of measuring absorption coefficients and local or extended assumptions. RESUMEN. Mediciones de Respuesta al Impulso son llevadas a cabo en las instalaciones con que cuenta la empresa Ecophon en su sede central de Hyllinge, Suecia. En una de sus salas, se recrean diferentes configuraciones típicas de aula, variando la altura y composición de los techos, colocando paneles absorbentes de pared e incluyendo diferentes elementos mobiliario como pupitres y sillas. Tres diferentes materiales absorbentes porosos de 15, 20 y 50 mm de espesor, son utilizados como techos suspendidos así como uno de 40 mm es utilizado en forma de paneles. Todas las medidas son realizadas de acuerdo al estándar ISO 3382, utilizando 12 combinaciones de fuente sonora y micrófono para cada configuración, así como respetando las distancias entre ellos establecidas en la norma. El objetivo de toda esta serie de medidas es crear una base de datos de parámetros acústicos tales como tiempo de reverberación, índice de claridad o índice de inteligibilidad medidos bajo diferentes configuraciones con el objeto de que éstos sirvan de referencia para la validación de una nueva herramienta de simulación acústica llamada PARISM que está siendo desarrollada en este momento en la Danmarks Tekniske Universitet de Copenhague. Esta herramienta tendrá en cuenta la fase, tanto en propagación como en reflexión, así como el comportamiento angulodependiente de los materiales y la difusión producida por las superficies. Las diferentes configuraciones de aula recreadas en Hyllinge, son simuladas también utilizando el software de simulación acústica ODEON con el fin de establecer comparaciones entre medidas y simulaciones para discutir la validez de estas ultimas. La información resultante es esencial para el desarrollo de la nueva herramienta de simulación, especialmente los resultados por debajo de la frecuencia de corte de Schroeder, donde ODEON no produce predicciones precisas debido a que no tiene en cuenta la fase ni en propagación ni en reflexión. La impedancia de superficie de los materiales utilizados en los experimentos, todos ellos fabricados por la propia empresa Ecophon, es medida utilizando un tubo de Kundt. De este modo, los coeficientes de absorción de incidencia aleatoria son calculados e incorporados a las simulaciones. Además, estos coeficientes también son estimados mediante el modelo empírico de Miki, con el fin de ser comparados con los obtenidos mediante otros métodos. Un breve estudio comparativo entre coeficientes de absorción obtenidos por diversos métodos y el efecto producido por los materiales absorbentes sobre los tiempos de reverberación es realizado. Grandes diferencias son encontradas, especialmente entre los métodos de tubo de impedancia y cámara reverberante. La elección de reacción local o extendida a la hora de estimar los coeficientes también produce grandes diferencias entre los resultados. Pese a que la opción de absorción angular es activada en todas las simulaciones realizadas con ODEON para todos los materiales, los resultados son mucho más imprecisos de lo esperado a la hora de compararlos con los valores extraidos de las medidas de Respuesta al Impulso. En salas como las recreadas, donde una superficie es mucho más absorbente que las demás, las ondas sonoras tienden a incidir en la superficie altamente absorbente desde ángulos de incidencia muy pequeños. En este rango de ángulos de incidencia, las absorciones que presentan los materiales absorbentes porosos estudiados son muy pequeñas, pese a que sus valores de coeficientes de absorción de incidencia aleatoria son altos. Dado que como descriptor de las superficies en ODEON se utiliza el coeficiente de absorción de incidencia aleatoria, los tiempos de reverberación son siempre subestimados en las simulaciones, incluso con la opción de absorción angular activada. Esto es debido a que el algoritmo que ejecuta esta opción, solo tiene en cuenta el tamaño y posición de las superficies, mientras que el comportamiento angulodependiente es diferente para cada material. Es importante destacar, que cuando la opción es activada, los tiempos simulados se asemejan más a los medidos, por lo tanto esta característica sí produce ciertas mejoras pese a no modelar la angulodependencia perfectamente. Por otra parte, ODEON tampoco tiene en cuenta el fenómeno de difracción, ni acepta longitudes de superficie menores de una longitud de onda a frecuencias medias (30 cm) por lo que en las configuraciones que incluyen absorbentes de pared, los cuales presentan un grosor de 4 cm que no puede ser modelado, los tiempos de reverberación son siempre sobreestimados. Para evitar esta sobreestimación, diferentes métodos de correción son analizados. Todas estas deficiencias encontradas en el software ODEON, resaltan la necesidad de desarrollar cuanto antes la herramienta de simulación acústica PARISM, la cual será capaz de predecir el comportamiento del campo sonoro de manera precisa en este tipo de salas, sin incrementar excesivamente el tiempo de cálculo. En cuanto a los parámetros extraidos de las mediciones de Respuesta al Impulso, bajo ninguna de las configuraciones recreadas los tiempos de reverberación cumplen con las condiciones establecidas por la regulación danesa en materia de edificación. Es importante destacar que los experimentos son llevados a cabo en un edificio construido para uso industrial, en el que, pese a contar con un buen aislamiento acústico, los niveles de ruido pueden ser superiores a los existentes dentro del edificio donde finalmente se ubique el aula. Además, aunque algunos elementos de mobiliario como pupitres y sillas son incluidos, en una configuración real de aula normalmente aparecerían algunos otros como taquillas, que no solo presentarían una mayor absorción, sino que también dispersarían las ondas incidentes produciendo un mejor funcionamiento del techo absorbente. Esto es debido a que las ondas incidirían en el techo desde una mayor variedad de ángulos, y no solo desde ángulos cercanos a la dirección paralela al techo, para los cuales los materiales presentan absorciones muy bajas o casi nulas. En relación a los otros parámetros como índice de claridad o índice de inteligibilidad extraidos de las medidas, no se han podido extraer conclusiones válidas dada la falta de regulación existente. Sin embargo, el efecto que produce sobre ellos la inclusión de techos, paneles de pared y mobiliario sí es analizada, concluyendo que, como era de esperar, los mejores resultados son obtenidos cuando todos los elementos están presentes en la sala en el mismo momento.
Resumo:
A Constituição Federal Brasileira institucionalizou o direito a saúde no Brasil, o artigo 196 que diz: A saúde é um direito de todos e um dever do Estado apresenta esse direito. Ao regulamentar a criação do Sistema Único de Saúde a lei 8.080 reafirma a obrigação do Estado com a Saúde da população. Dentro desse contexto a Assistência Farmacêutica (AF) tem importante papel de garantir medicamentos seguros, eficácias, em tempo e quantidade necessária para atender a demanda dos cidadãos, porém apesar das constantes atualizações em prol de promover maior eficiência dos processos da AF, ainda acontecem situações em que o paciente não tem o medicamento requerido, seja por falta nas unidades dispensadoras ou a não presença nas listas de medicamentos padronizados. Essa situação faz com que o cidadão recorra à via judicial na tentativa de garantir o acesso ao medicamento pleiteado, fenômeno conhecido como judicialização da saúde, que traz grandes implicações sobre a gestão da assistência farmacêutica. Diante disso o objetivo do trabalho foi descrever o panorama geral das ações judiciais pleiteando medicamentos e insumos para insulina que foram assumidos pela prefeitura de Ribeirão Preto. Para alcançar esses objetivos, foi realizado um estudo do tipo descritivo. Foram analisados ao todo 1861 processos judiciais sendo 1083 ainda ativos e 778 que já haviam sido encerrados. Na maioria dos processos o juiz dava como prazo máximo 30 dias (99%) para se cumprir a ação, o que é insuficiente para realizar uma licitação pública obrigando a gestão a utilizar via paralela de compra. O Ministério Público foi o principal representante legal (71,7%) utilizado e a maioria das prescrições foram advindas de hospitais e clínicas particulares (50,1%). Os principais diagnósticos referidos nas ações foram diabetes e o transtorno de déficit de atenção e hiperatividade (TDAH). Já os medicamentos mais prevalentes foram as insulinas e o metilfenidato. Dentre os médicos prescritores 3% somam aproximadamente 30% das prescrições. Diante dos resultados expostos, o presente estudo evidenciou o impacto da judicialização da saúde no município de Ribeirão Preto, demandando da gestão pública organização estrutural e financeira para lidar com as demandas judiciais.
Resumo:
Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.
Resumo:
Durante el siglo XIII se produjo una sucesión de revueltas que supuso la desaparición del Imperio almohade y su sustitución por poderes regionales en al-Andalus, el Magreb y el Magreb al-Aqsà. La historiografía ha presentado el surgimiento y pugna entre estos poderes como un fenómeno social, político e, incluso, cultural y religioso, con el que se ha podido explicar su aniquilación o marginalización. Este trabajo pretende contextualizar los hechos desde una perspectiva medioambiental, de forma que la desintegración del califato almohade, el surgimiento de aquellos poderes y la progresión de los reinos cristianos en la península ibérica puedan entenderse desde una visión global de cambio climático y una posible crisis agrícola.
Resumo:
Building design is an effective way to achieve HVAC energy consumption reduction. However, this potentiality is often neglected by architects due to the lack of references to support design decisions. This works intends to propose architectural design guidelines for energy efficiency and thermal performance of Campus/UFRN buildings. These guidelines are based on computer simulations results using the software DesignBuilder. The definition of simulation models has begun with envelope variables, partially done after a field study of thirteen buildings at UFRN/Campus. This field study indicated some basic envelope patterns that were applied in simulation models. Occupation variables were identified with temperature and energy consumption monitoring procedures and a verification of illumination and equipment power, both developed at the Campus/UFRN administration building. Three simulation models were proposed according to different design phases and decisions. The first model represents early design decisions, simulating the combination of different types of geometry with three levels of envelope thermal performance. The second model, still as a part of early design phase, analyses thermal changes between circulation halls lateral and central and office rooms, as well as the heat fluxes and monthly temperatures in each circulation hall. The third model analyses the influence of middle-design and detail design decisions on energy consumption and thermal performance. In this model, different solutions of roofs, shading devices, walls and external colors were simulated. The results of all simulation models suggest a high influence of thermal loads due to the incidence of solar radiation on windows and surfaces, which highlights the importance of window shading devices, office room orientation and absorptance of roof and walls surfaces
Resumo:
In recent years the photovoltaic generation has had greater insertion in the energy mix of the most developed countries, growing at annual rates of over 30%. The pressure for the reduction of pollutant emissions, diversification of the energy mix and the drop in prices are the main factors driving this growth. Grid tied systems plays an important role in alleviating the energy crisis and diversification of energy sources. Among the grid tied systems, building integrated photovoltaic systems suffers from partial shading of the photovoltaic modules and consequently the energy yield is reduced. In such cases, classical forms of modules connection do not produce good results and new techniques have been developed to increase the amount of energy produced by a set of modules. In the parallel connection technique of photovoltaic modules, a high voltage gain DC-DC converter is required, which is relatively complex to build with high efficiency. The current-fed isolated converters explored in this work have some desirable characteristics for this type of application, such as: low input current ripple and input voltage ripple, high voltage gain, galvanic isolation, feature high power capacity and it achieve soft switching in a wide operating range. This study presents contributions to the study of a high gain and high efficiency DC-DC converter for use in a parallel system of photovoltaic generation, being possible the use in a microinverter or with central inverter. The main contributions of this work are: analysis of the active clamping circuit operation proposing that the clamp capacitor connection must be done on the negative node of the power supply to reduce the input current ripple and thus reduce the filter requirements; use of a voltage doubler in the output rectifier to reduce the number of components and to extend the gain of the converter; detailed study of the converter components in order to raise the efficiency; obtaining the AC equivalent model and control system design. As a result, a DC-DC converter with high gain, high efficiency and without electrolytic capacitors in the power stage was developed. In the final part of this work the DC-DC converter operation connected to an inverter is presented. Besides, the DC bus controller is designed and are implemented two maximum power point tracking algorithms. Experimental results of full system operation connected to an emulator and subsequently to a real photovoltaic module are also given.
Resumo:
The fish meat has a particular chemical composition which gives its high nutritional value. However, this food is identified for being highly perishable and this aspect is often named as a barrier to fish consumption. The southwestern Paraná region, parallel to the country's reality, it is characterized by low fish consumption; and one of the strategies aimed at increasing the consumption of this important protein source is encouraging the production of other species besides tilapia. Within this context, it is necessary to know about the meat characteristics. In this sense, the objective of this study was to evaluate the technological potential of pacu, grass carp and catfish species. To do so, at first, it was discussed the chemical and biometric assessment under two distinct descriptive statistical methods, of the three species; and it was also evaluated the discriminating capacity of the study. In a second moment, an evaluation of effects done by two different processes of washing (acid and alkaline) regarding the removal of nitrogen compounds, pigments and the emulsifying ability of the proteins contained in the protein base obtained. Finally, in the third phase, it was aimed to realize the methodology optimization in GC-MS for the analysis geosmin and MIB (2-metilisoborneol) compounds that are responsible for taste/smell of soil and mold in freshwater fish. The results showed a high protein and low lipid content for the three species. The comparison between means and medians revealed symmetry only for protein values and biometric measurements. Lipids, when evaluated only by the means, overestimate the levels for all species. Correlations between body measurements and fillet yield had low correlation, regardless of the species analyzed, and the best prediction equation relates the total weight and fillet weight. The biometric variables were the best discriminating among the species. The evaluation of the washings, it was found that the acidic and basic processes were equally (p ≥ 0.05) efficient (p ≤ 0.05) for the removal of nitrogen compounds on the fish pulps. Regarding the extraction of pigments, a removal efficiency was recorded only for the pacu species, the data were assessed by the parameters L *, a *, b *. When evaluated by the total color difference (ΔE) before and after washing for both processes (acid/alkaline) the ΔE proved feasible perceived by naked eye for all species. The catfish was characterized as the fish that presents the clearest meat with the basic washing considered the most effective in removing pigments for this species. Protein bases obtained by alkaline washes have higher emulsifying capacity (p ≤ 0.05) when compared to unwashed and washed in acid process pulps. The methodology applied for the quantification of MIB and geosmin, allowed to establish that the method of extraction and purification of analytes had low recovery and future studies should be developed for identification and quantification of MIB and geosmin on fish samples.
Resumo:
Este estudo teve como objetivo avaliar os efeitos de diferentes tipos de controle de plantas infestantes sobre a mirmecofauna em um plantio inicial de Eucalyptus grandis . Para tanto, em março de 2011 foi realizado o início da implantação da cultura, em uma área localizada no município de Santa Maria - RS. Os seis tratamentos constituíram-se em controle químico total de plantas infestantes, na linha e na entrelinha de plantio, com glifosato (T1); controle químico total de plantas infestantes, na linha de plantio, com glifosato (T2); controle químico de monocotiledôneas na linha e entrelinha de plantio, com setoxidim (T3); controle químico de dicotiledôneas na linha e entrelinha de plantio, com bentazona (T4); controle químico total de plantas infestantes em faixa de um metro paralela à linha de plantio, com glifosato, e de um metro na parte central da entrelinha, sem controle (T5); e testemunha, sem controle de plantas infestantes (T6). O levantamento da mirmecofauna foi realizado no período de um ano utilizando-se três métodos de coleta: isca atrativa, armadilha de solo e funil de Berlese, com seis repetições por tratamento, em cada data de coleta. Nesse período foram coletadas 46.675 formigas, distribuídas em 37 espécies, não sendo verificada diferença significativa entre o total de espécimens coletados. Na área do tratamento constituído pelo controle de plantas infestantes somente na linha de plantio verificou-se eficiência amostral de 99,0% e Sobs = 35. Entre os índices de Diversidade de Shannon (H’), destacou-se o valor encontrado para a área do tratamento T2 (H’= 1,34) em detrimento dos valores das áreas nas quais foram instalados os tratamentos T1 (H’= 1,25) e T5 (H’= 1,23). Havendo assim, uma maior coexistência de espécies de formigas entre as áreas com estrutura florística menos alterada e entre as áreas mais simplificadas. Não tendo sido verificada correlação significativa (r = 0,0463) entre a riqueza de espécies de formigas coletadas e o número de plantas infestantes encontradas ao final do experimento. Assim, conclui-se que os efeitos indiretos da ação dos herbicidas afetam mais a composição local de espécies de formigas do que sua riqueza.
Resumo:
Tese de Doutoramento em Biologia Comportamental apresentada ao ISPA - Instituto Universitário
Resumo:
Dissertação (mestrado)–Universidade de Brasília, Universidade UnB de Planaltina, Programa de Pós-Graduação em Ciência de Materiais, 2015.
Resumo:
Building design is an effective way to achieve HVAC energy consumption reduction. However, this potentiality is often neglected by architects due to the lack of references to support design decisions. This works intends to propose architectural design guidelines for energy efficiency and thermal performance of Campus/UFRN buildings. These guidelines are based on computer simulations results using the software DesignBuilder. The definition of simulation models has begun with envelope variables, partially done after a field study of thirteen buildings at UFRN/Campus. This field study indicated some basic envelope patterns that were applied in simulation models. Occupation variables were identified with temperature and energy consumption monitoring procedures and a verification of illumination and equipment power, both developed at the Campus/UFRN administration building. Three simulation models were proposed according to different design phases and decisions. The first model represents early design decisions, simulating the combination of different types of geometry with three levels of envelope thermal performance. The second model, still as a part of early design phase, analyses thermal changes between circulation halls lateral and central and office rooms, as well as the heat fluxes and monthly temperatures in each circulation hall. The third model analyses the influence of middle-design and detail design decisions on energy consumption and thermal performance. In this model, different solutions of roofs, shading devices, walls and external colors were simulated. The results of all simulation models suggest a high influence of thermal loads due to the incidence of solar radiation on windows and surfaces, which highlights the importance of window shading devices, office room orientation and absorptance of roof and walls surfaces
Resumo:
Dissertação de Mestrado, Engenharia Biológica, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2014
Resumo:
This study investigated the effect of simulated microwave disinfection (SMD) on the linear dimensional changes, hardness and impact strength of acrylic resins under different polymerization cycles. Metal dies with referential points were embedded in flasks with dental stone. Samples of Classico and Vipi acrylic resins were made following the manufacturers' recommendations. The assessed polymerization cycles were: A-- water bath at 74ºC for 9 h; B-- water bath at 74ºC for 8 h and temperature increased to 100ºC for 1 h; C-- water bath at 74ºC for 2 h and temperature increased to 100ºC for 1 h;; and D-- water bath at 120ºC and pressure of 60 pounds. Linear dimensional distances in length and width were measured after SMD and water storage at 37ºC for 7 and 30 days using an optical microscope. SMD was carried out with the samples immersed in 150 mL of water in an oven (650 W for 3 min). A load of 25 gf for 10 sec was used in the hardness test. Charpy impact test was performed with 40 kpcm. Data were submitted to ANOVA and Tukey's test (5%). The Classico resin was dimensionally steady in length in the A and D cycles for all periods, while the Vipi resin was steady in the A, B and C cycles for all periods. The Classico resin was dimensionally steady in width in the C and D cycles for all periods, and the Vipi resin was steady in all cycles and periods. The hardness values for Classico resin were steady in all cycles and periods, while the Vipi resin was steady only in the C cycle for all periods. Impact strength values for Classico resin were steady in the A, C and D cycles for all periods, while Vipi resin was steady in all cycles and periods. SMD promoted different effects on the linear dimensional changes, hardness and impact strength of acrylic resins submitted to different polymerization cycles when after SMD and water storage were considered.