1000 resultados para Complexidade : Algoritmos recursivos : Equações características
Resumo:
Este trabalho teve como objetivo avaliar características de carcaça por ultra-som de 28 bubalinos jovens Mediterrâneo terminados em confinamento e abatidos aos 450, 480, 510 e 540 kg de peso vivo (PV). Foi utilizado um equipamento de ultra-som Piemedical Scanner 200 Vet, com transdutor linear de 178 mm e 3,5 MHz, a cada intervalo de aproximadamente 28 dias, para obter a área do longíssímus dorsí (ALOU), espessura de gordura subcutânea (EGSU) entre a 12ª e 13ª costelas e a espessura de gordura na picanha (EGP8U), sob o terço superior do músculo bíceps femorís. Após atingirem os pesos de abate pré-estabelecidos, os animais foram abatidos e obteve-se o peso de carcaça quente (PCQ) e o rendimento de carcaça (RC). Após 24 horas de resfriamento, as carcaças foram seccionadas entre a 12a e 13a costelas e obtidas a área do longíssímus dorsí (ALOC), a espessura de gordura (EGSC) e a espessura de gordura sob o bíceps femorís (EGP8C) na carcaça. As correlações entre as medidas por ultra-som e na carcaça foram de 0,96 entre ALOU e ALOC, de 0,99 entre EGSU e EGSC e de 0,91 entre EGP8U e EGP8C. Equações de regressão utilizando o peso vivo (PV), ALOU, EGSU e EGP8U explicaram 95% da variação do PCQ quando a medida foi realizada imediatamente antes do abate. As equações para estimar o RC utilizando as mesmas características explicaram cerca de 32% da variação quando a medida foi realizada imediatamente antes do abate. O peso da porção comestível do corte traseiro a partir de medidas efetuadas por ultra-som e na carcaça é predito com maior magnitude que a percentagem da porção comestível. Os resultados indicam que as equações para as medidas ultra-sônicas apresentaram boa acurácia e podem ser utilizadas para estimar diferenças entre grupos de animais, mas há a necessidade de mais estudos envolvendo maior número de animais e de outros grupos genéticos de bubalinos.
Resumo:
Techniques of image combination, with extraction of objects to set a final scene, are very used in applications from photos montages to cinematographic productions. These techniques are called digital matting. With them is possible to decrease the cost of productions, because it is not necessary for the actor to be filmed in the location where the final scene occurs. This feature also favors its use in programs made to digital television, which demands a high quality image. Many digital matting algorithms use markings done on the images, to demarcate what is the foreground, the background and the uncertainty areas. This marking is called trimap, which is a triple map containing these three informations. The trimap is done, typically, from manual markings. In this project, methods were created that can be used in digital matting algorithms, with restriction of time and without human interaction, that is, the creation of an algorithm that generates the trimap automatically. This last one can be generated from the difference between a color of an arbitrary background and the foreground, or by using a depth map. It was also created a matting method, based on the Geodesic Matting (BAI; SAPIRO, 2009), which has an inferior processing time then the original one. Aiming to improve the performance of the applications that generates the trimap and of the algorithms that generates the alphamap (map that associates a value to the transparency of each pixel of the image), allowing its use in applications with time restrictions, it was used the CUDA architecture. Taking advantage, this way, of the computational power and the features of the GPGPU, which is massively parallel
Resumo:
The SPECT (Single Photon Emission Computed Tomography) systems are part of a medical image acquisition technology which has been outstanding, because the resultant images are functional images complementary to those that give anatomic information, such as X-Ray CT, presenting a high diagnostic value. These equipments acquire, in a non-invasive way, images from the interior of the human body through tomographic mapping of radioactive material administered to the patient. The SPECT systems are based on the Gamma Camera detection system, and one of them being set on a rotational gantry is enough to obtain the necessary data for a tomographic image. The images obtained from the SPECT system consist in a group of flat images that describe the radioactive distribution on the patient. The trans-axial cuts are obtained from the tomographic reconstruction techniques. There are analytic and iterative methods to obtain the tomographic reconstruction. The analytic methods are based on the Fourier Cut Theorem (FCT), while the iterative methods search for numeric solutions to solve the equations from the projections. Within the analytic methods, the filtered backprojection (FBP) method maybe is the simplest of all the tomographic reconstruction techniques. This paper's goal is to present the operation of the SPECT system, the Gamma Camera detection system, some tomographic reconstruction techniques and the requisites for the implementation of this system in a Nuclear Medicine service
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
In this work is studied the fluid dynamic characteristics of sugarcane bagasse for gasification applications and use of syngas in the sugarcane sector. This is an experimental work, which is initially performed the particle size separation of sugarcane bagasse particles, using appropriate equipment. Through the experiment is possible to determine the average diameter of particles pomace typical sugarcane mill. The equipment used for the grading sieve separation assembly consists of several dimensions, arranged vertically and which shows adequate for good separation from the pulp. Later, it makes immediate analysis for the determination of moisture, ash, volatile materials and fixed carbon. The study also determines the gross calorific value and allows analysis of densities of particles of sugar cane bagasse. Also studied the bagasse morphology using electron microscopes, where it was possible to visualize the geometry of the particles of bagasse. The use of Electronic Scanning Microscopy (SEM) provided better understand the morphology and particle size measured by using photography methods. Two methods for determining the sphericity of the particles were also used. The experiments carried out using appropriate standards and specific equations, allowing compare the present results with the values found by several researchers. Subsequently, fluid dynamic simulations were performed for the determination of porosity and minimum fluidization velocity theoretical. It follows that the sphericity and porosity of the bagasse particles influence the minimum fluidization velocity of biomass
Resumo:
Pós-graduação em Medicina Veterinária - FCAV
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
Pós-graduação em Engenharia Mecânica - FEIS
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Contexto e objetivo: A hanseníase caracteriza-se por ter diagnóstico eminentemente clínico, principalmente através da constatação de hipo ou anestesia das lesões, ou seja, sem necessariamente o uso de exames adicionais, como baciloscopia e biópsia, utilizados para classificação clínica da doença. Buscou-se definir se há tendência à desvalorização da avaliação clínica em favor do excesso de exames complementares, investigar a adequação do registro nos atendimentos da atenção básica e compará-los com o obtido em serviço de média complexidade. Desenho e local: Estudo transversal, de base populacional, utilizando registros de prontuários, realizado em dois âmbitos de atendimentos de saúde da cidade de Campinas (SP): os Centros de Saúde e a assistência dermatológica especializada de hospital de ensino. Métodos: Os registros foram investigados por meio da aplicação de checklist, contendo itens indispensáveis ao atendimento a hansenianos. Associações foram testadas pela prova de Goodman e ao nível de 5% de significância. Resultados: Foram avaliados 33 prontuários oriundos dos centros de saúde e 36 do hospital, observou-se polarização entre registros adequados e ausentes, evidenciando a presença de efeito tudo ou nada nos atendimentos; de 26 variáveis, apenas em 5 (19,23%) obteve-se predomínio da avaliação do hospital sobre os centros de saúde; evidenciou-se dependência de exames complementares, solicitados em 67 dos 69 atendimentos (97,10%), para diagnóstico da doença. Conclusão: Confirmou-se, neste estudo, déficit da avaliação médica e indicação inadequada de exames adicionais. Por associar-se com excesso de solicitação de exames, a observação clínica mostrou-se incompleta, comprometendo a capacidade diagnóstica dos atendimentos a hansenianos.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
OBJETIVOS: Analisar a cobertura da Política de Incentivo do Ministério da Saúde para Programas de Aids e as características das ações de prevenção, assistência, gestão e apoio às organizações da sociedade civil induzidas nos Estados e municípios. METODOLOGIA: Os Planos de Ações e Metas de 2006, das 27 Unidades Federadas e de 427 municípios incluídos na Política de Incentivo, foram analisados segundo indicadores estabelecidos para aferir a complexidade e a sustentabilidade das ações induzidas, a inclusão de populações prioritárias e a capacidade de intervenção na epidemia. Informações sobre população e casos de aids registrados foram utilizadas para mensurar a cobertura. RESULTADOS: Os municípios incluídos representaram uma cobertura de 85,2% dos casos de aids do País. Houve uma baixa proporção de secretarias estaduais (48,2%) e municipais (32,6%) de saúde que contemplaram, concomitantemente, ações de prevenção para a população geral e as de maior prevalência da doença, assim como ações para o diagnóstico do HIV, o tratamento de pessoas infectadas e a prevenção da transmissão vertical. Em relação às populações prioritárias, 51,9% dos Estados e 31,1% dos municípios propuseram ações específicas na prevenção e na assistência. Estados (44,4%) e municípios (27,9%) com Planos abrangentes estão mais concentrados no Sudeste e em cidades de grande porte, representando a maioria dos casos de aids do País. CONCLUSÃO: A Política de Incentivo do Ministério da Saúde compreende as regiões de maior ocorrência da aids no Brasil, porém, o perfil da resposta induzida encontra-se parcialmente dissociado das características epidemiológicas da doença no País.
Resumo:
Esta Tesis aborda el diseño e implementación de aplicaciones en el campo de procesado de señal, utilizando como plataforma los dispositivos reconfigurables FPGA. Esta plataforma muestra una alta capacidad de lógica, e incorpora elementos orientados al procesado de señal, que unido a su relativamente bajo coste, la hacen ideal para el desarrollo de aplicaciones de procesado de señal cuando se requiere realizar un procesado intensivo y se buscan unas altas prestaciones. Sin embargo, el coste asociado al desarrollo en estas plataformas es elevado. Mientras que el aumento en la capacidad lógica de los dispositivos FPGA permite el desarrollo de sistemas completos, los requisitos de altas prestaciones obligan a que en muchas ocasiones se deban optimizar operadores a muy bajo nivel. Además de las restricciones temporales que imponen este tipo de aplicaciones, también tienen asociadas restricciones de área asociadas al dispositivo, lo que obliga a evaluar y verificar entre diferentes alternativas de implementación. El ciclo de diseño e implementación para estas aplicaciones se puede prolongar tanto, que es normal que aparezcan nuevos modelos de FPGA, con mayor capacidad y mayor velocidad, antes de completar el sistema, y que hagan a las restricciones utilizadas para el diseño del sistema inútiles. Para mejorar la productividad en el desarrollo de estas aplicaciones, y con ello acortar su ciclo de diseño, se pueden encontrar diferentes métodos. Esta Tesis se centra en la reutilización de componentes hardware previamente diseñados y verificados. Aunque los lenguajes HDL convencionales permiten reutilizar componentes ya definidos, se pueden realizar mejoras en la especificación que simplifiquen el proceso de incorporar componentes a nuevos diseños. Así, una primera parte de la Tesis se orientará a la especificación de diseños basada en componentes predefinidos. Esta especificación no sólo busca mejorar y simplificar el proceso de añadir componentes a una descripción, sino que también busca mejorar la calidad del diseño especificado, ofreciendo una mayor posibilidad de configuración e incluso la posibilidad de informar de características de la propia descripción. Reutilizar una componente ya descrito depende en gran medida de la información que se ofrezca para su integración en un sistema. En este sentido los HDLs convencionales únicamente proporcionan junto con la descripción del componente la interfaz de entrada/ salida y un conjunto de parámetros para su configuración, mientras que el resto de información requerida normalmente se acompaña mediante documentación externa. En la segunda parte de la Tesis se propondrán un conjunto de encapsulados cuya finalidad es incorporar junto con la propia descripción del componente, información que puede resultar útil para su integración en otros diseños. Incluyendo información de la implementación, ayuda a la configuración del componente, e incluso información de cómo configurar y conectar al componente para realizar una función. Finalmente se elegirá una aplicación clásica en el campo de procesado de señal, la transformada rápida de Fourier (FFT), y se utilizará como ejemplo de uso y aplicación, tanto de las posibilidades de especificación como de los encapsulados descritos. El objetivo del diseño realizado no sólo mostrará ejemplos de la especificación propuesta, sino que también se buscará obtener una implementación de calidad comparable con resultados de la literatura. Para ello, el diseño realizado se orientará a su implementación en FPGA, aprovechando tanto los elementos lógicos generalistas como elementos específicos de bajo nivel disponibles en estos dispositivos. Finalmente, la especificación de la FFT obtenida se utilizará para mostrar cómo incorporar en su interfaz información que ayude para su selección y configuración desde fases tempranas del ciclo de diseño. Abstract This PhD. thesis addresses the design and implementation of signal processing applications using reconfigurable FPGA platforms. This kind of platform exhibits high logic capability, incorporates dedicated signal processing elements and provides a low cost solution, which makes it ideal for the development of signal processing applications, where intensive data processing is required in order to obtain high performance. However, the cost associated to the hardware development on these platforms is high. While the increase in logic capacity of FPGA devices allows the development of complete systems, high-performance constraints require the optimization of operators at very low level. In addition to time constraints imposed by these applications, Area constraints are also applied related to the particular device, which force to evaluate and verify a design among different implementation alternatives. The design and implementation cycle for these applications can be tedious and long, being therefore normal that new FPGA models with a greater capacity and higher speed appear before completing the system implementation. Thus, the original constraints which guided the design of the system become useless. Different methods can be used to improve the productivity when developing these applications, and consequently shorten their design cycle. This PhD. Thesis focuses on the reuse of hardware components previously designed and verified. Although conventional HDLs allow the reuse of components already defined, their specification can be improved in order to simplify the process of incorporating new design components. Thus, a first part of the PhD. Thesis will focus on the specification of designs based on predefined components. This specification improves and simplifies the process of adding components to a description, but it also seeks to improve the quality of the design specified with better configuration options and even offering to report on features of the description. Hardware reuse of a component for its integration into a system largely depends on the information it offers. In this sense the conventional HDLs only provide together with the component description, the input/output interface and a set of parameters for its configuration, while other information is usually provided by external documentation. In the second part of the Thesis we will propose a formal way of encapsulation which aims to incorporate with the component description information that can be useful for its integration into other designs. This information will include features of the own implementation, but it will also support component configuration, and even information on how to configure and connect the component to carry out a function. Finally, the fast Fourier transform (FFT) will be chosen as a well-known signal processing application. It will be used as case study to illustrate the possibilities of proposed specification and encapsulation formalisms. The objective of the FFT design is not only to show practical examples of the proposed specification, but also to obtain an implementation of a quality comparable to scientific literature results. The design will focus its implementation on FPGA platforms, using general logic elements as base of the implementation, but also taking advantage of low-level specific elements available on these devices. Last, the specification of the obtained FFT will be used to show how to incorporate in its interface information to assist in the selection and configuration process early in the design cycle.
Resumo:
Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.