376 resultados para Recocido simulado
Resumo:
objetivo de minimizar el retraso total en un ambiente con preparaciones quedependen de la secuencia. Se comparan los resultados obtenidos mediante laaplicación de los procedimientos de exploración de entornos AED, ANED,Recocido Simulado, Algoritmos Genéticos, Búsqueda Tabú y GRASP alproblema planteado. Los resultados sugieren que la Búsqueda Tabú es unatécnica viable de solución que puede proporcionar buenas soluciones cuandose considera el objetivo retraso total con tiempos de preparación dependientesde la secuencia.
Resumo:
El objetivo fundamental del libro es el de facilitar al alumno una visión integral de las técnicas mataheuisticas orientado a la optimización. Los temas tratados han sido descompuesto en : 1. Introducción, 2. Redes Neuronales, 3. Algoritmos Genéticos, 4. Recocido simulado, 5. Búsqueda Tabú, 6.Otras técnicas. El trabajo ha sido desarrollado en el departamento de Organización y Gestión de Empresas en la Escuela Técnica Superior de Ingenieros Industriales. El trabajo permitirá instaurar metodologías que motiven más directamente a los alumnos en su aprendizaje.
Resumo:
El trabajo ha sido desarrollado en el Departamento de Organización y Gestión de Empresas en la Escuela Técnica Superior de Ingeniería Industrial de la Universidad de Valladolid. El objetivo fundamental del libro producto del proyecto, es el de facilitar al alumno una visión integral de las técnicas metaheurísticas orientadas a la optimización. Los temas tratados se desglosan en: 1) Introducción, 2) Redes neuronales, 3) Algoritmos genéticos, 4) Recocido simulado, 5) Búsqueda Tabú, 6) Otras técnicas. El trabajo permitirá instaurar metodologías que motiven más directamente a los alumnos en su aprendizaje.
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
This thesis investigates the acoustic properties of microperforated panels as an alternative to passive noise control. The first chapters are devoted to the review of analytical models to obtain the acoustic impedance and absorption coefficient of perforated panels. The use of panels perforated with circular holes or with slits is discussed. The theoretical models are presented and some modifications are proposed to improve the modeling of the physical phenomena occurring at the perforations of the panels. The absorption band is widened through the use of multiple layer microperforated panels and/or the combination of a millimetric panel with a porous layer that can be a fibrous material or a nylon mesh. A commercial micrometric mesh downstream a millimetric panel is proposed as a very efficient and low cost solution for controlling noise in reduced spaces. The simulated annealing algorithm is used in order to optimize the panel construction to provide a maximum of absorption in a determined wide band frequency range. Experiments are carried out at normal sound incidence and plane waves. One example is shown for a double layer microperforated panel subjected to grazing flow. A good agreement is achieved between the theory and the experiments. RESUMEN En esta tesis se investigan las propiedades acústicas de paneles micro perforados como una alternativa al control pasivo del ruido. Los primeros capítulos están dedicados a la revisión de los modelos de análisis para obtener la impedancia acústica y el coeficiente de absorción de los paneles perforados. El uso de paneles perforados con agujeros circulares o con ranuras es discutido. Se presentan diferentes modelos y se proponen algunas modificaciones para mejorar la modelización de los fenómenos físicos que ocurren en las perforaciones. La banda de absorción se ensancha a través del uso de capas múltiples de paneles micro perforados y/o la combinación de un panel de perforaciones milimétricas combinado con una capa porosa que puede ser un material fibroso o una malla de nylon. Se propone el uso de una malla micrométrica detrás de un panel milimétrico como una solución económica y eficiente para el control del ruido en espacios reducidos. El algoritmo de recocido simulado se utiliza con el fin de optimizar la construcción de paneles micro perforados para proporcionar un máximo de absorción en una banda determinada frecuencias. Los experimentos se llevan a cabo en la incidencia normal de sonido y ondas planas. Se muestra un ejemplo de panel micro perforado de doble capa sometido a flujo rasante. Se consigue un buen acuerdo entre la teoría y los experimentos.
Resumo:
Hardware/Software partitioning (HSP) is a key task for embedded system co-design. The main goal of this task is to decide which components of an application are to be executed in a general purpose processor (software) and which ones, on a specific hardware, taking into account a set of restrictions expressed by metrics. In last years, several approaches have been proposed for solving the HSP problem, directed by metaheuristic algorithms. However, due to diversity of models and metrics used, the choice of the best suited algorithm is an open problem yet. This article presents the results of applying a fuzzy approach to the HSP problem. This approach is more flexible than many others due to the fact that it is possible to accept quite good solutions or to reject other ones which do not seem good. In this work we compare six metaheuristic algorithms: Random Search, Tabu Search, Simulated Annealing, Hill Climbing, Genetic Algorithm and Evolutionary Strategy. The presented model is aimed to simultaneously minimize the hardware area and the execution time. The obtained results show that Restart Hill Climbing is the best performing algorithm in most cases.
Resumo:
El particionado hardware/software es una tarea fundamental en el co-diseño de sistemas embebidos. En ella se decide, teniendo en cuenta las métricas de diseño, qué componentes se ejecutarán en un procesador de propósito general (software) y cuáles en un hardware específico. En los últimos años se han propuesto diversas soluciones al problema del particionado dirigidas por algoritmos metaheurísticos. Sin embargo, debido a la diversidad de modelos y métricas utilizadas, la elección del algoritmo más apropiado sigue siendo un problema abierto. En este trabajo se presenta una comparación de seis algoritmos metaheurísticos: Búsqueda aleatoria (Random search), Búsqueda tabú (Tabu search), Recocido simulado (Simulated annealing), Escalador de colinas estocástico (Stochastic hill climbing), Algoritmo genético (Genetic algorithm) y Estrategia evolutiva (Evolution strategy). El modelo utilizado en la comparación está dirigido a minimizar el área ocupada y el tiempo de ejecución, las restricciones del modelo son consideradas como penalizaciones para incluir en el espacio de búsqueda otras soluciones. Los resultados muestran que los algoritmos Escalador de colinas estocástico y Estrategia evolutiva son los que mejores resultados obtienen en general, seguidos por el Algoritmo genético.
Resumo:
La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.
Resumo:
We propose new theoretical models, which generalize the classical Avrami-Nakamura models. These models are suitable to describe the kinetics of nucleation and growth in transient regime, and/or with overlapping of nucleation and growth. Simulations and predictions were performed for lithium disilicate based on data reported in the literature. One re-examined the limitations of the models currently used to interpret DTA or DSC results, and to extract the relevant kinetic parameters. Glasses and glass-ceramics with molar formulation 0.45SiO2? (0.45-x)MgO?xK2O?0.1(3CaO.P2O5) (0?x?0.090) were prepared, crystallized and studied as potential materials for biomedical applications. Substitution of K+ for Mg2+ were used to prevent devritification on cooling, to adjust the kinetics of crystallization and to modify the in vitro behaviour of resulting biomaterials. The crystallization of the glass frits was studied by DTA, XRD and SEM. Exothermic peaks were detected corresponding to bulk crystallization of whitlockite-type phosphate, Ca9MgK(PO4)7, at approximately 900ºC, and surface crystallization of a predominant forsterite phase (Mg2SiO4) at higher temperatures. XRD also revealed the presence of diopside (CaMgSi2O6 in some samples. The predominant microstructure of the phosphate phase is of the plate-type, seemingly crystallizing by a 2-dimensional growth mechanism. Impedance spectroscopy revealed significant changes in electrical behaviour, associated to crystallization of the phosphate phase. This showed that electrical measurements can be used to study the kinetics of crystallization for cases when DTA or DSC experiments reveal limitations, and to extract estimates of relevant parameters from the dependence of crystallization peak temperature, and its width at half height. In vitro studies of glasses and glass-ceramics in acelular SBF media showed bioactivity and the development of apatite layers The morphology, composition and adhesion of the apatite layer could be changed by substitution of Mg2+ by K+. Apatite layers were deposited on the surface of glass-ceramics of the nominal compositions with x=0 and 0.09, in contact with SBF at 37ºC. The adhesion of the apatite layer was quantified by the scratch test technique, having been related with SBF?s immersion time, with composition and structure of the glass phase, and with the morphology of the crystalline phase of the glass-ceramics. The structure of three glasses (x=0, 0.045 and 0.090) were investigated by MAS-NMR ( 29Si and 31P), showing that the fraction of Q3 structural units increases with the contents of Mg, and that the structure of these glasses includes orthophosphate groups (PO43-) preferentially connected to Ca2+ ions. Mg2+ ions show preference towards the silicate network. Substitution of Mg2+ by K+ allowed one to change the bioactivity. FTIR data revealed octacalcium phosphate precipitation (Ca8H2(PO4)6.5H2O) in the glass without K, while the morphology of the layer acquires the shape of partially superimposed hemispheres, spread over the surface. The glasses with K present a layer of acicular hidroxyapatite, whose crystallinity and needles thickness tend to increase along with K content.
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
There is great interest nowadays in the use of preparative liquid chromatography as an effective tool for the production of enantiomerically pure, or enriched, compounds for the pharmaceutical industry. To make the chromatographic process economically attractive, attention is now focused on the choice of the chromatographic operating mode to minimize eluent consumption and to maximize productivity. Among the alternatives to the traditional batch chromatography, attention is now shifting towards simulated moving bed (SMB) technologies and a review covering the latest developments in this area seems timely. Several aspects of this important analytical technique are presented and details concerning the SMB technology for process optimization are outlined.
Resumo:
OBJETIVO: Analisar a qualidade do atendimento pré-hospitalar realizado pelas agências em Vitória-ES. MÉTODOS: Estudo retrospectivo realizado nos arquivos da Liga Acadêmica de Cirurgia e Atendimento ao Trauma do Espírito Santo (Lacates) dos dados de 40 vítimas de um acidente simulado entre um ônibus e dois automóveis. Os pacientes foram assistidos por quatro equipes: Corpo de Bombeiro Militar do Espírito Santo, Samu 192, Guarda Municipal e Defesa Civil. A atuação dessas equipes foi avaliada pela Lacates, através da análise do check-list com orientações pré-estabelecidas para cada vítima. RESULTADO: O Corpo de Bombeiros Militar do Espírito Santo (CBMES), que desencarcerou as vítimas, delimitou as zonas de perigo e realizou a triagem pelo método START atuou corretamente em 92,5% dos casos. O Samu 192 que atendeu as vítimas pelo método mnemônico (ABCDE) no posto médico avançado agiu corretamente em 92,5% dos casos, no quesito Via Aérea; 97,5%, no Respiração; 92,5%, no Circulação; 90%, no Avaliação Neurológica; e 50%, no Exposição e Controle do Ambiente. A análise conjunta do ABCDE mostrou que o atendimento foi correto em 42,5% dos casos. O transporte dos pacientes foi realizado corretamente em 95% dos casos. A Guarda Municipal garantiu a perviedade das avenidas para transporte dos pacientes, e a Defesa Civil coordenou eficazmente o trabalho das equipes envolvidas no posto de comando. CONCLUSÃO: A triagem e o transporte foram executados satisfatoriamente, entretanto, maior atenção deve ser dada à exposição e proteção contra hipotermia das vítimas, já que esse item comprometeu o tratamento.
Resumo:
O presente trabalho teve por objetivo avaliar a germinação de sementes e o crescimento de plântulas de canola do híbrido Hyola 401 sob condições de estresse hídrico induzidas por soluções de manitol. Para tanto, os testes de germinação (primeira contagem e contagem final); classificação do vigor das plântulas; velocidade de germinação, comprimento da raiz primária e do hipocótilo, biomassa seca das plântulas e taxa de crescimento relativo foram conduzidos em substrato embebido com soluções de manitol + 0,2% de fungicida Vitavax-Thiram, utilizando os potenciais osmóticos de 0 (controle), -0,25; -0,5; -1,0 e -1,5MPa. Observou-se que potenciais osmóticos mais negativos promoveram redução acentuada na germinação das sementes e no crescimento das plântulas. As características primeira contagem e contagem final de germinação, biomassa seca das plântulas e taxa de crescimento relativo foram afetadas na mesma proporção com o aumento da concentração das soluções osmóticas. O potencial osmótico de -1,0MPa foi considerado crítico para a germinação das sementes.
Resumo:
tesis ( Maestro en Ciencias de la Ingeniería Mecánica con Especialidad en Materiales ) - U.A.N.L, 2002