1000 resultados para Sistemas de control adaptable-Modelos matemáticos
Resumo:
El objetivo del presente trabajo de fin de máster es realizar un breve repaso de algunos de los modelos matemáticos más prometedores que permiten predecir la respuesta dinámica de la estructura y su vulnerabilidad frente a vibraciones laterales excesivas, en función de sus características dinámicas y del número de peatones que transitan. En particular, se estudiaran los modelos de Arup (de base empírica), Strogatz et al. (basado en el modelo de Kuramoto) y Macdonald (modelo alternativo basado en la biomecánica). En todos ellos se llevaran a cabo simulaciones que permitan apreciar la adecuación del modelo matemático a la realidad física que pretende reproducir y se tratara de esclarecer sus posibles limitaciones y su validez general. Finalmente, se propondrá un modelo propio sencillo basado en una analogía con la fuerza de rozamiento que aparece entre un objeto y la superficie sobre la que se apoya cuando aquel es sometido a un movimiento armónico.
Resumo:
En esta tesis se desarrolla una metodología alternativa para la determinación de la dureza Brinell a partir de imágenes obtenidas mediante microscopía confocal, que se ha mostrado robusta para mejorar los resultados de medición del diámetro en condiciones de reproducibilidad. Las validaciones realizadas evidencian su posibilidad real de implementación, especialmente para la certificación de patrones de dureza. Los estudios experimentales realizados ponen de manifiesto que la medición del diámetro de una huella de dureza Brinell, siguiendo la metodología tradicional, depende de la posición del patrón, de las características del equipo empleado y del propio operador. Dicha medida resulta crítica y las dificultades para identificar el borde de la huella incorporan a menudo una fuente adicional de incertidumbre difícil de soslayar. En esta investigación se han desarrollado dos modelos matemáticos que permiten identificar de forma unívoca el diámetro de la huella en el punto donde se produce el límite de contacto entre el indentador y el material de la probeta durante la realización del ensayo. Ambos modelos han sido implementados en Matlab® y se ha verificado su validez mediante datos sintéticos. Asimismo, se ha realizado una validación experimental sobre patrones de dureza certificados, empleando un microscopio confocal marca Leica, modelo DCM 3D disponible en el Laboratorio de Investigación de Materiales de Interés Tecnológico (LIMIT) de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI – UPM). Dicha validación ha puesto de manifiesto la utilidad de esta nueva metodología por cuanto permite caracterizar las huellas, estimar las incertidumbres de medida y garantizar la trazabilidad metrológica de los resultados. ABSTRACT This PhD thesis presents an alternative methodology to determine the Brinell hardness from the images obtained by confocal microscopy that has proved to be robust to improve the results of indentation diameter measurements in reproducibility conditions. The validations carried out show the real possibility of its implementation, especially for calibration of hardness reference blocks. Experimental studies performed worldwide show that the measurement of the indentation diameter in a Brinell hardness test depends, when the traditional methodology is applied, on the position of the test block, the equipment characteristics and the operator. This measurement is critical and the difficulties to identify the edge of the indentation often bring an additional source of uncertainty with them that is hard to avoid. In this research two specific mathematical models have been developed to identify unambiguously the indentation diameter at the point where the edge of the boundary between the indenter and the test block is found during the test. Both models have been implemented on Matlab® and their validity has been verified by synthetic data An additional experimental validation with calibrated hardness reference blocks has been carried out using a Leica-brand confocal microscope, model DCM 3D, available in the Laboratory for Research on Materials of Technological Interest (LIMIT in its Spanish acronym) of the Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI-UPM). This validation has shown the utility of this new methodology since it allows to characterize the indentation, to estimate the measurement uncertainties and to ensure the metrological traceability of the results.
Resumo:
Para el análisis de la respuesta estructural, tradicionalmente se ha partido de la suposición de que los nudos son totalmente rígidos o articulados. Este criterio facilita en gran medida los cálculos, pero no deja de ser una idealización del comportamiento real de las uniones. Como es lógico, entre los nudos totalmente rígidos y los nudos articulados existe una gama infinita de valores de rigidez que podrían ser adoptados. A las uniones que presentan un valor distinto de los canónicos se les denomina en sentido general uniones semirrígidas. La consideración de esta rigidez intermedia complica considerablemente los cálculos estructurales, no obstante provoca cambios en el reparto de esfuerzos dentro de la estructura, así como en la configuración de las propias uniones, que en ciertas circunstancias pueden suponer una ventaja económica. Del planteamiento expuesto en el párrafo anterior, surgen dos cuestiones que serán el germen de la tesis. Estas son: ¿Qué ocurre si se aplica el concepto de uniones semirrígidas a las naves industriales? ¿Existen unos valores determinados de rigidez en sus nudos con los que se logra optimizar la estructura? Así, surge el objetivo principal de la tesis, que no es otro que conocer la influencia de la rigidez de los nudos en los costes de los pórticos a dos aguas de estructura metálica utilizados típicamente en edificios de uso agroindustrial. Para alcanzar el objetivo propuesto, se plantea una metodología de trabajo que básicamente consiste en el estudio de una muestra representativa de pórticos sometidos a tres estados de carga: bajo, medio y alto. Su rango de luces abarca desde los 8 a los 20 m y el de la altura de pilares desde los 3,5 a los 10 m. Además, se considera que sus uniones pueden adoptar valores intermedios de rigidez. De la combinatoria de las diferentes configuraciones posibles se obtienen 46.656 casos que serán objeto de estudio. Debido al fin economicista del trabajo, se ha prestado especial atención a la obtención de los costes de ejecución de las diferentes partidas que componen la estructura, incluidas las correspondientes a las uniones. Para acometer los cálculos estructurales ha sido imprescindible contar con un soporte informático, tanto existente como de creación ex profeso, que permitiese su automatización en un contexto de optimización. Los resultados del estudio consisten básicamente en una cantidad importante de datos que para su interpretación se hace imprescindible tratarlos previamente. Este tratamiento se fundamenta en su ordenación sistemática, en la aplicación de técnicas estadísticas y en la representación gráfica. Con esto se obtiene un catálogo de gráficos en los que se representa el coste total de la estructura según los diferentes valores de rigidez de sus nudos, unas matrices resumen de resultados y unos modelos matemáticos que representan la función coste total - rigideces de nudos. Como conclusiones se puede destacar: por un lado que los costes totales de los pórticos estudiados son mínimos cuando los valores de rigidez de sus uniones son bajos, concretamente de 5•10³ a 10•10³ kN•m/rad; y por otro que la utilización en estas estructuras de uniones semirrígidas con una combinación idónea de sus rigideces, supone una ventaja económica media del 18% con respecto a las dos tipologías que normalmente se usan en este tipo de edificaciones como son los pórticos biempotrados y los biarticulados. ABSTRACT Analyzing for structural response, traditionally it started from the assumption that joints are fully rigid or pinned. This criterion makes the design significantly easier, but it is also an idealization of real joint behaviour. As is to be expected, there is an almost endless range of stiffnes value between fully rigid and pinned joints, wich could be adopted. Joints with a value other than traditional are referred to generally as semi-rigid joints. If middle stiffness is considered, the structural design becomes much more complicated, however, it causes changes in the distribution of frame stresses, as well as on joints configuration, that under certain circumstances they may suppose an economic advantage. Two questions arise from the approach outlined in the preceding subparagraph, wich are the seeds of the doctoral thesis. These are: what happens when the concept of semirigid joints is applied to industrial buildings? There are certain stiffness values in their joints with which optimization of frame is achieved? This way, the main objective of the thesis arise, which is to know the influence of stiffness of joints in the cost of the steel frames with gabled roof, that they are typically used in industrial buildings. In order to achieve the proposed goal, a work methodology is proposed, which consists in essence in a study of a representative sample of frames under three load conditions: low, middle and high. Their range of spans comprises from 8 to 20 m and range of the height of columns cover from 3,5 to 10 m. Furthermore, it is considered that their joints can adopt intermediate values of stiffness. The result of the combination of different configurations options is 46.656 cases, which will be subject of study. Due to the economic aim of this work, a particular focus has been devoted for obtaining the execution cost of the different budget items that make up the structure, including those relating to joints. In order to do the structural calculations, count with a computing support has been indispensable, existing and created expressly for this purpose, which would allows its automation in a optimization context. The results of the study basically consist in a important amount of data, whose previous processing is necesary. This process is based on his systematic arrangement, in implementation of statistical techniques and in graphical representation. This give a catalogue of graphics, which depicts the whole cost of structure according to the different stiffness of its joints, a matrixes with the summary of results and a mathematical models which represent the function whole cost - stiffness of the joints. The most remarkable conclusions are: whole costs of the frames studied are minimum when the stiffness values of their joints are low, specifically 5•10³ a 10•10³ kN•m/rad; and the use of structures with semi-rigid joints and a suitable combination of their stiffness implyes an average economic advantage of 18% over other two typologies which are used typically in this kind of buildings; these are the rigid and bi-articulated frames.
Resumo:
El magnesio y sus aleaciones representan un interesante campo de investigación dentro de la ingeniería de materiales debido a los retos que plantean tanto su conformabilidad como durabilidad. Las características físicas y mecánicas del magnesio y sus aleaciones los convierten en materiales de gran interés desde el punto de vista industrial al tratarse de uno de los materiales más abundantes y ligeros en un mundo en el que día a día los recursos y materias primas son más escasos por lo que el acceso a materiales abundantes y ligeros que permitan economizar el uso de energía cobrará mayor importancia en el futuro. En la coyuntura actual es por tanto necesario revisar procesos y procedimientos, investigando y tratando de ampliar desde este punto de vista si es posible mejorar los procedimientos de fabricación de los materiales disponibles actualmente o el desarrollo de nuevos, mejores que los anteriores, que permitan ayudar a la sostenibilidad del planeta. El magnesio, pese a ser un material muy abundante y relativamente barato, presenta una serie de inconvenientes que limitan de manera muy seria su aplicación industrial, su alta reactividad en presencia de oxígeno y su mal comportamiento frente a la corrosión así como limitaciones en su conformabilidad han estado limitando su uso y aplicaciones, los investigaciones dentro del campo de la metalurgia física de este material y el desarrollo de nuevas aleaciones han permitido su empleo en múltiples aplicaciones dentro de la industria aeroespacial, militar, automovilística, electrónica, deportiva y médica. La motivación para esta tesis doctoral ha sido tratar de aportar más luz sobre el comportamiento de una de las aleaciones comerciales base magnesio más empleadas, la AZ31B, tratando de modelizar como le afectan los procesos de soldadura y estudiando desde un punto de vista experimental como se ve modificada su microestructura, su comportamiento mecánico y su resistencia frente a la corrosión. Aunque en un principio se pensó en el empleo de métodos electroquímicos para el estudio de la corrosión de estos materiales, rápidamente se decidió prescindir de su uso dada la dificultad observada tanto durante los trabajos de investigación de esta Tesis como los encontrados por otros investigadores. Mediante microdurezas se han caracterizado mecánicamente las soldaduras de aleación de magnesio tipo AZ31 en función de diferentes materiales de aporte, observándose que el empleo de las aleaciones con mayor contenido de aluminio y zinc no contribuye a una mejora significativa de las propiedades mecánicas. Se han podido establecer correlaciones entre los modelos de simulación desarrollados y las microestructuras resultantes de los procesos reales de soldadura que permiten definir a priori que estructuras se van a obtener. De igual forma ha sido posible completar un estudio micrográfico y químico completo de las diferentes fases y microconstituyentes originados durante los procesos de soldadura, gracias a estos resultados se ha propuesto como hipótesis una explicación que justifica el comportamiento frente a la corrosión de estas aleaciones una vez soldadas. Los ensayos de corrosión realizados han permitido determinar correlaciones matemáticas que indican las velocidades de corrosión esperables de este tipo de aleaciones. Desde el punto de vista del diseño, los resultados obtenidos en este trabajo permitirán a otros investigadores y diseñadores tomar decisiones a la hora de decidir qué materiales de aporte emplear junto con las implicaciones que conllevan desde el punto de vista metalúrgico, mecánico o corrosivo las diferentes alternativas. Por último indicar que gracias al trabajo desarrollado se han definido modelos matemáticos para predecir el comportamiento frente a la corrosión de estas aleaciones, se han determinado las posibles causas y mecanismos por las que se gobierna la corrosión en la soldadura de chapas de aleación AZ31B y los motivos por los que se debe considerar el empleo de un material de aporte u otro. Los modelos de simulación desarrollados también han ayudado a comprender mejor la microestructura resultante de los procesos de soldadura y se han determinado que fases y microconstituyentes están presentes en las soldaduras de estas aleaciones. ABSTRACT Magnesium and its alloys represent and interesting research field in the material science due to the challenges of their fabrication and durability. The physical and mechanical properties of magnesium and its alloys make them a very interesting materials from and industrial point of view being one of the most abundant and lightest materials in a world in which day by day the lacking of resources and raw materials is more important, the use of light materials which allow to save energy will become more important in a near future. So that it is necessary to review processes and procedures, investigating and trying to improve current fabrication procedures and developing new ones, better than the former ones, in order to help with the sustainability of the planet. Although magnesium is a very common and relatively cheap material, it shows some inconveniences which limit in a major way their industrial application; its high reactivity in presence of oxygen, its poor corrosion resistance and some manufacturing problems had been limiting their use and applications, metallurgical investigations about this material and the development of new alloys have allowed its use in multiple applications in the aerospacial, military, automobile, electronics, sports and medical industry. The motivation for this thesis has been trying to clarify the behavior of one most used commercial base magnesium alloys, the AZ31, trying to modeling how its affected by thermal cycles of the welding process and studying from an experimental point of view how its microstructure is modified and how these modifications affect its mechanical behavior and corrosion resistance. Although at the beginning of this works it was though about the using of electrochemical techniques to evaluate the corrosion of these materials, rapidly it was decided not to use them because of the difficulty observed by during this research and by other investigators. The results obtained in this thesis have allowed to characterize mechanically AZ31 magnesium welding alloys considering different filler metals, according to this study using filler metals with a high content of aluminum and zinc does not represent an important improve It has been possible to establish correlations between simulation models and the resultant microstructures of the real melting processes originated during welding processes which allow to predict the structures which will be obtained after the welding. In addition to that it is possible to complete a complete micrographic and chemical analysis of the different phases and microconstituents created during welding, due to these results and hypothesis to explain the corrosion behavior of these welded alloys. Corrosion tests carried out have allowed defining mathematical correlations to predict corrosion rates of this kind of alloys. From a designing point of view, the results obtained in this work will let other investigators and designers to make decisions taking into account which implications have the different options from a metallurgical, mechanic and corrosive point of view. Finally we would like to indicate that thanks to this work it has been possible to define mathematical models to predict the corrosion behavior, the causes and the mechanism of this corrosion in the AZ31 welding sheets have been also determined and the reasons for using of one filler metal or another, the developed simulation models have also help to get a better understanding of the result microstructure determining the phases and the microconstituents present in the welding of this alloys.
Resumo:
La reproducibilidad de estudios y resultados científicos es una meta a tener en cuenta por cualquier científico a la hora de publicar el producto de una investigación. El auge de la ciencia computacional, como una forma de llevar a cabo estudios empíricos haciendo uso de modelos matemáticos y simulaciones, ha derivado en una serie de nuevos retos con respecto a la reproducibilidad de dichos experimentos. La adopción de los flujos de trabajo como método para especificar el procedimiento científico de estos experimentos, así como las iniciativas orientadas a la conservación de los datos experimentales desarrolladas en las últimas décadas, han solucionado parcialmente este problema. Sin embargo, para afrontarlo de forma completa, la conservación y reproducibilidad del equipamiento computacional asociado a los flujos de trabajo científicos deben ser tenidas en cuenta. La amplia gama de recursos hardware y software necesarios para ejecutar un flujo de trabajo científico hace que sea necesario aportar una descripción completa detallando que recursos son necesarios y como estos deben de ser configurados. En esta tesis abordamos la reproducibilidad de los entornos de ejecución para flujos de trabajo científicos, mediante su documentación usando un modelo formal que puede ser usado para obtener un entorno equivalente. Para ello, se ha propuesto un conjunto de modelos para representar y relacionar los conceptos relevantes de dichos entornos, así como un conjunto de herramientas que hacen uso de dichos módulos para generar una descripción de la infraestructura, y un algoritmo capaz de generar una nueva especificación de entorno de ejecución a partir de dicha descripción, la cual puede ser usada para recrearlo usando técnicas de virtualización. Estas contribuciones han sido aplicadas a un conjunto representativo de experimentos científicos pertenecientes a diferentes dominios de la ciencia, exponiendo cada uno de ellos diferentes requisitos hardware y software. Los resultados obtenidos muestran la viabilidad de propuesta desarrollada, reproduciendo de forma satisfactoria los experimentos estudiados en diferentes entornos de virtualización. ABSTRACT Reproducibility of scientific studies and results is a goal that every scientist must pursuit when announcing research outcomes. The rise of computational science, as a way of conducting empirical studies by using mathematical models and simulations, have opened a new range of challenges in this context. The adoption of workflows as a way of detailing the scientific procedure of these experiments, along with the experimental data conservation initiatives that have been undertaken during last decades, have partially eased this problem. However, in order to fully address it, the conservation and reproducibility of the computational equipment related to them must be also considered. The wide range of software and hardware resources required to execute a scientific workflow implies that a comprehensive description detailing what those resources are and how they are arranged is necessary. In this thesis we address the issue of reproducibility of execution environments for scientific workflows, by documenting them in a formalized way, which can be later used to obtain and equivalent one. In order to do so, we propose a set of semantic models for representing and relating the relevant information of those environments, as well as a set of tools that uses these models for generating a description of the infrastructure, and an algorithmic process that consumes these descriptions for deriving a new execution environment specification, which can be enacted into a new equivalent one using virtualization solutions. We apply these three contributions to a set of representative scientific experiments, belonging to different scientific domains, and exposing different software and hardware requirements. The obtained results prove the feasibility of the proposed approach, by successfully reproducing the target experiments under different virtualization environments.
Resumo:
El control, o cancelación activa de ruido, consiste en la atenuación del ruido presente en un entorno acústico mediante la emisión de una señal igual y en oposición de fase al ruido que se desea atenuar. La suma de ambas señales en el medio acústico produce una cancelación mutua, de forma que el nivel de ruido resultante es mucho menor al inicial. El funcionamiento de estos sistemas se basa en los principios de comportamiento de los fenómenos ondulatorios descubiertos por Augustin-Jean Fresnel, Christiaan Huygens y Thomas Young entre otros. Desde la década de 1930, se han desarrollado prototipos de sistemas de control activo de ruido, aunque estas primeras ideas eran irrealizables en la práctica o requerían de ajustes manuales cada poco tiempo que hacían inviable su uso. En la década de 1970, el investigador estadounidense Bernard Widrow desarrolla la teoría de procesado adaptativo de señales y el algoritmo de mínimos cuadrados LMS. De este modo, es posible implementar filtros digitales cuya respuesta se adapte de forma dinámica a las condiciones variables del entorno. Con la aparición de los procesadores digitales de señal en la década de 1980 y su evolución posterior, se abre la puerta para el desarrollo de sistemas de cancelación activa de ruido basados en procesado de señal digital adaptativo. Hoy en día, existen sistemas de control activo de ruido implementados en automóviles, aviones, auriculares o racks de equipamiento profesional. El control activo de ruido se basa en el algoritmo fxlms, una versión modificada del algoritmo LMS de filtrado adaptativo que permite compensar la respuesta acústica del entorno. De este modo, se puede filtrar una señal de referencia de ruido de forma dinámica para emitir la señal adecuada que produzca la cancelación. Como el espacio de cancelación acústica está limitado a unas dimensiones de la décima parte de la longitud de onda, sólo es viable la reducción de ruido en baja frecuencia. Generalmente se acepta que el límite está en torno a 500 Hz. En frecuencias medias y altas deben emplearse métodos pasivos de acondicionamiento y aislamiento, que ofrecen muy buenos resultados. Este proyecto tiene como objetivo el desarrollo de un sistema de cancelación activa de ruidos de carácter periódico, empleando para ello electrónica de consumo y un kit de desarrollo DSP basado en un procesador de muy bajo coste. Se han desarrollado una serie de módulos de código para el DSP escritos en lenguaje C, que realizan el procesado de señal adecuado a la referencia de ruido. Esta señal procesada, una vez emitida, produce la cancelación acústica. Empleando el código implementado, se han realizado pruebas que generan la señal de ruido que se desea eliminar dentro del propio DSP. Esta señal se emite mediante un altavoz que simula la fuente de ruido a cancelar, y mediante otro altavoz se emite una versión filtrada de la misma empleando el algoritmo fxlms. Se han realizado pruebas con distintas versiones del algoritmo, y se han obtenido atenuaciones de entre 20 y 35 dB medidas en márgenes de frecuencia estrechos alrededor de la frecuencia del generador, y de entre 8 y 15 dB medidas en banda ancha. ABSTRACT. Active noise control consists on attenuating the noise in an acoustic environment by emitting a signal equal but phase opposed to the undesired noise. The sum of both signals results in mutual cancellation, so that the residual noise is much lower than the original. The operation of these systems is based on the behavior principles of wave phenomena discovered by Augustin-Jean Fresnel, Christiaan Huygens and Thomas Young. Since the 1930’s, active noise control system prototypes have been developed, though these first ideas were practically unrealizable or required manual adjustments very often, therefore they were unusable. In the 1970’s, American researcher Bernard Widrow develops the adaptive signal processing theory and the Least Mean Squares algorithm (LMS). Thereby, implementing digital filters whose response adapts dynamically to the variable environment conditions, becomes possible. With the emergence of digital signal processors in the 1980’s and their later evolution, active noise cancellation systems based on adaptive signal processing are attained. Nowadays active noise control systems have been successfully implemented on automobiles, planes, headphones or racks for professional equipment. Active noise control is based on the fxlms algorithm, which is actually a modified version of the LMS adaptive filtering algorithm that allows compensation for the acoustic response of the environment. Therefore it is possible to dynamically filter a noise reference signal to obtain the appropriate cancelling signal. As the noise cancellation space is limited to approximately one tenth of the wavelength, noise attenuation is only viable for low frequencies. It is commonly accepted the limit of 500 Hz. For mid and high frequencies, conditioning and isolating passive techniques must be used, as they produce very good results. The objective of this project is to develop a noise cancellation system for periodic noise, by using consumer electronics and a DSP development kit based on a very-low-cost processor. Several C coded modules have been developed for the DSP, implementing the appropriate signal processing to the noise reference. This processed signal, once emitted, results in noise cancellation. The developed code has been tested by generating the undesired noise signal in the DSP. This signal is emitted through a speaker simulating the noise source to be removed, and another speaker emits an fxlms filtered version of the same signal. Several versions of the algorithm have been tested, obtaining attenuation levels around 20 – 35 dB measured in a tight bandwidth around the generator frequency, or around 8 – 15 dB measured in broadband.
Resumo:
Las valoraciones automatizadas (AVM según sus siglas en inglés) son modelos matemáticos de valoración que permiten estimar el valor de un inmueble o una cartera de inmuebles mediante la utilización de información de mercado previamente recogida y analizada. Las principales ventajas de los modelos AVM respecto a las valoraciones tradicionales son su objetividad, rapidez y economía. Existe regulación al respecto y estándares profesionales en otros países, no obstante en España los criterios de valoración mediante modelos AVM siguen siendo excesivamente básicos, al no establecer procesos concretos ni distinguir entre los diversos métodos estadísticos existentes y la aplicación adecuada de los mismos. Por otra parte, desde la publicación de la Circular 3/2008 del Banco de España se ha extendido el uso de este tipo de valoraciones en España para la actualización de valor de inmuebles en garantía de préstamos hipotecarios. La actual desregularización en nuestro país en cuanto a normativa de valoraciones automatizadas nos permite plantear propuestas y metodologías con el fin de aportar un punto de vista nuevo desde la investigación, la experiencia en otros países y la práctica empresarial más reciente. Este trabajo de investigación trata de sentar las bases de una futura regulación en España en materia de valoraciones masivas adaptadas al marco hipotecario español. ABSTRACT The Automated Valuation Models (AVM) are mathematically based valuation models that allow to estimate the value of a property or portfolio of properties by using market information previously collected and analyzed. The main advantages of the AVMs in comparison to traditional valuations are the objectivity, speed and economy. In other countries there is regulation and standards regarding the use of AVMs. However, in Spain the norms that apply to AVM valuations are still too basic, since these norms do not define specific processes and do not distinguish between the different statistical approaches available and their correct use. On the other hand, following the ratification of the 3/2008 Bank of Spain Circular the use of AVM models in Spain for the value update of mortgaged properties has increased. The current deregulation in Spain regarding Automated Valuation Models allows to provide propositions and methodologies in order to offer a new point of view based on the research, experience in other countries and the most recent professional practice. The present research thesis aims to provide basic principles and criteria for a future Spanish regulation on massive valuation in the context of the Spanish mortgage framework.
Resumo:
Neste trabalho é proposto um modelo mecanobiológico de remodelagem óssea para a estimativa de variações, provocadas por perturbações mecânicas ou biológicas, na matriz de rigidez estrutural da escala macroscópica e na densidade mineral em uma região do osso. Na cooperação entre as áreas da saúde e da engenharia, como nos estudos estruturais de biomecânica no sistema esquelético, as propriedades mecânicas dos materiais devem ser conhecidas, entretanto os ossos possuem uma constituição material altamente complexa, dinâmica e variante entre indivíduos. Sua dinâmica decorre dos ciclos de absorção e deposição de matriz óssea na remodelagem óssea, a qual ocorre para manter a integridade estrutural do esqueleto e adaptá-lo aos estímulos do ambiente, sejam eles biológicos, químicos ou mecânicos. Como a remodelagem óssea pode provocar alterações no material do osso, espera-se que suas propriedades mecânicas também sejam alteradas. Na literatura científica há modelos matemáticos que preveem a variação da matriz de rigidez estrutural a partir do estímulo mecânico, porém somente os modelos mais recentes incluíram explicitamente processos biológicos e químicos da remodelagem óssea. A densidade mineral óssea é um importante parâmetro utilizado no diagnóstico de doenças ósseas na área médica. Desse modo, para a obtenção da variação da rigidez estrutural e da densidade mineral óssea, propõe-se um modelo numérico mecanobiológico composto por cinco submodelos: da dinâmica da população de células ósseas, da resposta das células ao estímulo mecânico, da porosidade óssea, da densidade mineral óssea e, baseado na Lei de Voigt para materiais compósitos, da rigidez estrutural. Os valores das constantes das equações dos submodelos foram obtidos de literatura. Para a solução das equações do modelo, propõe-se uma implementação numérica e computacional escrita em linguagem C. O método de Runge-Kutta-Dorman-Prince, cuja vantagem consiste no uso de um passo de solução variável, é utilizado no modelo para controlar o erro numérico do resultado do sistema de equações diferenciais. Foi realizada uma avaliação comparativa entre os resultados obtidos com o modelo proposto e os da literatura dos modelos de remodelagem óssea recentes. Conclui-se que o modelo e a implementação propostos são capazes de obter variações da matriz de rigidez estrutural macroscópica e da densidade mineral óssea decorrentes da perturbação nos parâmetros mecânicos ou biológicos do processo de remodelagem óssea.
Resumo:
Temperature chaos has often been reported in the literature as a rare-event–driven phenomenon. However, this fact has always been ignored in the data analysis, thus erasing the signal of the chaotic behavior (still rare in the sizes achieved) and leading to an overall picture of a weak and gradual phenomenon. On the contrary, our analysis relies on a largedeviations functional that allows to discuss the size dependences. In addition, we had at our disposal unprecedentedly large configurations equilibrated at low temperatures, thanks to the Janus computer. According to our results, when temperature chaos occurs its effects are strong and can be felt even at short distances.
Resumo:
We propose a unifying picture where the notion of generalized entropy is related to information theory by means of a group-theoretical approach. The group structure comes from the requirement that an entropy be well defined with respect to the composition of independent systems, in the context of a recently proposed generalization of the Shannon-Khinchin axioms. We associate to each member of a large class of entropies a generalized information measure, satisfying the additivity property on a set of independent systems as a consequence of the underlying group law. At the same time, we also show that Einstein's likelihood function naturally emerges as a byproduct of our informational interpretation of (generally nonadditive) entropies. These results confirm the adequacy of composable entropies both in physical and social science contexts.
Resumo:
We present a microcanonical Monte Carlo simulation of the site-diluted Potts model in three dimensions with eight internal states, partly carried out on the citizen supercomputer Ibercivis. Upon dilution, the pure model’s first-order transition becomes of the second order at a tricritical point. We compute accurately the critical exponents at the tricritical point. As expected from the Cardy-Jacobsen conjecture, they are compatible with their random field Ising model counterpart. The conclusion is further reinforced by comparison with older data for the Potts model with four states.
Resumo:
We compare the critical behavior of the short-range Ising spin glass with a spin glass with long-range interactions which fall off as a power σ of the distance. We show that there is a value of σ of the long-range model for which the critical behavior is very similar to that of the short range model in four dimensions. We also study a value of σ for which we find the critical behavior to be compatible with that of the three-dimensional model, although we have much less precision than in the four-dimensional case.
Resumo:
We describe Janus, a massively parallel FPGA-based computer optimized for the simulation of spin glasses, theoretical models for the behavior of glassy materials. FPGAs (as compared to GPUs or many-core processors) provide a complementary approach to massively parallel computing. In particular, our model problem is formulated in terms of binary variables, and floating-point operations can be (almost) completely avoided. The FPGA architecture allows us to run many independent threads with almost no latencies in memory access, thus updating up to 1024 spins per cycle. We describe Janus in detail and we summarize the physics results obtained in four years of operation of this machine; we discuss two types of physics applications: long simulations on very large systems (which try to mimic and provide understanding about the experimental non equilibrium dynamics), and low-temperature equilibrium simulations using an artificial parallel tempering dynamics. The time scale of our non-equilibrium simulations spans eleven orders of magnitude (from picoseconds to a tenth of a second). On the other hand, our equilibrium simulations are unprecedented both because of the low temperatures reached and for the large systems that we have brought to equilibrium. A finite-time scaling ansatz emerges from the detailed comparison of the two sets of simulations. Janus has made it possible to perform spin glass simulations that would take several decades on more conventional architectures. The paper ends with an assessment of the potential of possible future versions of the Janus architecture, based on state-of-the-art technology.
Resumo:
Spin glasses are a longstanding model for the sluggish dynamics that appear at the glass transition. However, spin glasses differ from structural glasses in a crucial feature: they enjoy a time reversal symmetry. This symmetry can be broken by applying an external magnetic field, but embarrassingly little is known about the critical behavior of a spin glass in a field. In this context, the space dimension is crucial. Simulations are easier to interpret in a large number of dimensions, but one must work below the upper critical dimension (i.e., in d < 6) in order for results to have relevance for experiments. Here we show conclusive evidence for the presence of a phase transition in a four-dimensional spin glass in a field. Two ingredients were crucial for this achievement: massive numerical simulations were carried out on the Janus special-purpose computer, and a new and powerful finite-size scaling method.