863 resultados para Biologia - Modelos matemáticos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La teledetección o percepción remota (remote sensing) es la ciencia que abarca la obtención de información (espectral, espacial, temporal) sobre un objeto, área o fenómeno a través del análisis de datos adquiridos por un dispositivo que no está en contacto con el elemento estudiado. Los datos obtenidos a partir de la teledetección para la observación de la superficie terrestre comúnmente son imágenes, que se caracterizan por contar con un sinnúmero de aplicaciones que están en continua evolución, por lo cual para solventar los constantes requerimientos de nuevas aplicaciones a menudo se proponen nuevos algoritmos que mejoran o facilitan algún proceso en particular. Para el desarrollo de dichos algoritmos, es preciso hacer uso de métodos matemáticos que permitan la manipulación de la información con algún fin específico. Dentro de estos métodos, el análisis multi-resolución se caracteriza por permitir analizar una señal en diferentes escalas, lo que facilita trabajar con datos que puedan tener resoluciones diferentes, tal es el caso de las imágenes obtenidas mediante teledetección. Una de las alternativas para la implementación de análisis multi-resolución es la Transformada Wavelet Compleja de Doble Árbol (DT-CWT). Esta transformada se implementa a partir de dos filtros reales y se caracteriza por presentar invariancia a traslaciones, precio a pagar por su característica de no ser críticamente muestreada. A partir de las características de la DT-CWT se propone su uso en el diseño de algoritmos de procesamiento de imagen, particularmente imágenes de teledetección. Estos nuevos algoritmos de procesamiento digital de imágenes de teledetección corresponden particularmente a fusión y detección de cambios. En este contexto esta tesis presenta tres algoritmos principales aplicados a fusión, evaluación de fusión y detección de cambios en imágenes. Para el caso de fusión de imágenes, se presenta un esquema general que puede ser utilizado con cualquier algoritmo de análisis multi-resolución; este algoritmo parte de la implementación mediante DT-CWT para luego extenderlo a un método alternativo, el filtro bilateral. En cualquiera de los dos casos la metodología implica que la inyección de componentes pueda realizarse mediante diferentes alternativas. En el caso del algoritmo de evaluación de fusión se presenta un nuevo esquema que hace uso de procesos de clasificación, lo que permite evaluar los resultados del proceso de fusión de forma individual para cada tipo de cobertura de uso de suelo que se defina en el proceso de evaluación. Esta metodología permite complementar los procesos de evaluación tradicionales y puede facilitar el análisis del impacto de la fusión sobre determinadas clases de suelo. Finalmente, los algoritmos de detección de cambios propuestos abarcan dos enfoques. El primero está orientado a la obtención de mapas de sequía en datos multi-temporales a partir de índices espectrales. El segundo enfoque propone la utilización de un índice global de calidad espectral como filtro espacial. La utilización de dicho filtro facilita la comparación espectral global entre dos imágenes, esto unido a la utilización de umbrales, conlleva a la obtención de imágenes diferencia que contienen la información de cambio. ABSTRACT Remote sensing is a science relates to information gathering (spectral, spatial, temporal) about an object, area or phenomenon, through the analysis of data acquired by a device that is not in contact with the studied item. In general, data obtained from remote sensing to observe the earth’s surface are images, which are characterized by having a number of applications that are constantly evolving. Therefore, to solve the constant requirements of applications, new algorithms are proposed to improve or facilitate a particular process. With the purpose of developing these algorithms, each application needs mathematical methods, such as the multiresolution analysis which allows to analyze a signal at different scales. One of the options is the Dual Tree Complex Wavelet Transform (DT-CWT) which is implemented from two real filters and is characterized by invariance to translations. Among the advantages of this transform is its successful application in image fusion and change detection areas. In this regard, this thesis presents three algorithms applied to image fusion, assessment for image fusion and change detection in multitemporal images. For image fusion, it is presented a general outline that can be used with any multiresolution analysis technique; this algorithm is proposed at first with DT-CWT and then extends to an alternative method, the bilateral filter. In either case the method involves injection of components by various means. For fusion assessment, the proposal is focused on a scheme that uses classification processes, which allows evaluating merger results individually for each type of land use coverage that is defined in evaluation process. This methodology allows complementing traditional assessment processes and can facilitate impact analysis of the merger on certain kinds of soil. Finally, two approaches of change detection algorithms are included. The first is aimed at obtaining drought maps in multitemporal data from spectral indices. The second one takes a global index of spectral quality as a spatial filter. The use of this filter facilitates global spectral comparison between two images and by means of thresholding, allows imaging containing change information.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este estudio, englobado dentro del campo de la investigación operacional en aeropuertos, se considera el problema de la optimización de la secuencia de descontaminación de nieve de los tramos que componen el área de maniobras de un aeropuerto, denominado RM-AM. Este problema se enfrenta a la optimización de recursos limitados para retirar la nieve de las calles de rodadura y pistas, dejándolas en un estado aceptable para la operación de aeronaves. El campo de vuelos se divide en subconjuntos de tramos significativos para la operación y se establecen tiempos objetivo de apertura al tráfico de aeronaves. Se desarrollan varios algoritmos matemáticos en los que se proponen distintas funciones objetivo, como son la hora de finalización del proceso, la suma de las horas de finalización de cada tramo, o el retraso entre la hora estimada y la hora de finalización. Durante este proceso, se van introduciendo restricciones operativas relativas al cumplimiento de objetivos operativos parciales aplicados a las zonas de especial interés, o relativas a la operación de los equipos de descontaminación. El problema se resuelve mediante optimización basada en programación lineal. Los resultados de las pruebas computacionales se hacen sobre cinco modelos de área de maniobras en los que va creciendo la complejidad y el tamaño. Se comparan las prestaciones de los distintos algoritmos. Una vez definido el modelo matemático para la optiamización, se propone una metodología estructurada para abordar dicho problema para cualquier área de manobras. Se define una estrategia en la operación. Se acomete el área de maniobras por zonas, con la condición de que los subconjuntos de tramos significativos queden englobados dentro de una sola de estas zonas. El problema se resuelve mediante un proceso iterativo de optimización aplicado sucesivamente a las zonas que componen el área de maniobras durante cada iteración. Se analiza la repercusión de los resultados en los procesos DMAN, AMAN y TP, para la integración de los resultados en el cálculo de TSAT y EBIT. El método se particulariza para el caso del área de maniobras del Aeropuerto Adolfo Suárez Madrid Barajas. ABSTRACT This study, which lies within the field of operations research in airports, considers the optimisation of the sequence for clearing snow from stretches of the manoeuvring area of an airport, known as RM-AM. This issue involves the optimisation of limited resources to remove snow from taxiways and runways thereby leaving them in an acceptable condition for operating aircraft. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are established during which these are open to aircraft traffic. The study contains several mathematical models each with different functions, such as the end time of the process, the sum of the end times of each stretch, and gap between the estimated and the real end times. During this process, we introduce different operating restrictions on partial fulfilment of the operational targets as applied to zones of special interest, or relating to the operation of the snow-clearing machines. The problem is solved by optimisation based on linear programming. Computational tests are carried out on five distinct models of the manoeuvring area, which cover increasingly complex situations and larger areas. The different algorithms are then compared to one other. Having defined the mathematical model for the optimisation, we then set out a structured methodology to deal with any type of manoeuvring area. In other words, we define an operational strategy. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are set at which these are to be open to aircraft traffic. The manoeuvring area is also divided into zones, with the condition that the subsets of significant stretches lie within just one of these zones. The problem is solved by an iterative optimisation process based on linear programming applied successively to the zones that make up the manoeuvring area during each iteration. The impact of the results on DMAN, AMAN and TP processes is analysed for their integration into the calculation of TSAT and EBIT. The method is particularized for the case of the manoeuvring area of Adolfo Suarez Madrid - Barajas Airport.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The goal of this study was to compare areas under different forest restoration technologies in relation to abundance, richness, diversity and composition of the present fauna in the litter and soil. The treatments evaluated were: natural regeneration (RN); high diversity tree plantations (L) and nucleation (N). An area of secondary forest was included in the study as a reference of soil conditions. The experimental design was in randomized block with four replications. Samples were collected for extraction of mesofauna (October/2012; July and October/2013) and macrofauna (June and October/2013) in six points of each plot, totaling 24 samples per treatment. For collecting soil macrofauna was used TSBF method. The mesofauna was collected with a metal cylinder and extracted by Berlese-Tüllgren funnel. Litter and soil were collected separately at each point and the fauna was identified level of class/taxonomic order. The springtails were classified using morphotypes. In total, considering the mesofauna, macrofauna and three times collected were accounted 28618 organisms. In relation soil mesofauna, the evaluated technologies did not differ, after three years of restoration, in relation to total abundance of organisms and community composition. The Shannon diversity index (H), in soil mesofauna, followed a human impact gradient. This index was higher in natural regeneration, which not was undergone technical interventions and showed higher moisture in the soil. The tree planting technology, under the control of volunteer plants in total area, showed lower H index. In the case of litter mesofauna, the technologies did not differ in relation the mean richness, total abundance of organisms and community composition. Considering edaphic macrofauna, technologies did not differ in relation to the abundance and richness, and in the evaluation of June/2013, RN showed higher H index and differed in relation to the community composition of other technologies. In October/2013 evaluation, the differences between the technologies in relation to H index were narrower and these did not differ in terms of composition of soil macrofauna community. In litter macrofauna, in June/2013, the RN presented greater richness and H index when compared to other technologies and in evaluation October/2013 technologies did not differ in relation to community composition, richness and mean abundance of organisms. In the case of springtails, technologies after three years in the restoration process, did not differ in relation to the abundance, richness and composition of Collembola community for different morphotypes. The secondary forest, in relation to forest restoration technologies, presented greater abundance of saprophages, predators and greater diversity of morphotypes of springtails. From these results it, we recommended to natural regeneration by to have the lowest cost of deployment, followed by nucleation and online planting. The animals should be monitored over time, in the restoration technologies, as well as the physical and chemical characteristics of the soil, in order to understand the possible changes in the composition and diversity of organisms.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Serines proteinases inhibitors (PIs) are widely distributed in nature and are able to inhibit both in vitro and in vivo enzymatic activites. Seed PIs in than leguminous are classified in seven families, Bowman-Birk and Kunitz type families that most studied representing an important role in the first line of defense toward insects pests. Some Kunitz type inhibitors possess activities serine and cysteine for proteinases named bifunctional inhibitor, as ApTKI the inhibitor isolate from seed of Adenanthera pavonina. The A. pavonina inhibitor presenting the uncommon property and was used for interaction studies between proteinases serine (trypsin) and cysteine (papain). In order to determinate the in vitro interaction of ApTKI against enzymes inhibitor purification was carried cut by using chromatographic techniques and inhibition assays. The 3D model of the bifunctional inhibitor ApTKI was constructed SWISS-MODEL program by homology modeling using soybean trypsin inhibitor (STI, pdb:1ba7), as template which presented 40% of identity to A. pavonina inhibitor. Model quality was evaluated by PROCHECK program. Moreover in silico analyzes of formed complex between the enzymes and ApTKI was evaluated by HEX 4.5 program. In vitro results confirmed the inhibitory assays, where the inhibitor presented the ability to simultaneously inhibit trypsin and papain. The residues encountered in the inhibitor model of folder structural three-dimensional that make contact to enzymes target coud explain the specificity pattern against serine and cysteine proteinases

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Lontra Euroasiática foi alvo de quatro prospeções na Península Ibérica (1990-2008). Em 2003, foi publicado um modelo de distribuição da lontra, com base nos dados de presença/ausência das prospeções publicadas em 1998. Dadas as suas características, este tipo de modelos pode tornar-se um elemento chave nas estratégias de recuperação da lontra como também, de outras espécies, se comprovada a sua fiabilidade e capacidade de antecipar tendências na distribuição das mesmas. Assim, esta dissertação confrontou as previsões do modelo com os dados de distribuição de 2008, a fim de identificar potências áreas de discordância. Os resultados revelam que, o modelo de distribuição de lontra proposto, apesar de ter por base dados de 1998 e de não considerar explicitamente processos biológicos, conseguiu captar o essencial da relação espécie-ambiente, resultando num bom desempenho preditivo para a distribuição da mesma em Espanha, uma década depois da sua construção; Evolution of otter (Lutra lutra L.) distribution in the Iberian Peninsula: Models at different scales and their projection through space and time Abstract: The Eurasian otter was already surveyed four times in the Iberian Peninsula (1990-2008). In 2003, a distribution model for the otter based on presence/absence data from the survey published in 1998, was published. This type of models has advantages that can make it in a key element for otter conservation strategies and also, for other species, but only, if their reliability and capability to predict species distribution tendencies are validated. The present thesis compares the model predictions with 2008 data, in order to find potential mismatch areas. Results suggest that, although the distribution model for the otter was based on data from 1998 and, doesn’t include explicitly biological mechanisms, it managed to correctly identify the essence of the species-environment relationship, what was translated in a good predictive performance for its actual distribution in Spain, after a decade of its construction.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La colección de textos , iniciativa del Departamento de Ciencias Básicas de la Universidad de Medellín y su grupo de investigación SUMMA, incluye en cada número la exposición detallada de un tema matemático en particular, tratado con el rigor que muchas veces no es posible lograr en un curso regular de la disciplina. Las temáticas incluyen diferentes áreas del saber matemático como: álgebra, trigonometría, cálculo, estadística y probabilidades, álgebra lineal, métodos lineales y numéricos, historia de las matemáticas, geometría, matemáticas puras y aplicadas, ecuaciones diferenciales y empleo de softwares matemáticos. Todas las carátulas de la colección vienen ilustradas, a manera de identificación, con diseño de la geometría fractal cuya fuente y origen se encuentra referenciada en las páginas interiores de los textos. La finalidad de esta lección de matemáticas número 9 Modelos Arima-ARCH es proporcionarle al estudiante y lector interesado las herramientas que le permitan tomar decisiones a través de la construcción de los modelos Arima-ARCH para ser aplicados en Ingeniería Financiera, métodos cuantitativos y mercados de capitales, entre otros

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudiar los medios de comunicación significa estudiar al hombre, la sociedad en la que vive, su evolución y las perspectivas de desarrollo futuro. Después de haber puntualizado brevemente los avances tecnológicos salientes en la historia del hombre y de haber identificado las características más relevantes de las diversas redefiniciones antropológicas que siguieron a la introducción de algunos nuevos medios, nos detendremos principalmente en el estudio de las peculiaridades de los instrumentos de comunicación de masa más modernos, de la fotografía al cine, de la televisión a Internet. El objetivo principal de este aporte, lejos de querer proveer sistemas teóricos definitivos, es trazar un conjunto coherente de temáticas capaces de suscitar nuevas y proficuas cuestiones y de promover un debate abierto a los más diversos aportes, con particular atención a los avances de las comunicaciones telemáticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: Luego de la crisis financiera global de 2008, el blindaje conceptual del paradigma neoclásico, edificado sobre un atractivo formalismo matemático, ha dejado entrever sus falencias. En ese contexto, este artículo plantea la necesidad de revisar sus fundamentos, en especial la concepción antropológica y la metodología que subyace detrás del modelo. El autor analiza al mainstream como un modelo reduccionista de la naturaleza humana, y postula la necesidad de modificar el rumbo de la ciencia económica hacia una dirección personalista, enfocada en el bienestar social de las personas, que considere la importancia de la moral en la toma de decisiones. Asimismo, el economista debería desarrollar su trabajo desde una perspectiva reflexiva y de diálogo con el resto de las ciencias sociales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El área experimental está ubicada en el departamento de Boaco, municipio de San José de los Remate, finca La Primavera cuya ubicación es latitud norte 12°36'43" y longitud oeste 85° 44'07". El objetivo del presente estudio es determinar los factores de la RUSLE Y USLE durante la estación lluviosa del 2008, bajo diferentes sistemas de cubierta vegetal (Grama natural y Bosque nativo). Se estableció un experimento en bloques, con tres repeticiones y dos tratamientos. Cada parcela tiene una dimensión de 50 metros de largo y 15 metros de ancho para un área útil de 750 m2 con un área total por tratamiento de 2,250 m2. El estudio demuestra que las mayores pérdidas de suelo se dieron en las parcelas de Grama natural con un valor promedio de 0.229 t/ha y en las parcelas de Bosque nativo resultaron con pérdidas menores con 0.033t/ha. Además las pérdidas de suelos en todos los eventos fueron relativamente bajas en comparación a los niveles de tolerancia propuestos por Wischmeier y Smith, 1965-1978. Se utilizo la Ecuación Universal de Pérdida de Suelo (E.U.P.S) el cual está compuesta por un total de 6 parámetro como R = 516.48. MJmm/ha h, K = 0.34-0.63 t.ha.h/ha MJ mm, S = 1.6, L = 4.27 (USLE), L*S (0.34–0.39) (RUSLE), C = Grama natural 0.01 y Bosque nativo 0.001, P = no se asumió por no existir práctica.Para el análisis de la información; se utilizó como método estadístico T student con un grado de significancia del 95 % los efectos de las diferentes variables relacionada a los procesos de erosión del suelo y del escurrimiento superficial resultando no significativos entre modelos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: En el marco de un proyecto de la Vicerrectoría de Investigaciones de la Universidad de Caldas denominado “Resignificación músico-pictórica del mito de la Salamanca” surgió la conveniencia de aplicar y diseñar programas de fundamentación matemática que permitieran definir la estructura y el tratamiento acústico de la obra especialmente escrita para este proyecto. Principalmente nos basamos en la implementación de la Transformada Rápida de Fourier (Fast Fourier Transform) para el análisis de espectros armónicos y su modificación en vivo y en la utilización de un entorno de programación para procesamiento de sonido en tiempo real. El marco general de la investigación parte del enfoque de Regionalismo Crítico procedente de las propuestas de Kenneth Frampton referentes originalmente a la crítica de la arquitectura. El planteamiento como investigación mutidisciplinaria implica (1) una visión crítica de la substancia mítica y social subyacente, (2) una resignificación pictórica por medio de fotografía, animación y pintura, basada en la sustancia visual que contiene el mito, (3) un enfoque musical electroacústico, a partir del material que surge del folklor local, utilizando la intervención de instrumentos en vivo y procesamiento en tiempo real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Integran este número de la revista ponencias presentadas en Studia Hispanica Medievalia VIII: Actas de las IX Jornadas Internacionales de Literatura Española Medieval, 2008, y de Homenaje al Quinto Centenario de Amadis de Gaula.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: A partir de la crisis financiera y económica internacional, ha caido la visión del mundo unipolar (basada en la interpretación extrema del libre mercado) para dar lugar al retorno de la intervención del Estado en la economía, en un mundo multipolar en donde se da la competencia de modelos nacionales o socio-culturales de capitalismo. Este trabajo analiza los límites que presenta este sistema de capitalismo estado, y lo contrasta con La Economía Social de Mercado como sistema de ordenamiento de la economía. Este es un sistema que requiere la presencia de un marco institucional sólido que la regule y está focalizado en la equidad y la autosuperación de las personas. Se busca así analizar el funcionamiento de estos sistemas en el marco que les dio origen y analizar su efectividad y su crecimiento en el mundo en los últimos años. Finalmente, se emplea el análisis de estas teorías para el caso latinoamericano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen: El modelado del proceso de ruptura dieléctrica de aislantes sometidos a un campo eléctrico intenso es importante para el desarrollo de nuevos materiales en las industrias eléctrica y electrónica. Información experimental generada en el laboratorio muestra que el proceso de ruptura dieléctrica involucra la transferencia de energía con la consecuente acumulación progresiva de carga y daño en el material. Ésta, produce finalmente la ruptura macroscópica, creando un camino conductor que inutiliza al material aislante. A partir de experimentos de simulación se han calculado los parámetros característicos (dos y tres parámetros) de la función de distribución de fallas (distribución de Weibull), para distintas familias de árboles. También se ha estudiado la relación intrínseca entre las distintas familias de árboles, mediante una distribución generalizada de Weibull con un índice entrópico q. Este índice q es representativo de la estructura fractal de los distintos árboles.