915 resultados para New methodology


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tamaño y densidad son atributos imprescindibles para la caracterización de cualquier ciudad, sin embargo no siempre se les presta la misma atención. Mientras la densidad ocupa un lugar destacado en cualquier manual de planificación urbana, como variable crítica para modular la intervención urbanística, el tamaño de la ciudad tiende a tomarse como un imponderable más allá del control de la planificación. Sin embargo, no está claro que ambas variables se puedan analizar de forma autónoma, ya que las interrelaciones entre ambas son significativas. Con el fin de evaluar cómo se influyen mutuamente tamaño y densidad se plantea una metodología novedosa adaptada a las nuevas formas contemporáneas de urbanización que combina una delimitación funcional de las áreas urbanas con un análisis de su morfología en términos de densidad y compacidad. Los resultados obtenidos a partir de una muestra de 47 áreas urbanas españolas permiten clarificar algunos aspectos de la relación entre tamaño y densidad. Las grandes metrópolis españolas presentan valores relativamente altos de densidad y compacidad, pero los valores más elevados de ambos valores están presentes en áreas urbanas de tamaño intermedio o pequeño. En realidad se puede apreciar una enorme diversidad entre las áreas urbanas intermedias y pequeñas que desaparece casi por completo en las más grandes. Otro aspecto reseñable es la constatación de que densidad y compacidad son variables absolutamente independientes: existen áreas urbanas densas y compactas, pero también densas y poco compactas, o compactas pero poco densas. Sobre esta base, se propone una caracterización de la tipología tradicional de las ciudades españolas. Las áreas urbanas del Cantábrico presentan una alta densidad pero baja compacidad, en gran medida por la difícil orografía; por el contrario la áreas urbanas del interior presentan baja densidad y valores muy diversos de compacidad. Finalmente las áreas urbanas mediterráneas se caracterizan más por su alta compacidad que por su densidad, que es muy variable. En general los resultados obtenidos reflejan adecuadamente aspectos conocidos de la diversidad urbana española, pero también otros menos evidentes. Las conclusiones del estudio están muy mediatizadas por el contexto español, pero la metodología empleada ha demostrado ser de gran utilidad para el análisis de los territorios urbanos contemporáneos. ABSTRACT Size and density are essential attributes for characterizing cities, however they don't always deserve the same attention. While density is considered a critical variable in every urban planning guidebook, city size tends to be taken as an imponderable beyond the control of planning. However, it is unclear whether both variables can be analyzed independently, because their reciprocal influences are evident. To assess how city size and urban density influence each other, we propose a new methodology adapted to contemporary forms of urbanization, bringing together urban areas functional delimitation and morphological analysis in terms of density and compactness. Results obtained from a sample of 47 Spanish urban areas clarify some aspects of the size-density link. The largest Spanish urban areas are relatively dense and compact, but the highest values of both density and compactness are found in intermediate or small urban areas. Actually there is a huge diversity among intermediate and small urban areas which almost disappears in larger ones. Another noteworthy aspect is the realization that density and compactness are absolutely independent variables: there are dense and compact urban areas, but also low-density compact, and low-compactness dense areas. On this basis, we make a revision of the tradicional classification of Spanish urban areas. Cantabrian urban areas display high density and low compactness, largely because of the difficult terrain; on the contrary, inland urban areas exhibit low density and very different values of compactness. Finally, Mediterranean urban areas are characterized more by its high compactness than by its density, which is remarkably variable. In general results accurately reflect known aspects of Spanish urban diversity, but they also expose less obvious attributes. These findings may be closedly related to Spanish context, but the methodology has proven a useful tool for analyzing contemporary urban areas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

3D crop reconstruction with a high temporal resolution and by the use of non-destructive measuring technologies can support the automation of plant phenotyping processes. Thereby, the availability of such 3D data can give valuable information about the plant development and the interaction of the plant genotype with the environment. This article presents a new methodology for georeferenced 3D reconstruction of maize plant structure. For this purpose a total station, an IMU, and several 2D LiDARs with different orientations were mounted on an autonomous vehicle. By the multistep methodology presented, based on the application of the ICP algorithm for point cloud fusion, it was possible to perform the georeferenced point clouds overlapping. The overlapping point cloud algorithm showed that the aerial points (corresponding mainly to plant parts) were reduced to 1.5%–9% of the total registered data. The remaining were redundant or ground points. Through the inclusion of different LiDAR point of views of the scene, a more realistic representation of the surrounding is obtained by the incorporation of new useful information but also of noise. The use of georeferenced 3D maize plant reconstruction at different growth stages, combined with the total station accuracy could be highly useful when performing precision agriculture at the crop plant level.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In pre-surgery decisions in hospital emergency cases, fast and reliable results of the solid and fluid mechanics problems are of great interest to clinicians. In the current investigation, an iterative process based on a pressure-type boundary condition is proposed in order to reduce the computational costs of blood flow simulations in arteries, without losing control of the important clinical parameters. The incorporation of cardiovascular autoregulation, together with the well-known impedance boundary condition, forms the basis of the proposed methodology. With autoregulation, the instabilities associated with conventional pressure-type or impedance boundary conditions are avoided without an excessive increase in computational costs. The general behaviour of pulsatile blood flow in arteries, which is important from the clinical point of view, is well reproduced through this new methodology. In addition, the interaction between the blood and the arterial walls occurs via a modified weak coupling, which makes the simulation more stable and computationally efficient. Based on in vitro experiments, the hyperelastic behaviour of the wall is characterised and modelled. The applications and benefits of the proposed pressure-type boundary condition are shown in a model of an idealised aortic arch with and without an ascending aorta dissection, which is a common cardiovascular disorder.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A new methodology for the construction of combinatorial libraries is described. The approach, termed dendrimer-supported combinatorial chemistry (DCC), centers on the use of dendrimers as soluble supports. Salient features of DCC include solution phase chemistry, homogeneous purification, routine characterization of intermediates, and high support loadings. To demonstrate the feasibility of DCC, single compounds and a small combinatorial library were prepared via the Fischer indole synthesis. Excellent product yields and purities were obtained, and dendrimer-protected intermediates could be routinely analyzed by 1H and 13C NMR and by mass spectrometry. The results indicate that DCC is a general and efficient strategy for the generation of combinatorial libraries.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho descreve a síntese, caracterização e aplicação de sistemas poliméricos baseados em polímeros condutores em sistemas de liberação controlada de drogas. Esta tese pode ser dividida em duas partes: na primeira se apresentam os resultados da aplicação de filmes de polianilina e polipirrol na liberação de drogasmodelo como a dopamina protonada e o ácido salicílico. Na liberação de salicilato utilizou-se um filme polianilina eletrosintetizado e dopado com íons cloreto. Já para a liberação de dopamina protonada (um cátion) a liberação foi conduzida a partir de um sistema bicamadas, com um filme de polianilina recoberta com uma camada de Náfion. É mostrada a liberação controlada nos dois casos, porém também se discutem limitaçãoes deste tipo de sistema que levaram ao estudo de uma forma alternativa de controle eletroquímico utilizando polímeros condutores. A segunda parte do trabalho mostra então esta nova metodologia que se baseia em compósitos de poianilina eletropolimerizada no interior de hidrogéis de poliacrilamida. É mostrado que este novo material é eletroativo e mantém as características de intumescimento dos hidrogéis, tanto necessárias ao desenvolvimento destes sistemas de liberação controlada. Mecanismos para o crescimento e distribuição da polianilina na matriz isolante e para a atuação do compósito no controle eletroquímico da liberação são propostos com base nos dados de microscopia de força atômica, Raman e eletrônica de varredura, além de testes de liberação controlada com moléculas de diferentes cargas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para elastografia virtual em imagens simuladas de ultrassom utilizando métodos numéricos e métodos de visão computacional. O objetivo é estimar o módulo de elasticidade de diferentes tecidos tendo como entrada duas imagens da mesma seção transversal obtidas em instantes de tempo e pressões aplicadas diferentes. Esta metodologia consiste em calcular um campo de deslocamento das imagens com um método de fluxo óptico e aplicar um método iterativo para estimar os módulos de elasticidade (análise inversa) utilizando métodos numéricos. Para o cálculo dos deslocamentos, duas formulações são utilizadas para fluxo óptico: Lucas-Kanade e Brox. A análise inversa é realizada utilizando duas técnicas numéricas distintas: o Método dos Elementos Finitos (MEF) e o Método dos Elementos de Contorno (MEC), sendo ambos implementados em Unidades de Processamento Gráfico de uso geral, GpGPUs ( \"General Purpose Graphics Units\" ). Considerando uma quantidade qualquer de materiais a serem determinados, para a implementação do Método dos Elementos de Contorno é empregada a técnica de sub-regiões para acoplar as matrizes de diferentes estruturas identificadas na imagem. O processo de otimização utilizado para determinar as constantes elásticas é realizado de forma semi-analítica utilizando cálculo por variáveis complexas. A metodologia é testada em três etapas distintas, com simulações sem ruído, simulações com adição de ruído branco gaussiano e phantoms matemáticos utilizando rastreamento de ruído speckle. Os resultados das simulações apontam o uso do MEF como mais preciso, porém computacionalmente mais caro, enquanto o MEC apresenta erros toleráveis e maior velocidade no tempo de processamento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O trabalho trata do projeto e do desenvolvimento de um processador de baixo consumo de potência, de forma simplificada, explorando técnicas de microarquitetura, para atingir menor consumo de potência. É apresentada uma sequência lógica de desenvolvimento, a partir de conceitos e estruturas básicas, até chegar a estruturas mais complexas e, por fim, mostrar a microarquitetura completa do processador. Esse novo modelo de processador é comparado com estudos prévios de três processadores, sendo o primeiro modelo síncrono, o segundo assíncrono e o terceiro uma versão melhorada do primeiro modelo, que inclui minimizações de registradores e circuitos. Uma nova metodologia de criação de padring de microcontroladores, baseada em reuso de informações de projetos anteriores, é apresentada. Essa nova metodologia foi criada para a rápida prototipagem e para diminuir possíveis erros na geração do código do padring. Comparações de resultados de consumo de potência e área são apresentadas para o processador desenvolvido e resultados obtidos com a nova metodologia de geração de padring também são apresentados. Para o processador, um modelo, no qual se utilizam múltiplos barramentos para minimizar o número de ciclos de máquina por instrução, é apresentado. Também foram ressaltadas estruturas que podem ser otimizadas e circuitos que podem ser reaproveitados para diminuir a quantidade de circuito necessário na implementação. Por fim, a nova implementação é comparada com os três modelos anteriores; os ganhos obtidos de desempenho com a implementação dessas estruturas foram de 18% que, convertidos em consumo de potência, representam economia de 13% em relação ao melhor caso dos processadores comparados. A tecnologia utilizada no desenvolvimento dos processadores foi CMOS 250nm da TSMC.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A biomassa lignicelulósica tem sua estrutura composta por celulose, hemicelulose e lignina. Dentre essas, a lignina tem se mostrado interessante por ser uma fonte precursora sustentável de fragmentos aromáticos antes obtidos apenas de combustíveis fósseis. Sua estrutura é composta por resíduos de fenilpropanóides p-hidroxibenzeno (H), guaiacil (G) e siringil (S) unidas por ligações C–C e C–O–C em que a ligação β–O–4 é a predominante (mais de 50%). Devido à sua complexidade estrutural e conformacional, a clivagem de suas ligações é pouco seletiva e a caracterização dos fragmentos resultantes é complexa. Uma estratégia comumente empregada para evitar esses desafios é o uso de modelos mais simples. Entretanto, poucas metodologias são reportadas na literatura para a sua síntese e a maioria delas envolve o emprego de halocetonas. O presente trabalho desenvolveu duas novas metodologias promissoras para síntese desses oligômeros, contendo ligação β–O–4 por meio da química de diazo: (a) reação de inserção O–H entre fenol e α–aril diazocetonas, e (b) compostos α–diazo β-cetoéster. Ademais, a utilização de monômeros contendo a função fenol e diazocetona no mesmo anel permitiria a síntese de cadeias de diversos tamanhos em uma única etapa. Como ponto de partida para o estudo, limitou-se à síntese de dímeros, visando entender a reação de inserção O–H. Os produtos desejados foram obtidos em rendimentos de 27–51% após catálise com Cu(hfac)2. Por fim, os modelos de lignina propriamente ditos foram sintetizados após simples adição aldólica e redução em rendimentos globais de 51–78%. Os estudos envolvendo a inserção de fenol em α–diazo β-cetoéster mostraram resultados promissores, corroborando para uma nova estratégia sintética para a obtenção de modelos de lignina. Novos estudos em nosso laboratório estão sendo desenvolvidos para se obter resultados mais conclusivos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para otimizar carteiras de ativos financeiros. A metodologia proposta, baseada em interpoladores universais tais quais as Redes Neurais Artificiais e a Krigagem, permite aproximar a superfície de risco e consequentemente a solução do problema de otimização associado a ela de forma generalizada e aplicável a qualquer medida de risco disponível na literatura. Além disto, a metodologia sugerida permite que sejam relaxadas hipóteses restritivas inerentes às metodologias existentes, simplificando o problema de otimização e permitindo que sejam estimados os erros na aproximação da superfície de risco. Ilustrativamente, aplica-se a metodologia proposta ao problema de composição de carteiras com a Variância (controle), o Valor-em-Risco (VaR) e o Valor-em-Risco Condicional (CVaR) como funções objetivo. Os resultados são comparados àqueles obtidos pelos modelos de Markowitz e Rockafellar, respectivamente.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este estudio es una síntesis de las últimas aportaciones acerca de las vías en al-Andalus (ss. VIII-XV), cuya estructura inicial es herencia de la época romana. Dadas las limitaciones que imponen los escasos datos que hallamos en las fuentes árabes y los pocos restos camineros conocidos, se hace necesario emplear una nueva metodología de investigación: Se aborda el objeto como un estudio global, no sólo de los caminos, sino de todos los elementos interrelacionados con ellos, denominados como "espacios viales". Luego se presenta la indisoluble relación de los "espacios viales" con los castillos y torres ("espacios de control y defensa") en al-Andalus, como los vigilantes de los caminos, y se enuncia la toponimia árabe relacionada tanto con los "espacios viales" como con los "espacios de control y defensa". Finalmente, se recogen los datos que las diversas crónicas árabes nos proporcionan acerca de la política viaria en al-Andalus a lo largo del tiempo, así como sobre quién era el responsable de velar por el buen estado de los tramos viales.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

PCDD/F emissions from three light-duty diesel vehicles–two vans and a passenger car–have been measured in on-road conditions. We propose a new methodology for small vehicles: a sample of exhaust gas is collected by means of equipment based on United States Environmental Protection Agency (U.S. EPA) method 23A for stationary stack emissions. The concentrations of O2, CO, CO2, NO, NO2 and SO2 have also been measured. Six tests were carried out at 90-100 km/h on a route 100 km long. Two additional tests were done during the first 10 minutes and the following 60 minutes of the run to assess the effect of the engine temperature on PCDD/F emissions. The emission factors obtained for the vans varied from 1800 to 8400 pg I-TEQ/Nm3 for a 2004 model year van and 490-580 pg I-TEQ/Nm3 for a 2006 model year van. Regarding the passenger car, one run was done in the presence of a catalyst and another without, obtaining emission factors (330-880 pg I-TEQ/Nm3) comparable to those of the modern van. Two other tests were carried out on a power generator leading to emission factors ranging from 31 to 78 pg I-TEQ/Nm3. All the results are discussed and compared with literature.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this article, a new methodology is presented to obtain representation models for a priori relation z = u(x1, x2, . . . ,xn) (1), with a known an experimental dataset zi; x1i ; x2i ; x3i ; . . . ; xni i=1;2;...;p· In this methodology, a potential energy is initially defined over each possible model for the relationship (1), what allows the application of the Lagrangian mechanics to the derived system. The solution of the Euler–Lagrange in this system allows obtaining the optimal solution according to the minimal action principle. The defined Lagrangian, corresponds to a continuous medium, where a n-dimensional finite elements model has been applied, so it is possible to get a solution for the problem solving a compatible and determined linear symmetric equation system. The computational implementation of the methodology has resulted in an improvement in the process of get representation models obtained and published previously by the authors.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The environmental, cultural and socio-economic causes and consequences of farmland abandonment are issues of increasing concern for researchers and policy makers. In previous studies, we proposed a new methodology for selecting the driving factors in farmland abandonment processes. Using Data Mining and GIS, it is possible to select those variables which are more significantly related to abandonment. The aim of this study is to investigate the application of the above mentioned methodology for finding relationships between relief and farmland abandonment in a Mediterranean region (SE Spain).We have taken into account up to 28 different variables in a single analysis, some of them commonly considered in land use change studies (slope, altitude, TWI, etc), but also other novel variables have been evaluated (sky view factor, terrain view factor, etc). The variable selection process provides results in line with the previous knowledge of the study area, describing some processes that are region specific (e.g. abandonment versus intensification of the agricultural activities). The European INSPIRE Directive (2007/2/EC) establishes that the digital elevation models for land surfaces should be available in all member countries, this means that the research described in this work can be extrapolated to any European country to determine whether these variables (slope, altitude, etc) are important in the process of abandonment.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A new methodology is proposed to produce subsidence activity maps based on the geostatistical analysis of persistent scatterer interferometry (PSI) data. PSI displacement measurements are interpolated based on conditional Sequential Gaussian Simulation (SGS) to calculate multiple equiprobable realizations of subsidence. The result from this process is a series of interpolated subsidence values, with an estimation of the spatial variability and a confidence level on the interpolation. These maps complement the PSI displacement map, improving the identification of wide subsiding areas at a regional scale. At a local scale, they can be used to identify buildings susceptible to suffer subsidence related damages. In order to do so, it is necessary to calculate the maximum differential settlement and the maximum angular distortion for each building of the study area. Based on PSI-derived parameters those buildings in which the serviceability limit state has been exceeded, and where in situ forensic analysis should be made, can be automatically identified. This methodology has been tested in the city of Orihuela (SE Spain) for the study of historical buildings damaged during the last two decades by subsidence due to aquifer overexploitation. The qualitative evaluation of the results from the methodology carried out in buildings where damages have been reported shows a success rate of 100%.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this work, we propose a new methodology for the large scale optimization and process integration of complex chemical processes that have been simulated using modular chemical process simulators. Units with significant numerical noise or large CPU times are substituted by surrogate models based on Kriging interpolation. Using a degree of freedom analysis, some of those units can be aggregated into a single unit to reduce the complexity of the resulting model. As a result, we solve a hybrid simulation-optimization model formed by units in the original flowsheet, Kriging models, and explicit equations. We present a case study of the optimization of a sour water stripping plant in which we simultaneously consider economics, heat integration and environmental impact using the ReCiPe indicator, which incorporates the recent advances made in Life Cycle Assessment (LCA). The optimization strategy guarantees the convergence to a local optimum inside the tolerance of the numerical noise.