835 resultados para Bubble catcher


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Programa informático desarrollado en plataforma EXCEL (VBA) y dirigido al diseño de Separadores de dos y tres fases, verticales y horizontales. El programa de ordenador o aplicación tiene la capacidad de determinar las propiedades físicas del fluido, utilizando diferentes correlaciones sobre la base del “Black Oil Model”, con dichas propiedades el Programa predice el tipo de flujo presente. Si el tipo de flujo es “Slug Flow” el programa determinara las dimensiones del “Slug catcher” necesario. Bajo las condiciones de funcionamiento existentes el programa diseñará el separador elegido: dos o tres fases, vertical u horizontal. Por último, la aplicación informática estimará el coste del equipo. Abstract Computer program developed in EXCEL (VBA) platform and aimed for the design of Two-Phase, Three-Phase, Vertical or Horizontal Separators. The computer Program or Application has the capability to determine the fluid physical properties utilizing different correlations on the basis of the Black Oil Model, with those Properties the Program will predict the Flow Regime present. If the flow regime is Slug Flow the program will determine the necessary slug catcher dimensions. Under certain operational conditions the program will design the selected: Two-Phase or Three-Phase, Vertical or Horizontal Separator. Finally the computer Application will estimate the cost of the equipment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present and analyze a subgrid viscosity Lagrange-Galerk in method that combines the subgrid eddy viscosity method proposed in W. Layton, A connection between subgrid scale eddy viscosity and mixed methods. Appl. Math. Comp., 133: 14 7-157, 2002, and a conventional Lagrange-Galerkin method in the framework of P1⊕ cubic bubble finite elements. This results in an efficient and easy to implement stabilized method for convection dominated convection diffusion reaction problems. Numerical experiments support the numerical analysis results and show that the new method is more accurate than the conventional Lagrange-Galerkin one.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Several models have been proposed for the mechanism of transcript termination by Escherichia coli RNA polymerase at rho-independent terminators. Yager and von Hippel (Yager, T. D. & von Hippel, P. H. (1991) Biochemistry 30, 1097–118) postulated that the transcription complex is stabilized by enzyme–nucleic acid interactions and the favorable free energy of a 12-bp RNA–DNA hybrid but is destabilized by the free energy required to maintain an extended transcription bubble. Termination, by their model, is viewed simply as displacement of the RNA transcript from the hybrid helix by reformation of the DNA helix. We have proposed an alternative model where the RNA transcript is stably bound to RNA polymerase primarily through interactions with two single-strand specific RNA-binding sites; termination is triggered by formation of an RNA hairpin that reduces binding of the RNA to one RNA-binding site and, ultimately, leads to its ejection from the complex. To distinguish between these models, we have tested whether E. coli RNA polymerase can terminate transcription at rho-independent terminators on single-stranded DNA. RNA polymerase cannot form a transcription bubble on these templates; thus, the Yager–von Hippel model predicts that intrinsic termination will not occur. We find that transcript elongation on single-stranded DNA templates is hindered somewhat by DNA secondary structure. However, E. coli RNA polymerase efficiently terminates and releases transcripts at several rho-independent terminators on such templates at the same positions as termination occurs on duplex DNAs. Therefore, neither the nontranscribed DNA strand nor the transcription bubble is essential for rho-independent termination by E. coli RNA polymerase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studies of recombination-dependent replication (RDR) in the T4 system have revealed the critical roles played by mediator proteins in the timely and productive loading of specific enzymes onto single-stranded DNA (ssDNA) during phage RDR processes. The T4 recombination mediator protein, uvsY, is necessary for the proper assembly of the T4 presynaptic filament (uvsX recombinase cooperatively bound to ssDNA), leading to the recombination-primed initiation of leading strand DNA synthesis. In the lagging strand synthesis component of RDR, replication mediator protein gp59 is required for the assembly of gp41, the DNA helicase component of the T4 primosome, onto lagging strand ssDNA. Together, uvsY and gp59 mediate the productive coupling of homologous recombination events to the initiation of T4 RDR. UvsY promotes presynaptic filament formation on 3′ ssDNA-tailed chromosomes, the physiological primers for T4 RDR, and recent results suggest that uvsY also may serve as a coupling factor between presynapsis and the nucleolytic resection of double-stranded DNA ends. Other results indicate that uvsY stabilizes uvsX bound to the invading strand, effectively preventing primosome assembly there. Instead, gp59 directs primosome assembly to the displaced strand of the D loop/replication fork. This partitioning mechanism enforced by the T4 recombination/replication mediator proteins guards against antirecombination activity of the helicase component and ensures that recombination intermediates formed by uvsX/uvsY will efficiently be converted into semiconservative DNA replication forks. Although the major mode of T4 RDR is semiconservative, we present biochemical evidence that a conservative “bubble migration” mode of RDR could play a role in lesion bypass by the T4 replication machinery.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A qualidade da dispersão de gás em células de flotação é comumente caracterizada através de parâmetros como velocidade superficial do gás (Jg), hold-up do gás (?g), distribuição de tamanho de bolha (db ou D3,2) e fluxo de superfície de bolha (Sb). Sendo um processo de separação de minerais que é dependente da interação (colisão + adesão) entre partículas hidrofóbicas e bolhas de ar, a flotação tem seu desempenho dependente de uma dispersão de gás apropriada na polpa de minério. Desta forma, este trabalho objetivou caracterizar o estado da dispersão de gás de duas células em um banco composto por quatro células Wemco de 42,5 m³ (subaeradas), operando em série na usina da Vale Fertilizantes (Cajati-SP). Realizaram-se três campanhas de medidas que foram conduzidas sob diferentes condições operacionais: a) Diâmetro do rotor (D) de 1,09 m e rotação (N) entre 145 RPM e 175 RPM; b) D = 0,99 m e N entre 110 RPM e 190 RPM; c) D = 0,99 m e N de 120 RPM e de 130 RPM. Observaram-se os seguintes valores de dispersão de gás: 0,7 <= Jg <= 5,4 cm/s, 7 <= ?g <= 15%, 1,6 <= D3,2 <= 2,4 mm e Sb na faixa de 24 a 162 s-1. A magnitude de Jg medida na 1ª e 2ª campanhas mostrou-se acima dos valores reportados pela literatura, indicando necessidade de modificação de condições operacionais dos equipamentos, assim como cuidadosa manutenção. Posteriormente, a 3ª campanha indicou maior conformidade dos parâmetros de dispersão de gás em relação à literatura, constatando-se uma considerável melhora de desempenho do processo de flotação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A iodação do sal de mesa é considerada o caminho mais eficiente para controlar os Distúrbios por Deficiência de Iodo. Em países tropicais, o elemento pode ser adicionado na forma de KIO3. Para garantir que os níveis ideais do ânion estejam disponíveis ao consumidor, o controle de qualidade do sal consiste numa estratégia fundamental. Sistemas em fluxo com multicomutação representam uma alternativa versátil para o desenvolvimento de procedimentos simples, rápidos e limpos, minimizando o consumo de reagentes e a geração de resíduos. Nesse contexto, um procedimento analítico utilizando sistema com multicomutação e detecção espectrofotométrica foi desenvolvido para a determinação de iodato em sal de mesa. A reação empregada foi baseada na formação de um composto roxo (540 nm) entre iodato (IO3-) e p-aminofenol (PAP) em meio ácido. O tempo de residência da zona de amostra no percurso analítico foi explorado a fim de favorecer a reação lenta e a frequência de amostragem para a melhoria do desempenho analítico. Foram selecionados 2 pulsos para inserção de amostra, 3 pulsos para reagente (PAP 0,25% (m/v) em HCl 0,025 mol L-1), 7 ciclos de amostragem, 200 pulsos de carregador (água), bolha de ar de 1 s (40 µL), reator de 70 cm (3 mm d.i.) e parada de fluxo de 480 s. Resposta linear foi observada entre 2,28x10-5 e 3,65x10-4 mol L-1, descrita pela equação A = 0,2443 + 2030 C, r = 0,997. Limite de detecção (99,7% de confiança), coeficiente de variação (n = 20) e frequência de amostragem foram estimados em 8,2x10-6 mol L-1, 0,42% e 70 determinações por hora, respectivamente. Houve consumo de 1,05 mg de PAP e geração de 0,70 mL de resíduos por determinação. As principais espécies concomitantes presentes na amostra não interferiram na determinação de iodato em concentrações até 8 vezes maiores que as usualmente encontradas. Estudos de adição e recuperação de iodato foram realizados pelo procedimento proposto, obtendo porcentagens de recuperação entre 88 e 104%. O procedimento analítico desenvolvido apresenta sensibilidade adequada para a determinação de iodato em amostra de sal de mesa e elevada frequência de amostragem quando comparado com procedimentos descritos na literatura

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos aspectos regulatórios fundamentais para o mercado imobiliário no Brasil são os limites para obtenção de financiamento no Sistema Financeiro de Habitação. Esses limites podem ser definidos de forma a aumentar ou reduzir a oferta de crédito neste mercado, alterando o comportamento dos seus agentes e, com isso, o preço de mercado dos imóveis. Neste trabalho, propomos um modelo de formação de preços no mercado imobiliário brasileiro com base no comportamento dos agentes que o compõem. Os agentes vendedores têm comportamento heterogêneo e são influenciados pela demanda histórica, enquanto que os agentes compradores têm o seu comportamento determinado pela disponibilidade de crédito. Esta disponibilidade de crédito, por sua vez, é definida pelos limites para concessão de financiamento no Sistema Financeiro de Habitação. Verificamos que o processo markoviano que descreve preço de mercado converge para um sistema dinâmico determinístico quando o número de agentes aumenta, e analisamos o comportamento deste sistema dinâmico. Mostramos qual é a família de variáveis aleatórias que representa o comportamento dos agentes vendedores de forma que o sistema apresente um preço de equilíbrio não trivial, condizente com a realidade. Verificamos ainda que o preço de equilíbrio depende não só das regras de concessão de financiamento no Sistema Financeiro de Habitação, como também do preço de reserva dos compradores e da memória e da sensibilidade dos vendedores a alterações na demanda. A memória e a sensibilidade dos vendedores podem levar a oscilações de preços acima ou abaixo do preço de equilíbrio (típicas de processos de formação de bolhas); ou até mesmo a uma bifurcação de Neimark-Sacker, quando o sistema apresenta dinâmica oscilatória estável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The catalytic activity and durability of 2 wt.% Pd/Al2O3 in powder and washcoated on cordierite monoliths were examined for the liquid phase hydrodechlorination (LPHDC) of polychlorinated dibenzo-p-dioxins/polychlorinated dibenzofurans (PCDD/Fs), also known as dioxins. NaOH was employed as a neutralizing agent, and 2-propanol was used as a hydrogen donor and a solvent. Fresh and spent powder and monolith samples were characterized by elemental analysis, surface area, hydrogen chemisorption, scanning electron microscopy/energy dispersive X-ray spectroscopy (SEM/EDX), and transmission electron microscopy/energy dispersive X-ray spectroscopy (TEM/EDX). Three reactor configurations were compared including the slurry and monolith batch reactors as well as the bubble loop column resulting in 100, 70, and 72% sample toxicity reduction, respectively, after 5 h of reaction. However, the slurry and monolith batch reactors lead to catalyst sample loss via a filtration process (slurry) and washcoat erosion (monolith batch), as well as rapid deactivation of the powder catalyst samples. The monolith employed in the bubble loop column remained stable and active after four reaction runs. Three preemptive regeneration methods were evaluated on spent monolith catalyst including 2-propanol washing, oxidation/reduction, and reduction. All three procedures reactivated the spent catalyst samples, but the combustion methods proved to be more efficient at eliminating the more stable poisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Context. The discovery of several clusters of red supergiants towards l = 24°−30° has triggered interest in this area of the Galactic plane, where lines of sight are very complex and previous explorations of the stellar content were very preliminary. Aims. We attempt to characterise the stellar population associated with the H ii region RCW 173 (=Sh2-60), located at, as previous studies have suggested that this population could be beyond the Sagittarius arm. Methods. We obtained UBV photometry of a stellar field to the south of the brightest part of RCW 173, as well as spectroscopy of about twenty stars in the area. We combined our new data with archival 2MASS near-infrared photometry and Spitzer/GLIMPSE imaging and photometry, to achieve a more accurate characterisation of the stellar sources and the associated cloud. Results. We find a significant population of early-type stars located at d = 3.0 kpc, in good agreement with the “near” dynamical distance to the H ii region. This population should be located at the near intersection of the Scutum-Crux arm. A luminous O7 II star is likely to be the main source of ionisation. Many stars are concentrated around the bright nebulosity, where GLIMPSE images in the mid infrared show the presence of a bubble of excited material surrounding a cavity that coincides spatially with a number of B0-1 V stars. We interpret this as an emerging cluster, perhaps triggered by the nearby O7 II star. We also find a number of B-type giants. Some of them are located at approximately the same distance, and may be part of an older population in the same area, characterised by much lower reddening. A few have shorter distance moduli and are likely to be located in the Sagittarius arm. Conclusions. The line of sight in this direction is very complex. Optically visible tracers delineate two spiral arms, but seem to be absent beyond d ≈ 3 kpc. Several H ii regions in this area suggest that the Scutum-Crux arm contains thick clouds actively forming stars. All these populations are projected on top of the major stellar complex signposted by the clusters of red supergiants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La actual crisis económica ha tenido impacto en prácticamente todos los sectores socioeconómicos, entre los que se incluye la educación como uno de los grandes perjudicados. En este momento de incertidumbre sobre la viabilidad de la educación tradicional y la supuesta burbuja en la enseñanza (agravada por las tasas de paro juvenil), surgen los MOOC como respuesta a la necesidad de acercamiento entre la formación y la sociedad del conocimiento. Pero que los cursos masivos y abiertos marquen el futuro de la educación dependerá en gran medida de su viabilidad económica. Aunque aun no se haya encontrado un modelo de negocio definitivo, las plataformas de MOOC experimentan con diferentes alternativas que, unidas a la escalabilidad de los proyectos, es previsible que generen grandes resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: To compare outcomes of big-bubble deep anterior lamellar keratoplasty (DALK) and penetrating keratoplasty (PK) for macular corneal dystrophy. Design: Prospective, randomized, interventional case series. Methods: Setting: Single hospital. Patients: Eighty-two eyes of 54 patients requiring keratoplasty for the treatment of macular corneal dystrophy without endothelial involvement were included. Main outcome measures: Operative complications, uncorrected visual acuity, best-corrected visual acuity, contrast sensitivity function, higher-order aberrations, and endothelial cell density were evaluated. Results: The DALK and PK group consisted of 35 and 41 eyes, respectively. Best-corrected visual acuity after surgery was 20/40 or better 68.5% and 70.7% of the eyes in the DALK and PK groups, respectively (P > .05). No statistically significant differences between groups were found in contrast sensitivity function with and without glare for any spatial frequency (P > .05). Significantly higher levels of higher-order aberrations were found in the DALK group (P < .01). In both groups, a progressive and statistically significant reduction in endothelial cell density was found (P < .01). At the last follow-up, the mean endothelial cell loss was 18.1% and 26.9% in DALK and PK groups, respectively (P = .03). Graft rejection episodes were seen in 5 eyes (12.1%) in the PK group, and regrafting was necessary in 3 eyes (7.3%). Recurrence of the disease was documented in 5.7% and 4.8% of the eyes in the DALK and PK groups, respectively. Conclusions: Deep anterior lamellar keratoplasty with the big-bubble technique provided comparable visual and optical results as PK and resulted in less endothelial damage, as well as eliminating endothelial rejection in macular corneal dystrophy. Deep anterior lamellar keratoplasty surgery is a viable option for macular corneal dystrophy without endothelial involvement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The decomposition of azodicarbonamide, used as foaming agent in PVC—plasticizer (1/1) plastisols was studied by DSC. Nineteen different plasticizers, all belonging to the ester family, two being polymeric (polyadipates), were compared. The temperature of maximum decomposition rate (in anisothermal regime at 5 K min−1 scanning rate), ranges between 434 and 452 K. The heat of decomposition ranges between 8.7 and 12.5 J g−1. Some trends of variation of these parameters appear significant and are discussed in terms of solvent (matrix) and viscosity effects on the decomposition reactions. The shear modulus at 1 Hz frequency was determined at the temperature of maximum rate of foaming agent decomposition, and differs significantly from a sample to another. The foam density was determined at ambient temperature and the volume fraction of bubbles was used as criterion to judge the efficiency of the foaming process. The results reveal the existence of an optimal shear modulus of the order of 2 kPa that corresponds roughly to plasticizer molar masses of the order of 450 ± 50 g mol−1. Heavier plasticizers, especially polymeric ones are too difficult to deform. Lighter plasticizers such as diethyl phthalate (DEP) deform too easily and presumably facilitate bubble collapse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducing teaching about healthy solutions in buildings and BIM has been a challenge for the University of Alicante. Teaching attached to very tighten study plans conditioned the types of methods that could be used in the past. The worldwide situation of crisis that especially reached Spain and the bursting of the housing bubble generated a lack of employment that reached universities where careers related to construction, Architecture and Architectural Technologist, suffered a huge reduction in the number of students enrolled. In the case of the University of Alicante, students’ enrolment for Architectural Technology reached an 80% reduction. The necessity of a reaction against this situation made the teachers be innovative and use the new Bologna adapted study plans to develop new teaching experiences introducing new concepts: people wellbeing in buildings and BIM. Working with healthy solutions in buildings provided new approaches for building design and construction as an alternative to sustainability. For many years sustainability was the concept that applied to housing gave buildings an added value and the possibility of having viability in a very complex scenario. But after lots of experiences, the approved methodologies for obtaining sustainable housing were ambiguous and at the end, investors, designers, constructors and purchasers cannot find real and validated criteria for obtaining an effective sustainable house. It was the moment to work with new ideas and concepts and start facing buildings from the users’ point of view. At the same time the development of new tools, BIM, has opened a wide range of opportunities, innovative and suggestive, that allows simulation and evaluation of many building factors. This paper describes the research in teaching developed by the University of Alicante to adapt the current study plans, introducing work with healthy solutions in buildings and the use of BIM, with the aim of attracting students by improving their future employability. Pilot experiences have been carried out in different subjects based on the work with projects and case studies under an international frame with the cooperation of different European partner universities. The use of BIM tools, introduced in 2014, solved the problems that appeared in some subjects, mainly building construction, and helped with the evaluation of some healthy concepts that presented difficulties until this moment as knowledge acquired by the students was hard to be evaluated. The introduction of BIM tools: Vasari, FormIt, Revit and Light Control among others, allowed the study of precise healthy concepts and provided the students a real understand of how these different parameters can condition a healthy architectural space. The analysis of the results showed a clear acceptance by the students and gave teachers the possibility of opening new research lines. At the same time, working with BIM tools to obtain healthy solutions in building has been a good option to improve students’ employability as building market in Spain is increasing the number of specialists in BIM with a wider knowledge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tras la aprobación del Real Decreto Legislativo 2/2008 –Ley del Suelo–, nos encontramos ante un modelo territorial y un modelo de desarrollo, que acaba con el arcaico patrón de ciudad dispersa, encontrándose, no obstante, ante las gravísimas consecuencias espaciales generadas por la denominada “burbuja inmobiliaria”, unida a una crisis de consecuencias insospechadas, en el ámbito de la denominada globalización económica, de la que nuestro país no ha logrado sustraerse con Leyes vacías de instrumentos económicos que se han transferido a las Comunidades Autónomas, nos hallamos ante una oportunidad perdida fruto de una no siempre bien calculada descentralización. De este modo, en el presente artículo nos aproximamos a la importancia que muestran los denominados “instrumentos económicos” en la normativa que recoge los pormenores relacionados con el “suelo”, en España, en la primera de nuestras Leyes, la de 1956, en la de 2008 y en el recién aprobado Texto Refundido de la Ley del Suelo y Rehabilitación Urbana –Real Decreto Legislativo 7/2015–, en el ámbito estatal. Para ello, tras definir y valorar los enfoques conceptuales relativos al “suelo” y sus tipologías, se concretan y estudian los instrumentos económicos que se recogen en la Ley del Suelo española y su relación con las nuevas formas de “hacer ciudad”.