957 resultados para modelo de cálculo


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Mecânica - FEIS

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Física - IGCE

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Imperfeições, saliências e reentrâncias existentes nas superfícies típicas das edificações constituem obstáculos que podem alterar significativamente o comportamento delas em relação aos fluxos por radiação. Além de ampliar a área efetiva de troca de calor, criam sombras e reflexões, que não ocorreriam em. Assim, os procedimentos de cálculo, ao invés de considerar as superfícies perfeitamente lisas e planas, deveriam aplicar correções nas propriedades radiativas das superfícies. Denominam-se efetivas as absortâncias e emitâncias que resultam dessas correções. O presente artigo apresenta um método simples desenvolvido para avaliar essas influências e exemplifica a importância das correções acima mencionadas, apresentando resultados de simulações elaboradas no programa EnergyPlus para uma edificação de geometria simples, submetida ao longo de 1 ano ao clima da cidade de Brasília. Adotando-se absortâncias e emitâncias efetivas, os resultados das simulações revelam diferenças de até 2,8 ºC nas temperaturas internas do ar em relação às obtidas desprezando-se as influências que as ondulações das telhas exercem sobre os fluxos radiantes. Considerando o uso de condicionadores de ar, essa diferença pode representar uma variação de cerca de 30% nas estimativas de consumo de energia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Programa de doctorado: Sistemas Inteligentes y Aplicaciones Numéricas en la Ingeniería.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante los últimos años la física atómica ha vuelto a cobrar un papel fundamental en los planes de investigación, entre los que destacan aquellos dedicados al estudio teórico y experimental de la fusión nuclear. Concretamente, en el concepto de fusión por confinamiento inercial se pueden distinguir cuatro grandes áreas donde es básico el conocimiento de las propiedades atómicas de la materia. Estas son: 1. Modelado de la interacción entre haces de partículas o láser con la cápsula combustible 2. Simulación de blancos de irradiación indirecta mediante conversión a rayos X 3. Diagnosis de experimentos 4. Láseres de rayos X La modelación de los plasmas en fusión depende principalmente de la densidad electrónica. En fusión por confinamiento magnético (tokamaks), los plasmas tienen densidades bajas, por lo que, en general, es suficiente considerar un modelo corona, en el que la mayoría de los iones se encuentran en su estado fundamental o con un número pequeño de estados excitados, estableciéndose sus poblaciones mediante un balance entre la ionización colisional/recombinación radiativa y excitación/decaimiento espontáneo. Sin embargo, los plasmas característicos de la fusión por confinamiento inercial tienen densidades más altas, aunque, normalmente, no lo suficientes como para poder establecer condiciones de equilibrio local termodinámico (balance entre procesos colisionales). Estas densidades, que se podrían clasificar como intermedias, se caracterizan por la aparición de un mayor número de estados excitados por ión y por la importancia tanto de los procesos colisionales como radiativos. Además de lo expuesto anteriormente, en ciertos regímenes de plasma, las variables termodinámicas locales, fundamentalmente presión (densidad) y temperatura, varían fuertemente con el tiempo, de manera que cuando los tiempos característicos de esta variación son menores que los propios de relajación de los procesos atómicos, el sistema no puede tratarse en estado estacionario, siendo necesario resolver las ecuaciones de balance con dependencia temporal. Estas ecuaciones de tasa o de balance contienen una serie de términos que representan los distintos procesos mediante una serie de coeficientes cuyas expresiones dependen de las condiciones del plasma, por lo que el problema es fuertemente no lineal. Por otra parte, hay que añadir que si el medio es ópticamente grueso a la radiación, en las ecuaciones de tasa aparecen términos radiativos que incluyen el campo de radiación, por lo que es necesario resolver la ecuación de transferencia en cada línea o bien, utilizar otras aproximaciones, que sin resolver dicha ecuación, permitan tener en cuenta el campo de radiación en la línea. Por todo ello, el objetivo de esta Tesis se centra en el desarrollo de un modelo original para el cálculo de la distribución de los estados de ionización en un plasma de fusión por confinamiento inercial en condiciones de no-equilibrio termodinámico local, caracterizado por: 1. Resolución de las ecuaciones de balance en estado estacionario y con dependencia temporal, considerando a las distintas especies iónicas tanto en su estado fundamental como en posibles estados excitados. 2. Elección de especies iónicas y número de estados excitados en función de las condiciones de densidad y temperatura del plasma. En el caso de una evolución temporal el número de estados excitados y su distribución se adecúan en cada caso a las condiciones del plasma. 3. Tratamiento de medios ópticamente finos y gruesos, utilizándose para estos últimos una evaluación aproximada del campo de radiación en la línea. 4. Capacidad de acoplamiento a un modelo hidrodinámico a través de la temperatura electrónica, densidad y campo de radiación. Entre todas estas características, se debe hacer constar que las principales aportaciones originales se refieren, en primer lugar, a la forma original de resolver las ecuaciones de tasa con dependencia temporal, ya que se tiene en cuenta la evolución de todos los estados: fundamentales y excitados, frente a la hipótesis habitual de resolver las ecuaciones temporales sólo de los estados fundamentales, y suponer los excitados en estado estacionario, es decir, que siguen el comportamiento de su correspondiente fundamental. En segundo lugar, la elección del número de estados excitados por cada funda- X mental, que se realiza mediante un cálculo inicial donde se considera todos los iones del plasma en estado fundamental, para en función de las densidades de población obtenidas, elegir los estados fundamentales y sus correspondientes excitados que se deben considerar. Y por último, señalar que en el tratamiento de medios ópticamente gruesos se ha conseguido obtener una evaluación de la radiación absorbida por el plasma, independientemente de la geometría del mismo, sin necesidad de resolver la ecuación de transferencia en la línea, y sin acudir a otros métodos, que sin resolver dicha ecuación, necesitan la definición de una geometría para el plasma, por ejemplo, factores de escape. El modelo ha sido comparado y contrastado tanto con resultados teóricos como experimentales, observando unos resultados muy aceptables, de lo cual se deduce que el modelo es capaz de suministrar la evaluación de los parámetros atómicos en este tipo de plasmas. A partir de esta Tesis, el modelo se puede potenciar, a través de varias líneas de investigación que se han identificado: 1. Tratamiento de medios ópticamente gruesos con resolución de la ecuación de transferencia en las líneas. 2. Evaluación detallada de las secciones eficaces de los distintos procesos que tienen lugar en plasmas, y que aparecen en las ecuaciones de balance a través de los coeficientes de tasa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La prospectiva, es un conjunto de análisis con el fin de explorar o predecir el futuro; “se puede concebir como una realización múltiple” (Jouvenel, 1968) y “depende de la acción del hombre” (Godet, 2004); por esa razón, el hombre puede construir el futuro mejor, para lo cual debe tomar las decisiones correctas en el momento apropiado. En ordenamiento territorial, la prospectiva, constituye una fase intermedia, entre el diagnóstico y la propuesta, y se refiere a la predicción del futuro, mediante dos vías: la proyección de la tendencia y la construcción de escenarios o imágenes futuras; se denomina escenario, a la descripción de una situación territorial futura y el encadenamiento coherente de sucesos que, partiendo de la situación actual, llega a la futura (Gómez Orea, 2008); pueden identificarse múltiples escenarios por la combinación de variables; no obstante, esta tesis se centra en el diseño de tres: el tendencial, el óptimo por analogías con otros territorios a los que se desee aspirar, y uno intermedio entre los anteriores, que parte del consenso de la mayoría de voluntades políticas y ciudadanas. Existen escasas experiencias metodológicas, y en especial, aplicables a los planes de ordenamiento territorial de Centroamérica. En la mayoría de casos estudiados, se identifica la participación como herramienta básica en el diseño de los escenarios; un modelo exclusivamente técnico está abocado al fracaso. En la tesis se diseña una metodología para elaborar la fase de prospectiva en los planes de ordenamiento territorial de Centroamérica; se entiende como un metamodelo, es decir, un "modelo general formado por submodelos específicos"; además del modelo general, se diseñan los submodelos: demográfico, ambiental, poblamiento y económico; para la elaboración de los mismos se usan herramientas; algunas han sido definidas por investigadores y otras se diseñan en este trabajo. Se establece un orden de prelación para el desarrollo de los submodelos; no se recomienda la alteración del mismo, pues el resultado será distinto y erróneo. Se inicia con el submodelo demográfico; se analizan cuatro variables: población total, población distribuida en municipios, población urbana y rural, y población por edades y sexos. Se propone que el cálculo de la población total se determine por métodos clásicos, tasas de crecimiento o cohortes. Posteriormente se realiza la distribución en municipios, urbana‐rural y en los asentamientos; en el escenario tendencial se proyecta por cohortes o tasas de crecimiento, y en el óptimo e intermedio, se considera un análisis de los limitantes al desarrollo urbano, priorizando la distribución de unos municipios y núcleos con respecto a otros. Con la proyección demográfica se desarrolla el submodelo ambiental; se consideran las variables: usos del suelo, unidades ambientales con los usos del suelo predominantes, áreas naturales protegidas, y áreas de amenazas naturales; estas últimas son sumamente importantes en el territorio centroamericano, dada la vulnerabilidad existente; para la proyección de los usos del suelo predominantes se diseña una herramienta donde se establecen los usos del suelo según unidades ambientales en diferentes escenarios, aplicando imágenes multitemporales y la capacidad de acogida del territorio. Una vez definidos los anteriores, se proyecta el submodelo de poblamiento; se proponen: el tamaño, la clasificación, la superficie, la diferenciación y agrupación de los asentamientos; se define el sistema de asentamientos a partir de las variables demográficas y ambientales; para ello se aplica un análisis multivariable‐multicriterio donde se establece la jerarquía de los núcleos de población, y posteriormente se establece la superficie que ocuparan y su forma. A continuación, se propone la prospectiva del submodelo económico, en cuanto a las variables: población económicamente activa (PEA), producción, empleo, desglose por sectores económicos, y la zonificación de suelos de desarrollo económico; luego se añade la prospectiva del submodelo de infraestructuras. Finalmente, se procede a la representación cartográfica, mediante el uso de herramientas SIG (Sistemas de Información Geográfica); para la representación de los escenarios se diseñan mapas, que sean fácilmente comprensibles por los líderes políticos, actores socioeconómicos y por la ciudadanía ("clientes" finales del plan). La metodología de investigación se ha basado en ciclos repetitivos de observación de la realidad en trabajos profesionales, elaboración del modelo y submodelos y verificación posterior mediante su aplicación a casos reales. En consecuencia los submodelos anteriores se han ido desarrollando y verificando en la elaboración de numerosos planes en Centroamérica, de los cuales en la tesis se exponen los dos más expresivos: El Plan de Desarrollo Territorial de la Región de San Miguel, en El Salvador y El Plan de Ordenamiento Territorial de la Región del Valle del Lean, Honduras. El modelo no es aplicable íntegramente a otros territorios; se ha diseñado considerando las características centroamericanas: fuerte crecimiento poblacional, tenencia de la tierra, crecimiento lineal en las principales carreteras, cultivos de autoconsumo (granos básicos) en laderas y montañas, vulnerabilidad ante las amenazas naturales, bajo nivel de tecnificación, entre otras. El modelo posibilita realizar análisis de sensibilidad y el diseño de múltiples escenarios por combinación de variables, dado que se plantean ecuaciones y algoritmos que usan diferentes hipótesis; las limitantes son el tiempo y la disponibilidad de recursos, algo escaso en la redacción de los planes de ordenamiento territorial. Finalmente, la tesis constituye una aportación a los planificadores; espero que ello contribuya a profundizar en este interesante campo de actividad.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta tesis, se trata del establecimiento de las bases de análisis plástico de piezas de hormigón armado en servicio y estado último procurando sentar los soportes de funcionamiento que concuerdan con la realidad y normativa vigente. El intento de establecer estas bases, con el máximo rigor para su uso, ha llevado a consecuencias lejanas cualitativas y cuantitativas sobre los modelos elásticos y elastoplásticos en uso,-momento tope ect- que, incluyendo lo complejo del problema plástico que se trata, no adoptan formulaciones adecuadas, o los plantemientos analíticos, no son más coherentes con los resultados obtenidos, en el dimensionado, que otros de base más sencilla, limitándose a estrategias de análisis de sección basadas en condicones de deformación -como serían los métodos de Cross y Matrioficiales- , estableciendose un claro divorcio entre mecanismo de cálculo y geometría. Este trabajo, intenta abrir una puerta al análisis de la estructura bajo condiciones puramente de deformación y solo supone en este campo el primer paso de un largo cemino que iría de la pieza a la estructura y de ésta al edificio posteriormente, quedando así sentados los criterios básicos para el análisis plástico global de estructuras. Todo ello a partir de la imposibilidad de avanzar en el análisis de secciones, si no es penetrando en el proceso de plastificación de las mismas y el de sus armaduras, así como el de las zonas de afección de las diferentes plastificaciones locales. La inclusión de esta concepción de análisis, en lo referente a obtener gráficos reales de respuesta interna de la pieza, es posible gracias al uso, en este caso del miniordenador 9825-HP utilizado, en donde se aplica de forma reiterada los consabidos métodos de discretización elementales con los cuales se obtienen decorosas precisiones sobre los resultados. Este estudio, que en ocasiones, alude a normas, más discribir un comportamiento que sentar doctrina. Como se ha realizado solo par forjados se añade una colección de ábacos de utilización practica de éstos. Naturalmente las bases establecidas, se hacen extensivas a cualquier pieza de directriz recta de hormigón armado, en donde geometría y materiales -hormigón y acero- pueden ser variables y están contempladas dentro de programas usados. En el terreno de las conclusiones, los forjados no deben ser asimilados a vigas, como tradicionalmente venía haciendose, ya que los métodos de relajación empledos no coinciden con la realidad. Quedando estos límites plenamente establecidos en el desarrollo del trabajo. Se considera el tema relevante en lo reeferente a un análisis de la estructura tendente a un aprovechamento más adecuado de los materiales en un supuesto futuro de escasez de materia prima, quizás no lejano, y sobretodo en la posible aproximación al modelo matemático, que si bien normativa y bibliografía aludían constantemente, nunca precisaron las bases de su comportamiento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesis doctoral tiene por objeto el estudio y análisis de técnicas y modelos de obtención de parámetros biofísicos e indicadores ambientales, de manera automatizada a partir de imágenes procedentes de satélite de alta resolución temporal. En primer lugar se revisan los diferentes programas espaciales de observación del territorio, con especial atención a los que proporcionan dicha resolución. También se han revisado las metodologías y procesos que permiten la obtención de diferentes parámetros cuantitativos y documentos cualitativos, relacionados con diversos aspectos de las cubiertas terrestres, atendiendo a su adaptabilidad a las particularidades de los datos. En segundo lugar se propone un modelo de obtención de parámetros ambientales, que integra información proveniente de sensores espaciales y de otras fuentes auxiliares utilizando, en cierta medida, las metodologías presentadas en apartados anteriores y optimizando algunas de las referidas o proponiendo otras nuevas, de manera que se permita dicha obtención de manera eficiente, a partir de los datos disponibles y de forma sistemática. Tras esta revisión de metodologías y propuesta del modelo, se ha procedido a la realización de experimentos, con la finalidad de comprobar su comportamiento en diferentes casos prácticos, depurar los flujos de datos y procesos, así como establecer las situaciones que pueden afectar a los resultados. De todo ello se deducirá la evaluación del referido modelo. Los sensores considerados en este trabajo han sido MODIS, de alta resolución temporal y Thematic Mapper (TM), de media resolución espacial, por tratarse de instrumentos de referencia en la realización de estudios ambientales. También por la duración de sus correspondientes misiones de registro de datos, lo que permite realizar estudios de evolución temporal de ciertos parámetros biofísicos, durante amplios periodos de tiempo. Así mismo. es de destacar que la continuidad de los correspondientes programas parece estar asegurada. Entre los experimentos realizados, se ha ensayado una metodología para la integración de datos procedentes de ambos sensores. También se ha analizado un método de interpolación temporal que permite obtener imágenes sintéticas con la resolución espacial de TM (30 m) y la temporal de MODIS (1 día), ampliando el rango de aplicación de este último sensor. Asimismo, se han analizado algunos de los factores que afectan a los datos registrados, tal como la geometría de la toma de los mismos y los episodios de precipitación, los cuales alteran los resultados obtenidos. Por otro lado, se ha comprobado la validez del modelo propuesto en el estudio de fenómenos ambientales dinámicos, en concreto la contaminación orgánica de aguas embalsadas. Finalmente, se ha demostrado un buen comportamiento del modelo en todos los casos ensayados, así como su flexibilidad, lo que le permite adaptarse a nuevos orígenes de datos, o nuevas metodologías de cálculo. Abstract This thesis aims to the study and analysis of techniques and models, in order to obtain biophysical parameters and environmental indicators in an automated way, using high temporal resolution satellite data. Firstly we have reviewed the main Earth Observation Programs, paying attention to those that provide high temporal resolution. Also have reviewed the methodologies and process flow diagrams in order to obtain quantitative parameters and qualitative documents, relating to various aspects of land cover, according to their adaptability to the peculiarities of the data. In the next stage, a model which allows obtaining environmental parameters, has been proposed. This structure integrates information from space sensors and ancillary data sources, using the methodologies presented in previous sections that permits the parameters calculation in an efficient and automated way. After this review of methodologies and the proposal of the model, we proceeded to carry out experiments, in order to check the behavior of the structure in real situations. From this, we derive the accuracy of the model. The sensors used in this work have been MODIS, which is a high temporal resolution sensor, and Thematic Mapper (TM), which is a medium spatial resolution instrument. This choice was motivated because they are reference sensors in environmental studies, as well as for the duration of their corresponding missions of data logging, and whose continuity seems assured. Among the experiments, we tested a methodology that allows the integration of data from cited sensors, we discussed a proposal for a temporal interpolation method for obtaining synthetic images with spatial resolution of TM (30 m) and temporal of MODIS (1 day), extending the application range of this one. Furthermore, we have analyzed some of the factors that affect the recorded data, such as the relative position of the satellite with the ground point, and the rainfall events, which alter the obtained results. On the other hand, we have proven the validity of the proposed model in the study of the organic contamination in inland water bodies. Finally, we have demonstrated a good performance of the proposed model in all cases tested, as well as its flexibility and adaptability.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los incendios forestales son la principal causa de mortalidad de árboles en la Europa mediterránea y constituyen la amenaza más seria para los ecosistemas forestales españoles. En la Comunidad Valenciana, diariamente se despliega cerca de un centenar de vehículos de vigilancia, cuya distribución se apoya, fundamentalmente, en un índice de riesgo de incendios calculado en función de las condiciones meteorológicas. La tesis se centra en el diseño y validación de un nuevo índice de riesgo integrado de incendios, especialmente adaptado a la región mediterránea y que facilite el proceso de toma de decisiones en la distribución diaria de los medios de vigilancia contra incendios forestales. El índice adopta el enfoque de riesgo integrado introducido en la última década y que incluye dos componentes de riesgo: el peligro de ignición y la vulnerabilidad. El primero representa la probabilidad de que se inicie un fuego y el peligro potencial para que se propague, mientras que la vulnerabilidad tiene en cuenta las características del territorio y los efectos potenciales del fuego sobre el mismo. Para el cálculo del peligro potencial se han identificado indicadores relativos a los agentes naturales y humanos causantes de incendios, la ocurrencia histórica y el estado de los combustibles, extremo muy relacionado con la meteorología y las especies. En cuanto a la vulnerabilidad se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructuras de defensa), como de las características del terreno (valor, capacidad de regeneración…). Todos estos indicadores constituyen una estructura jerárquica en la que, siguiendo las recomendaciones de la Comisión europea para índices de riesgo de incendios, se han incluido indicadores representativos del riesgo a corto plazo y a largo plazo. El cálculo del valor final del índice se ha llevado a cabo mediante la progresiva agregación de los componentes que forman cada uno de los niveles de la estructura jerárquica del índice y su integración final. Puesto que las técnicas de decisión multicriterio están especialmente orientadas a tratar con problemas basados en estructuras jerárquicas, se ha aplicado el método TOPSIS para obtener la integración final del modelo. Se ha introducido en el modelo la opinión de los expertos, mediante la ponderación de cada uno de los componentes del índice. Se ha utilizado el método AHP, para obtener las ponderaciones de cada experto y su integración en un único peso por cada indicador. Para la validación del índice se han empleado los modelos de Ecuaciones de Estimación Generalizadas, que tienen en cuenta posibles respuestas correlacionadas. Para llevarla a cabo se emplearon los datos de oficiales de incendios ocurridos durante el período 1994 al 2003, referenciados a una cuadrícula de 10x10 km empleando la ocurrencia de incendios y su superficie, como variables dependientes. Los resultados de la validación muestran un buen funcionamiento del subíndice de peligro de ocurrencia con un alto grado de correlación entre el subíndice y la ocurrencia, un buen ajuste del modelo logístico y un buen poder discriminante. Por su parte, el subíndice de vulnerabilidad no ha presentado una correlación significativa entre sus valores y la superficie de los incendios, lo que no descarta su validez, ya que algunos de sus componentes tienen un carácter subjetivo, independiente de la superficie incendiada. En general el índice presenta un buen funcionamiento para la distribución de los medios de vigilancia en función del peligro de inicio. No obstante, se identifican y discuten nuevas líneas de investigación que podrían conducir a una mejora del ajuste global del índice. En concreto se plantea la necesidad de estudiar más profundamente la aparente correlación que existe en la provincia de Valencia entre la superficie forestal que ocupa cada cuadrícula de 10 km del territorio y su riesgo de incendios y que parece que a menor superficie forestal, mayor riesgo de incendio. Otros aspectos a investigar son la sensibilidad de los pesos de cada componente o la introducción de factores relativos a los medios potenciales de extinción en el subíndice de vulnerabilidad. Summary Forest fires are the main cause of tree mortality in Mediterranean Europe and the most serious threat to the Spanisf forest. In the Spanish autonomous region of Valencia, forest administration deploys a mobile fleet of 100 surveillance vehicles in forest land whose allocation is based on meteorological index of wildlandfire risk. This thesis is focused on the design and validation of a new Integrated Wildland Fire Risk Index proposed to efficient allocation of vehicles and specially adapted to the Mediterranean conditions. Following the approaches of integrated risk developed last decade, the index includes two risk components: Wildland Fire Danger and Vulnerability. The former represents the probability a fire ignites and the potential hazard of fire propagation or spread danger, while vulnerability accounts for characteristics of the land and potential effects of fire. To calculate the Wildland Fire Danger, indicators of ignition and spread danger have been identified, including human and natural occurrence agents, fuel conditions, historical occurrence and spread rate. Regarding vulnerability se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructurasd de defensa), como de las características del terreno (valor, capacidad de regeneración…). These indicators make up the hierarchical structure for the index, which, following the criteria of the European Commission both short and long-term indicators have been included. Integration consists of the progressive aggregation of the components that make up every level in risk the index and, after that, the integration of these levels to obtain a unique value for the index. As Munticriteria methods are oriented to deal with hierarchically structured problems and with situations in which conflicting goals prevail, TOPSIS method is used in the integration of components. Multicriteria methods were also used to incorporate expert opinion in weighting of indicators and to carry out the aggregation process into the final index. The Analytic Hierarchy Process method was used to aggregate experts' opinions on each component into a single value. Generalized Estimation Equations, which account for possible correlated responses, were used to validate the index. Historical records of daily occurrence for the period from 1994 to 2003, referred to a 10x10-km-grid cell, as well as the extent of the fires were the dependant variables. The results of validation showed good Wildland Fire Danger component performance, with high correlation degree between Danger and occurrence, a good fit of the logistic model used and a good discrimination power. The vulnerability component has not showed a significant correlation between their values and surface fires, which does not mean the index is not valid, because of the subjective character of some of its components, independent of the surface of the fires. Overall, the index could be used to optimize the preventing resources allocation. Nevertheless, new researching lines are identified and discussed to improve the overall performance of the index. More specifically the need of study the inverse relationship between the value of the wildfire Fire Danger component and the forested surface of each 10 - km cell is set out. Other points to be researched are the sensitivity of the index component´s weight and the possibility of taking into account indicators related to fire fighting resources to make up the vulnerability component.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este artículo se presenta un modelo simplificado para la evaluación de daño por fatiga de bajo ciclo en elementos estructurales de hormigón armado. Basándose en los principios fundamentales de la Mecánica de la Degradación en los Medios Continuos se formulan las leyes de comportamiento de una rótula elasto-plastodegradable, lo que constituye una generalización del concepto de rótula plástica empleado en los modelos de plasticidad concentrada utilizados en el estudio de estructuras porticadas. Partiendo de los trabajos realizados por otros autores se hace especial hincapié en el modelado de la pérdida de resistencia por fatiga de bajo ciclo. Para ello se proponen unos potenciales disipativos basados en el criterio de Griffith de la Mecánica de la Fractura y en la regla de Miner tradicionalmente empleada para la cuantificación de daño por fatiga. Algunos problemas inherentes al modelo, como la cuantificación del número de ciclos, también se presentan.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con objeto de minimizar la fricción y desgaste, la industria diseña sus máquinas para que estas funcionen en régimen elastohidrodinámico durante el mayor tiempo posible. Científicos de todos los tiempos han dedicado sus vidas al estudio de la lubricación en régimen de película gruesa. Con especial interés, Ingenieros del último siglo y medio han realizado multitud de experimentos y, con los medios disponibles en su momento, han analizado y tabulado resultados, con objeto de disponer de herramientas que permitieran calcular la fuerza de fricción en contactos EHD. En el presente trabajo de tesis se ha elaborado un modelo propio de lubricación en régimen elastohidrodinámico. Este modelo permite la resolución del problema EHD por dos vías. En primer lugar la resolución analítica del problema EHD permite obtener de forma rápida valores aproximados de coeficiente de fricción y espesor de película, comprobar las hipótesis de cada modelo, y estudiar la influencia de los parámetros. En segundo lugar es posible resolver el problema EHD de forma numérica, realizándose un cálculo totalmente paramétrico de coeficiente de fricción y de la película lubricante. El cálculo se realiza de forma interactiva y a través de una herramienta informática. El objetivo del trabajo es disponer de una herramienta que aplicada a cualquier contacto tribológico (engranajes, rodamientos, etc), permita estudiar su eficiencia, predecir flash de temperatura, posibilidad de fallo por desgaste o gripado. Para el ajuste del modelo ha sido necesaria la realización de unos experimentos previos de ajuste de los equipos de ensayo. Los equipos de ensayo de laboratorio nos ofrecen unos resultados de coeficiente de fricción. Estos valores son introducidos en los modelos de la teoría elastohidrodinámica clásica disponibles en la literatura. Los modelos nos permiten estimar valores teóricos de coeficiente de fricción y espesor de película, que son contrastados con los valores de coeficiente de fricción obtenidos experimentalmente. Por repetición de experiencias ha sido posible ajustar los parámetros de material y lubricante que definen los modelos, hasta ajustar los resultados calculados con los obtenidos por vía experimental. Este ajuste ha permitido comprobar los cálculos y validar las hipótesis de los regímenes y condiciones de operación de los equipos de ensayo. Finalmente se han empleado los parámetros de material y lubricante obtenidos, para formar el modelo EHD propio. Introduciendo en el modelo los resultados obtenidos, es posible calcular el espesor de película y el coeficiente de fricción, para cualquier condición de velocidad, temperatura y carga. Para la elaboración de este modelo se ha partido de las ecuaciones de estado de la hidrodinámica (Ley de Continuidad de Reynols). Este modelo predice el comportamiento ideal en régimen hidrodinámico. Para aproximarnos al régimen elastohidrodinámico no es posible considerar a los cuerpos en contacto como sólidos rígidos que mantienen su geometría inalterada, y por tanto se introducen en este modelo las leyes que consideran la deformación elástica de los materiales. Por último es necesario tener en cuenta que sólo cuando el fluido lubricante está sometido a bajas velocidades de deformación y las condiciones de carga no son elevadas, es posible considerar su comportamiento ideal newtoniano, según el cual la tensión tangencial que ofrece es proporcional al gradiente de velocidad al que se encuentra sometido. Para el ajuste del modelo y adecuada predicción de la película lubricante es necesario introducir modelos de comportamiento del lubricante más complejos que tienen en cuenta las propiedades viscoelásticas de este, tales como Newton/Barus, Tensión Cortante Límite y Carreau. Para ello se han tomado medidas reológicas de los fluidos a distintas presiones y temperaturas. Se ha demostrado que los modelos isotermos no predicen adecuadamente el coeficiente de fricción en condiciones de funcionamiento con deslizamientos elevados, debido al calentamiento del aceite por compresión y cizalla. Es estos casos es necesario emplear un modelo termoelastohidrodinámico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El desarrollo de modelos predictivos de retroceso de acantilados costeros se encuentra limitado desde el punto de vista geomorfológico debido a la complejidad e interacción de los procesos de desarrollo espacio-temporal que tienen lugar en la zona costera. Los códigos de cálculo existentes en la actualidad incorporan modelos probabilísticos para resolver la estabilidad geomecánica de los materiales. Éstos pueden reproducir tasas de recesión históricas; sin embargo, el comportamiento bajo condiciones variables (cambio climático) no tiene por qué ser el mismo. Se presenta un modelo de proceso-respuesta de retroceso de acantilados costeros que incorpora el comportamiento geomecánico de costas compuestas por tills, incluye la acción protectora de los derrubios presentes al pie del acantilado frente a los procesos erosivos y permite evaluar el efecto del ascenso del nivel medio del mar asociado al cambio climático. Para ello, se acoplan la dinámica marina: nivel medio del mar, mareas y oleaje; con la evolución del terreno: erosión, desprendimiento rocoso y formación de talud de derrubios. La erosión del acantilado se calcula en función del nivel del mar, de las condiciones del oleaje incidente, de la pendiente de la plataforma rocosa y de la resistencia del material rocoso afectado en cada ciclo de marea. Al finalizar cada ciclo, se evalúa la ruptura del acantilado según un criterio geomecánico de roturas por vuelco y en caso de rotura, se genera un talud de derrubios al pie del mismo. El modelo ha sido validado frente a datos reales en la costa de Holderness, Yorkshire, Reino Unido. Los resultados obtenidos presentan un importante avance en los modelos de recesión costera, especialmente en su relación con las condiciones geomecánicas del medio y su respuesta ante condiciones variables del nivel medio del mar producidas por el cambio climático.