1000 resultados para Congreso nacional
Resumo:
Las ruedas de ferrocarril con avanzado estado de desgaste o poligonalización pueden ser una fuente transmisora de ruidos y vibraciones, lo que supone un serio inconveniente para los vecinos próximos a la línea ferroviaria. Se han adoptado distintas soluciones para mitigar este efecto, entre las que las ruedas elásticas desempeñan un papel importante.Las ruedas elásticas convencionales presentan un anillo de goma, en forma de V, que se encuentra ligeramente comprimido entre el cubo y la banda de rodadura, construidos en acero. Esta capa elástica favorece la supresión del ruido y vibraciones transmitidos, al tiempo que reduce los impactos sobre la vía. En este estudio se ha valorado la eficacia de las ruedas elásticas en líneas metropolitanas, comparándolas con las ruedas monobloque. Se ha utilizado para ello el método de los elementos finitos. Se han llevado a cabo diversas simulaciones para estudiar el comportamiento vibratorio de las ruedas elásticas y monobloque, incluyendo análisis modal, respuesta en frecuencia y análisis de vibraciones estocásticas.
Resumo:
En este artículo se describe el proceso de diseño e implementación de la base de datos RVDynDB (Rail Vehicle Dynamic parameters DataBase), que pretende ser un extenso repositorio de los modelos de dominio público empleados en la simulación dinámica de vehículos ferroviarios en todo el mundo. Atendiendo a sus características de flexibilidad, extensibilidad e independencia de la plataforma, se ha escogido un modelo de datos XML, que facilita el almacenamiento de datos de procedencia muy heterogénea, al tiempo que permite compartir el contenido de la base de datos con otros usuarios a través de internet. Se ha presentado también el lenguaje RVDynML (Rail Vehicle Dynamic parameters Markup Language), que define la estructura de la información almacenada en la base de datos. Al ser un lenguaje basado en XML, con el tiempo podría llegar a convertirse en un estándar para el intercambio de datos sobre los principales parámetros constructivos que definen el comportamiento dinámico de los vehículos.Se han seleccionado 173 referencias bibliográficas, cuyos datos se han utilizado para construir la base de datos, constituida por un total de 957 registros. Finalmente, se ha desarrollado una aplicación específica con MATLAB para gestionar las búsquedas en la base de datos. Para ello se ha empleando una API de Java que proporciona una interfaz para el DOM, que permite permiten acceder, modificar, insertar o eliminar los elementos y atributos que componen un documento XML.
Resumo:
La elasticidad de la caja de viajeros de los vehículos ferroviarios tiene una gran influencia sobre el confort. Por esta razón, cuando se desea simular el comportamiento dinámico del vehículo para estudios de confort, resulta conveniente construir un modelo elástico de caja, a fin de obtener resultados más precisos. La construcción de este tipo de modelos pasa por el desarrollo de dos etapas fundamentales, que comprenden la generación de un modelo de caja mediante la técnica de los elementos finitos (FEM) para su caracterización dinámica como cuerpo elástico y la definición de un modelo de sistema multicuerpo (MBS) que englobe los restantes componentes del vehículo. En este artículo se presentan los resultados obtenidos en un estudio comparativo llevado a cabo con modelos de caja rígida y elástica, en los que se ha valorado el nivel de confort obtenido con ambas configuraciones. Para ello, se ha simulado el comportamiento del vehículo a dos velocidades distintas, de 70 y 110km/h, y con dos niveles de irregularidades. Se han analizado las aceleraciones de la caja, que se han procesado de acuerdo a las especificaciones de la norma EN12299, a fin de obtener el índice de comodidad. Este parámetro se ha utilizado para comparar el nivel de confort obtenido con ambos modelos, habiéndose encontrado una gran diferencia en los índices calculados con caja rígida y con caja elástica, lo que confirma la gran influencia de la elasticidad de la caja en los estudios de confort llevados a cabo mediante técnicas de simulación dinámica.
Resumo:
La escalera mecánica lleva más de un siglo entre nosotros, sin apenas variar su diseño de forma notoria. La simulación mecánica de este sistema multicuerpo, asignatura pendiente en la actualidad, ahorrará tiempo y dinero frente a los experimentos tradicionales. En esta línea, CITEF está desarrollando una serie herramientas de mejora del diseño basadas en modelos estáticos, cinemáticos y dinámicos para la simulación del comportamiento de la escalera mecánica convencional así como para el desarrollo y análisis de nuevos diseños. Estas herramientas permitirán el estudio de variables como son la velocidad y la aceleración del peldaño, así como los valores de tensión de la cadena y de reacción de los rodillos. Con los resultados obtenidos se podrán inferir mejoras que supongan una disminución del coste del conjunto de la escalera y del coste de mantenimiento, así como un aumento del confort del usuario.
Resumo:
En el presente trabajo se han analizado los modelos tensión-deslizamiento más divulgados para estudiar las tensiones en la interfase FRP-Hormigón y la carga máxima mediante su irapíementación en una de las principales técnicas de cálculo numérico fácilmente programable y aplicable para el caso en el que se tiene tracción en ambos extremos de la banda FRP. Los resultados se comparan con las soluciones analíticas encontradas en la literatura, las cuales están limitadas a los casos de una función tensión-deslizamiento lineal y bilineal. Finalmente, se contrasta la teoría con los resultados experimentales obtenidos de ensayos de tipología análoga al método beamtest empleado comúnmente para medir la adherencia de barras de acero.
Resumo:
Durante la última década la investigación en nanomedicina ha generado gran cantidad de datos, heterogéneos, distribuidos en múltiples fuentes de información. El uso de las Tecnologías de la Información y la Comunicación (TIC) puede facilitar la investigación médica a escala nanométrica, proporcionando mecanismos y herramientas que permitan gestionar todos esos datos de una manera inteligente. Mientras que la informática biomédica comprende el procesamiento y gestión de la información generada desde el nivel de salud pública y aplicación clínica hasta el nivel molecular, la nanoinformática extiende este ámbito para incluir el “nivel nano”, ocupándose de gestionar y analizar los resultados generados durante la investigación en nanomedicina y desarrollar nuevas líneas de trabajo en este espacio interdisciplinar. En esta nueva área científica, la nanoinformática (que podría consolidarse como una auténtica disciplina en los próximos años), elGrupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid (UPM) participa en numerosas iniciativas, que se detallan a continuación.
Resumo:
Se presenta un nuevo estudio de peligrosidad sísmica de Navarra siguiendo el método de cálculo probabilista zonificado, con un árbol lógico para cuantificar la incertidumbre epistemológica inherente a los modelos de atenuación y a las zonificaciones sísmicas. El estudio parte de la revisión y contraste de los catálogos sísmicos disponibles. A partir de ellos se configura un catálogo de proyecto, homogeneizado a magnitud momento Mw y depurado de réplicas y premonitores. Además se realiza un estudio de las zonificaciones que contienen la región y se desarrolla una nueva zonificación específica para el proyecto, atendiendo a criterios sismológicos y geológicos. Por último, se seleccionan los modelos de atenuación más idóneos para la región Pirenaica. Los cálculos se realizan sobre emplazamiento en roca. Los resultados se presentan mediante mapas de peligrosidad en la provincia de Navarra y espectros de peligrosidad uniforme en varias poblaciones para periodo de retorno de 475 años. Estos resultados se comparan finalmente con los provistos por la Norma NCSE-02 y con los de otros estudios existentes
Resumo:
Una de las principales diferencias entre estudios de riesgo símico a escalas regional y urbana se refiere a la caracterización de la acción sísmica. En los estudios regionales, se impone el método probabilista, en el que habitualmente el resultado se expresa por medio de mapas de aceleración esperada para un periodo de retorno dado y espectros de peligrosidad uniforme. Sin embargo, en los estudios urbanos se requiere un mayor grado de detalle, tanto en la definición de las fuentes sismogenéticas como en la caracterización del movimiento esperado, sobre el que inciden de manera fundamental posibles efectos de resonancia con el suelo en el emplazamiento y/o con las estructuras asentadas en el mismo. En este trabajo se presentan diversas propuestas de caracterización de la acción sísmica en entornos urbanos. Para su aplicación práctica, se usarán datos de dos localidades concretas: Almería, donde se usará un escenario sísmico compatible con el sismo de control de la peligrosidad en rangos de aceleración esperados para un periodo de retorno de 475 años y en Alhama de Granada, donde el movimiento sísmico corresponde al que generaría un terremoto similar al de Andalucía de 1884, con fuente en la falla de Zafarraya.
Resumo:
En este trabajo se presentan los avances realizados en el marco del proyecto “Evaluación de la Peligrosidad Sísmica en España para aplicaciones relacionadas con la seguridad nuclear” financiado por el Consejo de Seguridad Nuclear. La finalidad última del proyecto es ahondar en el conocimiento de la peligrosidad sísmica y de su incertidumbre en los emplazamientos de instalaciones críticas como instalaciones nucleares y almacenamientos de residuos radiactivos en nuestro país. Con ese propósito, una primera fase del proyecto está destinada a recopilar y estructurar toda la información generada en proyectos previos financiados por el CSN (DAÑOS, SIGMA, PRIOR, EXPEL y DATACIÓN) concerniente a estudio de fallas activas, análisis de paleosismicidad, catálogos sísmicos y de movimiento fuerte del suelo, etc.. Esta información está siendo integrada y unificada en una Base de Datos y en un Sistema de Información Geográfica. Paralelamente, el código informático desarrollado en el proyecto EXPEL está siendo actualizado para desarrollar cálculos de peligrosidad sísmica siguiendo la metodología PSHA de una forma eficiente, incluyendo formulación de un árbol lógico, cuantificación de incertidumbres epistémicas y aleatorias, análisis de sensibilidad de diferentes opciones en los resultados y desagregación. Los resultados preliminares del proyecto son presentados en esta comunicación, dando una orientación hacia futuros desarrollos y toma de decisiones relacionados con la seguridad nuclear.
Resumo:
El uso de las turbinas de gas en ciclo combinado es una de las alternativas más aceptadas en los últimos tiempos. Existen muchas razones por las que se está investigando sobre la posibilidad de usar otro tipo de combustibles como alternativa al característico, gas natural (metano). Entre otras, se pueden citar: la evolución del precio y la disponibilidad en una zona de algún tipo de gas de síntesis [17] así como estrategias medioambientales y de emisiones [10], [18], [20]. En la bibliografía se encuentran estudios, en los que de forma rigurosa se establece la relación entre la eficiencia de una instalación, usando balances característicos del Segundo Principio de la Termodinámica, y aspectos muy diversos como análisis de los gases de combustión [14], posibilidad de recalentamiento de los gases [19], temperaturas de gasificación [23] y temperatura de llama [18] etc. Estos estudios siempre toman como combustible el metano. En este estudio se presenta un análisis de las emisiones de CO2 (toneladas emitidas) por energía eléctrica producida (MWh) en la instalación de turbina de gas en ciclo combinado usando como combustible los primeros elementos de los hidrocarburos alcanos desde el metano, que se toma como referencia, hasta el heptano. Esto permite la determinación de las emisiones para distintos combustibles con distintas composiciones. Como parámetros relacionados directamente con la eficiencia de la instalación, se han contemplado para cada combustible diferentes temperaturas de entrada a la turbina de gas y distintas relaciones de compresión. Finalmente se obtienen una serie de curvas que relacionan la eficiencia y las emisiones con el número de carbonos presentes en el combustible. El análisis realizado pretende ser un elemento de discusión, basado en aspectos puramente termodinámicos, para la toma de decisiones
Resumo:
Las empresas explotadoras de yacimientos de petróleo y geotérmicos diseñan y construyen sus instalaciones optimizándolas según dos características especialmente representativas: su temperatura y su presión. Por ello, tener información precisa sobre ambos aspectos lo antes posible puede permitir ahorros importantes en las inversiones en infraestructuras y también acortar los plazos de comienzo de explotación; ambos, aspectos esenciales en la rentabilidad del yacimiento. La temperatura estática de una formación es la temperatura existente antes del inicio de las tareas de perforación del yacimiento. Las operaciones de perforación tienen como objetivo perforar, evaluar y terminar un pozo para que produzca de una forma rentable. Durante estas tareas se perturba térmicamente la formación debido a la duración de la perforación, la circulación de fluidos de refrigeración, la diferencia de temperaturas entre la formación y el fluido que perfora, el radio, la difusividad térmica de las formaciones y la tecnología de perforación [7]. La principal herramienta para determinar la temperatura estática de formación son las medidas de temperaturas en los pozos. Estas medidas de temperatura se realizan una vez cesados los trabajos de perforación y circulación de fluidos. El conjunto de medidas de temperatura obtenidas es una serie de valores ascendentes, pero no llega a alcanzar el valor de la temperatura estática de la formación. Para estimar esta temperatura se plantean las ecuaciones diferenciales que describen los fenómenos de transmisión de calor en el yacimiento [14]. Estos métodos se emplean tanto en yacimientos geotérmicos como en yacimientos de petróleo indistintamente [16]. Cada uno de ellos modela el problema de transmisión de calor asociado de una forma distinta, con hipótesis simplificadoras distintas. Se ha comprobado que la aplicación de los distintos métodos a un yacimiento en concreto presenta discrepancias en cuanto a los resultados obtenidos [2,16]. En muchos de los yacimientos no se dispone de información sobre los datos necesarios para aplicar el método de estimación. Esto obliga a adoptar una serie de hipótesis que comprometen la precisión final del método utilizado. Además, puede ocurrir que el método elegido no sea el que mejor reproduce el comportamiento del yacimiento. En el presente trabajo se han analizado los distintos métodos de cálculo. De la gran variedad de métodos existentes [9] se han seleccionado los cuatro más representativos [2,7]: Horner (HM), flujo radial y esférico (SRM), de las dos medidas (TLM) y de fuente de calor cilíndrica (CSM). Estos métodos se han aplicado a una serie de yacimientos de los cuales se conoce la temperatura estática de la formación. De cada yacimiento se disponía de datos tanto de medidas como de las propiedades termo-físicas. Estos datos, en ocasiones, eran insuficientes para la aplicación de todos los métodos, lo cual obligo a adoptar hipótesis sobre los mismos. Esto ha permitido evaluar la precisión de cada método en cada caso. A partir de los resultados obtenidos se han formulado una colección de criterios que permiten seleccionar qué método se adapta mejor para el caso de un yacimiento concreto, de tal manera que el resultado final sea lo más preciso posible. Estos criterios se han fijado en función de las propiedades termo-físicas del yacimiento, que determinan el tipo de yacimiento, y del grado de conocimiento que se dispone del yacimiento objeto de estudio.
Resumo:
El terremoto ocurrido el 12 de enero de 2010 en Haití devastó la ciudad de Puerto Príncipe, interrumpiendo la actividad social y económica. El proyecto Sismo-Haití surgió como respuesta a la solicitud de ayuda del país ante esta catástrofe y está siendo llevado a cabo por el grupo de investigación en Ingeniería Sísmica de la Universidad Politécnica de Madrid, especialistas en geología y sismología de las universidades Complutense de Madrid, Almería y Alicante, el Consejo Superior de Iinvestigaciones Científicas y técnicos locales. En el marco del citado proyecto se realizará un estudio de la amenaza sísmica, con la consiguiente obtención de mapas de aceleraciones que sirvan de base para una primera normativa sismorresistente en el país. Asimismo, se llevará a cabo un estudio de riesgo sísmico en alguna población piloto, incluyendo estudios de microzonación y vulnerabilidad sísmica, así como la estimación de daños y pérdidas humanas ante posibles sismos futuros, cuyos resultados irán dirigidos al diseño de planes de emergencia. En este trabajo se presentan los primeros avances del proyecto. Uno de los objetivos más importantes del proyecto Sismo-Haití es la formación de técnicos en el país a través de la transmisión de conocimientos y experiencia que el grupo de trabajo tiene en materia de peligrosidad y riesgo sísmico, así como en todo lo relacionado con la gestión de la emergencia.
Resumo:
Este trabajo presenta los resultados de la campaña de riego 2010 realizada en la finca Villavieja, ubicada en Tordesillas (Valladolid) y perteneciente a la asociación para la investigación y la mejora del cultivo de remolacha azucarera (AIMCRA). El objetivo general es determinar el tiempo y frecuencia de riego óptimos, para mejorar así la eficiencia del riego y reducir el coste de los agricultores. Para ello se considera el manejo del riego tradicional que aplica el regante de la zona al cultivo de remolacha azucarera y se mide el contenido de humedad en puntos determinados de la finca y la distribución del agua en el suelo, a partir de esas medidas. Además, se realizaron varias evaluaciones de las unidades de riego a lo largo de la campaña. Un sensor de frecuencia FDR (EnviroScan) se utilizó para medir el contenido de humedad en un perfil de suelo de la finca. Previamente se determinó la textura del suelo. Los regantes de la zona conocían, con cierta aproximación, las necesidades hídricas semanales del cultivo, a partir de la información de la evapotranspiración semanal de la remolacha, recibida vía mensajes cortos de texto de telefonía móvil (SMS). Ésta se determinada a partir de las estación meteorológicas más cercanas (pertenecientes a la red de Inforiego) y de la red de tanques de evaporación repartidos por las diferentes zonas. Sin embargo, y debido a la necesidad de reducir costes, muchos regantes no se ajustan a dichas necesidades y aplican un calendario de riego ajustándose a la tarifa eléctrica mínima . Esta situación puede provocar estrés hídrico, durante algunos días de la campaña y, como consecuencia, riegos excesivamente largos que intentan compensar el estrés acumulado. Los suelos, principalmente arenosos mostraron valores altos de la infiltración; el tiempo medio de riego, de unas 6 horas, llegó incluso a duplicar el necesario para la saturación de los primeros 60 cm de suelo. Además, la frecuencia de riego no fue siempre la adecuada y, en varias ocasiones, se observaron visualmente síntomas de estrés hídrico en el cultivo.
Resumo:
Se estudia la peligrosidad sísmica en la Península Ibérica con una metodología no paramétrica basada en estimadores de densidad kernel; la tasa de actividad se deduce del catálogo, tanto en cuanto a su dependencia espacial (prescindiendo de zonificación) como en relación con la magnitud (obviando la ley de Gutenberg-Richter). El catálogo es el del Instituto Geográfico Nacional, complementado con otros en zonas periféricas, homogeneizado en su cuantificación de los terremotos y eliminando eventos espacial o temporalmente interrelacionados para mantener un modelo temporal de Poisson. La tasa de actividad sísmica viene determinada por la función kernel, el ancho de banda y los períodos efectivos. La tasa resultante se compara con la obtenida usando estadísticas de Gutenberg-Richter y una metodología zonificada. Se han empleado tres leyes de atenuación: una para terremotos profundos y dos para terremotos superficiales, dependiendo de que su magnitud fuera superior o inferior a 5. Los resultados se presentan en forma de mapas de peligrosidad para diversas frecuencias espectrales y períodos de retorno de 475 y 2475 años, lo que permite construir espectros de peligrosidad uniforme
Resumo:
La crisis afecta a todos los sectores, es un terremoto en cadena que se inicio en el sector inmobiliario y se ha ido introduciendo en el resto. Todo esto ha dado lugar a una caída brusca de la demanda de los servicios relacionados con la construcción, con un posicionamiento en “espera” de los Promotores e Inversores, que aún tienen liquidez para invertir, buscando oportunidades que lógicamente se tienen que producir en un entorno escasamente fiable como el actual. Aquellos Inversores que vean oportunidades, se aseguraran de que los productos que van a realizar, tengan una demanda suficiente, sus costes estén en consonancia con el mercado, pero sin que aquello perjudique al resultado final, es decir manteniendo la calidad propuesta al inicio del proceso con los costes previstos, dando lugar a un control exhaustivo del producto a realizar, lo cual obligará a una gran profesionalidad por parte de los agentes implicados. Para todo esto habrá que contar con Empresas especializadas, que aporten garantías en este proceso y aseguren tanto al promotor como al Inversor en todo momento donde y en que se invierten sus recursos. La Dirección Integrada de Proyecto (“Project Management “) aplicada al proceso constructivo es una Técnica Metodológica que ayuda a organizar, controlar y gestionar los recursos de los promotores dentro del proceso edificatorio. Cuando los recursos están limitados (que normalmente es la mayoría de las situaciones) gestionarlos de una manera eficiente se convierte en algo muy importante. Bien, pues nos encontramos con que en esta situación actual, los recursos no solo están limitados, si no que son limitados, por lo que un control y un exhaustivo seguimiento de los mismos se convierte no solo en importante si no en fundamental.