64 resultados para PARTO VAGINAL DESPUES DE CESAREA-ESTADISTICA Y DATOS NUMERICOS


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente proyecto se realiza un estudio para la construcción de una cabecera de televisión por cable. Se trata de un proyecto puramente teórico en el que se especifican cada una de las partes que forman una cabecera de televisión y cómo funciona cada una de ellas. En un principio, se sitúa la cabecera de televisión dentro de una plataforma general de transmisión, para indicar sus funciones. Posteriormente, se analizan las distintas tecnologías que implementan esta transmisión y los estándares DVB que las rigen, como son DVB-C y DVB-C2 para las transmisiones por cable propiamente dichas y DVB-IPTV para las transmisiones por IP, para elegir cuál de las opciones es la más acertada y adaptar la cabecera de televisión a la misma. En cuanto al desarrollo teórico de la cabecera, se estudia el proceso que sigue la señal dentro de la misma, desde la recepción de los canales hasta el envío de los mismos hacia los hogares de los distintos usuarios, pasando previamente por las etapas de codificación y multiplexación. Además, se especifican los equipos necesarios para el correcto funcionamiento de cada una de las etapas. En la recepción, se reciben los canales por cada uno de los medios posibles (satélite, cable, TDT y estudio), que son demodulados y decodificados por el receptor. A continuación, son codificados (en este proyecto en MPEG-2 o H.264) para posteriormente ser multiplexados. En la etapa de multiplexación, se forma una trama Transport Stream por cada canal, compuesta por su flujo de video, audio y datos. Estos datos se trata de una serie de tablas (SI y PSI) que guían al set-topbox del usuario en la decodificación de los programas (tablas PSI) y que proporcionan información de cada uno de los mismos y del sistema (tablas SI). Con estas últimas el decodificador forma la EPG. Posteriormente, se realiza una segunda multiplexación, de forma que se incluyen múltiples programas en una sola trama Transport Stream (MPTS). Estos MPTS son los flujos que les son enviados a cada uno de los usuarios. El mecanismo de transmisión es de dos tipos en función del contenido y los destinatarios: multicast o unicast. Por último, se especifica el funcionamiento básico de un sistema de acceso condicional, así como su estructura, el cual es imprescindible en todas las cabeceras para asegurar que cada usuario solo visualiza los contenidos contratados. In this project, a study is realized for the cable television head-end construction . It is a theoretical project in which there are specified each of the parts that form a television headend and how their works each of them. At first, the television head-end places inside a general platform of transmission, to indicate its functions. Later, the different technologies that implement this transmission and the standards DVB that govern them are analyzed, since the standards that govern the cable transmissions (DVB-C and DVB-C2) to the standard that govern the IP transmissions (DVB-IPTV), to choose which of the options is the most guessed right and to adapt the television head-end to the same one. The theoretical development of the head-end, there is studied the process that follows the sign inside the same one, from the receipt of the channels up to the sending of the same ones towards the homes of the different users, happening before for the stages of codification and multiplexación. In addition, there are specified the equipments necessary for the correct functioning of each one of the stages. In the reception, the channels are receiving for each of the possible systems(satellite, cable, TDT and study), and they are demodulated and decoded by the receiver. Later, they are codified (in this project in MPEG-2 or H.264). The next stage is the stage of multiplexing. In the multiplexing stage, the channels are packetized in Transport Stream, composed by his video flow, audio and information. The information are composed by many tables(SI and PSI). The PSI tables guide the set-top-box of the user in the programs decoding and the SI tables provide information about the programs and system. With the information mentioned the decoder forms the EPG. Later, a second multiplexación is realized, so that there includes multiple programs in an alone Transport Stream (MPTS). These MPTS are the flows that are sent to each of the users. Two types of transmission are possible: unicast (VoD channels) and multicast (live channels). Finally, the basic functioning of a conditional access system is specified and his structure too, which is indispensable in all the head-end to assure that every users visualizes the contracted contents only.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ENAGAS tiene la intención de ampliar el Terminal de Regasificación de GNL que tiene en el puerto de Barcelona. El presente Proyecto Básico define las instalaciones de uno de los Tanques de almacenamiento de GNL que se van a construir dentro del Alcance de dicha ampliación, con el suficiente detalle como para permitir a ENAGAS acometer las tareas previas a la ejecución del proyecto, a saber: 1. Planificar y presupuestar la fase de ejecución 2. Solicitar los Permisos y Autorizaciones necesarias de los Organismos competentes 3. Lanzar la Petición de Ofertas para el concurso llave en mano del EPC. Los trabajos de Ingeniería contenidos en el Proyecto Básico son los siguientes: Antecedentes y Datos básicos, Criterios de diseño, Descripción de instalaciones, Cálculos estructurales, Planos del Tanque de GNL, Definición de equipos y materiales a utilizar, Plan de ejecución del proyecto, Especificaciones técnicas para Ingeniería, Compras y Construcción, Paquete para Petición de Ofertas del EPC, Condiciones técnicas particulares, Programa de ejecución y Presupuesto de inversiones. ABSTRACT ENAGAS is expanding its LNG Regasification Terminal located in Barcelona Port (Spain). This Document reports the Front End Engineering and Design (FEED) works undertaken in relation to one of the LNG Storage Tanks to be built within the scope of that expansion. The Project FEED hereby presented comprehensively defines the LNG Storage Tank so as to allow ENAGAS to perform next stages of the Works, namely: 1. Plan and budget the Project Execution phase 2. Request Regulatory authorizations 3. Invite Contractors to bid for the LNG Tank EPC. Main components of the FEED Document contents are as follow:Background and Basic Data, Design Criteria, Description of LNG Tank elements, Engineering Calculations, LNG Tank Drawings, Equipment and Materials definition, Project Execution Plan (PEP), Technical Conditions, EPC Invitation to Tender (ITT) package, Execution Schedule and Cost Estimate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Internet de las Cosas (IoT), como parte de la Futura Internet, se ha convertido en la actualidad en uno de los principales temas de investigación; en parte gracias a la atención que la sociedad está poniendo en el desarrollo de determinado tipo de servicios (telemetría, generación inteligente de energía, telesanidad, etc.) y por las recientes previsiones económicas que sitúan a algunos actores, como los operadores de telecomunicaciones (que se encuentran desesperadamente buscando nuevas oportunidades), al frente empujando algunas tecnologías interrelacionadas como las comunicaciones Máquina a Máquina (M2M). En este contexto, un importante número de actividades de investigación a nivel mundial se están realizando en distintas facetas: comunicaciones de redes de sensores, procesado de información, almacenamiento de grandes cantidades de datos (big--‐data), semántica, arquitecturas de servicio, etc. Todas ellas, de forma independiente, están llegando a un nivel de madurez que permiten vislumbrar la realización de la Internet de las Cosas más que como un sueño, como una realidad tangible. Sin embargo, los servicios anteriormente mencionados no pueden esperar a desarrollarse hasta que las actividades de investigación obtengan soluciones holísticas completas. Es importante proporcionar resultados intermedios que eviten soluciones verticales realizadas para desarrollos particulares. En este trabajo, nos hemos focalizado en la creación de una plataforma de servicios que pretende facilitar, por una parte la integración de redes de sensores y actuadores heterogéneas y geográficamente distribuidas, y por otra lado el desarrollo de servicios horizontales utilizando dichas redes y la información que proporcionan. Este habilitador se utilizará para el desarrollo de servicios y para la experimentación en la Internet de las Cosas. Previo a la definición de la plataforma, se ha realizado un importante estudio focalizando no sólo trabajos y proyectos de investigación, sino también actividades de estandarización. Los resultados se pueden resumir en las siguientes aseveraciones: a) Los modelos de datos definidos por el grupo “Sensor Web Enablement” (SWE™) del “Open Geospatial Consortium (OGC®)” representan hoy en día la solución más completa para describir las redes de sensores y actuadores así como las observaciones. b) Las interfaces OGC, a pesar de las limitaciones que requieren cambios y extensiones, podrían ser utilizadas como las bases para acceder a sensores y datos. c) Las redes de nueva generación (NGN) ofrecen un buen sustrato que facilita la integración de redes de sensores y el desarrollo de servicios. En consecuencia, una nueva plataforma de Servicios, llamada Ubiquitous Sensor Networks (USN), se ha definido en esta Tesis tratando de contribuir a rellenar los huecos previamente mencionados. Los puntos más destacados de la plataforma USN son: a) Desde un punto de vista arquitectónico, sigue una aproximación de dos niveles (Habilitador y Gateway) similar a otros habilitadores que utilizan las NGN (como el OMA Presence). b) Los modelos de datos están basado en los estándares del OGC SWE. iv c) Está integrado en las NGN pero puede ser utilizado sin ellas utilizando infraestructuras IP abiertas. d) Las principales funciones son: Descubrimiento de sensores, Almacenamiento de observaciones, Publicacion--‐subscripcion--‐notificación, ejecución remota homogénea, seguridad, gestión de diccionarios de datos, facilidades de monitorización, utilidades de conversión de protocolos, interacciones síncronas y asíncronas, soporte para el “streaming” y arbitrado básico de recursos. Para demostrar las funcionalidades que la Plataforma USN propuesta pueden ofrecer a los futuros escenarios de la Internet de las Cosas, se presentan resultados experimentales de tres pruebas de concepto (telemetría, “Smart Places” y monitorización medioambiental) reales a pequeña escala y un estudio sobre semántica (sistema de información vehicular). Además, se está utilizando actualmente como Habilitador para desarrollar tanto experimentación como servicios reales en el proyecto Europeo SmartSantander (que aspira a integrar alrededor de 20.000 dispositivos IoT). v Abstract Internet of Things, as part of the Future Internet, has become one of the main research topics nowadays; in part thanks to the pressure the society is putting on the development of a particular kind of services (Smart metering, Smart Grids, eHealth, etc.), and by the recent business forecasts that situate some players, like Telecom Operators (which are desperately seeking for new opportunities), at the forefront pushing for some interrelated technologies like Machine--‐to--‐Machine (M2M) communications. Under this context, an important number of research activities are currently taking place worldwide at different levels: sensor network communications, information processing, big--‐ data storage, semantics, service level architectures, etc. All of them, isolated, are arriving to a level of maturity that envision the achievement of Internet of Things (IoT) more than a dream, a tangible goal. However, the aforementioned services cannot wait to be developed until the holistic research actions bring complete solutions. It is important to come out with intermediate results that avoid vertical solutions tailored for particular deployments. In the present work, we focus on the creation of a Service--‐level platform intended to facilitate, from one side the integration of heterogeneous and geographically disperse Sensors and Actuator Networks (SANs), and from the other the development of horizontal services using them and the information they provide. This enabler will be used for horizontal service development and for IoT experimentation. Prior to the definition of the platform, we have realized an important study targeting not just research works and projects, but also standardization topics. The results can be summarized in the following assertions: a) Open Geospatial Consortium (OGC®) Sensor Web Enablement (SWE™) data models today represent the most complete solution to describe SANs and observations. b) OGC interfaces, despite the limitations that require changes and extensions, could be used as the bases for accessing sensors and data. c) Next Generation Networks (NGN) offer a good substrate that facilitates the integration of SANs and the development of services. Consequently a new Service Layer platform, called Ubiquitous Sensor Networks (USN), has been defined in this Thesis trying to contribute to fill in the previous gaps. The main highlights of the proposed USN Platform are: a) From an architectural point of view, it follows a two--‐layer approach (Enabler and Gateway) similar to other enablers that run on top of NGN (like the OMA Presence). b) Data models and interfaces are based on the OGC SWE standards. c) It is integrated in NGN but it can be used without it over open IP infrastructures. d) Main functions are: Sensor Discovery, Observation Storage, Publish--‐Subscribe--‐Notify, homogeneous remote execution, security, data dictionaries handling, monitoring facilities, authorization support, protocol conversion utilities, synchronous and asynchronous interactions, streaming support and basic resource arbitration. vi In order to demonstrate the functionalities that the proposed USN Platform can offer to future IoT scenarios, some experimental results have been addressed in three real--‐life small--‐scale proofs--‐of concepts (Smart Metering, Smart Places and Environmental monitoring) and a study for semantics (in--‐vehicle information system). Furthermore we also present the current use of the proposed USN Platform as an Enabler to develop experimentation and real services in the SmartSantander EU project (that aims at integrating around 20.000 IoT devices).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This PhD thesis contributes to the problem of resource and service discovery in the context of the composable web. In the current web, mashup technologies allow developers reusing services and contents to build new web applications. However, developers face a problem of information flood when searching for appropriate services or resources for their combination. To contribute to overcoming this problem, a framework is defined for the discovery of services and resources. In this framework, three levels are defined for performing discovery at content, discovery and agente levels. The content level involves the information available in web resources. The web follows the Representational Stateless Transfer (REST) architectural style, in which resources are returned as representations from servers to clients. These representations usually employ the HyperText Markup Language (HTML), which, along with Content Style Sheets (CSS), describes the markup employed to render representations in a web browser. Although the use of SemanticWeb standards such as Resource Description Framework (RDF) make this architecture suitable for automatic processes to use the information present in web resources, these standards are too often not employed, so automation must rely on processing HTML. This process, often referred as Screen Scraping in the literature, is the content discovery according to the proposed framework. At this level, discovery rules indicate how the different pieces of data in resources’ representations are mapped onto semantic entities. By processing discovery rules on web resources, semantically described contents can be obtained out of them. The service level involves the operations that can be performed on the web. The current web allows users to perform different tasks such as search, blogging, e-commerce, or social networking. To describe the possible services in RESTful architectures, a high-level feature-oriented service methodology is proposed at this level. This lightweight description framework allows defining service discovery rules to identify operations in interactions with REST resources. The discovery is thus performed by applying discovery rules to contents discovered in REST interactions, in a novel process called service probing. Also, service discovery can be performed by modelling services as contents, i.e., by retrieving Application Programming Interface (API) documentation and API listings in service registries such as ProgrammableWeb. For this, a unified model for composable components in Mashup-Driven Development (MDD) has been defined after the analysis of service repositories from the web. The agent level involves the orchestration of the discovery of services and contents. At this level, agent rules allow to specify behaviours for crawling and executing services, which results in the fulfilment of a high-level goal. Agent rules are plans that allow introspecting the discovered data and services from the web and the knowledge present in service and content discovery rules to anticipate the contents and services to be found on specific resources from the web. By the definition of plans, an agent can be configured to target specific resources. The discovery framework has been evaluated on different scenarios, each one covering different levels of the framework. Contenidos a la Carta project deals with the mashing-up of news from electronic newspapers, and the framework was used for the discovery and extraction of pieces of news from the web. Similarly, in Resulta and VulneraNET projects the discovery of ideas and security knowledge in the web is covered, respectively. The service level is covered in the OMELETTE project, where mashup components such as services and widgets are discovered from component repositories from the web. The agent level is applied to the crawling of services and news in these scenarios, highlighting how the semantic description of rules and extracted data can provide complex behaviours and orchestrations of tasks in the web. The main contributions of the thesis are the unified framework for discovery, which allows configuring agents to perform automated tasks. Also, a scraping ontology has been defined for the construction of mappings for scraping web resources. A novel first-order logic rule induction algorithm is defined for the automated construction and maintenance of these mappings out of the visual information in web resources. Additionally, a common unified model for the discovery of services is defined, which allows sharing service descriptions. Future work comprises the further extension of service probing, resource ranking, the extension of the Scraping Ontology, extensions of the agent model, and contructing a base of discovery rules. Resumen La presente tesis doctoral contribuye al problema de descubrimiento de servicios y recursos en el contexto de la web combinable. En la web actual, las tecnologías de combinación de aplicaciones permiten a los desarrolladores reutilizar servicios y contenidos para construir nuevas aplicaciones web. Pese a todo, los desarrolladores afrontan un problema de saturación de información a la hora de buscar servicios o recursos apropiados para su combinación. Para contribuir a la solución de este problema, se propone un marco de trabajo para el descubrimiento de servicios y recursos. En este marco, se definen tres capas sobre las que se realiza descubrimiento a nivel de contenido, servicio y agente. El nivel de contenido involucra a la información disponible en recursos web. La web sigue el estilo arquitectónico Representational Stateless Transfer (REST), en el que los recursos son devueltos como representaciones por parte de los servidores a los clientes. Estas representaciones normalmente emplean el lenguaje de marcado HyperText Markup Language (HTML), que, unido al estándar Content Style Sheets (CSS), describe el marcado empleado para mostrar representaciones en un navegador web. Aunque el uso de estándares de la web semántica como Resource Description Framework (RDF) hace apta esta arquitectura para su uso por procesos automatizados, estos estándares no son empleados en muchas ocasiones, por lo que cualquier automatización debe basarse en el procesado del marcado HTML. Este proceso, normalmente conocido como Screen Scraping en la literatura, es el descubrimiento de contenidos en el marco de trabajo propuesto. En este nivel, un conjunto de reglas de descubrimiento indican cómo los diferentes datos en las representaciones de recursos se corresponden con entidades semánticas. Al procesar estas reglas sobre recursos web, pueden obtenerse contenidos descritos semánticamente. El nivel de servicio involucra las operaciones que pueden ser llevadas a cabo en la web. Actualmente, los usuarios de la web pueden realizar diversas tareas como búsqueda, blogging, comercio electrónico o redes sociales. Para describir los posibles servicios en arquitecturas REST, se propone en este nivel una metodología de alto nivel para descubrimiento de servicios orientada a funcionalidades. Este marco de descubrimiento ligero permite definir reglas de descubrimiento de servicios para identificar operaciones en interacciones con recursos REST. Este descubrimiento es por tanto llevado a cabo al aplicar las reglas de descubrimiento sobre contenidos descubiertos en interacciones REST, en un nuevo procedimiento llamado sondeo de servicios. Además, el descubrimiento de servicios puede ser llevado a cabo mediante el modelado de servicios como contenidos. Es decir, mediante la recuperación de documentación de Application Programming Interfaces (APIs) y listas de APIs en registros de servicios como ProgrammableWeb. Para ello, se ha definido un modelo unificado de componentes combinables para Mashup-Driven Development (MDD) tras el análisis de repositorios de servicios de la web. El nivel de agente involucra la orquestación del descubrimiento de servicios y contenidos. En este nivel, las reglas de nivel de agente permiten especificar comportamientos para el rastreo y ejecución de servicios, lo que permite la consecución de metas de mayor nivel. Las reglas de los agentes son planes que permiten la introspección sobre los datos y servicios descubiertos, así como sobre el conocimiento presente en las reglas de descubrimiento de servicios y contenidos para anticipar contenidos y servicios por encontrar en recursos específicos de la web. Mediante la definición de planes, un agente puede ser configurado para descubrir recursos específicos. El marco de descubrimiento ha sido evaluado sobre diferentes escenarios, cada uno cubriendo distintos niveles del marco. El proyecto Contenidos a la Carta trata de la combinación de noticias de periódicos digitales, y en él el framework se ha empleado para el descubrimiento y extracción de noticias de la web. De manera análoga, en los proyectos Resulta y VulneraNET se ha llevado a cabo un descubrimiento de ideas y de conocimientos de seguridad, respectivamente. El nivel de servicio se cubre en el proyecto OMELETTE, en el que componentes combinables como servicios y widgets se descubren en repositorios de componentes de la web. El nivel de agente se aplica al rastreo de servicios y noticias en estos escenarios, mostrando cómo la descripción semántica de reglas y datos extraídos permiten proporcionar comportamientos complejos y orquestaciones de tareas en la web. Las principales contribuciones de la tesis son el marco de trabajo unificado para descubrimiento, que permite configurar agentes para realizar tareas automatizadas. Además, una ontología de extracción ha sido definida para la construcción de correspondencias y extraer información de recursos web. Asimismo, un algoritmo para la inducción de reglas de lógica de primer orden se ha definido para la construcción y el mantenimiento de estas correspondencias a partir de la información visual de recursos web. Adicionalmente, se ha definido un modelo común y unificado para el descubrimiento de servicios que permite la compartición de descripciones de servicios. Como trabajos futuros se considera la extensión del sondeo de servicios, clasificación de recursos, extensión de la ontología de extracción y la construcción de una base de reglas de descubrimiento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo general de esta Tesis Doctoral ha sido tratar de mejorar los parámetros reproductivos de las conejas primíparas lactantes, empleando dos métodos de manejo (destete temprano y extensificación del ritmo reproductivo), que están directamente relacionados con su balance energético. Para ello, se diseñaron 2 experimentos en este tipo de hembras. En el primero, se estudió el efecto del destete a 25 días post-parto (dpp) sobre la actividad ovárica y el metabolismo energético de las conejas una semana más tarde (32 dpp). Un total de 34 primíparas lactantes con 8 gazapos fueron distribuidas en tres grupos: 10 conejas se sacrificaron a los 25 dpp (grupo L25), 13 fueron destetadas a los 25 dpp y sacrificadas a los 32 dpp (grupo NL32), y 11 conejas no se destetaron y fueron sacrificadas a los 32 dpp (grupo L32). No se observaron diferencias significativas entre grupos en el peso corporal, el peso del ovario, ni en las concentraciones séricas de ácidos grasos no esterificados y de proteínas totales. A pesar de que el grupo NL32 presentó un bajo consumo de alimento (122 ± 23,5 g / día, p <0,001), su contenido corporal estimado de lípidos (16,9 ± 1,09%, P <0,008), proteínas (19,7 ± 0,07%, P <0,0001), y energía (1147 ± 42,7 MJ / kg, p <0,006) fueron más elevados y las concentraciones séricas de glucosa (158 ± 24,5 mg/dl, p <0,04) más bajas que en los grupos L25 (11,9 ± 1,3%, 18,5 ± 0,08%, 942 ± 51,3 MJ/kg y 212 ± 27,9 mg/dl) y L32 (13,4 ± 1,03%, 18,5 ± 0,1%, 993 ± 40,4 MJ/kg y 259 ± 29,5 mg/dl), respectivamente. En el grupo L25 se observó un menor número medio de folículos ≥ 1 mm en la superficie ovárica en comparación con los grupos NL32 y L32 (12,7 ± 1,5 vs. 18,0 ± 1,45 y 17,6 ± 1,67, p <0,05). La población folicular ovárica en las secciones histológicas y la inmunolocalización de los receptores de prolactina fueron similares en todos los grupos. En el grupo L25, tanto la maduración nuclear de oocitos, medida en términos de tasas alcanzadas de Metafase II (67,0 vs. 79,7 y 78,3%, P <0.05) y la maduración citoplasmática, medida por el porcentaje de gránulos corticales (GC) total o parcialmente migrados en los oocitos, fueron significativamente menores que en los grupos NL32 y L32 (16,0 vs 38,3 y 60,0%, P <0.05). En conclusión, a pesar de que el destete precoz a 25 dpp pareció mejorar las reservas de energía de las conejas primíparas, este hecho no se reflejó claramente a nivel ovárico a los 32 dpp y fue similar independientemente del destete, por lo que éste último podría llevarse a cabo más tarde. En el segundo experimento, se compararon dos ritmos reproductivos. Se utilizaron un total de 48 conejas primíparas lactantes con 8 gazapos que se asignaron al azar en dos grupos experimentales: a) lactantes sacrificadas a comienzos del post-parto (11 dpp) de acuerdo a un ritmo semi-intensivo (n = 24), y b) lactantes sacrificadas al final del período post-parto (25 dpp) de acuerdo con un ritmo más extensivo (n = 24). En ellas, se estudió el peso vivo, la composición corporal estimada, parámetros metabólicos y endocrinos (estradiol y progesterona) y características ováricas como la población folicular y la tasa de atresia, así como la maduración nuclear y citoplásmica de los oocitos. En este estudio, el peso vivo, el contenido de energía corporal, los depósitos grasos y los ácidos grasos no esterificados disminuyeron a lo largo del post-parto con respecto al momento del parto (P <0,05). Las concentraciones séricas de proteínas y glucosa aumentaron en el mismo periodo post-parto (P <0,05). Se observaron similares niveles de estradiol y progesterona en ambos ritmos, así como una población folicular, tasas de maduración nuclear (tasa de oocitos en metafase II) y citoplasmática (porcentaje de oocitos con gránulos corticales migrados), similares en ambos momentos del post-parto. Sin embargo, el número de folículos preovulatorios en la superficie ovárica fue menor (P <0,05) y la tasa de atresia tendió a ser mayor con un porcentaje también menor de folículos sanos (P <0,1) en los ovarios de las hembras sometidas al ritmo extensivo. En conclusión, al final del post-parto (25 días), las conejas primíparas sin destetar muestran un deterioro de sus reservas corporales, de sus parámetros metabólicos séricos y de la calidad de sus oocitos; incluso se ha observado una ligera influencia negativa en el desarrollo de sus folículos ováricos. Por esta razón, se considera que en las conejas primíparas lactantes el manejo reproductivo extensivo (25 dpp) no presenta ninguna ventaja en comparación con el semi-intensivo (11 dpp). A la vista de los resultados de estos dos experimentos, podemos decir que ni el destete temprano, ni la extensificación del ritmo reproductivo han conseguido una mejora en los parámetros reproductivos de una hembra primípara. Por ello, son necesarios más estudios sobre el estado metabólico de la coneja primípara lactante para conseguir métodos o estrategias que lo mejoren y tengan consecuencias directas sobre la actividad reproductiva y sobre su éxito productivo. The general aim of this Thesis was to study two management methods (early weaning and extensive reproductive rhythm) linked to the energy balance of the primiparous rabbit does to improve their reproductive performance. In this sense, 2 experiments were conducted using this kind of females. In the first experiment, the effect of weaning at 25 days post-partum (dpp) on ovarian activity and energetic metabolism one week later (32 dpp) was studied. A total of 34 primiparous lactating rabbit does were used and distributed among three groups: 10 does euthanized at 25 dpp (group L25), 13 does weaned at 25 dpp and euthanized at 32 dpp (group NL32), and 11 non weaned does euthanized at 32 dpp (group L32). No significant differences were observed in live body weight, ovary weight, serum non esterified fatty acids (NEFA) and total protein concentration among groups. Although NL32 does had a low feed intake (122±23.5 g/Day; P < 0.001), their estimated lipids (16.9±1.09%, P < 0.008), protein (19.7±0.07%, P < 0.0001), and energy (1147±42.7 MJ/kg, P < 0.006) body contents were higher and their serum glucose concentrations (158±24.5 mg/dl, P < 0.04) were lower compared to L25 does (11.9±1.3%, 18.5±0.08%, 942±51.3 MJ/kg and 212±27.9 mg/dl) and L32 does (13.4±1.03%, 18.5±0.1%, 993±40.4 MJ/kg and 259±29.5 mg/dl, respectively). A lower number of follicles ≥1mm was observed compared to NL32 and L32 groups (12.7±1.5 vs. 18.0±1.45 and 17.6 ±1.67; P < 0.05) in the ovarian surface of L25 does. Follicular population in the histological ovarian sections and immunolocalization of prolactin receptor were similar in all groups. In group L25, both nuclear maturation of oocytes in terms of Metaphase II rate (67.0 vs. 79.7 and 78.3%; P < 0.05) and cytoplasmic maturation measured by percentage of cortical granules (CG), totally or partially migrated in oocytes were significantly lower than in groups NL32 and L32 (16.0 vs. 38.3 and 60.0%; P < 0.05). Consequently, a higher rate of oocytes with non-migrated CGs was found in group L25 than in groups NL32 and L32 (76.0 vs. 46.8 and 33.3%; P < 0.05). In conclusion, even though early weaning at 25 dpp seemed to improve body energy stored in primiparous does, this fact was not well reflected on the ovarian status at 32 dpp, which was similar regardless of weaning time. In the second experiment, two reproductive rhythms were compared. A total of 48 primiparous Californian x New Zealand White rabbit does suckling 8 kits were randomly allocated in two experimental groups: a) lactating does euthanized at early post-partum period (11 dpp) according to a semi-intensive rhythm (n = 24), and b) lactating does euthanized on later post-partum period (25 dpp) according to a more extensive rhythm (n = 24). Live weight, estimated body composition, serum metabolic and endocrine parameters (oestradiol and progesterone concentrations) and ovarian features like follicle population and atresia rate, and oocyte maturation were studied. Live weight, body energy content, lipid depots and serum non esterified fatty acids (NEFA) concentrations diminished from parturition time to post-partum period (P < 0.05). In addition, serum protein and glucose concentrations increased along postpartum time (P < 0.05). Similar oestradiol and progesterone levels were shown in rhythms as well as similar follicle population and nuclear and cytoplasmic maturation rates measured as metaphase II and cortical granule migration, respectively in both postpartum times. However, number of preovulatory follicles on the ovarian surface was lower (P < 0.05) and atresia rate tended to be higher with also lower percentage of healthy follicles (P < 0.1) in ovaries of females of extensive group. In conclusion, primiparous non-weaned rabbits does at late post-partum time (25 days), Did no show any improvement regarding body reserves, serum metabolic parameters and oocyte quality; even a slight negative influence has been observed in the development of their ovarian follicles. Thus this reproductive management does not present any advantage compared to earlier post-partum (11 days) reproductive rhythm. In summary, according to the obtained results from these two experiments, we can say that the application of early weaning and the extensive rhythms did not achieve an improvement in the reproductive performance of primiparous does. Thus, it is necessary to conduct more studies about the metabolic status of the primiparous lactating doe to achieve strategies in order to improve it and consequently, to improve the reproductive activity and their productive success.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract The creation of atlases, or digital models where information from different subjects can be combined, is a field of increasing interest in biomedical imaging. When a single image does not contain enough information to appropriately describe the organism under study, it is then necessary to acquire images of several individuals, each of them containing complementary data with respect to the rest of the components in the cohort. This approach allows creating digital prototypes, ranging from anatomical atlases of human patients and organs, obtained for instance from Magnetic Resonance Imaging, to gene expression cartographies of embryo development, typically achieved from Light Microscopy. Within such context, in this PhD Thesis we propose, develop and validate new dedicated image processing methodologies that, based on image registration techniques, bring information from multiple individuals into alignment within a single digital atlas model. We also elaborate a dedicated software visualization platform to explore the resulting wealth of multi-dimensional data and novel analysis algo-rithms to automatically mine the generated resource in search of bio¬logical insights. In particular, this work focuses on gene expression data from developing zebrafish embryos imaged at the cellular resolution level with Two-Photon Laser Scanning Microscopy. Disposing of quantitative measurements relating multiple gene expressions to cell position and their evolution in time is a fundamental prerequisite to understand embryogenesis multi-scale processes. However, the number of gene expressions that can be simultaneously stained in one acquisition is limited due to optical and labeling constraints. These limitations motivate the implementation of atlasing strategies that can recreate a virtual gene expression multiplex. The developed computational tools have been tested in two different scenarios. The first one is the early zebrafish embryogenesis where the resulting atlas constitutes a link between the phenotype and the genotype at the cellular level. The second one is the late zebrafish brain where the resulting atlas allows studies relating gene expression to brain regionalization and neurogenesis. The proposed computational frameworks have been adapted to the requirements of both scenarios, such as the integration of partial views of the embryo into a whole embryo model with cellular resolution or the registration of anatom¬ical traits with deformable transformation models non-dependent on any specific labeling. The software implementation of the atlas generation tool (Match-IT) and the visualization platform (Atlas-IT) together with the gene expression atlas resources developed in this Thesis are to be made freely available to the scientific community. Lastly, a novel proof-of-concept experiment integrates for the first time 3D gene expression atlas resources with cell lineages extracted from live embryos, opening up the door to correlate genetic and cellular spatio-temporal dynamics. La creación de atlas, o modelos digitales, donde la información de distintos sujetos puede ser combinada, es un campo de creciente interés en imagen biomédica. Cuando una sola imagen no contiene suficientes datos como para describir apropiadamente el organismo objeto de estudio, se hace necesario adquirir imágenes de varios individuos, cada una de las cuales contiene información complementaria respecto al resto de componentes del grupo. De este modo, es posible crear prototipos digitales, que pueden ir desde atlas anatómicos de órganos y pacientes humanos, adquiridos por ejemplo mediante Resonancia Magnética, hasta cartografías de la expresión genética del desarrollo de embrionario, típicamente adquiridas mediante Microscopía Optica. Dentro de este contexto, en esta Tesis Doctoral se introducen, desarrollan y validan nuevos métodos de procesado de imagen que, basándose en técnicas de registro de imagen, son capaces de alinear imágenes y datos provenientes de múltiples individuos en un solo atlas digital. Además, se ha elaborado una plataforma de visualization específicamente diseñada para explorar la gran cantidad de datos, caracterizados por su multi-dimensionalidad, que resulta de estos métodos. Asimismo, se han propuesto novedosos algoritmos de análisis y minería de datos que permiten inspeccionar automáticamente los atlas generados en busca de conclusiones biológicas significativas. En particular, este trabajo se centra en datos de expresión genética del desarrollo embrionario del pez cebra, adquiridos mediante Microscopía dos fotones con resolución celular. Disponer de medidas cuantitativas que relacionen estas expresiones genéticas con las posiciones celulares y su evolución en el tiempo es un prerrequisito fundamental para comprender los procesos multi-escala característicos de la morfogénesis. Sin embargo, el número de expresiones genéticos que pueden ser simultáneamente etiquetados en una sola adquisición es reducido debido a limitaciones tanto ópticas como del etiquetado. Estas limitaciones requieren la implementación de estrategias de creación de atlas que puedan recrear un multiplexado virtual de expresiones genéticas. Las herramientas computacionales desarrolladas han sido validadas en dos escenarios distintos. El primer escenario es el desarrollo embrionario temprano del pez cebra, donde el atlas resultante permite constituir un vínculo, a nivel celular, entre el fenotipo y el genotipo de este organismo modelo. El segundo escenario corresponde a estadios tardíos del desarrollo del cerebro del pez cebra, donde el atlas resultante permite relacionar expresiones genéticas con la regionalización del cerebro y la formación de neuronas. La plataforma computacional desarrollada ha sido adaptada a los requisitos y retos planteados en ambos escenarios, como la integración, a resolución celular, de vistas parciales dentro de un modelo consistente en un embrión completo, o el alineamiento entre estructuras de referencia anatómica equivalentes, logrado mediante el uso de modelos de transformación deformables que no requieren ningún marcador específico. Está previsto poner a disposición de la comunidad científica tanto la herramienta de generación de atlas (Match-IT), como su plataforma de visualización (Atlas-IT), así como las bases de datos de expresión genética creadas a partir de estas herramientas. Por último, dentro de la presente Tesis Doctoral, se ha incluido una prueba conceptual innovadora que permite integrar los mencionados atlas de expresión genética tridimensionales dentro del linaje celular extraído de una adquisición in vivo de un embrión. Esta prueba conceptual abre la puerta a la posibilidad de correlar, por primera vez, las dinámicas espacio-temporales de genes y células.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La utilización de máquinas para la recolección y manipulación de los productos agrícolas, aún los más frágiles (y perecederos) es un hecho. Sin embargo, se está lejos de llegar a una perfección en los resultados. Las relaciones entre los elementos que constituyen las máquinas, y los productos a manejar son desconocidas: Por un lado, falta el análisis de los elementos de los sistemas de recolección Por otro lado, se desconocen las causas intrínsecas o biológicas (histológicas, fisiológicas, bioquímicas) de la resistencia de los frutos a las distintas agresiones. Siendo el tomate uno de los frutos (de tipo "perecedero" o frágil) en los que más se ha avanzado en lo que respecta a recolección mecánica, sin haberse resuelto totalmente el problema, se cuenta con una experiencia, y un material que constituye una buena base de partida. La amplitud de la variabilidad de los materiales cultiva dos actualmente, es otro punto a favor del estudio del tomate. Aunque actualmente toda esta experiencia se basa en tomate para industria, la mayor parte de las conclusiones de estos estudios serán de inmediata aplicación en la mejora de variedades de tomate para fresca En éstos, ya existe actualmente la necesidad de técnicas de medida, así como de datos básicos, de las características físico-mecánicas de los frutos. En los estudios que se vienen realizando sobre cuajado de los frutos de tomate en invernadero son también necesarias estas técnicas y datos. El propósito de estos trabajos es conseguir técnicas para la diferenciación de variedades de tomate, respecto a las propiedades físicas que influyen en su resistencia a la manipulación mecánica. Dentro de ello, se intenta encontrar las relaciones causales entre las diversas características que puedan contribuir a un mayor - conocimiento de las propiedades mecánicas de estos frutos. La correlación de los ensayos de laboratorio con los sistemas de determinación de la calidad del trabajo - de recolección llevado a cabo por las máquinas contribuirá al desarrollo final de una óptima solución de mecanización. El estudio de los agentes o causas reales de los daños en los procesos de manipulación se inició en 1955, en que Halsey realizó un estudio preliminar sobre los - daños producidos a los frutos de tomate de mercado, in dicando ya que los daños eran producidos principalmente por impactos. A partir de los años 60 se han realizado numerosos estudios sobre daños producidos a los frutos de tomate en la recolección mecánica, dirigiéndose especialmente a los daños en el transporte a granel (aunque también a los producidos en la máquina cosechadora) (O'Brien - et al. 1965, id 1968, id. 1971, O'Brien 1974, Angle et al. 1974). Las características que confieren resistencia a los frutos en estos procesos suponen un complejo de factor e s , entre los que sobresalen la elasticidad del fruto - entero y la resistencia de la piel. En este proceso del transporte los estudios se basan en las características de vibración de los frutos, que dependen a su vez de los factores indicados (elasticidad, etc.).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En torno al problema del abandono se han difundido opiniones y datos que han generado una honda preocupación social y ante la cual no existe, por lo general una intervención planificada para solucionarlo.Las Instituciones de Educación Superior(IES), por si solas, encuentran grandes dificultades para poder diagnosticar adecuadamente el problema de la deserción estudiantil, y abordar con éxito, el problema del abandono de sus estudiantes. Para poder afrontarlo no es suficiente tener control y poder actuar sobre el contexto en el cual se produce el abandono, es decir las instituciones de educación superior, sino que se hace necesario vincularlo con la situación previa y especialmente con la situación posterior del estudiante que abandona. Esto no es posible sin la cooperación de Organismos superiores, de carácter regional y nacional,que entre otros objetivos, faciliten soporte a través de un Sistema de Registro de Información en el marco de un Modelo Nacional de caracterización del abandono e intervención en la educación superior. El Proyecto ALFA-GUIA, viene trabajando en diferentes ámbitos para tener una visión integral del problema del abandono y detectar aquellos elementos que están suponiendo un obstáculo para mejorar la eficiencia en los esfuerzos que muchos organismos e instituciones realizan para reducir el abandono. Particularmente se han puesto de manifiesto la imprecisión y/o falta de comparabilidad con la que se describe el alcance del abandono, la escasa identificación de los diferentes tipos de abandono y especialmente la falta de un establecimiento de categorías relacionadas con la acción académica posterior del estudiante que ha abandonado, o la conveniencia de un modelo predictivo y de unos procedimientos vinculados a los sistemas de garantía de calidad. En este artículos se abordan estos temas, poniendo especial énfasis en el interés por analizar profundamente la relación del problema del abandono con las acciones académicas posteriores que realiza el estudiante que ha abandonado. La preocupación e interés social y las consecuencias personales y colectivas del abandono son diferentes si el alumno continúa otros estudios similares o si de desliga totalmente del sistema educativo, así como situaciones intermedias cuyo impacto personal y social es muy distinto. Algunos estudios también han relacionado los factores determinantes del abandono con la acción académica posterior del estudiante que abandona. Ambas razones llevan a la reflexión de que un mejor conocimiento de esta variable es determinante para una gestión integral del problema. Se proponen ciertas variables que caracterizan la acción académica posterior al abandono, tales como nivel, ámbito, institución y tiempo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo se muestran los resultados de la aplicación de la metodología bootstrap a datos de 3369 encuestas realizadas en 2009 a nivel nacional entre conductores de furgonetas, para obtener datos de movilidad interurbana y total, según edad de los vehículos, uso, conductores y otras características de este tipo de vehículo. Se obtienen estimaciones puntuales e intervalos de confianza para la movilidad total de furgonetas, así como para los cuatro tipos de furgonetas según la clasificación realizada en el proyecto de referencia. Se comparan los resultados obtenidos con estimaciones alternativas realizadas con otras fuentes de datos para el mismo colectivo (encuestas realizadas en inspecciones en carretera realizadas por la ATGC de la DGT e inspecciones en ITV) y datos publicados por fuentes oficiales. Estos resultados de movilidad (en término de vehículo-kilómetro) se usarán para la estimación de ratios de accidentalidad en un estudio comparado con otros colectivos de vehículos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente memoria forma parte del estudio previo de soluciones para el nuevo proyecto de intercambiador en la plaza de Conde de Casal en Madrid. Este documento tiene como objeto recopilar la esencia del proceso seguido a lo largo de todo el estudio y presentar el resultado del mismo. El proceso se inicia con la recopilación de diferentes datos: datos de antecedentes de la actuación, datos previos concernientes al proyecto, datos sobre las necesidades existentes y datos geológicos sobre el terreno. A continuación se procede al tratamiento y evaluación de dichos datos para en base a ellos proyectar posibles soluciones alternativas, de las que se desarrollan tres en profundidad. Estas tres soluciones son sometidas a una evaluación ambiental y a un estudio comparativo que las enfrenta a través de una serie de conceptos y subconceptos escogidos por su relevancia concreta en la actuación o su capacidad diferencial entre alternativas. Finalmente se presenta la solución adoptada tras la ejecución del proceso, que se estudiará mas en profundidad en el proyecto de construcción.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La planificación y las políticas de transporte no pueden descuidar la calidad del servicio, considerando que influye notablemente en el cambio modal del coche hacia otros medios de transporte más sostenibles. El concepto se aplica también a los intercambiadores de transporte público, los nodos del sistema donde se cruzan las distintas redes del transporte público y privado. Aunque se han logrado numerosos avances para medir y evaluar la calidad en el sector del transporte público, se han dedicado relativamente pocos esfuerzos a investigar estos aspectos relacionados con la calidad de los intercambiadores del transporte público. Este trabajo de investigación se concentra en la calidad del servicio de la transferencia modal en los intercambiadores interurbanos, según la perspectiva de los viajeros. Su objetivo es identificar los factores clave de la calidad del servicio y los perfiles de los viajeros en los intercambiadores. La investigación es exploratoria y ofrece información acerca de la percepción de los viajeros intermodales relacionada con los aspectos de la calidad, aportando nuevos elementos y datos para adentrarse en estudios más detallados. La metodología del trabajo combina técnicas de análisis estadístico multivariante para analizar los datos de las encuestas sobre la satisfacción de los clientes y se subdivide en tres etapas. En primer lugar, se ha implementado el análisis de correspondencias múltiples para explorar los constructos latentes relacionados con la satisfacción de las características cualitativas de los intercambiadores interurbanos, identificando así los factores clave de la calidad. En segundo lugar, se ha aplicado un análisis de conglomerados de k-medias sobre los factores clave de calidad para clasificar a los viajeros en grupos de usuarios de transportes homogéneos, de acuerdo con su percepción de satisfacción, identificando de este modo los perfiles de los viajeros. Por último, se han formulado sugerencias y recomendaciones sobre la calidad para respaldar la formulación de políticas, estableciendo las prioridades para los intercambiadores interurbanos. La metodología se aplicó en cuatro intercambiadores interurbanos (estaciones de ferrocarriles o de autobuses ) en Madrid, Zaragoza, Gothenburg y Lion, analizando los datos recogidos mediante una encuesta de satisfacción del cliente llevada a cabo en 2011 en los cuatro casos de estudio, donde se interconectan distintos medios de transporte público y privado, de corta y larga distancia. Se recogieron datos sobre la satisfacción de los viajeros con 26 criterios de calidad, así como información sobre aspectos socio-económicos y pautas de comportamiento de viajes. Mediante el análisis de correspondencias múltiples se identificaron 4-5 factores clave de calidad en cada intercambiador, que se asocian principalmente con el sistema de emisión de billetes, el confort y la interconexión, mientras que los viajeros no perciben los temas clásicos como la información. Mediante el análisis de conglomerados se identificaron 2-5 perfiles de viajeros en cada intercambiador. Se reconocieron dos grupos de viajeros en casi todos los casos de estudio: viajeros de cercanía/trabajadores y turistas. Por lo que concierne a las prioridades para apoyar a las partes interesadas en la formulación de políticas, la expedición de billetes es el factor clave para los intercambiadores interurbanos españoles, mientras que la interconexión y los aspectos temporales se destacan en los intercambiadores de Francia y Suecia. Quality of Service can not be neglected in public transport planning and policy making, since it strongly influences modal shifts from car to more sustainable modes. This concept is also related to Public Transport interchanges, the nodes of the transport system where the different sub-systems of public passenger transport and personal vehicles meet. Although a lot of progress has been generally done to measure and assess quality in public transport sector, relatively little investigation has been conducted on quality at PT interchanges. This research work focusses on Quality of Service in the use of transfer facilities at interurban interchanges, according to current travellers’ perspective. It aims at identifying key quality factors and travellers profiles at interurban interchanges. The research is exploratory and offers insight into intermodal travellers’ perception on quality aspects, providing new elements and inputs for more definitive investigation. The methodology of the work combines multivariate statistical techniques to analyse data from customer satisfaction surveys and is subdivided in three steps. Firstly, multiple correspondence analysis was performed to explore latent constructs as concern satisfaction of quality attributes at interurban interchanges, thus identifying the so-called Key Quality Factor. Secondly, k-means cluster analysis was implemented on the key quality factors to classify travellers in homogeneous groups of transport users, according to their perception of satisfaction, thus identifying the so-called Travellers Profiles. Finally, hints and recommendations on quality were identified to support policy making, setting priorities for interurban interchanges. The methodology was applied at four interurban interchanges in Madrid, Zaragoza, Gothenburg and Lyon, analysing the data collected through a customer satisfaction survey carried out in 2011 at the four railway or bus stations where different modes of public and private transport are interconnected covering both short and long trips. Data on travellers’ satisfaction with 26 quality attributes were collected, as well as information on socio-economical and travel patterns. Through multiple correspondence analysis were identified 4-5 key quality factors per interchange. They are mainly related to ticketing, comfort and connectivity, while classical issues, as information, are not perceived as important by travellers’. Through cluster analysis were identified 2-5 travellers profiles per interchange. Two groups of travellers can be found in almost all case studies: commuter / business travellers and holiday travellers. As regards the priorities to support stakeholders in policy making, ticketing is the key-issue for the Spanish interurban interchanges, while connectivity and temporal issues emerge in the French and Swedish case studies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es mundialmente evidente el incremento de la preocupación por alcanzar un desarrollo sostenible, vinculando aspectos sociales, económicos y ambientales. En relación con este último aspecto, se ha venido manejando el concepto de gestión medioambiental desde diferentes perspectivas durante los últimos 50 años, por lo que en este trabajo se planteó como objetivo analizar la gestión medioambiental en Venezuela desde una perspectiva sistémica. La investigación es analítica con diseño de fuente mixta, documental y de campo; tomando como referencia datos documentales del conjunto de le yes ambientales existentes en Venezuela y datos empíricos mediante una encuesta a cinco empresas del sector petroquímico. Se evidenció que en Venezuela el Estado se apoya en una completa legislación pero no aplica instrumentos económicos que incentiven a las empresas a la protección del medioambiente, de igual modo sólo algunas organizaciones y especialmente aquellas cuyas actividades productivas pueden tener impacto ambiental significativo, como el caso de las empresas del sector petroquímico, integran el componente ecológico en sus prácticas gerenciales, presentan do deficiencias en cuanto al cumplimiento de sus políticas ambientales y a la certificación de sus sistemas de gestión; por lo que aún se presenta como un reto el articular esfuerzos desde la perspectiva sistémica entre el Estado y el sector empresarial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Análisis geológico geotécnico de inestabilidades de ladera en terrenos volcánicos. En este trabajo se identifican los factores que han contribuido al desarrollo y reactivación del deslizamiento de Pajonales-Rosiana. Para ello, se ha reconstruido la paleotopografía previa al deslizamiento, se ha establecido un modelo geológico de la ladera en función de la observación directa y datos de los mapas geológicos, y se ha generado un modelo geotécnico con datos bibliográficos y datos propios obtenidos en ensayos de laboratorio. Las superficies de rotura del deslizamiento de Pajonales-Rosiana se han desarrollado a través de tobas piroclásticas e ignimbritas que, al ser meteorizadas, desarrollan niveles limo-arcillosos con ángulos de fricción bajos, alta plasticidad y comportamiento expansivo. Por otra parte, la presencia de agua constituyó un factor desencadenante del deslizamiento, ya que para que se produzca la inestabilidad es necesaria la saturación total de las ignimbritas del Grupo Mogán y la saturación parcial de las lavas y piroclastos del Grupo Roque Nublo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto muestra el estudio realizado para evaluar la capacidad de drenaje de la canalización construida en el río Forcón-Barranca, en la población de San Miguel de Reinante (Lugo), a consecuencia de las severas inundaciones acaecidas los días 9 y 10 de junio de 2010. Para evaluar y analizar la peligrosidad se ha seguido un método hidrometeorológico agregado, debido a la falta de aforos, pluviómetros y datos, y se han usado Modelos Digitales de Elevaciones como punto de partida. Todo ello ha llevado a la conclusión de la ineficacia del canal para un período de retorno de 500 años. ABSTRACT After severe flooding in San Miguel de Reinante (Lugo) the 9th and 10th June 2010, a concrete channel was built. This project assesses the drainage capacity of such channel, performing a flood hazard analysis. Because no flow measures or rain gauge data were available a lumped model was followed in order to evaluate flood hazard, using Digital Elevation Models as a starting point. This has led to the conclusion that the channel cannot effectively drain a flow after a rainfall with a return period of 500 years.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde el año 2004 el código ARWEN ha sido utilizado con éxito para simular y diseñar experimentos relacionados con blancos para fusión por confinamiento inercial [146], astrofísica de laboratorio [145], plasmas como amplificadores de láseres de rayos X [107] o plasmas creados por láser para la medición de espectros de transmisión. Para la realización de estas simulaciones es necesario, además de métodos de alto orden precisos y que presenten buenas propiedades conservativas, conocer ciertas propiedades de los plasmas. En el caso de la fluidodinámica y la conducción electrónica necesitaremos conocer la ecuación de estado [94, 49, 36], y para el transporte de la radiación será preciso disponer de los datos de absorción y emisión [104, 95, 40]. Hasta el año 2009 ARWEN dependía de códigos externos para la generación de estas tablas de opacidad, careciendo de control sobre los métodos empleados para su generación. Además estos códigos asumían equilibrio local termodinámico (LTE), limitando su validez a rangos de alta densidad y baja temperatura. En el marco de esta tesis se ha desarrollado el código BIGBART para la generación de tablas detalladas de opacidad y emisividad para su uso en el módulo de transporte de radiación. De esta forma el grupo dispondrá de su propia herramienta de generación de propiedades radiativas. El código desarrollado es capaz de tratar plasmas en estado fuera de equilibrio (non-LTE) mediante el modelo colisional-radiativo, extendiendo así el rango de validez de las tablas generadas. El trabajo desarrollado para implementar un código LTE/non-LTE estacionario es el siguiente Cálculo de estructura y datos atómicos. Se ha acoplado en código FAC a BIGBART, incorporando la capacidad para generar potenciales atómicos para una configuración y el cálculo de funciones de onda de electrones en orbitales ligados y libres. Aproximaciones y métodos para la obtención de tasas y secciones eficaces de procesos. Se han incluido y programado los modelos implementados en FAC para el cálculo de secciones eficaces de fotoionización, y tasas de decaimiento de emisión espontánea y autoionización. Además se ha incluido el modelo Plane-Wave Born (PWBA) para el cálculo de las secciones eficaces de ionización y excitación colisional. Modelos para la obtención de la distribución de estados iónicos dentro del plasma. Se ha programado un solver LTE basado en la ecuación de Saha-Boltzmann con efectos de ionización por presión debida a los iones adyacentes. También se ha implementado un modelo non-LTE colisionalradiativo para la resolución del sistema de ecuaciones que nos permite obtener la densidad de estados iónicos fuera de equilibrio. Modelo non-LTE RADIOM. Se ha implementado el modelo RADIOM para aproximar efectos de no-equilibrio mediante cálculos LTE a una temperatura equivalente, menor o igual que la temperatura electrónica real. Cálculo de las propiedades espectrales de absorción y emisión. Se han implementado los modelos para el cálculo de los perfiles espectrales de absorción y emisión para procesos entre niveles ligados, ligado-libre y librelibre. Aprovechando el trabajo realizado en este sentido, durante el transcurso de esta tesis se amplió el código BIGBART para tratar problemas con dependencia temporal. La extensión para tratar este tipo de problemas se orientó a la simulación numérica de la interacción de láseres ultra intensos en el rango XUV/rayos X. Para ello, además de adaptar el modelo non-LTE colisionalradiativo se incluyeron procesos adicionales asociados a la interacción de la materia con fotones altamente energéticos. También se han incluido modelos para el cálculo de las propiedades ópticas, y por ende las propiedades dieléctricas de la materia irradiada, de gran interés en algunas aplicaciones novedosas de estos láseres intensos. Debido a la naturaleza fuertemente fuera de equilibrio en la interacción de fotones de alta energía con la materia, se incluyó el tratamiento de la distribución de electrones libres fuera de equilibrio en la aproximación de Fokker-Planck, tanto para condiciones degeneradas como no degeneradas. El trabajo desarrollado en el código non-LTE con dependencia temporal es el siguiente Procesos asociados a láseres intensos XUV/rayos X. Se ha implementado el cálculo de procesos radiativos estimulados de absorción y emisión por el láser. También se han incluido procesos asociados a la creación de vacantes en capas internas electrónicas (Shake), además de doble autoionización y doble fotoionización. Cálculo de propiedades ópticas y dieléctricas en blancos sólidos. Se ha implementado un modelo para la absorción por bremsstrahlung inverso en blancos en estado sólido. Con el coeficiente de extinción debido a procesos de fotoabsorción resonante, fotoionización y bremsstrahlung inverso se obtiene el ´ındice de refracción mediante la relación de Kronig-Kramers. Electrones fuera de equilibrio. Se ha tratado la evolución de la distribución de electrones, cuando no está justificado asumir que es Maxwelliana o de Fermi-Dirac, mediante la aproximación de Fokker-Planck para la colisión entre electrones libres. En la resolución de la ecuación de Fokker-Planck se han incluido los procesos inelásticos por colisiones con iones y términos fuente por interacción con el láser y otros procesos. ABSTRACT Since 2004 the ARWEN code has been successfully used to simulate and design targets for inertial confinement fusion experiments [146], laboratory astrophysics [145], plasmas as X-ray lasers amplifiers [107] or laser created plasmas for measuring transmission spectra. To perform these simulations it is necessary, in addition to high order precise methods with good conservative properties, to know certain properties of plasmas. For fluid dynamic and electronic conduction we need to know the equation of state [94, 49, 36], and for radiation transport it will be necessary to have the data of the absorption and emission [104, 95, 40]. Until 2009 ARWEN depended on external codes to generate these opacity tables, lacking of control over the methods used for their generation. Besides, these codes assumed local thermodynamic equilibrium (LTE), limiting their validity ranges to high densities and low temperatures. As part of this thesis it has been developed the BIGBART code for generating detailed opacity and emissivity tables for use in the radiation transport module. This group will have its own tool for the generation of radiative properties. The developed code is capable of treating plasmas out of equilibrium (non-LTE) by means of a collisional-radiative model, extending the range of validity of the generated tables. The work to implement an LTE/non-LTE steady-state code is as follows Calculation of structure and atomic data. the FAC code was coupled to BIGBART, incorporating the ability to generate atomic potentials for calculating configuration wave functions for bound and free electrons. Approaches and methods for obtaining cross sections and processes rates. We have included and reprogrammed in Fortran the models implemented in FAC for calculation of photoionization cross sections and decay rates of spontaneous emission and autoionization. We also included the Plane- Wave Born (PWBA) model to calculate the cross sections of ionization and collisional excitation. Models for the obtention of the distribution of ionic states within the plasma. We programmed a LTE solver based on the Saha-Boltzmann equation with pressure ionization effects due to adjacent ions. It has also been implemented a non-LTE collisional-radiative model for solving the system of equations that allows us to obtain the density of ionic states out of equilibrium. Non-LTE RADIOM model. We have implemented the non-LTE RADIOM model to approximate non-equilibrium effects with LTE data at an equivalent temperature, lower or equal to the actual electronic temperature. Calculation of the spectral absorption and emission properties. Models have been implemented for the calculation of the spectral profiles of absorption and emission processes between bound levels, free-bound and free-free. Taking advantage of the work done in this direction throughout the course of this thesis the code BIGBART was extended to treat time-dependent problems. The extension to treat such problems is oriented to the numerical simulation of the interaction of ultra intense lasers in the XUV/X-ray range. For this range, in addition to adapting the non-LTE collisional-radiative model, additional processes associated with the interaction of matter with high energy photons. We also included models for calculation of the optical properties, and therefore the dielectric properties of the irradiated material, of great interest in some novel applications of these intense lasers. Due to the strong non-equilibrium nature of the interaction of high energy photons with matter, we included the treatment of the distribution of free electrons out of equilibrium in the Fokker-Planck approximation for both degenerate and non-degenerate conditions. The work in the non-LTE time-dependent code is as follows Processes associated with intense XUV/X-ray lasers. We have implemented the calculation of stimulated radiative processes in absorption and emission. Also we included processes associated with the creation of electronic vacancies in inner shells (Shake), double autoionization and double photoionization. Calculation of optical and dielectric properties in solid targets. We have implemented a model for inverse bremsstrahlung absorption in solid targets. With the extinction coefficient from resonant photoabsorption, photoionization and inverse bremsstrahlung the refractive index is obtained by the Kramers-Kronig relation. Electrons out of equilibrium. We treat the evolution of the electron distribution, when it is not justified to assume a Maxwellian or Fermi-Dirac distribution, by the Fokker-Planck approximation for collisions between electrons. When solving the Fokker-Planck equation we included inelastic collision processes with ions and source terms by interaction with the laser and other processes.