943 resultados para reasonable excuse for delay in giving notice


Relevância:

100.00% 100.00%

Publicador:

Resumo:

We formed an academic-community partnership with the Salsa Caliente program to undertake a project to better understand how Latina women with cardiovascular disease (CVD) or at risk of CVD view and understand CVD. This study's research question examines the sociocultural factors that influence and inform Latino women's perceptions and beliefs about CVD. Seven out the eleven participants in the Salsa Caliente program consented to be interviewed. The data was collected through recorded interviews, which were transcribed and then analyzed for common themes found among all the participants' narratives. The content analysis looking into common themes yielded four: 1) increased awareness of CVD, 2) trust in doctor, 3) delay in doctor visits, and 4) awareness of health. Implications for interventions and further research are discussed.^

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se realizó un análisis comparativo de los sectores agrarios argentino y chileno, comparando la potencialidad y uso de los recursos naturales en los distintos tipos de explotaciones agropecuarias. Se lo completó con encuestas a productores agrarios e informantes clave de ambos países para conocer la situación tecnológica y económica actual. Se determinaron ventajas comparativas en los distintos cultivos y explotaciones agropecuarias. La principal fortaleza argentina reside en la mayor disponibilidad y, en algunos casos, calidad de los recursos naturales. Esta ventaja estructural constituye una amenaza principalmente para el sector cerealícola y ganadero chileno. Los factores institucionales exógenos a la empresa constituyen la principal debilidad argentina y se reflejan en el mayor costo de producción en cultivos intensivos, como los vitícolas y frutícolas. Las encuestas a productores argentinos demuestran una actitud pesimista, poco dispuesta a inversiones, agobiada por la presión fiscal y más aún por normativas legales incoherentes con la realidad económica. La inseguridad jurídica y económica se manifiesta en un atraso tecnológico, respecto de Chile, por falta de incentivos y, en consecuencia, de inversiones en el agro. Frente a estas diferencias, la integración puede conducir a desequilibrios iniciales de difícil solución, derivados de la mayor potencialidad en recursos naturales -que favorece a la Argentina- y en sentido contrario, su actual inestabilidad económica y jurídica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Equilibrium melting and controlled cooling experiments were undertaken to constrain the crystallization and cooling histories of tholeiitic basalts recovered by the Ocean Drilling Program drilling of Site 989 on the Southeast Greenland continental margin. Isothermal experiments conducted at 1 atm. and at the fayalite-magnetite-quartz buffer using lava sample Section 163-989B-10R-7 yielded the equilibrium appearance sequence with decreasing temperature: olivine at 1184 ± 2ºC; plagioclase at 1177ºC ± 5ºC; augite at 1167 ± 5ºC; and pigeonite at 1113 ± 12ºC. In controlled cooling experiments using the same starting composition and cooling rates between 10ºC/hr and 2000ºC/hr, we find a significant temperature delay in the crystallization of olivine, plagioclase, and augite (relative to the equilibrium appearance temperature); pigeonite does not form under any dynamic crystallization conditions. Olivine exhibits the largest suppression in appearance temperature (e.g., 30º for 10ºC/hr and >190º at 100ºC/hr), while plagioclase shows the smallest (~10ºC at 10ºC/hr; 30ºC at 100ºC/hr, and ~80ºC at 1000ºC/hr). These results are in marked contrast to those obtained on lunar basalts, which generally show a large suppression of plagioclase crystallization and modest suppression of olivine crystallization with an increased cooling rate. The results we report agree well with the petrography of lavas recovered from Site 989. Furthermore, the textural analysis of run products, representing a large range of cooling rates and quench temperatures (1150ºC to 1000ºC), provide a framework for evaluating cooling conditions necessary for glass formation, rates of plagioclase growth, and kinetic factors governing plagioclase growth morphology. Specifically, we use these insights to interpret the textural and mineralogical features of the unusual compound flow recovered at Site 989. We concluded from the analysis that this flow most likely records multiple breakouts from a distal tube at an abrupt break in slope, possibly a fault scarp, resulting in the formation of a lava fan delta. This interpretation implies that normal faulting of the oldest lava sequences (lower and, possibly, middle series) preceded eruption of Site 989 lavas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artículo parte del análisis de algunas contribuciones teóricas sobre la conceptualización del cuerpo en las sociedades contemporáneas, que nos permitirá dialogar con las experiencias reflexivas de un grupo de chicos sobre el aprendizaje de la(s) masculinidad(es)i en sus vidas. El énfasis fenomenológico y político del cuerpo en los estudios feministas -con la noción de corporización- ha sido fundamental para problematizar las variables encarnadas de género, raza, edad, clase social, (dis)capacidad, etc. que no sólo operan en una relación de poder sobre nuestros cuerpos, sino también como locus de agencia y resistencia. La teoría queer con la deconstrucción de la sexualidad normativa -gracias a la noción de performatividad- será clave para entender el papel fundamental que la sexualidad desempeña en la construcción de la(s) subjetividad(es). Los relatos de los chicos nos permitirán explorar el papel que la actividad física y el deporte tiene en sus vidas como mediadores en la construcción de subjetividades "masculinas", muchas veces como un espacio opresor de identidad de género y opción sexual, y abrir la reflexión a las visiones hegemónicas de cuerpo que median tanto la educación física en las escuelas, como en el deporte de competición y/o de elite, y sus representaciones en los mass media.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En 2005, Ricardo Piglia publica en la editorial Anagrama, que ya venía reeditando casi toda su obra, el primer libro que antes de ser enviado a la imprenta por Jorge Herralde no existía : El último lector. La edición de éste, tanto como la de La invasión de 2006 revelan el empeño del escritor en la construcción de un atraso del tiempo literario que consiste en volverse y volver sus libros siempre un poco más remotos. Piglia construye su obra como si estuviera formada siempre por textos del pasado o fijados en el pasado y consolida desde allí su anacronismo como un bien

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artículo parte del análisis de algunas contribuciones teóricas sobre la conceptualización del cuerpo en las sociedades contemporáneas, que nos permitirá dialogar con las experiencias reflexivas de un grupo de chicos sobre el aprendizaje de la(s) masculinidad(es)i en sus vidas. El énfasis fenomenológico y político del cuerpo en los estudios feministas -con la noción de corporización- ha sido fundamental para problematizar las variables encarnadas de género, raza, edad, clase social, (dis)capacidad, etc. que no sólo operan en una relación de poder sobre nuestros cuerpos, sino también como locus de agencia y resistencia. La teoría queer con la deconstrucción de la sexualidad normativa -gracias a la noción de performatividad- será clave para entender el papel fundamental que la sexualidad desempeña en la construcción de la(s) subjetividad(es). Los relatos de los chicos nos permitirán explorar el papel que la actividad física y el deporte tiene en sus vidas como mediadores en la construcción de subjetividades "masculinas", muchas veces como un espacio opresor de identidad de género y opción sexual, y abrir la reflexión a las visiones hegemónicas de cuerpo que median tanto la educación física en las escuelas, como en el deporte de competición y/o de elite, y sus representaciones en los mass media.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En 2005, Ricardo Piglia publica en la editorial Anagrama, que ya venía reeditando casi toda su obra, el primer libro que antes de ser enviado a la imprenta por Jorge Herralde no existía : El último lector. La edición de éste, tanto como la de La invasión de 2006 revelan el empeño del escritor en la construcción de un atraso del tiempo literario que consiste en volverse y volver sus libros siempre un poco más remotos. Piglia construye su obra como si estuviera formada siempre por textos del pasado o fijados en el pasado y consolida desde allí su anacronismo como un bien

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este artículo parte del análisis de algunas contribuciones teóricas sobre la conceptualización del cuerpo en las sociedades contemporáneas, que nos permitirá dialogar con las experiencias reflexivas de un grupo de chicos sobre el aprendizaje de la(s) masculinidad(es)i en sus vidas. El énfasis fenomenológico y político del cuerpo en los estudios feministas -con la noción de corporización- ha sido fundamental para problematizar las variables encarnadas de género, raza, edad, clase social, (dis)capacidad, etc. que no sólo operan en una relación de poder sobre nuestros cuerpos, sino también como locus de agencia y resistencia. La teoría queer con la deconstrucción de la sexualidad normativa -gracias a la noción de performatividad- será clave para entender el papel fundamental que la sexualidad desempeña en la construcción de la(s) subjetividad(es). Los relatos de los chicos nos permitirán explorar el papel que la actividad física y el deporte tiene en sus vidas como mediadores en la construcción de subjetividades "masculinas", muchas veces como un espacio opresor de identidad de género y opción sexual, y abrir la reflexión a las visiones hegemónicas de cuerpo que median tanto la educación física en las escuelas, como en el deporte de competición y/o de elite, y sus representaciones en los mass media.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En 2005, Ricardo Piglia publica en la editorial Anagrama, que ya venía reeditando casi toda su obra, el primer libro que antes de ser enviado a la imprenta por Jorge Herralde no existía : El último lector. La edición de éste, tanto como la de La invasión de 2006 revelan el empeño del escritor en la construcción de un atraso del tiempo literario que consiste en volverse y volver sus libros siempre un poco más remotos. Piglia construye su obra como si estuviera formada siempre por textos del pasado o fijados en el pasado y consolida desde allí su anacronismo como un bien

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ocean acidification (OA) resulting from anthropogenic emissions of carbon dioxide (CO2) has already lowered and is predicted to further lower surface ocean pH. There is a particular need to study effects of OA on organisms living in cold-water environments due to the higher solubility of CO2 at lower temperatures. Mussel larvae (Mytilus edulis) and shrimp larvae (Pandalus borealis) were kept under an ocean acidification scenario predicted for the year 2100 (pH 7.6) and compared against identical batches of organisms held under the current oceanic pH of 8.1, which acted as a control. The temperature was held at a constant 10°C in the mussel experiment and at 5°C in the shrimp experiment. There was no marked effect on fertilization success, development time, or abnormality to the D-shell stage, or on feeding of mussel larvae in the low-pH (pH 7.6) treatment. Mytilus edulis larvae were still able to develop a shell in seawater undersaturated with respect to aragonite (a mineral form of CaCO3), but the size of low-pH larvae was significantly smaller than in the control. After 2 mo of exposure the mussels were 28% smaller in the pH 7.6 treatment than in the control. The experiment with Pandalus borealis larvae ran from 1 through 35 days post hatch. Survival of shrimp larvae was not reduced after 5 wk of exposure to pH 7.6, but a significant delay in zoeal progression (development time) was observed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We investigated the effects of ocean acidification on juvenile clams Ruditapes decussatus (average shell length 10.24 mm) in a controlled CO2 perturbation experiment. The carbonate chemistry of seawater was manipulated by diffusing pure CO2, to attain two reduced pH levels (by -0.4 and -0.7 pH units), which were compared to unmanipulated seawater. After 75 days we found no differences among pH treatments in terms of net calcification, size or weight of the clams. The naturally elevated total alkalinity of local seawater probably contributed to buffer the effects of increased pCO2 and reduced pH. Marine organisms may, therefore, show diverse responses to ocean acidification at local scales, particularly in coastal, estuarine and transitional waters, where the physical-chemical characteristics of seawater are most variable. Mortality was significantly reduced in the acidified treatments. This trend was probably related to the occurrence of spontaneous spawning events in the control and intermediate acidification treatments. Spawning, which was unexpected due to the small size of the clams, was not observed for the pH -0.7 treatment, suggesting that the increased survival under acidified conditions may have been associated with a delay in the reproductive cycle of the clams. Future research about the impacts of ocean acidification on marine biodiversity should be extended to other types of biological and ecological processes, apart from biological calcification.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Multi-user videoconferencing systems offer communication between more than two users, who are able to interact through their webcams, microphones and other components. The use of these systems has been increased recently due to, on the one hand, improvements in Internet access, networks of companies, universities and houses, whose available bandwidth has been increased whilst the delay in sending and receiving packets has decreased. On the other hand, the advent of Rich Internet Applications (RIA) means that a large part of web application logic and control has started to be implemented on the web browsers. This has allowed developers to create web applications with a level of complexity comparable to traditional desktop applications, running on top of the Operating Systems. More recently the use of Cloud Computing systems has improved application scalability and involves a reduction in the price of backend systems. This offers the possibility of implementing web services on the Internet with no need to spend a lot of money when deploying infrastructures and resources, both hardware and software. Nevertheless there are not many initiatives that aim to implement videoconferencing systems taking advantage of Cloud systems. This dissertation proposes a set of techniques, interfaces and algorithms for the implementation of videoconferencing systems in public and private Cloud Computing infrastructures. The mechanisms proposed here are based on the implementation of a basic videoconferencing system that runs on the web browser without any previous installation requirements. To this end, the development of this thesis starts from a RIA application with current technologies that allow users to access their webcams and microphones from the browser, and to send captured data through their Internet connections. Furthermore interfaces have been implemented to allow end users to participate in videoconferencing rooms that are managed in different Cloud provider servers. To do so this dissertation starts from the results obtained from the previous techniques and backend resources were implemented in the Cloud. A traditional videoconferencing service which was implemented in the department was modified to meet typical Cloud Computing infrastructure requirements. This allowed us to validate whether Cloud Computing public infrastructures are suitable for the traffic generated by this kind of system. This analysis focused on the network level and processing capacity and stability of the Cloud Computing systems. In order to improve this validation several other general considerations were taken in order to cover more cases, such as multimedia data processing in the Cloud, as research activity has increased in this area in recent years. The last stage of this dissertation is the design of a new methodology to implement these kinds of applications in hybrid clouds reducing the cost of videoconferencing systems. Finally, this dissertation opens up a discussion about the conclusions obtained throughout this study, resulting in useful information from the different stages of the implementation of videoconferencing systems in Cloud Computing systems. RESUMEN Los sistemas de videoconferencia multiusuario permiten la comunicación entre más de dos usuarios que pueden interactuar a través de cámaras de video, micrófonos y otros elementos. En los últimos años el uso de estos sistemas se ha visto incrementado gracias, por un lado, a la mejora de las redes de acceso en las conexiones a Internet en empresas, universidades y viviendas, que han visto un aumento del ancho de banda disponible en dichas conexiones y una disminución en el retardo experimentado por los datos enviados y recibidos. Por otro lado también ayudó la aparación de las Aplicaciones Ricas de Internet (RIA) con las que gran parte de la lógica y del control de las aplicaciones web comenzó a ejecutarse en los mismos navegadores. Esto permitió a los desarrolladores la creación de aplicaciones web cuya complejidad podía compararse con la de las tradicionales aplicaciones de escritorio, ejecutadas directamente por los sistemas operativos. Más recientemente el uso de sistemas de Cloud Computing ha mejorado la escalabilidad y el abaratamiento de los costes para sistemas de backend, ofreciendo la posibilidad de implementar servicios Web en Internet sin la necesidad de grandes desembolsos iniciales en las áreas de infraestructuras y recursos tanto hardware como software. Sin embargo no existen aún muchas iniciativas con el objetivo de realizar sistemas de videoconferencia que aprovechen las ventajas del Cloud. Esta tesis doctoral propone un conjunto de técnicas, interfaces y algoritmos para la implentación de sistemas de videoconferencia en infraestructuras tanto públicas como privadas de Cloud Computing. Las técnicas propuestas en la tesis se basan en la realización de un servicio básico de videoconferencia que se ejecuta directamente en el navegador sin la necesidad de instalar ningún tipo de aplicación de escritorio. Para ello el desarrollo de esta tesis parte de una aplicación RIA con tecnologías que hoy en día permiten acceder a la cámara y al micrófono directamente desde el navegador, y enviar los datos que capturan a través de la conexión de Internet. Además se han implementado interfaces que permiten a usuarios finales la participación en salas de videoconferencia que se ejecutan en servidores de proveedores de Cloud. Para ello se partió de los resultados obtenidos en las técnicas anteriores de ejecución de aplicaciones en el navegador y se implementaron los recursos de backend en la nube. Además se modificó un servicio ya existente implementado en el departamento para adaptarlo a los requisitos típicos de las infraestructuras de Cloud Computing. Alcanzado este punto se procedió a analizar si las infraestructuras propias de los proveedores públicos de Cloud Computing podrían soportar el tráfico generado por los sistemas que se habían adaptado. Este análisis se centró tanto a nivel de red como a nivel de capacidad de procesamiento y estabilidad de los sistemas. Para los pasos de análisis y validación de los sistemas Cloud se tomaron consideraciones más generales para abarcar casos como el procesamiento de datos multimedia en la nube, campo en el que comienza a haber bastante investigación en los últimos años. Como último paso se ideó una metodología de implementación de este tipo de aplicaciones para que fuera posible abaratar los costes de los sistemas de videoconferencia haciendo uso de clouds híbridos. Finalmente en la tesis se abre una discusión sobre las conclusiones obtenidas a lo largo de este amplio estudio, obteniendo resultados útiles en las distintas etapas de implementación de los sistemas de videoconferencia en la nube.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto final de carrera titulado “Modelado de alto nivel con SystemC” tiene como objetivo principal el modelado de algunos módulos de un codificador de vídeo MPEG-2 utilizando el lenguaje de descripción de sistemas igitales SystemC con un nivel de abstracción TLM o Transaction Level Modeling. SystemC es un lenguaje de descripción de sistemas digitales basado en C++. En él hay un conjunto de rutinas y librerías que implementan tipos de datos, estructuras y procesos especiales para el modelado de sistemas digitales. Su descripción se puede consultar en [GLMS02] El nivel de abstracción TLM se caracteriza por separar la comunicación entre los módulos de su funcionalidad. Este nivel de abstracción hace un mayor énfasis en la funcionalidad de la comunicación entre los módulos (de donde a donde van datos) que la implementación exacta de la misma. En los documentos [RSPF] y [HG] se describen el TLM y un ejemplo de implementación. La arquitectura del modelo se basa en el codificador MVIP-2 descrito en [Gar04], de dicho modelo, los módulos implementados son: · IVIDEOH: módulo que realiza un filtrado del vídeo de entrada en la dimensión horizontal y guarda en memoria el video filtrado. · IVIDEOV: módulo que lee de la memoria el vídeo filtrado por IVIDEOH, realiza el filtrado en la dimensión horizontal y escribe el video filtrado en memoria. · DCT: módulo que lee el video filtrado por IVIDEOV, hace la transformada discreta del coseno y guarda el vídeo transformado en la memoria. · QUANT: módulo que lee el video transformado por DCT, lo cuantifica y guarda el resultado en la memoria. · IQUANT: módulo que lee el video cuantificado por QUANT, realiza la cuantificación inversa y guarda el resultado en memoria. · IDCT: módulo que lee el video procesado por IQUANT, realiza la transformada inversa del coseno y guarda el resultado en memoria. · IMEM: módulo que hace de interfaz entre los módulos anteriores y la memoria. Gestiona las peticiones simultáneas de acceso a la memoria y asegura el acceso exclusivo a la memoria en cada instante de tiempo. Todos estos módulos aparecen en gris en la siguiente figura en la que se muestra la arquitectura del modelo: Figura 1. Arquitectura del modelo (VER PDF DEL PFC) En figura también aparecen unos módulos en blanco, dichos módulos son de pruebas y se han añadido para realizar simulaciones y probar los módulos del modelo: · CAMARA: módulo que simula una cámara en blanco y negro, lee la luminancia de un fichero de vídeo y lo envía al modelo a través de una FIFO. · FIFO: hace de interfaz entre la cámara y el modelo, guarda los datos que envía la cámara hasta que IVIDEOH los lee. · CONTROL: módulo que se encarga de controlar los módulos que procesan el vídeo, estos le indican cuando terminan de procesar un frame de vídeo y este módulo se encarga de iniciar los módulos que sean necesarios para seguir con la codificación. Este módulo se encarga del correcto secuenciamiento de los módulos procesadores de vídeo. · RAM: módulo que simula una memoria RAM, incluye un retardo programable en el acceso. Para las pruebas también se han generado ficheros de vídeo con el resultado de cada módulo procesador de vídeo, ficheros con mensajes y un fichero de trazas en el que se muestra el secuenciamiento de los procesadores. Como resultado del trabajo en el presente PFC se puede concluir que SystemC permite el modelado de sistemas digitales con bastante sencillez (hace falta conocimientos previos de C++ y programación orientada objetos) y permite la realización de modelos con un nivel de abstracción mayor a RTL, el habitual en Verilog y VHDL, en el caso del presente PFC, el TLM. ABSTRACT This final career project titled “High level modeling with SystemC” have as main objective the modeling of some of the modules of an MPEG-2 video coder using the SystemC digital systems description language at the TLM or Transaction Level Modeling abstraction level. SystemC is a digital systems description language based in C++. It contains routines and libraries that define special data types, structures and process to model digital systems. There is a complete description of the SystemC language in the document [GLMS02]. The main characteristic of TLM abstraction level is that it separates the communication among modules of their functionality. This abstraction level puts a higher emphasis in the functionality of the communication (from where to where the data go) than the exact implementation of it. The TLM and an example are described in the documents [RSPF] and [HG]. The architecture of the model is based in the MVIP-2 video coder (described in the document [Gar04]) The modeled modules are: · IVIDEOH: module that filter the video input in the horizontal dimension. It saves the filtered video in the memory. · IVIDEOV: module that read the IVIDEOH filtered video, filter it in the vertical dimension and save the filtered video in the memory. · DCT: module that read the IVIDEOV filtered video, do the discrete cosine transform and save the transformed video in the memory. · QUANT: module that read the DCT transformed video, quantify it and save the quantified video in the memory. · IQUANT: module that read the QUANT processed video, do the inverse quantification and save the result in the memory. · IDCT: module that read the IQUANT processed video, do the inverse cosine transform and save the result in the memory. · IMEM: this module is the interface between the modules described previously and the memory. It manage the simultaneous accesses to the memory and ensure an unique access at each instant of time All this modules are included in grey in the following figure (SEE PDF OF PFC). This figure shows the architecture of the model: Figure 1. Architecture of the model This figure also includes other modules in white, these modules have been added to the model in order to simulate and prove the modules of the model: · CAMARA: simulates a black and white video camera, it reads the luminance of a video file and sends it to the model through a FIFO. · FIFO: is the interface between the camera and the model, it saves the video data sent by the camera until the IVIDEOH module reads it. · CONTROL: controls the modules that process the video. These modules indicate the CONTROL module when they have finished the processing of a video frame. The CONTROL module, then, init the necessary modules to continue with the video coding. This module is responsible of the right sequence of the video processing modules. · RAM: it simulates a RAM memory; it also simulates a programmable delay in the access to the memory. It has been generated video files, text files and a trace file to check the correct function of the model. The trace file shows the sequence of the video processing modules. As a result of the present final career project, it can be deduced that it is quite easy to model digital systems with SystemC (it is only needed previous knowledge of C++ and object oriented programming) and it also allow the modeling with a level of abstraction higher than the RTL used in Verilog and VHDL, in the case of the present final career project, the TLM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Por lo tanto, la cristalización de polímeros se supone, y en las teorías se describe a menudo, como un proceso de múltiples pasos con muchos aspectos físico-químicos y estructurales influyendo en él. Debido a la propia estructura de la cadena, es fácil entender que un proceso que es termodinámicamente forzado a aumentar su ordenamiento local, se vea obstaculizado geométricamente y, por tanto, no puede conducirse a un estado de equilibrio final. Como resultado, se forman habitualmente estructuras de no equilibrio con diferentes características dependiendo de la temperatura, presión, cizallamiento y otros parámetros físico-químicos del sistema”. Estas palabras, pronunciadas recientemente por el profesor Bernhard Wunderlich, uno de los mas relevantes fisico-quimicos que han abordado en las ultimas décadas el estudio del estado físico de las macromoléculas, adelantan lo que de alguna manera se explicita en esta memoria y constituyen el “leitmotiv” de este trabajo de tesis. El mecanismo de la cristalización de polímeros esta aun bajo debate en la comunidad de la física de polímeros y la mayoría de los abordajes experimentales se explican a través de la teoría LH. Esta teoría clásica debida a Lauritzen y Hoffman (LH), y que es una generalización de la teoría de cristalización de una molécula pequeña desde la fase de vapor, describe satisfactoriamente muchas observaciones experimentales aunque esta lejos de explicar el complejo fenómeno de la cristalización de polímeros. De hecho, la formulación original de esta teoría en el National Bureau of Standards, a comienzos de la década de los 70, sufrió varias reformulaciones importantes a lo largo de la década de los 80, buscando su adaptación a los hallazgos experimentales. Así nació el régimen III de cristalización que posibilita la creacion de nichos moleculares en la superficie y que dio pie al paradigma ofrecido por Sadler y col., para justificar los experimentos que se obtenian por “scattering” de neutrones y otras técnicas como la técnica de “droplets” o enfriamiento rapido. Por encima de todo, el gran éxito de la teoría radica en que explica la dependencia inversa entre el tamaño del plegado molecular y el subenfriamiento, definido este ultimo como el intervalo de temperatura que media entre la temperatura de equilibrio y la temperatura de cristalización. El problema concreto que aborda esta tesis es el estudio de los procesos de ordenamiento de poliolefinas con distinto grado de ramificacion mediante simulaciones numéricas. Los copolimeros estudiados en esta tesis se consideran materiales modelo de gran homogeneidad molecular desde el punto de vista de la distribución de tamaños y de ramificaciones en la cadena polimérica. Se eligieron estas poliolefinas debido al gran interes experimental en conocer el cambio en las propiedades fisicas de los materiales dependiendo del tipo y cantidad de comonomero utilizado. Además, son modelos sobre los que existen una ingente cantidad de información experimental, que es algo que preocupa siempre al crear una realidad virtual como es la simulación. La experiencia en el grupo Biophym es que los resultados de simulación deben de tener siempre un correlato mas o menos próximo experimental y ese argumento se maneja a lo largo de esta memoria. Empíricamente, se conoce muy bien que las propiedades físicas de las poliolefinas, en suma dependen del tipo y de la cantidad de ramificaciones que presenta el material polimérico. Sin embargo, tal como se ha explicado no existen modelos teóricos adecuados que expliquen los mecanismos subyacentes de los efectos de las ramas. La memoria de este trabajo es amplia por la complejidad del tema. Se inicia con una extensa introducción sobre los conceptos básicos de una macromolecula que son relevantes para entender el contenido del resto de la memoria. Se definen los conceptos de macromolecula flexible, distribuciones y momentos, y su comportamiento en disolución y fundido con los correspondientes parametros caracteristicos. Se pone especial énfasis en el concepto de “entanglement” o enmaranamiento por considerarse clave a la hora de tratar macromoléculas con una longitud superior a la longitud critica de enmaranamiento. Finaliza esta introducción con una reseña sobre el estado del arte en la simulación de los procesos de cristalización. En un segundo capitulo del trabajo se expone detalladamente la metodología usada en cada grupo de casos. En el primer capitulo de resultados, se discuten los estudios de simulación en disolución diluida para sistemas lineales y ramificados de cadena única. Este caso mas simple depende claramente del potencial de torsión elegido tal como se discute a lo largo del texto. La formación de los núcleos “babys” propuestos por Muthukumar parece que son consecuencia del potencial de torsión, ya que este facilita los estados de torsión mas estables. Así que se propone el análisis de otros potenciales que son igualmente utilizados y los resultados obtenidos sobre la cristalización, discutidos en consecuencia. Seguidamente, en un segundo capitulo de resultados se estudian moleculas de alcanos de cadena larga lineales y ramificados en un fundido por simulaciones atomisticas como un modelo de polietileno. Los resultados atomisticos pese a ser de gran detalle no logran captar en su totalidad los efectos experimentales que se observan en los fundidos subenfriados en su etapa previa al estado ordenado. Por esta razon se discuten en los capítulos 3 y 4 de resultados sistemas de cadenas cortas y largas utilizando dos modelos de grano grueso (CG-PVA y CG-PE). El modelo CG-PE se desarrollo durante la tesis. El uso de modelos de grano grueso garantiza una mayor eficiencia computacional con respecto a los modelos atomísticos y son suficientes para mostrar los fenómenos a la escala relevante para la cristalización. En todos estos estudios mencionados se sigue la evolución de los procesos de ordenamiento y de fusión en simulaciones de relajación isoterma y no isoterma. Como resultado de los modelos de simulación, se han evaluado distintas propiedades fisicas como la longitud de segmento ordenado, la cristalinidad, temperaturas de fusion/cristalizacion, etc., lo que permite una comparación con los resultados experimentales. Se demuestra claramente que los sistemas ramificados retrasan y dificultan el orden de la cadena polimérica y por tanto, las regiones cristalinas ordenadas decrecen al crecer las ramas. Como una conclusión general parece mostrarse una tendencia a la formación de estructuras localmente ordenadas que crecen como bloques para completar el espacio de cristalización que puede alcanzarse a una temperatura y a una escala de tiempo determinada. Finalmente hay que señalar que los efectos observados, estan en concordancia con otros resultados tanto teoricos/simulacion como experimentales discutidos a lo largo de esta memoria. Su resumen se muestra en un capitulo de conclusiones y líneas futuras de investigación que se abren como consecuencia de esta memoria. Hay que mencionar que el ritmo de investigación se ha acentuado notablemente en el ultimo ano de trabajo, en parte debido a las ventajas notables obtenidas por el uso de la metodología de grano grueso que pese a ser muy importante para esta memoria no repercute fácilmente en trabajos publicables. Todo ello justifica que gran parte de los resultados esten en fase de publicación. Abstract “Polymer crystallization is therefore assumed, and in theories often described, to be a multi step process with many influencing aspects. Because of the chain structure, it is easy to understand that a process which is thermodynamically forced to increase local ordering but is geometrically hindered cannot proceed into a final equilibrium state. As a result, nonequilibrium structures with different characteristics are usually formed, which depend on temperature, pressure, shearing and other parameters”. These words, recently written by Professor Bernhard Wunderlich, one of the most prominent researchers in polymer physics, put somehow in value the "leitmotiv "of this thesis. The crystallization mechanism of polymers is still under debate in the physics community and most of the experimental findings are still explained by invoking the LH theory. This classical theory, which was initially formulated by Lauritzen and Hoffman (LH), is indeed a generalization of the crystallization theory for small molecules from the vapor phase. Even though it describes satisfactorily many experimental observations, it is far from explaining the complex phenomenon of polymer crystallization. This theory was firstly devised in the early 70s at the National Bureau of Standards. It was successively reformulated along the 80s to fit the experimental findings. Thus, the crystallization regime III was introduced into the theory in order to explain the results found in neutron scattering, droplet or quenching experiments. This concept defines the roughness of the crystallization surface leading to the paradigm proposed by Sadler et al. The great success of this theory is the ability to explain the inverse dependence of the molecular folding size on the supercooling, the latter defined as the temperature interval between the equilibrium temperature and the crystallization temperature. The main scope of this thesis is the study of ordering processes in polyolefins with different degree of branching by using computer simulations. The copolymers studied along this work are considered materials of high molecular homogeneity, from the point of view of both size and branching distributions of the polymer chain. These polyolefins were selected due to the great interest to understand their structure– property relationships. It is important to note that there is a vast amount of experimental data concerning these materials, which is essential to create a virtual reality as is the simulation. The Biophym research group has a wide experience in the correlation between simulation data and experimental results, being this idea highly alive along this work. Empirically, it is well-known that the physical properties of the polyolefins depend on the type and amount of branches presented in the polymeric material. However, there are not suitable models to explain the underlying mechanisms associated to branching. This report is extensive due to the complexity of the topic under study. It begins with a general introduction to the basics concepts of macromolecular physics. This chapter is relevant to understand the content of the present document. Some concepts are defined along this section, among others the flexibility of macromolecules, size distributions and moments, and the behavior in solution and melt along with their corresponding characteristic parameters. Special emphasis is placed on the concept of "entanglement" which is a key item when dealing with macromolecules having a molecular size greater than the critical entanglement length. The introduction finishes with a review of the state of art on the simulation of crystallization processes. The second chapter of the thesis describes, in detail, the computational methodology used in each study. In the first results section, we discuss the simulation studies in dilute solution for linear and short chain branched single chain models. The simplest case is clearly dependent on the selected torsion potential as it is discussed throughout the text. For example, the formation of baby nuclei proposed by Mutukhumar seems to result from the effects of the torsion potential. Thus, we propose the analysis of other torsion potentials that are also used by other research groups. The results obtained on crystallization processes are accordingly discussed. Then, in a second results section, we study linear and branched long-chain alkane molecules in a melt by atomistic simulations as a polyethylene-like model. In spite of the great detail given by atomistic simulations, they are not able to fully capture the experimental facts observed in supercooled melts, in particular the pre-ordered states. For this reason, we discuss short and long chains systems using two coarse-grained models (CG-PVA and CG-PE) in section 3 and 4 of chapter 2. The CG-PE model was developed during the thesis. The use of coarse-grained models ensures greater computational efficiency with respect to atomistic models and is enough to show the relevant scale phenomena for crystallization. In all the analysis we follow the evolution of the ordering and melting processes by both isothermal and non isothermal simulations. During this thesis we have obtained different physical properties such as stem length, crystallinity, melting/crystallization temperatures, and so on. We show that branches in the chains cause a delay in the crystallization and hinder the ordering of the polymer chain. Therefore, crystalline regions decrease in size as branching increases. As a general conclusion, it seems that there is a tendency in the macromolecular systems to form ordered structures, which can grown locally as blocks, occupying the crystallization space at a given temperature and time scale. Finally it should be noted that the observed effects are consistent with both, other theoretical/simulation and experimental results. The summary is provided in the conclusions chapter along with future research lines that open as result of this report. It should be mentioned that the research work has speeded up markedly in the last year, in part because of the remarkable benefits obtained by the use of coarse-grained methodology that despite being very important for this thesis work, is not easily publishable by itself. All this justify that most of the results are still in the publication phase.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The networks need to provide higher speeds than those offered today. For it, considering that in the spectrum radio technologies is the scarcest resource in the development of these technologies and the new developments is essential to maximize the performance of bits per hertz transmitted. Long Term Evolution optimize spectral efficiency modulations with new air interface, and more advanced algorithms radius. These capabilities is the fact that LTE is an IPbased technology that enables end-to-end offer high transmission rates per user and very low latency, ie delay in the response times of the network around only 10 milliseconds, so you can offer any realtime application. LTE is the latest standard in mobile network technology and 3GPP ensure competitiveness in the future, may be considered a technology bridge between 3G networks - current 3.5G and future 4G networks, which are expected to reach speeds of up to 1G . LTE operators provide a simplified architecture but both robust, supporting services on IP technology. The objectives to be achieved through its implementation are ambitious, first users have a wide range of added services like capabilities that currently enjoys with residential broadband access at competitive prices, while the operator will have a network fully IP-based environment, reducing the complexity and cost of the same, which will give operators the opportunity to migrate to LTE directly. A major advantage of LTE is its ability to fuse with existing networks, ensuring interconnection with the same, increasing his current coverage and allowing a data connection established by a user in the environment continue when fade the coverage LTE. Moreover, the operator has the advantage of deploying network gradually, starting initially at areas of high demand for broadband services and expand progressively in line with this. RESUMEN. Las redes necesitan proporcionar velocidades mayores a las ofertadas a día de hoy. Para ello, teniendo en cuenta que en tecnologías radio el espectro es el recurso más escaso, en la evolución de estas tecnologías y en los nuevos desarrollos es esencial maximizar el rendimiento de bits por hercio transmitido. Long Term Evolution optimiza la eficiencia espectral con nuevas modulaciones en la interfaz aire, así como los algoritmos radio más avanzado. A estas capacidades se suma el hecho de que LTE es una tecnología basada en IP de extremo a extremo que permite ofrecer altas velocidades de transmisión por usuario y latencias muy bajas, es decir, retardos en los tiempos de respuesta de la red en torno a sólo 10 milisegundos, por lo que permite ofrecer cualquier tipo de aplicación en tiempo real. LTE es el último estándar en tecnología de redes móviles y asegurará la competitividad de 3GPP en el futuro, pudiendo ser considerada una tecnología puente entre las redes 3G – 3.5G actuales y las futuras redes 4G, de las que se esperan alcanzar velocidades de hasta 1G. LTE proporcionará a las operadoras una arquitectura simplificada pero robusta a la vez, soportando servicios sobre tecnología IP. Los objetivos que se persiguen con su implantación son ambiciosos, por una parte los usuarios dispondrá de una amplia oferta de servicios añadidos con capacidades similares a las que disfruta actualmente con accesos a banda ancha residencial y a precios competitivos, mientras que el operador dispondrá de una red basada en entorno totalmente IP, reduciendo la complejidad y el costo de la misma, lo que dará a las operadoras la oportunidad de migrar a LTE directamente. Una gran ventaja de LTE es su capacidad para fusionarse con las redes existentes, asegurando la interconexión con las mismas, aumentando su actual cobertura y permitiendo que una conexión de datos establecida por un usuario en el entorno LTE continúe cuando la cobertura LTE se desvanezca. Por otra parte el operador tiene la ventaja de desplegar la red LTE de forma gradual, comenzando inicialmente por las áreas de gran demanda de servicios de banda ancha y ampliarla progresivamente en función de ésta.