943 resultados para REST-api
Resumo:
Inter-individual differences in cognitive performance are based on an efficient use of task-related brain resources. However, little is known yet on how these differences might be reflected on resting-state brain networks. Here we used Magnetoencephalography resting-state recordings to assess the relationship between a behavioral measurement of verbal working memory and functional connectivity as measured through Mutual Information. We studied theta (4?8 Hz), low alpha (8?10 Hz), high alpha (10?13 Hz), low beta (13?18 Hz) and high beta (18?30 Hz) frequency bands. A higher verbal working memory capacity was associated with a lower mutual information in the low alpha band, prominently among right-anterior and left-lateral sensors. The results suggest that an efficient brain organization in the domain of verbal working memory might be related to a lower resting-state functional connectivity across large-scale brain networks possibly involving right prefrontal and left perisylvian areas.
Resumo:
A lo largo de los últimos años, el paradigma de la arquitectura orientada a servicios ha tenido una gran expansión gracias a la expansión de las tecnologías web e internet. Las ventajas de esta arquitectura se basan en ofrecer diseños modulares con poco acoplamiento entre sí, lo que permite la creación eficiente y sistemática de sistemas distribuidos. Para que este tipo de arquitectura sea posible, es necesario dotar a los servicios de interfaces de interconexión que permitan encapsular los servicios al mismo tiempo que faciliten el uso de los mismos. Existen varias tecnologías para definir estos interfaces. Entre ellas, los servicios REST, o REpresentional State Transfer, están logrando cada vez más aceptación. Esto se debe principalmente a su capacidad de escalabilidad y la uniformidad de sus interfaces, que permite una mayor separación entre los consumidores y los servicios. De hecho, compañias como Yahoo, Google o Twitter definen interfaces REST de acceso a sus servicios, ya se para consultar mapas (GoogleMaps), imágenes (Flickr) o el correo, permitiendo a terceros desarrollar clientes para sus servicios sin tener que involucrarse en su producción.
Resumo:
Thermography for scientific research and practical purposes requires a series of procedures to obtain images that should be standardized; one of the most important is the time required for acclimatization in the controlled environment. Thus, the objective of this study was to identify the appropriate acclimatization time in rest to reach a thermal balance on young people skin. Forty-four subjects participated in the study, 18 men (22.3 ± 3.1 years) and 26 women (21.7 ± 2.5 years). Thermographic images were collected using a thermal imager (Fluke ®), totaling 44 images over a period of 20 minutes. The skin temperature (TSK) was measured at the point of examination which included the 0 minute, 2, 4, 6, 8, 10, 12, 14, 16, 18 and 20. The body regions of interest (ROI) analyzed included the hands, forearms, arms, thighs, legs, chest and abdomen. We used the Friedman test with post hoc Dunn?s in order to establish the time at rest required to obtain a TSK balance and the Mann-Whitney test was used to compare age, BMI, body fat percentage and temperature variations between men and women, considering always a significance level of pmenor que0.05. Results showed that women had significantly higher temperature variations than men (pmenor que0.01) along the time. In men, only the body region of the abdomen obtained a significant variance (pmenor que0.05) on the analyzed period, both in the anterior and posterior part. In women, the anterior abdomen and thighs, and the posterior part of the hands, forearms and abdomen showed significant differences (pmenor que0.05). Based on our results, it can be concluded that the time in rest condition required reaching a TSK balance in young men and women is variable, but for whole body analysis it is recommended at least 10 minutes for both sexes.
Resumo:
Vivimos en la era de la información y del internet, tenemos la necesidad cada vez mayor de conseguir y compartir la información que existe. Esta necesidad se da en todos los ámbitos existentes pero con más ahínco probablemente sea en el área de la medicina, razón por la cual se llevan a cabo muchas investigaciones de distinta índole, lo cual ha llevado a generar un cantidad inimaginable de información y esta su vez muy heterogénea, haciendo cada vez más difícil unificarla y sacar conocimiento o valor agregado. Por lo cual se han llevado a cabo distintas investigaciones para dar solución a este problema, quizás la más importante y con más crecimiento es la búsqueda a partir de modelos de ontologías mediante el uso de sistemas que puedan consultarla. Este trabajo de Fin de Master hace hincapié es la generación de las consultas para poder acceder a la información que se encuentra de manera distribuida en distintos sitios y de manera heterogénea, mediante el uso de una API que genera el código SPARQL necesario. La API que se uso fue creada por el grupo de informática biomédica. También se buscó una manera eficiente de publicar esta API para su futuro uso en el proyecto p-medicine, por lo cual se creó un servicio RESTful para permitir generar las consultas deseadas desde cualquier plataforma, haciendo en esto caso más accesible y universal. Se le dio también una interfaz WEB a la API que permitiera hacer uso de la misma de una manera más amigable para el usuario. ---ABSTRACT---We live in the age of information and Internet so we have the need to consult and share the info that exists. This need comes is in every scope of our lives, probably one of the more important is the medicine, because it is the knowledge area that treats diseases and it tries to extents the live of the human beings. For that reason there have been many different researches generating huge amounts of heterogeneous and distributed information around the globe and making the data more difficult to consult. Consequently there have been many researches to look for an answer about to solve the problem of searching heterogeneous and distributed data, perhaps the more important if the one that use ontological models. This work is about the generation of the query statement based on the mapping API created by the biomedical informatics group. At the same time the project looks for the best way to publish and make available the API for its use in the p-medicine project, for that reason a RESTful API was made to allow the generation of consults from within the platform, becoming much more accessible and universal available. A Web interface was also made to the API, to let access to the final user in a friendly
Resumo:
El trabajo realizado se encuentra enmarcado dentro del proyecto de I+D+I del 7o programa marco de la Comisión Europea Fi-WARE: The future Internet core platform que forma parte de la iniciativa Future Internet PPP. En concreto, se ha desarrollado la especificación de un Generic Enabler con funcionalidad de tienda virtual que de soporte a la publicación y adquisición o subscripción de aplicaciones y servicios dentro del denominado Business Framework Ecosystem (BFE), además de una implementación de referencia de este Generic Enabler (GE) que ha sido utilizada para la realización de una prueba de concepto con el objetivo de comprobar la adecuación del comportamiento de la especificación dentro del BFE. La primera tarea realizada ha consistido en un estudio de otras stores (o tiendas digitales) existentes, mirando aspectos tales como la funcionalidad proporcionada, la información mostrada de los distintos productos ofrecidos o la organización de la interfaz de usuario y la metáfora visual. Este estudio ha tenido como objetivo establecer un punto de partida desde el que empezar a analizar las distintas funcionalidades que deberá proveer el sistema.Utilizando como base el estudio anterior y las necesidades concretas de la plataforma Fi-WARE se paso a la educación de los requisitos generales del sistema en los cuales se especifica a grandes rasgos la funcionalidad que debe proveer esta tienda digital así como algunos aspectos concretos de la experiencia de usuario. Una vez definida la funcionalidad de la store se ha abordado el diseño del sistema. Para realizar este diseño se ha trabajado en dos tareas principales: La primera de estas tareas ha consistido en realizar el diseño de la arquitectura del Store GE, en el que se especifican todos los módulos que debe contener el sistema para poder satisfacer los requisitos, así como las distintas conexiones del Store GE con otros componentes del proyecto Fi-Ware y de sus interrelaciones con el resto de componentes de dicho proyecto. Esto ofrece una visión global de la ubicación del Store GE dentro de la arquitectura general del proyecto Fi-Ware. La segunda tarea ha consistido en el desarrollo de la especicación abierta (Open specication) del Store GE. Esta tarea es probablemente la más relevante de cara a cumplir con los objetivos del proyecto Fi-Ware, ya que Fi-Ware se propone como objetivo principal proporcionar las especificaciones de una plataforma tecnológica abierta para la Internet del futuro, formada por un conjunto de componentes (denominados Generic Enablers), entre los que se encuentra el Store GE. En este documento ha quedado descrito con todo detalle en que consiste el Store GE y cuales son sus APIs, sobre las que se construirán las aplicaciones de la futura Internet basadas en Fi-Ware, de manera que sea posible que cualquier empresa pueda realizar una implementación diferente a la que se está desarrollando en este proyecto (si bien ésta será su implementación de referencia). Para esta Open specication se han desarrollado un modelo de gestión de usuarios y roles, un modelo de datos, diagramas de interacción que definen todas las posibles comunicaciones de la store con otros Generic Enablers del proyecto Fi-Ware, la definición del ciclo de vida de una oferta y las APIs REST del Store GE, incluyendo el contenido de las peticiones y los tipos MIME soportados. En este punto se pudo comenzar a trabajar en la implementación de referencia del Store GE. La primera tarea ha consistido en realizar la integración con el Marketplace GE, otro de los Generic Enablers del proyecto Fi-Ware, para ello se definieron unos requisitos específicos y se realizó un diseño de bajo nivel de este móodulo seguido de la propia implementación y un conjunto exhaustivo de pruebas unitarias para comprobar su correcto funcionamiento. A continuación se pasó a realizar la integracióon con el Repository GE siguiendo los mismos pasos que con la integración con el Marketplace GE. La siguiente tarea realizada ha consistido en la realización de los móodulos necesarios para permitir crear nuevas ofertas en la implementación de referencia de Store GE incluyendo nuevamente una fase de educación de requisitos específicos, un diseño de bajo nivel, la propia implementación y una serie de pruebas unitarias. Una vez implementada la creación de nuevas ofertas, se pasó a la realización de la funcionalidad necesaria para la recuperación y visualizacion de estas ofertas así como a la realización del soporte necesario para el registro de recursos y para la vinculación de estos a determinadas ofertas, siguiendo nuevamente la metodología antes mencionada. Finalmente se ha dado el soporte para la publicación y la adquisición de ofertas. En este caso la adquisición de ofertas se ha realizado tan solo en la parte servidora de la aplicación y no se ha llegado a dar soporte a esta funcionalidad en la interfaz Web al no ser necesaria para la realización de la prueba de concepto prevista. No obstante esta funcionalidad será implementada junto con otras funcionalidades como el soporte de características sociales, ya fuera del ámbito de este Trabajo de fin de grado. Como paso previo a la realización de la prueba de concepto se ha trabajado en la plataforma Wirecloud, que es una implementación de referencia del denominado Application Mashup GE, modicando su funcionalidad para integrarla con la API de compras realizada dentro de la implementación de referencia del Store GE. La úultima tarea realizada para este Trabajo de fin de grado ha consistido por fin en la realización de la prueba de concepto del Store GE integrando su implementación de referencia con las del resto de Generic Enablers, lo cual ha permitido comprobar así el fucionamiento de la arquitectura y modelo propuestos.
Resumo:
The concept of service oriented architecture has been extensively explored in software engineering, due to the fact that it produces architectures made up of several interconnected modules, easy to reuse when building new systems. This approach to design would be impossible without interconnection mechanisms such as REST (Representationa State Transfer) services, which allow module communication while minimizing coupling. . However, this low coupling brings disadvantages, such as the lack of transparency, which makes it difficult to sistematically create tests without knowledge of the inner working of a system. In this article, we present an automatic error detection system for REST services, based on a statistical analysis over responses produced at multiple service invocations. Thus, a service can be systematically tested without knowing its full specification. The method can find errors in REST services which could not be identified by means of traditional testing methods, and provides limited testing coverage for services whose response format is unknown. It can be also useful as a complement to other testing mechanisms.
Resumo:
En este Trabajo de Fin de Grado se va a explicar el procedimiento seguido a la hora de estudiar, diseñar y desarrollar Ackuaria, un portal de monitorización y análisis de estadísticas de comunicaciones en tiempo real. Después, se mostrarán los resultados obtenidos y la interfaz gráfica desarrollada para una mejor experiencia de usuario. Ackuaria se apoyará en el uso de Licode, un proyecto de código libre desarrollado en la Universidad Politécnica de Madrid, más concretamente en el Grupo de Internet de Nueva Generación de la Escuela Técnica Superior de Ingenieros de Telecomunicación. Licode ofrece la posibilidad de crear un servicio de streaming y videoconferencia en la propia infraestructura del usuario. Está diseñado para ser totalmente escalable y su uso está orientado principalmente al Cloud, aunque es perfectamente utilizable en una infraestructura física. Licode a su vez se basa en WebRTC, un protocolo desarrollado por la W3C (World Wide Web Consortium) y el IETF (Internet Engineering Task Force) pensado para poder transmitir y recibir flujos de audio, video y datos a través del navegador. No necesita ninguna instalación adicional, por lo que establecer una sesión de videoconferencia Peer-to-Peer es realmente sencillo. Con Licode se usa una MCU (Multipoint Control Unit) para evitar que todas las conexiones entre los usuarios sean Peer-To-Peer. Actúa como un cliente WebRTC más por el que pasan todos los flujos, que se encarga de multiplexar y redirigir donde sea necesario. De esta forma se ahorra ancho de banda y recursos del dispositivo de una forma muy significativa. Existe la creciente necesidad de los usuarios de Licode y de cualquier servicio de videoconferencia en general de poder gestionar su infraestructura a partir de datos y estadísticas fiables. Sus objetivos son muy variados: desde estudiar el comportamiento de WebRTC en distintos escenarios hasta monitorizar el uso de los usuarios para poder contabilizar después el tiempo publicado por cada uno. En todos los casos era común la necesidad de disponer de una herramienta que permitiese conocer en todo momento qué está pasando en el servicio de Licode, así como de almacenar toda la información para poder ser analizada posteriormente. Para conseguir desarrollar Ackuaria se ha realizado un estudio de las comunicaciones en tiempo real con el objetivo de determinar qué parámetros era indispensable y útil monitorizar. A partir de este estudio se ha actualizado la arquitectura de Licode para que obtuviese todos los datos necesarios y los enviase de forma que pudiesen ser recogidos por Ackuaria. El portal de monitorización entonces tratará esa información y la mostrará de forma clara y ordenada, además de proporcionar una API REST al usuario.
Resumo:
Día a día surge la necesidad de tener que organizar actividades entre varias personas donde es necesaria la presencia de una toma de decisiones conjunta. La tarea de coordinar y poner de acuerdo a todas las partes implicadas resulta realmente complicada, y encontrar la solución que mejor se adapte a todos los participantes es uno de los principales problemas a los que hay que enfrentarse. Dentro de este contexto surge la idea de “DealtDay”, una aplicación pensada para organizar de forma sencilla e intuitiva a un grupo de personas a la hora de realizar cualquier actividad, como puede ser el establecimiento de una fecha para una reunión, elegir el restaurante dónde cenar o qué película ver. DealtDay es una aplicación desarrollada para Android, iOS y navegadores web. La elección de estas tecnologías se debe a que permiten que la aplicación sea accesible a los usuarios desde los dispositivos tecnológicos más utilizados cotidianamente (ordenador, tabletas y móviles). El funcionamiento de esta aplicación en los distintos sistemas desarrollados es posible gracias al desarrollo de una API REST que permite la comunicación entre cualquier tipo de aplicación con un servidor mediante peticiones realizadas con el protocolo HTTP. ABSTRACT Day after day it appears the necessity of organizating activities among different people where taking decisions together becomes fundamental. The task of coordinating and creating an agreement among all the parts involved, turns to be really difficult and, as a matter of fact, one of the main problems to cope with is finding a solution which fits to all the participants. In this context appears the idea of DealtDay, an application conceived to organize a group of people in an easy and intuitive way when doing any kind of activity, such as deciding a date for a meeting, choosing a restaurant, a place to have dinner or a film to be watched. DealtDay is an application developed for Android, iOS and web navigators. The selection of these technologies is due to the fact that they allows the application accessibility to users from the most used and common technological devices (personal computers, tablets and mobiles). The functioning of the application is possible thanks to an API REST development that allows the communication between any kind of application and a server through requests made by the HTTP protocol.
Resumo:
Este proyecto se centra en la construcción de una herramienta para la gestión de contenidos de muy diversos tipos, siendo fácilmente adaptable a cada uno de los contextos. Permite guardar los contenidos necesarios gracias a un formulario previamente personalizado, de este modo hay un editor que se dedica solamente a la introducción de los contenidos y un administrador que personaliza los campos del formulario según los contenidos. En esencia la herramienta sirve de apoyo a dos tipos de usuario, desarrolladores (administrador) y redactores (editor), a los primeros les simplifica las tareas de conceptualización de las estructuras de datos de las que se desea tener persistencia y sirve como base para construir los editores que usan los redactores, por otro lado proporciona un API sencillo, potente y ágil para recuperar los datos introducidos por los redactores. La herramienta a su vez está pensada para ser interoperable, es decir, no obliga a usar un tipo de almacenamiento persistente concreto. Puede utilizar desde los sencillos archivos de texto, con lo que puede desplegarse en servidores treméndamente básicos. Por otro lado, si se necesita potencia en las búsquedas, nada debe impedir el uso de bases de datos relacionales como MySql. O incluso si se quiere dar un paso más y se quiere aprovechar la flexibilidad, potencia y maleabilidad de las bases de datos NoSql (como MongoDB) no es costoso, lo que hay que hacer es implementar una nueva clase de tipo PersistentManager y desarrollar los tipos de búsqueda y recuperación de contenidos que se necesiten. En la versión inicial de la herramienta se han implementado estos tres tipos de almacenes, nada impide usar sólo alguno de ellos y desechar el resto o implementar uno nuevo. Desde el punto de vista de los redactores, les ofrece un entorno sencillo y potente para poder realizar las tareas típicas denominadas CRUD (Create Read Update Delete, Crear Leer Actualizar y Borrar), un redactor podrá crear, buscar, re-aprovechar e incluso planificar publicación de contenidos en el tiempo. ABSTRACT This project focuses on building a tool for content management of many types, being easily adaptable to each context. Saves the necessary content through a previously designed form, thus there will be an editor working only on the introduction of the contents and there will be an administrator to customize the form fields as contents. Essentially the tool provides support for two types of users, developers (administrator) and editors, the first will have simplified the tasks of conceptualization of data structures which are desired to be persistent and serve as the basis for building the structures that will be used by editors, on the other hand provides a simple, powerful and agile API to retrieve the data entered by the editors. The tool must also be designed to be interoperable, which means not to be bound by the use of a particular type of persistent storage. You can use simple text files, which can be deployed in extremely basic servers. On the other hand, if power is needed in searches, nothing should prevent the use of relational databases such as MySQL. Or even if you want to go a step further and want to take advantage of the flexibility, power and malleability of NoSQL databases (such as MongoDB) it will not be difficult, you will only need to implement a new class of PersistentManager type and develop the type of search and query of content as needed. In the initial version of the tool these three types of storage have been implemented, it will be entitled to use only one of them and discard the rest or implement a new one. From the point of view of the editors, it offers a simple and powerful environment to perform the typical tasks called CRUD (Create Read Update Delete), an editor can create, search, re-use and even plan publishing content in time.
Resumo:
ACKNOWLEDGMENTS This work has received funding from the European Union’s Horizon 2020 research and innovation programme under grant agreement No. 644334 (NEAT). The views expressed are solely those of the authors.
Resumo:
Since concomitant release of structurally related peptide hormones with apparently similar functions seems to be a general concept in endocrinology, we have studied the dynamics of the lifetime of the three known adipokinetic hormones (AKHs) of the migratory locust, which control flight-directed mobilization of carbohydrate and lipid from fat body stores. Although the structure of the first member of the AKHs has been known for 20 years, until now, reliable data on their inactivation and removal from the hemolymph are lacking, because measurement requires AKHs with high specific radioactivity. Employing tritiated AKHs with high specific radioactivity, obtained by catalytic reduction with tritium gas of the dehydroLeu2 analogues of the AKHs synthesized by the solid-phase procedure, studies with physiological doses of as low as 1.0 pmol per locust could be conducted. The AKHs appear to be transported in the hemolymph in their free forms and not associated with a carrier protein, despite their strong hydrophobicity. Application of AKHs in their free form in in vivo and in vitro studies therefore now has been justified. We have studied the degradation of the three AKHs during rest and flight. The first cleavage step by an endopeptidase is crucial, since the resulting degradation products lack any adipokinetic activity. Half-lives for AKH-I, -II and -III were 51, 40, and 5 min, respectively, for rest conditions and 35, 37, and 3 min, respectively, during flight. The rapid and differential degradation of structurally related hormones leads to changes in the ratio in which they are released and therefore will have important consequences for concerted hormone action at the level of the target organ or organs, suggesting that each of the known AKHs may play its own biological role in the overall syndrome of insect flight.
Resumo:
O transporte de gás e derivados de petróleo é realizado pelo uso de tubulações, denominadas de oleodutos ou gasodutos, que necessitam de elevados níveis de resistência mecânica e corrosão, aliadas a uma boa tenacidade à fratura e resistência à fadiga. A adição de elementos de liga nesses aços, Ti, V e Nb entre outros, é realizada para o atendimento destes níveis de resistência após o processamento termomecânico das chapas para fabricação destes dutos, utilizando-se a norma API 5L do American Petroleum Institute, API, para a classificação destes aços. A adição de elementos de liga em associação com o processamento termomecânico visa o refino de grão da microestrutura austenítica, o qual é transferido para a estrutura ferrítica resultante. O Brasil é o detentor das maiores reservas mundiais de nióbio, que tem sido apresentado como refinador da microestrutura mais eficiente que outros elementos, como o V e Ti. Neste trabalho dois aços, denominados Normal e Alto Nb foram estudados. A norma API propõe que a soma das concentrações de Nióbio, Vanádio e Titânio devem ser menores que 0,15% no aço. As concentrações no aço contendo mais alto Nb é de 0,107%, contra 0,082% do aço de composição normal, ou seja, ambos atendem o valor especificado pela norma API. Entretanto, os aços são destinados ao uso em dutovias pela PETROBRÁS que impõe limites nos elementos microligantes para os aços aplicados em dutovias. Deste modo estudos foram desenvolvidos para verificar se os parâmetros de resistência à tração, ductilidade, tenacidade ao impacto e resistência à propagação de trinca por fadiga, estariam em acordo com a norma API 5L grau X70 e com os resultados que outros pesquisadores têm encontrado para aços dessa classe. Ainda, como para a formação de uma dutovia os tubos são unidos uns aos outros por processo de soldagem (circunferencial), o estudo de fadiga foi estendido para as regiões da solda e zona termicamente afetada (ZTA). Como conclusão final observa-se que o aço API 5L X70 com Nb modificado, produzido conforme processo desenvolvido pela ArcelorMittal - Tubarão, apresenta os parâmetros de resistência e ductilidade em tração, resistência ao impacto e resistência a propagação de trinca em fadiga (PTF) similar aos aços API 5L X70 com teores de Nb = 0,06 % peso e aqueles da literatura com teores de Nb+Ti+V < 0,15% peso. O metal base, metal de solda e zona termicamente afetada apresentaram curvas da/dN x ΔK similares, com os parâmetros do material C e m, da equação de Paris, respectivamente na faixa de 3,3 - 4,2 e 1.3x10-10 - 5.0x10-10 [(mm/ciclo)/(MPa.m1/2)m].
Resumo:
Com o decorrer dos anos o consumo de petróleo e seus derivados aumentou significativamente e com isso houve a necessidade de se investir em pesquisas para descobertas de novas jazidas de petróleo como o pré-sal. Porém, não apenas a localização dessas jazidas deve ser estudada, mas, também, sua forma de exploração. Essa exploração e extração, na maioria das vezes, se dão em ambientes altamente corrosivos e o transporte do produto extraído é realizado através de tubulações de aço de alta resistência e baixa liga (ARBL). Aços ARBL expostos a ambientes contendo H2S e CO2 (sour gas) sofrem corrosão generalizada que promovem a entrada de hidrogênio atômico no metal, podendo diminuir sua tenacidade e causar falha induzida pela presença de hidrogênio (Hydrogen Induced Cracking HIC), gerando falhas graves no material. Tais falhas podem ser desastrosas para o meio ambiente e para a sociedade. O objetivo deste trabalho é estudar a tenacidade, utilizando ensaio Charpy, de um tubo API 5L X65 sour após diferentes tempos de imersão em uma solução saturada com H2S. O eletrólito empregado foi a solução A (ácido acético contendo cloreto de sódio) da norma NACE TM0284 (2011), fazendo-se desaeração com injeção de N2, seguida de injeções de H2S. Os materiais foram submetidos a: ensaios de resistência a HIC segundo a norma NACE TM0284 (2011) e exames em microscópio óptico e eletrônico de varredura para caracterização microestrutural, de inclusões e trincas. As amostras foram submetidas a imersão em solução A durante 96h e 360h, sendo que, após doze dias do término da imersão, foram realizados os ensaios Charpy e exames fractográficos. Foram aplicados dois métodos: o de energia absorvida e o da expansão lateral, conforme recomendações da norma ASTM E23 (2012). As curvas obtidas, em função da temperatura de impacto, foram ajustadas pelo método da tangente hiperbólica. Esses procedimentos foram realizados nas duas seções do tubo (transversal e longitudinal) e permitiram a obtenção dos seguintes parâmetros: energias absorvidas e expansão lateral nos patamares superior e inferior e temperaturas de transição dúctil-frágil (TTDF) em suas diferentes definições, ou seja, TTDFEA, TTDFEA-DN, TTDFEA-FN, TTDFEL, TTDFEL-DN e TTDFEL-FN (identificação no item Lista de Abreviaturas e Siglas). No exame fractográfico observou-se que o material comportou-se conforme o previsto, ou seja, em temperaturas mais altas ocorreu fratura dúctil, em temperaturas próximas a TTDF obteve-se fratura mista e nas temperaturas mais baixas observou-se o aparecimento de fratura frágil. Os resultados mostraram que quanto maior o tempo de imersão na solução A, menor é a energia absorvida e a expansão lateral no patamar superior, o que pode ser explicado pelo (esperado) aumento do teor de hidrogênio em solução sólida com o tempo de imersão. Por sua vez, os resultados mostraram que há tendência à diminuição da temperatura de transição dúctil-frágil com o aumento do tempo de imersão, particularmente, as TTDFEA-DN e TTDFEL-DN das duas seções do tubo (longitudinal e transversal). Esse comportamento controverso, que pode ser denominado de tenacificação com o decorrer do tempo de imersão na solução A, foi explicado pelo aparecimento de trincas secundárias durante o impacto (Charpy). Isso indica uma limitação do ensaio Charpy para a avaliação precisa de materiais hidrogenados.
Resumo:
As recentes descobertas de petróleo e gás na camada do Pré-sal representam um enorme potencial exploratório no Brasil, entretanto, os desafios tecnológicos para a exploração desses recursos minerais são imensos e, consequentemente, têm motivado o desenvolvimento de estudos voltados a métodos e materiais eficientes para suas produções. Os tubos condutores de petróleo e gás são denominados de elevadores catenários ou do inglês \"risers\", e são elementos que necessariamente são soldados e possuem fundamental importância nessa cadeia produtiva, pois transportam petróleo e gás natural do fundo do mar à plataforma, estando sujeitos a carregamentos dinâmicos (fadiga) durante sua operação. Adicionalmente, um dos problemas centrais à produção de óleo e gás das reservas do Pré-Sal está diretamente associado a meios altamente corrosivos, tais como H2S e CO2. Uma forma mais barata de proteção dos tubos é a aplicação de uma camada de um material metálico resistente à corrosão na parte interna desses tubos (clad). Assim, a união entre esses tubos para formação dos \"risers\" deve ser realizada pelo emprego de soldas circunferenciais de ligas igualmente resistentes à corrosão. Nesse contexto, como os elementos soldados são considerados possuir defeitos do tipo trinca, para a garantia de sua integridade estrutural quando submetidos a carregamentos cíclicos, é necessário o conhecimento das taxas de propagação de trinca por fadiga da solda circunferencial. Assim, neste trabalho, foram realizados ensaios de propagação de trinca por fadiga na região da solda circunferencial de Inconel® 625 realizada em tubo de aço API 5L X65 cladeado, utilizando corpos de prova do tipo SEN(B) (Single Edge Notch Bending) com relações entre espessura e largura (B/W) iguais a 0,5, 1 e 2. O propósito central deste trabalho foi de obter a curva da taxa de propagação de trinca por fadiga (da/dN) versus a variação do fator de intensidade de tensão (ΔK) para o metal de solda por meio de ensaios normatizados, utilizando diferentes técnicas de acompanhamento e medição da trinca. A monitoração de crescimento da trinca foi feita por três técnicas: variação da flexibilidade elástica (VFE), queda de potencial elétrico (QPE) e análise de imagem (Ai). Os resultados mostraram que as diferentes relações B/W utilizadas no estudo não alteraram significantemente as taxas de propagação de trinca por fadiga, respeitado que a propagação aconteceu em condições de escoamento em pequena escala na frente da trinca. Os resultados de propagação de trinca por fadiga permitiram a obtenção das regiões I e II da curva da/dN versus ΔK para o metal de solda. O valor de ΔKlim obtido para o mesmo foi em torno de 11,8 MPa.m1/2 e os valores encontrados das constantes experimentais C e m da equação de Paris-Erdogan foram respectivamente iguais a 1,55 x10-10 [(mm/ciclo)/(MPa.m1/2)m] e 4,15. A propagação de trinca no metal de solda deu-se por deformação plástica, com a formação de estrias de fadiga.
Resumo:
"The history of poster art tends to focus on the art of Henri Toulouse-Latrec, Jules Cheret, and Alfonse Mucha, while leaving out or barely mentioning the work of artists such as Wes Wilson, Stanley Mouse, and Alton Kelley. The aim of this thesis is to widen the gaze of poster art by centering on a contemporary rock poster artist: Frank Kozik. By focusing on formal and sociological analysis ofa number of Kozik's posters, I illustrate how he not only fits in with the arc of poster art development, but also influences it into the next century"