871 resultados para Argilas - Aplicações terapêuticas
Resumo:
Adsorption is a process that has become indispensable due to pollution caused by industrial activity. More economically viable adsorbents are being tested to replace the high cost of materials used. The clays can be used as adsorbents and are low cost materials, natural properties feasible for the application in the adsorption process, structural modifications are performed with ease promoting selective adsorption in these materials. The objective of this study was to synthesize and characterize adsorbents used in the adsorption of organic compounds. The adsorbents were characterized by the techniques of XRD, SEM, FTIR and TG. The results show that the studied materials have affinity to organic compounds and can be applied as adsorbents. The materials studied are viable and can be applied in the treatment of effluents contaminated in industrial scale.
Resumo:
The great amount of data generated as the result of the automation and process supervision in industry implies in two problems: a big demand of storage in discs and the difficulty in streaming this data through a telecommunications link. The lossy data compression algorithms were born in the 90’s with the goal of solving these problems and, by consequence, industries started to use those algorithms in industrial supervision systems to compress data in real time. These algorithms were projected to eliminate redundant and undesired information in a efficient and simple way. However, those algorithms parameters must be set for each process variable, becoming impracticable to configure this parameters for each variable in case of systems that monitor thousands of them. In that context, this paper propose the algorithm Adaptive Swinging Door Trending that consists in a adaptation of the Swinging Door Trending, as this main parameters are adjusted dynamically by the analysis of the signal tendencies in real time. It’s also proposed a comparative analysis of performance in lossy data compression algorithms applied on time series process variables and dynamometer cards. The algorithms used to compare were the piecewise linear and the transforms.
Resumo:
Multi-Cloud Applications are composed of services offered by multiple cloud platforms where the user/developer has full knowledge of the use of such platforms. The use of multiple cloud platforms avoids the following problems: (i) vendor lock-in, which is dependency on the application of a certain cloud platform, which is prejudicial in the case of degradation or failure of platform services, or even price increasing on service usage; (ii) degradation or failure of the application due to fluctuations in quality of service (QoS) provided by some cloud platform, or even due to a failure of any service. In multi-cloud scenario is possible to change a service in failure or with QoS problems for an equivalent of another cloud platform. So that an application can adopt the perspective multi-cloud is necessary to create mechanisms that are able to select which cloud services/platforms should be used in accordance with the requirements determined by the programmer/user. In this context, the major challenges in terms of development of such applications include questions such as: (i) the choice of which underlying services and cloud computing platforms should be used based on the defined user requirements in terms of functionality and quality (ii) the need to continually monitor the dynamic information (such as response time, availability, price, availability), related to cloud services, in addition to the wide variety of services, and (iii) the need to adapt the application if QoS violations affect user defined requirements. This PhD thesis proposes an approach for dynamic adaptation of multi-cloud applications to be applied when a service is unavailable or when the requirements set by the user/developer point out that other available multi-cloud configuration meets more efficiently. Thus, this work proposes a strategy composed of two phases. The first phase consists of the application modeling, exploring the similarities representation capacity and variability proposals in the context of the paradigm of Software Product Lines (SPL). In this phase it is used an extended feature model to specify the cloud service configuration to be used by the application (similarities) and the different possible providers for each service (variability). Furthermore, the non-functional requirements associated with cloud services are specified by properties in this model by describing dynamic information about these services. The second phase consists of an autonomic process based on MAPE-K control loop, which is responsible for selecting, optimally, a multicloud configuration that meets the established requirements, and perform the adaptation. The adaptation strategy proposed is independent of the used programming technique for performing the adaptation. In this work we implement the adaptation strategy using various programming techniques such as aspect-oriented programming, context-oriented programming and components and services oriented programming. Based on the proposed steps, we tried to assess the following: (i) the process of modeling and the specification of non-functional requirements can ensure effective monitoring of user satisfaction; (ii) if the optimal selection process presents significant gains compared to sequential approach; and (iii) which techniques have the best trade-off when compared efforts to development/modularity and performance.
Resumo:
Information extraction is a frequent and relevant problem in digital signal processing. In the past few years, different methods have been utilized for the parameterization of signals and the achievement of efficient descriptors. When the signals possess statistical cyclostationary properties, the Cyclic Autocorrelation Function (CAF) and the Spectral Cyclic Density (SCD) can be used to extract second-order cyclostationary information. However, second-order cyclostationary information is poor in nongaussian signals, as the cyclostationary analysis in this case should comprise higher-order statistical information. This paper proposes a new mathematical tool for the higher-order cyclostationary analysis based on the correntropy function. Specifically, the cyclostationary analysis is revisited focusing on the information theory, while the Cyclic Correntropy Function (CCF) and Cyclic Correntropy Spectral Density (CCSD) are also defined. Besides, it is analytically proven that the CCF contains information regarding second- and higher-order cyclostationary moments, being a generalization of the CAF. The performance of the aforementioned new functions in the extraction of higher-order cyclostationary characteristics is analyzed in a wireless communication system where nongaussian noise exists.
Resumo:
Given the growing demand for the development of mobile applications, driven by use increasingly common in smartphones and tablets grew in society the need for remote data access in full in the use of mobile application without connectivity environments where there is no provision network access at all times. Given this reality, this work proposes a framework that present main functions are the provision of a persistence mechanism, replication and data synchronization, contemplating the creation, deletion, update and display persisted or requested data, even though the mobile device without connectivity with the network. From the point of view of the architecture and programming practices, it reflected in defining strategies for the main functions of the framework are met. Through a controlled study was to validate the solution proposal, being found as the gains in reducing the number of lines code and the amount of time required to perform the development of an application without there being significant increase for the operations.
Resumo:
Given the growing demand for the development of mobile applications, driven by use increasingly common in smartphones and tablets grew in society the need for remote data access in full in the use of mobile application without connectivity environments where there is no provision network access at all times. Given this reality, this work proposes a framework that present main functions are the provision of a persistence mechanism, replication and data synchronization, contemplating the creation, deletion, update and display persisted or requested data, even though the mobile device without connectivity with the network. From the point of view of the architecture and programming practices, it reflected in defining strategies for the main functions of the framework are met. Through a controlled study was to validate the solution proposal, being found as the gains in reducing the number of lines code and the amount of time required to perform the development of an application without there being significant increase for the operations.
Resumo:
This thesis aims to present a study of the Fibonacci sequence, initiated from a simple problem of rabbits breeding and the Golden Ratio, which originated from a geometrical construction, for applications in basic education. The main idea of the thesis is to present historical records of the occurrence of these concepts in nature and science and their influence on social, cultural and scientific environments. Also, it will be presented the identification and the characterization of the basic properties of these concepts and howthe connection between them occurs,and mainly, their intriguing consequences. It is also shown some activities emphasizing geometric constructions, links to other mathematics areas, curiosities related to these concepts and the analysis of questions present in vestibular (SAT-Scholastic Aptitude Test) and Enem(national high school Exam) in order to show the importance of these themes in basic education, constituting an excellent opportunity to awaken the students to new points of view in the field of science and life, from the presented subject and to promote new ways of thinking mathematics as a transformative science of society.
Resumo:
La satisfacción de las necesidades y expectativas de los pacientes se considera un indicador fundamental de la calidad de la asistencia proporcionada, entendida como una medida de eficacia, confort, pertinencia y control del funcionamiento del sistema sanitario (Donabedian, 1966; Monteagudo et al., 2003; Feldman et al., 2007). Los hospitales españoles están enfocados en la mejora de los cuidados y atención al paciente ingresado; por ello, la alimentación que el hospital presta está reconocida como un indicador importante de la satisfacción de los pacientes. La Alimentación Hospitalaria tiene como objetivo ayudar al personal sanitario a que el paciente se encuentre bien lo antes posible. Para lograr esto, es necesario proporcionar alimentos de buena calidad que hayan sido preparados y cocinados cuidadosamente para retener al máximo el valor nutritivo y presentados al paciente de forma apetitosa (Herrera et al., 2004). Es problemático definir la calidad de los alimentos porque depende de la evaluación del consumidor. A pesar de ello, se ha demostrado que las percepciones de un alimento están afectadas por muchos factores individuales que incluyen el sabor, olor, información del etiquetado, actitudes y recuerdos de experiencias anteriores (Imran, 1999). Las características sensoriales como aspecto, flavor, textura y temperatura se ha visto que son también importantes para los pacientes hospitalarios cuando juzgan la calidad de la comida (Clark, 1998). Textura y flavor tienen un efecto profundo sobre la percepción y la aceptabilidad; sin embargo, el papel de la textura es muy dependiente del producto de que se trate. Adjetivos sobre sus atributos como empapado, acuoso, grumoso, pegajoso, baboso, desmoronado y duro que proporcionan una pérdida de control en la boca no suelen normalmente gustar (Cardello, 1996b). La importancia relativa de un atributo es dependiente de un alimento particular. Las comidas de los pacientes son una parte integral del tratamiento hospitalario y el consumo de una dieta equilibrada es crucial para ayudar a su recuperación (Stratton et al., 2006). En los servicios de alimentación de los hospitales se sirven millones de comidas a diario (solamente en España, donde ese estima que existen unos 1000 hospitales, podemos esperar que el número de pensiones completas cada día ronde las 300.000) y el número atendido en un establecimiento puede variar de 20 a 2.000 personas...
Resumo:
O principal objectivo deste relatório é documentar a experiência como estagiário na empresa The Silver Factory – Marketing, Design e Gestão Comercial, Lda, no âmbito da unidade curricular de Estágio do Mestrado em Engenharia-Informática – Computação Móvel (MEI-CM). Sendo este estágio uma parte integrante para a obtenção do grau de Mestre, foram postos em prática conhecimentos adquiridos ao longo do meu percurso universitário (Licenciatura e 1º ano de Mestrado) de modo a concluir com sucesso todos os projetos que me foram propostos. Durante este estágio trabalhei na área da comunicação online, através do desenvolvimento de websites e auxiliando na gestão do alojamento dos clientes. O principal objetivo foi desenvolver um backoffice e os seus respetivos componentes. Dos vários componentes desenvolvidos os mais importantes foram o Content Management System que permite fazer a gestão do conteúdo apresentado em frontend, e o Projetct Management Tool, que permite a uma empresa gerir os seus clientes, e os projetos que desenvolve para os mesmos, com a possibilidade de visualização do progresso de desenvolvimento desses projetos utilizando um gráfico de Gantt interativo.
Resumo:
O uso das tecnologias de informação e comunicação em Portugal na área médica tem tido um grande aumento nas últimas décadas. Tal pode constatar-se a vários níveis, como sejam a implementação crescente e em larga escala de sistemas de informação em hospitais e centros de saúde, o desenvolvimento de aplicações para auxiliar a análise dos principais meios complementares de diagnóstico, a receita eletrónica e o registo de paciente eletrónico, apenas para citar alguns exemplos. A procura crescente de profissionais de saúde de várias especialidades tem tido um aumento considerável nos últimos anos. Por um lado, a população está cada vez mais envelhecida, por via do aumento da esperança média de vida. Por outro lado tem aumentado a preocupação com a saúde e o bem estar próprio dos cidadãos, levando-os a recorrer mais vezes e a mais especialidades do que no passado. O êxodo da população do interior do país para os grandes centros no litoral, complementado pelas políticas orçamentais restritivas na área da saúde, tem acentuado as diferenças de prestação de cuidados de saúde a toda a população do país, de forma equitativa e eficaz. Para tal tem ainda contribuído o emagrecimento dos orçamentos dos hospitais e a pressão para que estes cumpram as metas de produtividade definidas, com custos cada vez mais reduzidos. Um dos contributos das tecnologias de informação para mitigar o afastamento entre o paciente e os profissionais de saúde, consiste na implementação de soluções de consulta "à distância", com a utilização de vídeo e voz, através de aplicações de telemedicina. Ao nível da teleconsulta e da telemedicina têm existido alguns avanços significativos, sendo possível encontrar alguns casos de sucesso na utilização destes meios para facilitar o acesso generalizado de toda a população a cuidados médicos de saúde. Constata-se contudo que as aplicações usadas são geralmente proprietárias, carecem de instalação de software específico, muitas vezes proprietário e por vezes com custos para as entidades que disponibilizam o serviço. Por exemplo, a utilização de uma ligação por Skype para uma teleconsulta obriga a que a aplicação esteja instalada em ambos os computadores (médico e paciente). Nesta dissertação apresenta-se uma solução de telemedicina baseada na Application Programming Interface (API) Web Real-Time Comunication (WebRTC), que permite o envio de voz e imagem entre dois browsers usando os protocolos de comunicação na Web. Além do vídeo e da voz foram integrados na aplicação duas funcionalidades particularmente interessantes numa teleconsulta: envio bidirecional de ficheiros (por exemplo, ficheiro PDF com o resultado das últimas análise que o paciente realizou) e desenho num "quadro branco", permitindo ao paciente ou ao médico ilustrarem de forma livre algum aspeto associado à consulta em causa. A aplicação utiliza exclusivamente componentes de software opensource e apenas necessita que ambos os computadores tenham instalado um browser de acesso à Web que suporte a comunicação por WebRTC, como o Google Chrome ou o Firefox. Pretende-se desta forma facilitar o acesso aos serviços de telemedicina evitando a instalação e configuração de software específico, bem como reduzir os custos através de soluções opensource com licença General Public License (GPL) e isenta de custos. Foram realizados alguns testes de aceitação da solução, em ambiente hospitalar. Genericamente, pretendeu-se validar o funcionamento da API WebRTC, aferir sobre a aceitação das funcionalidades implementadas e identificar obstáculos técnicos à sua implementação na rede de um hospital ou centro de saúde. Embora tenham sido identificados alguns problemas na comunicação, resultantes maioritariamente do tipo de configurações da rede em que os computadores estavam instalados, os resultados globais obtidos são bastante promissores, dando-nos boas perspetivas quanto à sua implementação em ambiente de produção.
Resumo:
DUTRA, Ricardo Peixoto Suassuna ; SILVA, Jaquelígia Brito da ; MORAES, Márcio Luiz Varela Nogueira de ; NASCIMENTO, R. M. ; GOMES, Uilame Umbelino ; PASKOCIMAS, Carlos Alberto . Avaliação da potencialidade de argilas do Rio Grande do Norte. Cerâmica Industrial, v. 13, p. 47-50, 2008.
Resumo:
Desenvolveu-se no Instituto de Engenharia Nuclear um sistema de aquisição de dados para avaliação das condições operacionais de unidades industriais pelo estudo das curvas Distribuição do Tempo de Residência - RTD, composto de detectores cintiladores NaI (Tl) 3”x 3” conectados a analisadores monocanal cujos sinais são captados por uma interface acoplada a um microcomputador. Para a análise das informações coletadas desenvolveu-se o programa TRACER que efetua um tratamento matemático preliminar dos dados; apresenta na tela a curva RTD, e calcula valores como o tempo de residência médio e as funções resposta, tanto para estímulos instantâneos como para estímulos contínuos. As informações levantadas permitem a identificação de problemas como possíveis canalizações, fugas, zonas mortas e decréscimo na eficiência das unidades. Todo o conjunto é disposto em módulos compactos o que possibilita seu transporte e instalação em unidades industriais.