884 resultados para Sistemas de tempo contínuo


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sistemas computacionais de tempo-real são tipicamente construídos a partir de primitivas de sincronização que fornecem uma noção do tempo no objetivo de coordenar a execução múltiplos fluxos de instruções em um processador. Quando o processamento é centralizado, a base de tempo destas primitivas é extraída do oscilador local da plataforma, permitindo que as ações do sistema sejam devidamente ordenadas, respeitando restrições de tempo e causalidade. No entanto, em sistemas distribuídos o problema não pode ser resolvido desta forma em decorrência de imperfeições nos dispositivos físicos. Diferenças mínimas na freqüência de osciladores fazem com que as bases de tempo dos componentes divirjam cada vez mais ao longo do tempo, dificultando ou até mesmo impossibilitando um ordenamento consistente de eventos. Por esta razão, sincronização de relógios é um serviço de fundamental importância, sobretudo em aplicações críticas, onde os níveis de confiabilidade exigidos são mais elevados. O presente trabalho consiste na proposta e implementação de uma plataforma de comunicação otimizada para sistemas de controle distribuídos, caracterizados por uma alta regularidade no comportamento da comunicação. O objetivo é propor uma solução em baixo nível com suporte para o projeto de sistemas distribuídos no domínio de aplicações críticas. A plataforma proposta, à qual foi atribuído o nome CASCA, sigla para “Communication Architecture for Safety- Critical Applications”, é de fato uma extensão time-triggered do protocolo CAN. Acima da camada de enlace do protocolo original foram projetados mecanismos sincronização de relógios e criação inicial da base de tempo, implementados na forma de uma combinação de hardware e software. Principais características da plataforma são jitter mínimo, uma base de tempo global essencialmente distribuída e particionamento temporal. Diferentes alternativas de projeto foram consideradas, observando com maior atenção a viabilidade de prototipação em dispositivos FPGA para fins de validação e aplicação imediata em plataformas reconfiguráveis. Como forma de validação da plataforma, um sistema elementar formado por três nodos foi sintetizado com sucesso em bancada obtendo-se como resultado uma base de tempo essencialmente distribuída com precisão menor do que um micro-segundo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em modelos em que a distribuição espacial da população não é con- siderada, isto é, quando se supõe que haja uma homogeneidade espacial, e se estuda a evolução temporal do sistema, há uma única variável independente: o tempo. Caso a população seja constituída de duas espécies, do tipo parasitóide-hospedeiro, e a variável independente tempo for considerada discreta, teremos um sistema de equações a diferenças, como por exemplo o modelo de Nicholson-Bailey cujas soluções são apresentadas neste trabalho. Populações espacialmente distribuídas, em um espaço de natureza discreta, juntamente com a dinâmica vital em tempo discreto, têm o seu comportamento estudado através de redes de mapas acoplados. Após estudar o modelo de Hassell (dinâmica vital de Nicholson-Bailey com movimentação por difusão) e o modelo planta-herbívoro com movimentação por taxia, deduzimos e simulamos um modelo incluindo movimentação por taxia, difusão e convecção. É também apresentado neste trabalho, um paralelo entre estes modelos de redes de mapas acoplados e aqueles com as equações diferenciais correspondentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho é um estudo sobre a aplicação de técnicas de visualização de informação em sistemas de software científico, i.e., sistemas de software voltados para matemática, ciências e engenharias. Enquanto sistemas dessa natureza normalmente fazem uso da visualização científica e figuram como caso de sucesso nessa área, nem sempre são projetados considerando os princípios de visualização de informação. Esse trabalho tem por objetivo avaliar a aplicação desse conceitos em alguns sistemas reais, desenvolvidos com diferentes níveis de entendimento nessa área de conhecimento e com base nessas experiências propor o desenvolvimento de componentes de software capazes de facilitar a criação de sistemas semelhantes e ao mesmo tempo promover a aplicação destes conceitos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A indústria do turismo caracteriza-se pela sua heterogeneidade e pelo grande volume de transacções realizadas on-line. Cada vez mais os pequenos operadores turísticos optam por desenvolver os seus pequenos sistemas de reservas, para não terem de estar submetidos ao pagamento de comissões às entidades que gerem os grandes sistemas de informação turística. Devido a este facto, têm surgido um grande número de novas fontes de informação turística na Internet. A proliferação de informação turística torna complexo o planeamento das férias por parte do turista. A implementação de sistemas de integração de informação turística torna-se uma necessidade urgente. Ao mesmo tempo que ajudam o turista no planeamento das férias, também permitem aos operadores implementarem novas estratégias de marketing. Uma destas novas estratégias de marketing passa pela implementação do conceito de “Dynamic Packaging”. O “Dynamic Packaging” permite ao turista, ou ao agente turístico, a construção de pacotes que incluem produtos turísticos escolhidos por este sem qualquer limitação. Aos operadores turísticos, permite a criação de regras de negócio sobre a constituição de um pacote. As regras são depois aplicadas dinamicamente à medida que os pacotes são definidos. A arquitectura SEED define a implementação de um sistema de integração de informação turística. Pretende também disponibilizar a base para a implementação de sistemas que suportem o “Dynamic Packaging”. A integração da informação é realizada através da utilização das tecnologias associadas à Web Semântica. A implementação do “Dynamic Packaging” é suportada pela utilização de motores de inferência que permitem a definição e interpretação de regras semânticas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho compara as soluções disponibilizadas pelos sistemas Derive 5.0, Maple 6 e Mathematica 4.0 para problemas que encontramos no ensino secundário e também nos primeiros anos da universidade. Procuramos destacar os aspectos distintos entre cada um dos programas ao mesmo tempo que fazemos referência aos pontos em que tudo se passa de forma semelhante. Esta dissertação aborda o cálculo numérico, o cálculo simbólico, a programação e os gráficos. Para cada um dos assuntos é estudada a forma como se podem resolver os problemas através dos três sistemas comparando-se estas soluções. Inicialmente, é feita uma abordagem que permite ao utilizador adquirir os conhecimentos básicos acerca dos diversos programas. Tratamos de seguida de algumas questões relacionadas com o cálculo numérico e com algumas funções nomeadamente da Teoria dos Números. Referimos listas e funções e são analisadas diversas formas de manipular listas e os seus elementos bem como algumas áreas da Análise Matemática das quais destacamos as equações, a derivação e a integração compreendendo cálculo numérico e cálculo simbólico. Examinamos um vasto conjunto de operações definidas sobre matrizes (representadas como listas de listas) e polinómios que abrangem as operações mais comuns de cada um dos campos. Analisamos também a programação recursiva, a programação imperativa, a programação funcional e a programação por regras de reescrita. A abordagem aqui adoptada foi a de fornecer ao utilizador as construções chave mais importantes que cada paradigma de programação utiliza bem como as informações básicas acerca do funcionamento de cada uma delas de modo a permitir a resolução dos problemas propostos. Por último os gráficos sobre os quais incidiu a nossa análise foram os de uma e de duas variáveis representados no referencial cartesiano, gráficos estes que são os mais utilizados quer ao nível do ensino superior quer ao nível do ensino secundário. A qualidade e a facilidade de obter rapidamente as representações dão outra dimensão ao estudo dos gráficos principalmente quando estamos a falar de gráficos a três dimensões. A ideia de animação gráfica é também aqui abordada sendo evidente os benefícios da utilização da mesma nos programas em que é possível efectuá-la. Concluímos que na programação o Mathematica destaca-se em relação aos demais o mesmo se passando no Maple no respeitante à representação gráfica. O Derive permite que durante o contacto inicial seja mais fácil trabalhar e aprender a linguagem própria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The IT capability is a organizational ability to perform activities of this role more effectively and an important mechanism in creating value. Its building process (stages of creation and development) occurs through management initiatives for improvement in the performance of their activities, using human resources and IT assets complementary responsible for the evolution of their organizational routines. This research deals with the IT capabilities related to SIG (integrated institutional management systems), built and deployed in UFRN (Universidade Federal do Rio Grande do Norte) to realization and control of administrative, academic and human resources activities. Since 2009, through cooperative agreements with federal and educational institutions of direct administration, UFRN has supported the implementation of these systems, currently involving more than 30 institutions. The present study aims to understand how IT capabilities, relevant in the design, implementation and dissemination of SIG, were built over time. This is a single case study of qualitative and longitudinal nature, performed by capturing, coding and analysis from secondary data and from semi-structured interviews conducted primarily with members of Superintenência de Informática, organizational unit responsible for SIG systems in UFRN. As a result, the technical, of internal relationship and external cooperation capabilities were identified as relevant in the successful trajectory of SIG systems, which have evolved in different ways. The technical capacity, initiated in 2004, toured the stages of creation and development until it reached the stage of stability in 2013, due to technological limits. Regarding the internal relationship capability, begun in 2006, it toured the stages of creation and development, having extended its scope of activities in 2009, being in development since then. Unlike the standard life cycle observed in the literature, the external cooperation capability was initiated by an intensity of initiatives and developments in the routines in 2009, which were decreasing to cease in 2013 in order to stabilize the technological infrastructure already created for cooperative institutions. It was still identified the start of cooperation in 2009 as an important event selection, responsible for changing or creating trajectories of evolution in all three capacities. The most frequent improvements initiatives were of organizational nature and the internal planning activity has been transformed over the routines of the three capabilities. Important resources and complementary assets have been identified as important for the realization of initiatives, such as human resources technical knowledge to the technical capabilities and external cooperation, and business knowledge, for all of them, as well as IT assets: the iproject application for control of development processes, and the document repository wiki. All these resources and complementary assets grew along the capacities, demonstrating its strategic value to SINFO/UFRN

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Forecast is the basis for making strategic, tactical and operational business decisions. In financial economics, several techniques have been used to predict the behavior of assets over the past decades.Thus, there are several methods to assist in the task of time series forecasting, however, conventional modeling techniques such as statistical models and those based on theoretical mathematical models have produced unsatisfactory predictions, increasing the number of studies in more advanced methods of prediction. Among these, the Artificial Neural Networks (ANN) are a relatively new and promising method for predicting business that shows a technique that has caused much interest in the financial environment and has been used successfully in a wide variety of financial modeling systems applications, in many cases proving its superiority over the statistical models ARIMA-GARCH. In this context, this study aimed to examine whether the ANNs are a more appropriate method for predicting the behavior of Indices in Capital Markets than the traditional methods of time series analysis. For this purpose we developed an quantitative study, from financial economic indices, and developed two models of RNA-type feedfoward supervised learning, whose structures consisted of 20 data in the input layer, 90 neurons in one hidden layer and one given as the output layer (Ibovespa). These models used backpropagation, an input activation function based on the tangent sigmoid and a linear output function. Since the aim of analyzing the adherence of the Method of Artificial Neural Networks to carry out predictions of the Ibovespa, we chose to perform this analysis by comparing results between this and Time Series Predictive Model GARCH, developing a GARCH model (1.1).Once applied both methods (ANN and GARCH) we conducted the results' analysis by comparing the results of the forecast with the historical data and by studying the forecast errors by the MSE, RMSE, MAE, Standard Deviation, the Theil's U and forecasting encompassing tests. It was found that the models developed by means of ANNs had lower MSE, RMSE and MAE than the GARCH (1,1) model and Theil U test indicated that the three models have smaller errors than those of a naïve forecast. Although the ANN based on returns have lower precision indicator values than those of ANN based on prices, the forecast encompassing test rejected the hypothesis that this model is better than that, indicating that the ANN models have a similar level of accuracy . It was concluded that for the data series studied the ANN models show a more appropriate Ibovespa forecasting than the traditional models of time series, represented by the GARCH model

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work aims to analyze risks related to information technology (IT) in procedures related to data migration. This is done considering ALEPH, Integrated Libray System (ILS) that migrated data to the Library Module present in the software called Sistema Integrado de Gestão de Atividades Acadêmicas (SIGAA) at the Zila Mamede Central Library at the Federal University of Rio Grande do Norte (UFRN) in Natal/Brazil. The methodological procedure used was of a qualitative exploratory research with the realization of case study at the referred library in order to better understand this phenomenon. Data collection was able once there was use of a semi-structured interview that was applied with (11) subjects that are employed at the library as well as in the Technology Superintendence at UFRN. In order to examine data Content analysis as well as thematic review process was performed. After data migration the results of the interview were then linked to both analysis units and their system register with category correspondence. The main risks detected were: data destruction; data loss; data bank communication failure; user response delay; data inconsistency and duplicity. These elements point out implication and generate disorders that affect external and internal system users and lead to stress, work duplicity and hassles. Thus, some measures were taken related to risk management such as adequate planning, central management support, and pilot test simulations. For the advantages it has reduced of: risk, occurrence of problems and possible unforeseen costs, and allows achieving organizational objectives, among other. It is inferred therefore that the risks present in data bank conversion in libraries exist and some are predictable, however, it is seen that librarians do not know or ignore and are not very worried in the identification risks in data bank conversion, their acknowledge would minimize or even extinguish them. Another important aspect to consider is the existence of few empirical research that deal specifically with this subject and thus presenting the new of new approaches in order to promote better understanding of the matter in the corporate environment of the information units

Relevância:

30.00% 30.00%

Publicador:

Resumo:

With the advances in medicine, life expectancy of the world population has grown considerably in recent decades. Studies have been performed in order to maintain the quality of life through the development of new drugs and new surgical procedures. Biomaterials is an example of the researches to improve quality of life, and its use goes from the reconstruction of tissues and organs affected by diseases or other types of failure, to use in drug delivery system able to prolong the drug in the body and increase its bioavailability. Biopolymers are a class of biomaterials widely targeted by researchers since they have ideal properties for biomedical applications, such as high biocompatibility and biodegradability. Poly (lactic acid) (PLA) is a biopolymer used as a biomaterial and its monomer, lactic acid, is eliminated by the Krebs Cycle (citric acid cycle). It is possible to synthesize PLA through various synthesis routes, however, the direct polycondensation is cheaper due the use of few steps of polymerization. In this work we used experimental design (DOE) to produce PLAs with different molecular weight from the direct polycondensation of lactic acid, with characteristics suitable for use in drug delivery system (DDS). Through the experimental design it was noted that the time of esterification, in the direct polycondensation, is the most important stage to obtain a higher molecular weight. The Fourier Transform Infrared (FTIR) spectrograms obtained were equivalent to the PLAs available in the literature. Results of Differential Scanning Calorimetry (DSC) showed that all PLAs produced are semicrystalline with glass transition temperatures (Tgs) ranging between 36 - 48 °C, and melting temperatures (Tm) ranging from 117 to 130 °C. The PLAs molecular weight characterized from Size Exclusion Chromatography (SEC), varied from 1000 to 11,000 g/mol. PLAs obtained showed a fibrous morphology characterized by Scanning Electron Microscopy (SEM)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In Brazilian Northeast there are reservoirs with heavy oil, which use steam flooding as a recovery method. This process allows to reduce oil viscosity, increasing its mobility and consequently its oil recovery. Steam injection is a thermal method and can occurs in continues or cyclic form. Cyclic steam stimulation (CSS) can be repeated several times. Each cycle consisting of three stages: steam injection, soaking time and production phase. CSS becomes less efficient with an increase of number of cycles. Thus, this work aims to study the influence of compositional models in cyclic steam injection and the effects of some parameters, such like: flow injection, steam quality and temperature of steam injected, analyzing the influence of pseudocomponents numbers on oil rate, cumulative oil, oil recovery and simulation time. In the situations analyzed was compared the model of fluid of three phases and three components known as Blackoil . Simulations were done using commercial software (CMG), it was analyzed a homogeneous reservoir with characteristics similar to those found in Brazilian Northeast. It was observed that an increase of components number, increase the time spent in simulation. As for analyzed parameters, it appears that the steam rate, and steam quality has influence on cumulative oil and oil recovery. The number of components did not a lot influenced on oil recovery, however it has influenced on gas production

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cementing operation is one of the most important stages in the oil well drilling processes and has main function to form hydraulic seal between the various permeable zones traversed by the well. However, several problems may occur with the cement sheath, either during primary cementing or during the well production period. Cements low resistance can cause fissures in the cement sheath and compromise the mechanical integrity of the annular, resulting in contamination of groundwater and producing zones. Several researches show that biomass ash, in particular, those generated by the sugarcane industry have pozzolanic activity and can be added in the composition of the cementing slurries in diverse applications, providing improvements in mechanical properties, revenue and cement durability. Due to the importance of a low cost additive that increases the mechanical properties in a well cementing operations, this study aimed to potentiate the use of sugarcane bagasse ash as pozzolanic material, evaluate the mechanisms of action of this one on cement pastes properties and apply this material in systems slurries aimed to cementing a well with 800 m depth and geothermal gradient of 1.7 °F/100 ft, as much primary cementing operations as squeeze. To do this, the ash beneficiation methods were realized through the processes of grinding, sifting and reburning (calcination) and then characterization by X-ray fluorescence, XRD, TG / DTG, specific surface area, particle size distribution by laser diffraction and mass specific. Moreover, the ash pozzolanic activity added to the cement at concentrations of 0%, 20% and 40% BWOC was evaluated by pozzolanic activity index with lime and with Portland cement. The evaluation of the pozzolanic activity by XRD, TG / DTG and compressive strength confirmed the ash reactivity and indicated that the addition of 20% in the composition of cement slurries produces improvement 34% in the mechanical properties of the slurry cured. Cement slurries properties evaluated by rheological measurements, fluid loss, free fluid, slurry sedimentation, thickening time and sonic strength (UCA) were satisfactory and showed the viability of using the sugarcane ash in cement slurries composition for well cementing

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Foram estudados a produção de leite de vacas Nelore e o comportamento de amamentação em diferentes sistemas de produção: NR-Nelore Referência, sob manejo extensivo (manejo tradicional); NI-Nelore, sob manejo intensivo; e três cruzamentos CN-Canchim x Nelore, AN-Angus x Nelore e SN-Simental x Nelore, sob manejo intensivo. em três momentos da lactação (60, 120 e 180 dias após o parto), foram medidos, nos bezerros, o número e a duração das mamadas, o ganho diário de peso (kg/dia) e o peso à desmama. O momento da lactação e a interação sistema de produção x momento da lactação apresentaram efeito significativo sobre a produção de leite. A produção de leite não apresentou corrrelação com o comportamento de amamentação nem com o ganho de peso dos bezerros dos diferentes sistemas de produção. Condições deficientes de alimentação não resultaram em menores produções de leite de vacas Nelore, mas sim em acentuadas perdas de peso (80 kg) durante a estação de monta no sistema NR. O tempo diário de amamentação apresentou diminuições significativas no sistema extensivo com o decorrer da lactação, enquanto os sistemas intensivos não mudaram ou aumentaram os minutos de amamentação por dia. Para as condições nas quais o experimento foi desenvolvido, os bezerros cruzados apresentaram os melhores desempenhos durante a fase pré-desmama, em comparação com os bezerros Nelore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis proposes the specification and performance analysis of a real-time communication mechanism for IEEE 802.11/11e standard. This approach is called Group Sequential Communication (GSC). The GSC has a better performance for dealing with small data packets when compared to the HCCA mechanism by adopting a decentralized medium access control using a publish/subscribe communication scheme. The main objective of the thesis is the HCCA overhead reduction of the Polling, ACK and QoS Null frames exchanged between the Hybrid Coordinator and the polled stations. The GSC eliminates the polling scheme used by HCCA scheduling algorithm by using a Virtual Token Passing procedure among members of the real-time group to whom a high-priority and sequential access to communication medium is granted. In order to improve the reliability of the mechanism proposed into a noisy channel, it is presented an error recovery scheme called second chance algorithm. This scheme is based on block acknowledgment strategy where there is a possibility of retransmitting when missing real-time messages. Thus, the GSC mechanism maintains the real-time traffic across many IEEE 802.11/11e devices, optimized bandwidth usage and minimal delay variation for data packets in the wireless network. For validation purpose of the communication scheme, the GSC and HCCA mechanisms have been implemented in network simulation software developed in C/C++ and their performance results were compared. The experiments show the efficiency of the GSC mechanism, especially in industrial communication scenarios.