1000 resultados para Acesso remoto


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Technological evolution of industrial automation systems has been guided by the dillema between flexibilization and confiability on the integration between devices and control supervisory systems. However, there are few supervisory systems whose attributions can also comprehend the teaching of the communication process that happens behind this technological integration, where those which are available are little flexible about accessibility and reach of patterns. On this context, we present the first module of a didactic supervisory system, accessible through Web, applied on the teaching of the main fieldbus protocols. The application owns a module that automatically discovers the network topology being used and allows students and professionals of automation to obtain a more practical knowledgment by exchanging messages with a PLC, allowing those who are involved to know with more details the communication process of an automation supervisory system. By the fact of being available through Web, the system will allow a remote access to the PLC, comprehending a larger number of users. This first module is focused on the Modbus protocol (TCP and RTU/ASCII)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The visualization of three-dimensional(3D)images is increasigly being sed in the area of medicine, helping physicians diagnose desease. the advances achived in scaners esed for acquisition of these 3d exames, such as computerized tumography(CT) and Magnetic Resonance imaging (MRI), enable the generation of images with higher resolutions, thus, generating files with much larger sizes. Currently, the images of computationally expensive one, and demanding the use of a righ and computer for such task. The direct remote acess of these images thruogh the internet is not efficient also, since all images have to be trasferred to the user´s equipment before the 3D visualization process ca start. with these problems in mind, this work proposes and analyses a solution for the remote redering of 3D medical images, called Remote Rendering (RR3D). In RR3D, the whole hedering process is pefomed a server or a cluster of servers, with high computational power, and only the resulting image is tranferred to the client, still allowing the client to peform operations such as rotations, zoom, etc. the solution was developed using web services written in java and an architecture that uses the scientific visualization packcage paraview, the framework paraviewWeb and the PACS server DCM4CHEE.The solution was tested with two scenarios where the rendering process was performed by a sever with graphics hadwere (GPU) and by a server without GPUs. In the scenarios without GPUs, the soluction was executed in parallel with several number of cores (processing units)dedicated to it. In order to compare our solution to order medical visualization application, a third scenario was esed in the rendering process, was done locally. In all tree scenarios, the solution was tested for different network speeds. The solution solved satisfactorily the problem with the delay in the transfer of the DICOM files, while alowing the use of low and computers as client for visualizing the exams even, tablets and smart phones

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This work presents the tVoice, software that manipulates tags languages, extracting information and, being integral part of the VoiceProxy system, it aids bearers of special needs in the access to the Web. This system is responsible for the search and treatment of the documents in the Web, extracting the textual information contained in those documents and preceding the capability of generating eventually through translation techniques, an audio script, used by the of interface subsystem of VoiceProxy, the iVoice, in the process of voice synthesis. In this stage the tVoice, besides the treatment of the tag language HTML, processes other two formats of documents, PDF and XHTML. Additionally to allow that, besides the iVoice, other interface subsystems can make use of the tVoice through remote access, we propose distribution systems techniques based in the model Client-Server providers operations of the fashion of a proxy server treatment of documents

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Pós-graduação em Desenvolvimento Humano e Tecnologias - IBRC

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta o uso de energia solar, para o aquecimento de água, através da análise de aquecedores solares industrial e os construídos com garrafas PET com canos condutores de água de cobre, alumínio e PVC, instalados no Centro de Energias Renováveis - CER, do Campus de Engenharia Guaratinguetá. A análise foi realizada com a ajuda de sensores Termopar, software - Contemp View Simple, para obtenção de dados, software Teamviewer para acesso remoto. Sendo feitas as medições concluiu-se qual é o aquecedor mais eficiente a ser utilizado, sempre tendo como objetivo o aproveitamento da energia renovável usando a radiação solar

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper presents one proposal of the energy management's model system using photovoltaic panels. The module proposed seeks to monitor photovoltaic panels, which have intermittency in power generation caused by environmental or load conditions, in order to control the coupling between the panel and the load - through the charge controller, of aiming that the panel's operation will be always on the maximum power transfer point as possible. For this, it used the maximum power point tracking technique - MPPT, implemented in LabVIEW software, also utilizing the data acquisition card NI myDAQ. In addition, it was implemented the controller access remote module, from the sharing of network data, so the panels performance can be through a tablet, monitored and controlled with no need for direct contact with the Supervisory server

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper presents one proposal of the energy management's model system using photovoltaic panels. The module proposed seeks to monitor photovoltaic panels, which have intermittency in power generation caused by environmental or load conditions, in order to control the coupling between the panel and the load - through the charge controller, of aiming that the panel's operation will be always on the maximum power transfer point as possible. For this, it used the maximum power point tracking technique - MPPT, implemented in LabVIEW software, also utilizing the data acquisition card NI myDAQ. In addition, it was implemented the controller access remote module, from the sharing of network data, so the panels performance can be through a tablet, monitored and controlled with no need for direct contact with the Supervisory server

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The last decades have been characterized by a continuous adoption of IT solutions in the healthcare sector, which resulted in the proliferation of tremendous amounts of data over heterogeneous systems. Distinct data types are currently generated, manipulated, and stored, in the several institutions where patients are treated. The data sharing and an integrated access to this information will allow extracting relevant knowledge that can lead to better diagnostics and treatments. This thesis proposes new integration models for gathering information and extracting knowledge from multiple and heterogeneous biomedical sources. The scenario complexity led us to split the integration problem according to the data type and to the usage specificity. The first contribution is a cloud-based architecture for exchanging medical imaging services. It offers a simplified registration mechanism for providers and services, promotes remote data access, and facilitates the integration of distributed data sources. Moreover, it is compliant with international standards, ensuring the platform interoperability with current medical imaging devices. The second proposal is a sensor-based architecture for integration of electronic health records. It follows a federated integration model and aims to provide a scalable solution to search and retrieve data from multiple information systems. The last contribution is an open architecture for gathering patient-level data from disperse and heterogeneous databases. All the proposed solutions were deployed and validated in real world use cases.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação submetida à Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Electrotécnica e Computadores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A agricultura é a atividade econômica mais dependente das condições climáticas. Os eventos climáticos afetam não só os processos metabólicos das plantas, diretamente relacionados à produção vegetal, como também as mais diversas atividades no campo. De acordo com Petr (1990) e Fageria (1992), citados por Hoogenboom (2000), ao redor de 80% da variabilidade da produção agrícola no mundo se deve à variabilidade das condições climáticas durante o ciclo de cultivo, especialmente para as culturas de sequeiro, já que os agricultores não podem exercer nenhum controle sobre esses fenômenos naturais. Além de influenciar o crescimento, o desenvolvimento e a produtividade das culturas, o clima afeta também a relação das plantas com microorganismos, insetos, fungos e bactérias, favore-cendo ou não a ocorrência de pragas e doenças, o que demanda as medidas de controle ade-quadas. Muitas das práticas agrícolas de campo, como o preparo do solo, a semeadura, a adu-bação, a irrigação, as pulverizações, a colheita, entre outras, também dependem de condições de tempo e de umidade no solo específicas para que possam ser realizadas de forma eficiente (PEREIRA et al., 2002). Dada a grande importância do clima para a produção agrícola, o uso de informações meteoro-lógicas e climáticas é fundamental para que a agricultura se torne atividade sustentável (SIVAKUMAR et al., 2000). Neste contexto, a agrometeorologia, ciência interdisciplinar que estuda a influência do tempo e do clima na produção de alimentos, fibras e energia, assume papel estratégico no entendimento e na solução dos problemas enfrentados pela agricultura (MAVI E TUPPER, 2004). Os governos apoiam usualmente a gestão de risco dos agricultores concentrando-se nos riscos imprevisíveis e inevitáveis, possivelmente raros, mas que têm graves consequências (perdas catastróficas) se os agricultores não conseguirem gerir estes riscos sozinhos já que existe nú-mero limitado de opções políticas a serem consideradas, quer a nível interno ou internacional, quando o assunto é referente à alimentação dos concidadãos. A preocupação crescente com o aumento da população mundial, com a degradação dos recur-sos naturais e com a sustentabilidade da agricultura tem exigido maiores esforços no desen-volvimento de melhores estratégias e práticas do uso do solo, a partir do melhor entendimento das relações entre a agricultura e o clima. Nesse sentido, o desenvolvimento de ferramentas que auxiliem o planejamento e o processo de tomadas de decisão que resultem em menores impactos ambientais e no aumento da resiliência da agricultura, tem sido um dos objetivos das instituições governamentais e não gover-namentais ligadas à agricultura, ao ambiente e aos recursos naturais. Sem embargo, as sofisticadas técnicas utilizadas para estimar preços no mercado futuro, as perspectivas relativamente instáveis das commodities agrícolas resultam do pressuposto de que em condições normais, as incertezas associadas ao clima, fatores macroeconômicos, in-tervenções de políticas e o custo da energia, entre outros fatores relevantes, sugerem que os preços dos produtos de base agrossilvipastoris permanecerão imprevisíveis. Mesmo que estratégias de hedging continuem sendo preponderantes no que tange à mitigação do risco financeiro causado pela volatilidade de preços, para a grande maioria das empresas, seguradoras, governos e produtores que dependem dos resultados da lavoura para colher os benefícios financeiros da produção agrícola, como no caso das empresas agrossilvipastoris, a mitigação dos riscos de mercado concomitantemente ao gerenciamento do risco agrometeoro-lógico faz todo sentido. A utilização de uma ferramenta de suporte a decisão baseado em sistemas de informação geo-gráfica é a melhor maneira de aproveitar todo o conhecimento que está disponível para o acompanhamento da produção de alimentos e de energia. Os filtros espaciais utilizados para analisar a situação como um todo, aliados a produtos de informação atualizados em tempo hábil para verificar a produção local permitem monitorar de fato os principais riscos relacio-nados condições agrometeorológicas e o manejo da produção agrícola. A convergência tecnológica entre os sistemas de informação e de suporte à decisão por meio de servidores nas nuvens possibilita hoje automatizar grande parte das análises que se podem obter com base nas informações disponíveis e fazer chegar o conhecimento até o usuário final. As redes de empresas formadas para produzir dados espaciais, seja por meio de satélites de sensoriamento remoto ou redes de estações meteorológicas, estão preparadas para garantir um fluxo contínuo de informação para serem consumidos por usuários deste conhecimento. Os informes deste trabalho e as conclusões desta investigação remetem à hipótese de que a comunicação de informações de forma inteligente, em tempo hábil de serem aplicadas na to-mada de decisão eficiente, permite que os riscos associados aos cultivos sejam mais bem mi-tigados e, portanto gerem valor aos acionistas com ativos ligados ao agronegócio. O maior desafio desta dissertação de mestrado encontra-se em mostrar aos atores do agrone-gócio que, ao dotar os agricultores de meios para que eles possam gerir sua atividade com base nas melhores práticas de manejo agrometeorológico, incentivar a criação de mecanismos que aperfeiçoem a gestão rural e ampliem o acesso à informação, e não apenas auxiliá-los sob a forma de apoio ad hoc e assistência agronômica, de fato se amplia a capacidade de gestão dos riscos associados às atividades agrossilvipastoris.