46 resultados para Protocolos de encaminhamento tolerantes a intrusões


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O nosso estudo tem como objetivos entender o percurso da doença de pessoas com depressão desde o 1º contacto com a psiquiatria até ao encaminhamento para o serviço de reabilitação psicossocial; analisar a percepção da qualidade de vida em pessoas com depressão e compreender o impacto da reabilitação psicossocial na perceção da qualidade de vida. A depressão é uma doença com grande protagonismo na sociedade contemporânea e tem tido um grande impacto nos serviços que prestam cuidados psiquiátricos. A qualidade de vida é um conceito que tem potenciado a preocupação de cientistas e profissionais de saúde quanto ao desenvolvimento de métodos de avaliação e de instrumentos que devem considerar a perspetiva dos pacientes. Neste sentido foi utilizada a metodologia qualitativa cujas técnicas de investigação reúnem a observação participante, pesquisa documental e entrevista semi-estruturada. Foram realizadas 6 entrevistas (3 homens e 3 mulheres) a utentes que frequentam em regime de ambulatório do Serviço de Reabilitação Psicossocial do Hospital de Magalhães Lemos, EPE. A informação foi sujeita a análise de conteúdo após terem sido elaboradas categorias de análise. Algumas das conclusões retiradas do nosso estudo remetem para o seguinte: todos os nossos entrevistados foram encaminhados para a psiquiatria através do médico de família ou então deram entrada através serviço de urgência. Demonstram pouco conhecimento sobre a sua doença e escassa motivação para procurarem mais informação. O inicio da doença tem quase sempre sintomatologia física associada e pode ser episódica ou recorrente conduzindo à cronicidade. Relativamente ao conhecimento que tinham sobre o funcionamento do Serviço de Reabilitação Psicossocial antes de iniciarem a sua frequência, era praticamente nulo contudo manifestaram disponibilidade para iniciar esta nova etapa proposta pelo psiquiatra. A perceção que o grupo estudado tem sobre qualidade de vida é polissémica e pouco clara. Foi unânime que, todos os nossos entrevistados consideram que a sua frequência no SRP melhorou a sua qualidade de vida nomeadamente nas relações sociais e no desempenho das atividades de vida diária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise forense de documentos é uma das áreas das Ciências Forenses, responsável pela verificação da autenticidade dos documentos. Os documentos podem ser de diferentes tipos, sendo a moeda ou escrita manual as evidências forenses que mais frequentemente motivam a análise. A associação de novas tecnologias a este processo de análise permite uma melhor avaliação dessas evidências, tornando o processo mais célere. Esta tese baseia-se na análise forense de dois tipos de documentos - notas de euro e formulários preenchidos por escrita manual. Neste trabalho pretendeu-se desenvolver técnicas de processamento e análise de imagens de evidências dos tipos referidos com vista a extração de medidas que permitam aferir da autenticidade dos mesmos. A aquisição das imagens das notas foi realizada por imagiologia espetral, tendo-se definidas quatro modalidades de aquisição: luz visível transmitida, luz visível refletida, ultravioleta A e ultravioleta C. Para cada uma destas modalidades de aquisição, foram também definidos 2 protocolos: frente e verso. A aquisição das imagens dos documentos escritos manualmente efetuou-se através da digitalização dos mesmos com recurso a um digitalizador automático de um aparelho multifunções. Para as imagens das notas desenvolveram-se vários algoritmos de processamento e análise de imagem, específicos para este tipo de evidências. Esses algoritmos permitem a segmentação da região de interesse da imagem, a segmentação das sub-regiões que contém as marcas de segurança a avaliar bem como da extração de algumas características. Relativamente as imagens dos documentos escritos manualmente, foram também desenvolvidos algoritmos de segmentação que permitem obter todas as sub-regiões de interesse dos formulários, de forma a serem analisados os vários elementos. Neste tipo de evidências, desenvolveu-se ainda um algoritmo de análise para os elementos correspondentes à escrita de uma sequência numérica o qual permite a obtenção das imagens correspondentes aos caracteres individuais. O trabalho desenvolvido e os resultados obtidos permitiram a definição de protocolos de aquisição de imagens destes tipos de evidências. Os algoritmos automáticos de segmentação e análise desenvolvidos ao longo deste trabalho podem ser auxiliares preciosos no processo de análise da autenticidade dos documentos, o qual, ate então, é feito manualmente. Apresentam-se ainda os resultados dos estudos feitos às diversas evidências, nomeadamente as performances dos diversos algoritmos analisados, bem como algumas das adversidades encontradas durante o processo. Apresenta-se também uma discussão da metodologia adotada e dos resultados, bem como de propostas de continuação deste trabalho, nomeadamente, a extração de características e a implementação de classificadores capazes aferir da autenticidade dos documentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A gestão de redes informáticas converteu-se num fator vital para uma rede operar de forma eficiente, produtiva e lucrativa. A gestão envolve a monitorização e o controlo dos sistemas para que estes funcionam como o pretendido, ações de configuração, monitorização, reconfiguração dos componentes, são essenciais para o objetivo de melhorar o desempenho, diminuir o tempo de inatividade, melhor a segurança e efetuar contabilização. Paralelamente, a classificação de tráfego é um tema de bastante relevância em várias atividades relacionadas com as redes, tais como a previsão de QoS, segurança, monitorização, contabilização, planeamento de capacidade de backbones e deteção de invasão. A variação de determinados tipos de tráfego pode influenciar, decisões técnicas na área da gestão de redes, assim como decisões políticas e sociais. Neste trabalho pretende-se desenvolver um estudo dos vários protocolos, ferramentas de gestão e de classificação de tráfego disponíveis para apoiar a atividade de gestão. O estudo efetuado terminou com a proposta e implementação de uma solução de gestão adequado a um cenário real, bastante rico na diversidade de tecnologias e sistemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A acumulação de gordura na região abdominal acarreta um maior risco para a saúde. Objetivo(s): Analisar o efeito de um protocolo de uma sessão de exercício físico aeróbio associada à eletrolipólise no tecido adiposo da região abdominal nos valores do consumo e proporção dos substratos energéticos. É ainda objetivo avaliar as diferenças no consumo e proporção dos substratos energéticos, com o mesmo protocolo, no sexo feminino e no sexo masculino. Métodos: 38 participantes foram distribuídos aleatoriamente por dois grupos, o grupo experimental (9 feminino e 9 masculino) e o grupo placebo (11 feminino e 9 masculino). Ambos os grupos foram avaliados através das medidas antropométricas e foram sujeitos aos dois protocolos do estudo, o de microcorrente com aplicação 2 frequências (25 e 10Hz), 20 minutos cada, e o de exercício aeróbio a 45-55% frequência cardíaca de reserva. Contudo, no grupo placebo a microcorrente foi realizada sem intensidade. Para obtenção dos valores do consumo e proporção dos substratos foi utilizado o K4b2 durante o exercício físico. Resultados: Não se verificaram diferenças significativas nas quantidades de ácidos gordos, glucose e no quociente respiratório entre os grupos (ρ> 0,05). No entanto, parece haver uma tendência para um maior consumo de ácidos gordos após a aplicação da microcorrente durante o exercício físico. Conclusão: Os resultados deste estudo indicam que uma sessão de eletrolipólise associada ao exercício físico aeróbio não parece ser suficiente para influenciar a quantidade do consumo e a proporção dos substratos energéticos numa amostra de indivíduos jovens de ambos os sexos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O foco principal no estudo da Internet of Things tem sido a integração de dispositivos digitais com o mundo físico e vice-versa. Os dispositivos inteligentes têm vindo a ganhar uma forte presença na nossa vida diária e cada vez mais, tendem a integrar o sistema de uma casa, automatizando processos comuns como o controlo de temperatura ambiente ou mesmo a percentagem de luminosidade de uma divisão. A visão da IoT contempla um mundo interconectado, recolhendo informações de forma automática e possibilitando a comunicação entre dispositivos. Contudo, as tecnologias existentes para a criação de redes que albergam estes novos dispositivos carecem de padrões bem definidos, dificultando a interoperabilidade entre as diversas soluções existentes. Neste projeto são estudadas e aplicadas as tecnologias mais promissoras aplicáveis ao paradigma Internet of Things, com o objetivo de encontrar um conjunto de protocolos padrão para a implementação de sistemas de automação em casas inteligentes.1 Como objetivo final deste projeto, pretende-se criar uma rede de dispositivos com capacidades sensoriais que tenham a capacidade de comunicar com o mundo externo, permitindo o acesso à rede por qualquer tipo de utilizador. Com isso, espera-se caminhar para mais perto da padronização dos protocolos inerentes à IoT e habilitar interoperabilidade entre as mais diversas soluções. São apresentados e utilizados os protocolos que mais se adaptam ao tema escolhido, tentando simplificar a rede para que esta possa ser incluída em qualquer ambiente doméstico, recorrendo a hardware de custo reduzido. Os protocolos apresentados são o 6LoWPAN, utilizando o protocolo IEEE 802.15.4 como interface de rede juntamente com endereçamento IPv6. É também utilizado o protocolo CoAP na troca de mensagens entre os dispositivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As novas tecnologias aplicadas ao processamento de imagem e reconhecimento de padrões têm sido alvo de um grande progresso nas últimas décadas. A sua aplicação é transversal a diversas áreas da ciência, nomeadamente a área da balística forense. O estudo de evidências (invólucros e projeteis) encontradas numa cena de crime, recorrendo a técnicas de processamento e análise de imagem, é pertinente pelo facto de, aquando do disparo, as armas de fogo imprimirem marcas únicas nos invólucros e projéteis deflagrados, permitindo relacionar evidências deflagradas pela mesma arma. A comparação manual de evidências encontradas numa cena de crime com evidências presentes numa base de dados, em termos de parâmetros visuais, constitui uma abordagem demorada. No âmbito deste trabalho pretendeu-se desenvolver técnicas automáticas de processamento e análise de imagens de evidências, obtidas através do microscópio ótico de comparação, tendo por base algoritmos computacionais. Estes foram desenvolvidos com recurso a pacotes de bibliotecas e a ferramentas open-source. Para a aquisição das imagens de evidências balísticas foram definidas quatro modalidades de aquisição: modalidade Planar, Multifocus, Microscan e Multiscan. As imagens obtidas foram aplicados algoritmos de processamento especialmente desenvolvidos para o efeito. A aplicação dos algoritmos de processamento permite a segmentação de imagem, a extração de características e o alinhamento de imagem. Este último tem como finalidade correlacionar as evidências e obter um valor quantitativo (métrica), indicando o quão similar essas evidências são. Com base no trabalho desenvolvido e nos resultados obtidos, foram definidos protocolos de aquisição de imagens de microscopia, que possibilitam a aquisição de imagens das regiões passiveis de serem estudadas, assim como algoritmos que permitem automatizar o posterior processo de alinhamento de imagens de evidências, constituindo uma vantagem em relação ao processo de comparação manual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho enquadra-se na área das redes de computadores, fazendo referência aos protocolos e ao conjunto de equipamentos e softwares necessários para a administração, controlo e monitorização desse tipo de infra-estruturas. Para a gestão de uma rede de dados, é essencial dispor de conhecimentos e documentação de nível técnico para representar da forma mais fiel possível a configuração da rede, seguindo passo a passo a interligação entre equipamentos existentes e oferecendo assim uma visão o mais fidedigna possível das instalações. O protocolo SNMP é utilizado em larga escala sendo praticamente um standard para a administração de redes baseadas na tecnologia TCP/IP. Este protocolo define a comunicação entre um administrador e um agente, estabelecendo o formato e o significado das mensagens trocadas entre ambos. Tem a capacidade de suportar produtos de diferentes fabricantes, permitindo ao administrador manter uma base de dados com informações relevantes da monitorização de vários equipamentos, que pode ser consultada e analisada por softwares NMS concebidos especialmente para a gestão de redes de computadores. O trabalho apresentado nesta dissertação teve como objectivo utilizar uma ferramenta NMS, para fazer a monitorização e a gestão da infra-estrutura de comunicações de forma que permitisse conhecer em tempo real o estado dos elementos de rede, ajudar no diagnóstico de possíveis problemas, instalados pela Nonius nos diversos navios da frota Douro Azul. O software NMS escolhido utiliza as potencialidades do protocolo SNMP para adquirir dados de monitorização de equipamentos de rede presentes na rede, bem como monitorizar redes remotas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O controlo da qualidade em ressonância magnética (RM) passa pela realização de diversos testes ao equipamento e calibrações diárias, onde os fantomas desempenham um papel fundamental. Este trabalho teve como objetivo principal o desenvolvimento de um fantoma cerebral para um sistema de RM de intensidade 3.0 Tesla. Com base na literatura existente, escolheram-se como reagentes o cloreto de gadolínio (III) (GdCl3), a agarose, e o gelificante carragena, tendo sido ainda acrescentado o conservante químico azida de sódio (NaN3) de forma a inibir a degradação da solução. Realizaram-se vários testes com diferentes concentrações dos materiais selecionados até obter as misturas adequadas a suscetibilidade magnética das substâncias branca e cinzenta cerebrais. Os tempos de relaxação T1 das diversas substâncias desenvolvidas foram medidos, apresentando o fantoma final uns tempos de T1 de 702±10 ms, quando a concentração de GdCl3 foi de 100 µmol (substância branca) e 1179±23 ms quando a concentração foi de 15 µmol (substância cinzenta). Os valores de T1 do fantoma foram comparados estatisticamente com os tempos de relaxação conseguidos a partir de um cérebro humano, obtendo-se uma correlação de 0.867 com significância estatística. No intuito de demonstrar a aplicabilidade do fantoma, este foi sujeito a um protocolo de RM, do qual constaram as sequências habitualmente usadas no estudo cerebral. Como principais resultados constatou-se que, nas sequências ponderadas em T1, o fantoma apresenta uma forte associação positiva (rs > 0.700 p = 0.072) com o cérebro de referência, ainda que não sejam estatisticamente significativos. As sequências ponderadas em T2 demonstraram uma correlação positiva moderada e fraca, sendo a ponderação densidade protónica a única a apresentar uma associação negativa. Desta forma, o fantoma revelou-se um ótimo substituto do cérebro humano. Este trabalho culminou na criação de um modelo cerebral tridimensional onde foram individualizadas as regiões das substâncias branca e cinzenta, de forma a posteriormente serem preenchidas pelas correspondentes substâncias desenvolvidas, obtendo-se um fantoma cerebral antropomórfico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Sistemas de Gestão Técnica Centralizada (SGTC) assumem-se como essenciais nos grandes edifícios, já que permitem monitorizar, controlar, comandar e gerir, de forma facilitada, integrada e otimizada, as várias instalações existentes no edifício. O estado da arte de um SGTC baseia-se numa arquitetura distribuída, com recurso a Quadros de Gestão Técnica (QGT) que incluem Automation Servers - equipamentos nativos nos protocolos de comunicação mais comummente utilizados neste âmbito, incorporadores de funcionalidades e programações pré-definidas, e que ficarão responsáveis por integrar na sua área de influência, um conjunto de pontos de SGTC, definidos em projeto. Numa nova filosofia de instalação, integração e comunicação facilitada entre dispositivos que nos quadros elétricos geram dados relevantes para o utilizador e desencadeiam ações úteis na gestão de uma instalação, surge o novo conceito no mercado de Smart Panels, da Schneider Electric. Este sistema baseia-se numa ampla e diversa gama de possibilidades de medição e monitorização energética e da própria aparelhagem, com um sistema de comunicação com o sistema de gestão e controlo da instalação integrado no próprio quadro, dispensando assim a necessidade de um sistema externo (QGT), de recolha, comunicação e processamento de informação. Após o estudo descritivo teórico dos vários tópicos, questões e considerações relacionadas com os SGTC, os Smart Panels e a sua integração, o projeto e estudo comparativo do SGTC sem e com a integração de Smart Panels num grande centro comercial, permitiu concluir que a integração de Smart Panels num SGTC pode conferir vantagens no que diz respeito à implificação do projeto, da instalação, do comissionamento, programação, e da própria exploração da instalação elétrica, traduzindo-se numa redução dos custos normalmente elevados inerentes à mão de obra associada a todos estes processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma nova área tecnológica está em crescente desenvolvimento. Esta área, denominada de internet das coisas, surge na necessidade de interligar vários objetos para uma melhoria a nível de serviços ou necessidades por parte dos utilizadores. Esta dissertação concentra-se numa área específica da tecnologia internet das coisas que é a sensorização. Esta rede de sensorização é implementada pelo projeto europeu denominado de Future Cities [1] onde se cria uma infraestrutura de investigação e validação de projetos e serviços inteligentes na cidade do Porto. O trabalho realizado nesta dissertação insere-se numa das plataformas existentes nessa rede de sensorização: a plataforma de sensores ambientais intitulada de UrbanSense. Estes sensores ambientais que estão incorporados em Data Collect Unit (DCU), também denominados por nós, medem variáveis ambientais tais como a temperatura, humidade, ozono e monóxido de carbono. No entanto, os nós têm recursos limitados em termos de energia, processamento e memória. Apesar das grandes evoluções a nível de armazenamento e de processamento, a nível energético, nomeadamente nas baterias, não existe ainda uma evolução tão notável, limitando a sua operacionalidade [2]. Esta tese foca-se, essencialmente, na melhoria do desempenho energético da rede de sensores UrbanSense. A principal contribuição é uma adaptação do protocolo de redes Ad Hoc OLSR (Optimized Link State Routing Protocol) para ser usado por nós alimentados a energia renovável, de forma a aumentar a vida útil dos nós da rede de sensorização. Com esta contribuição é possível obter um maior número de dados durante períodos de tempo mais longos, aproximadamente 10 horas relativamente às 7 horas anteriores, resultando numa maior recolha e envio dos mesmos com uma taxa superior, cerca de 500 KB/s. Existindo deste modo uma aproximação analítica dos vários parâmetros existentes na rede de sensorização. Contudo, o aumento do tempo de vida útil dos nós sensores com recurso à energia renovável, nomeadamente, energia solar, incrementa o seu peso e tamanho que limita a sua mobilidade. Com o referido acréscimo a determinar e a limitar a sua mobilidade exigindo, por isso, um planeamento prévio da sua localização. Numa primeira fase do trabalho analisou-se o consumo da DCU, visto serem estes a base na infraestrutura e comunicando entre si por WiFi ou 3G. Após uma análise dos protocolos de routing com iv suporte para parametrização energética, a escolha recaiu sobre o protocolo OLSR devido à maturidade e compatibilidade com o sistema atual da DCU, pois apesar de existirem outros protocolos, a implementação dos mesmos, não se encontram disponível como software aberto. Para a validação do trabalho realizado na presente dissertação, é realizado um ensaio prévio sem a energia renovável, para permitir caracterização de limitações do sistema. Com este ensaio, tornou-se possível verificar a compatibilidade entre os vários materiais e ajustamento de estratégias. Num segundo teste de validação é concretizado um ensaio real do sistema com 4 nós a comunicar, usando o protocolo com eficiência energética. O protocolo é avaliado em termos de aumento do tempo de vida útil do nó e da taxa de transferência. O desenvolvimento da análise e da adaptação do protocolo de rede Ad Hoc oferece uma maior longevidade em termos de tempo de vida útil, comparando ao que existe durante o processamento de envio de dados. Apesar do tempo de longevidade ser inferior, quando o parâmetro energético se encontra por omissão com o fator 3, a realização da adaptação do sistema conforme a energia, oferece uma taxa de transferência maior num período mais longo. Este é um fator favorável para a abertura de novos serviços de envio de dados em tempo real ou envio de ficheiros com um tamanho mais elevado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: As crianças com Paralisia Cerebral evidenciam frequentemente alterações da sua funcionalidade global, evidenciadas nomeadamente na marcha. Diferentes protocolos de facilitação da marcha em tapete rolante têm vindo a ser alvo de estudos no sentido de clarificar a sua eficácia nesta população. Estes sugerem uma evolução positiva dos diferentes aspectos estudados (funcionalidade global, resistência cardiorespiratória, componentes da marcha), contudo utilizam diferentes metodologias e especificidades do protocolo, não existindo consenso acerca das melhores condições de utilização. Objectivo(s): O presente trabalho teve como objectivo principal avaliar o efeito da aplicação de um protocolo de marcha em tapete rolante (PMTR) em crianças com Paralisia Cerebral (PC) espástica, nos parâmetros biomecânicos da mesma e funcionalidade global. Métodos: Participaram no estudo 9 crianças com PC do tipo diplégico e hemiplégico inscritos na Associação de Paralisia Cerebral de Braga (APCB), com idades compreendidas entre os 3 e os 8 anos de idade. Cada criança foi avaliada antes e após a aplicação do PMTR, através da análise biomecânica da marcha (dinamometria e electromiografia de superfície), bem como da aplicação do teste de medida da função motora (TMFM). A amostra foi dividida em dois grupos – grupo sujeito ao protocolo de marcha em tapete rolante (GPMTR) (n=5) e grupo controlo (GC) (n=4). O protocolo em tapete rolante foi incluído nas sessões de intervenção de fisioterapia, com uma frequência semanal de 2 a 3 vezes por semana, durante um período de 10 semanas consecutivas, após o qual foram repetidas as avaliações iniciais. Resultados: A análise dos resultados permitiu verificar evoluções no GPMTR ao nível do score total da TMFM e especialmente na dimensão E, o que revelou melhorias significativas da funcionalidade motora global neste grupo. Verificaram-se ainda, em termos eletromiográficos um melhor padrão de recrutamento muscular, bem como, no que se refere à análise dinamométrica, evoluções positivas, na componente vertical das forças de reacção do solo.Conclusão: O presente estudo parece sugerir que a inclusão da facilitação da marcha em tapete rolante no plano de intervenção pode contribuir para uma melhoria nos parâmetros biomecânicos da marcha e funcionalidade global de crianças com Paralisia Cerebral do tipo diplégico e hemiplégico, com idades compreendidas entre os 3 e os 8 anos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O veículo guiado automaticamente (AGV) adquirido pelo Departamento de Engenharia Mecânica (DEM) tem vindo a ficar obsoleto devido ao hardware, que nos dias de hoje começa a dar sinais de falhas bem como falta de peças de substituição, e ao software, sendo o PLC (Programmable Logic Controller) usado muito limitado quanto às suas funções de controlo, ficando as principais tarefas de controlo do AGV a cargo de placas eletrónicas de controlo. Para promover o controlo autónomo do AGV, foi decidido retirar toda a parte de hardware que detinha o controlo do mesmo e passou a ser um novo PLC, com maior capacidade de processamento, a executar todo o tipo de controlo necessário ao funcionamento do mesmo. O hardware considerado apenas incluí, de forma resumida, os motores responsáveis pelo movimento e direção, placa de controlo de potência dos motores, placa de interface entre as saídas digitais do PLC e as entradas da placa de controlo de potência dos motores e os demais sensores necessários à deteção de obstáculos, fins de curso da direção, sensores dos postos de trabalho e avisadores de emergência. Todo o controlo de movimento e direção bem como a seleção das ações a executar passou a ficar a cargo do software programado no PLC assim como a interação entre o sistema de supervisão instalado num posto de controlo e o PLC através de comunicação via rádio. O uso do PLC permitiu a flexibilidade de mudar facilmente a forma como as saídas digitais são usadas, ao contrário de um circuito eletrónico que necessita de uma completa remodelação, tempo de testes e implementação para efetuar a mesma função. O uso de um microcontrolador seria igualmente viável para a aplicação em causa, no entanto o uso do PLC tem a vantagem de ser robusto, mais rápido na velocidade de processamento, existência de software de interface de programação bastante intuitivo e de livre acesso, facilidade de alterar a programação localmente ou remotamente, via rádio, acesso a vários protocolos de comunicação robustos como Modbus, Canbus, Profinet, Modnet, etc., e acesso integrado de uma consola gráfica totalmente programável. iv É ainda possível a sua expansão com adição de módulos de entradas e saídas digitais e/ou analógicas permitindo expandir largamente o uso do AGV para outros fins. A solução está a ser amplamente testada e validada no Laboratório de Automação (LabA) do Departamento de Engenharia Mecânica do ISEP (Instituto Superior de Engenharia do Porto), permitindo a otimização dos sistemas de controlo de direção bem como a interatividade entre o PLC e o programa de interface/supervisão do posto de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos o aumento exponencial da utilização de dispositivos móveis e serviços disponibilizados na “Cloud” levou a que a forma como os sistemas são desenhados e implementados mudasse, numa perspectiva de tentar alcançar requisitos que até então não eram essenciais. Analisando esta evolução, com o enorme aumento dos dispositivos móveis, como os “smartphones” e “tablets” fez com que o desenho e implementação de sistemas distribuidos fossem ainda mais importantes nesta área, na tentativa de promover sistemas e aplicações que fossem mais flexíveis, robutos, escaláveis e acima de tudo interoperáveis. A menor capacidade de processamento ou armazenamento destes dispositivos tornou essencial o aparecimento e crescimento de tecnologias que prometem solucionar muitos dos problemas identificados. O aparecimento do conceito de Middleware visa solucionar estas lacunas nos sistemas distribuidos mais evoluídos, promovendo uma solução a nível de organização e desenho da arquitetura dos sistemas, ao memo tempo que fornece comunicações extremamente rápidas, seguras e de confiança. Uma arquitetura baseada em Middleware visa dotar os sistemas de um canal de comunicação que fornece uma forte interoperabilidade, escalabilidade, e segurança na troca de mensagens, entre outras vantagens. Nesta tese vários tipos e exemplos de sistemas distribuídos e são descritos e analisados, assim como uma descrição em detalhe de três protocolos (XMPP, AMQP e DDS) de comunicação, sendo dois deles (XMPP e AMQP) utilzados em projecto reais que serão descritos ao longo desta tese. O principal objetivo da escrita desta tese é demonstrar o estudo e o levantamento do estado da arte relativamente ao conceito de Middleware aplicado a sistemas distribuídos de larga escala, provando que a utilização de um Middleware pode facilitar e agilizar o desenho e desenvolvimento de um sistema distribuído e traz enormes vantagens num futuro próximo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A gestão e monitorização de redes é uma necessidade fundamental em qualquer organização, quer seja grande ou pequena. A sua importância tem de ser refletida na eficiência e no aumento de informação útil disponível, contribuindo para uma maior eficácia na realização das tarefas em ambientes tecnologicamente avançados, com elevadas necessidades de desempenho e disponibilidade dos recursos dessa tecnologia. Para alcançar estes objetivos é fundamental possuir as ferramentas de gestão de redes adequadas. Nomeadamente ferramentas de monitorização. A classificação de tráfego também se revela fundamental para garantir a qualidade das comunicações e prevenir ataques indesejados aumentando assim a segurança nas comunicações. Paralelamente, principalmente em organizações grandes, é relevante a inventariação dos equipamentos utilizados numa rede. Neste trabalho pretende-se implementar e colocar em funcionamento um sistema autónomo de monitorização, classificação de protocolos e realização de inventários. Todas estas ferramentas têm como objetivo apoiar os administradores e técnicos de sistemas informáticos. Os estudos das aplicações que melhor se adequam à realidade da organização culminaram num acréscimo de conhecimento e aprendizagem que irão contribuir para um melhor desempenho da rede em que o principal beneficiário será o cidadão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muito se tem falado sobre revolução tecnológica e do aparecimento constante de novas aplicações Web, com novas funcionalidades que visam facilitar o trabalho dos utilizadores. Mas será que estas aplicações garantem que os dados transmitidos são tratados e enviados por canais seguros (protocolos)? Que garantias é que o utilizador tem que mesmo que a aplicação utilize um canal, que prevê a privacidade e integridade de dados, esta não apresente alguma vulnerabilidade pondo em causa a informação sensível do utilizador? Software que não foi devidamente testado, aliado à falta de sensibilização por parte dos responsáveis pelo desenvolvimento de software para questões de segurança, levam ao aumento de vulnerabilidades e assim exponenciam o número de potenciais vítimas. Isto aliado ao efeito de desinibição que o sentimento de invisibilidade pode provocar, conduz ao facilitismo e consequentemente ao aumento do número de vítimas alvos de ataques informáticos. O utilizador, por vezes, não sabe muito bem do que se deve proteger, pois a confiança que depõem no software não pressupõem que os seus dados estejam em risco. Neste contexto foram recolhidos dados históricos relativos a vulnerabilidades nos protocolos SSL/TLS, para perceber o impacto que as mesmas apresentam e avaliar o grau de risco. Para além disso, foram avaliados um número significativo de domínios portugueses para perceber se os mesmos têm uma vulnerabilidade específica do protocolo SSL/TLS.