55 resultados para Protocolos de quimioterapia combinada antineoplásica
Resumo:
Mestrado em Engenharia Electrotécnica – Sistemas Eléctricos de Energia
Resumo:
No decorrer dos últimos anos, os agentes (inteligentes) de software foram empregues como um método para colmatar as dificuldades associadas com a gestão, partilha e reutilização de um crescente volume de informação, enquanto as ontologias foram utilizadas para modelar essa mesma informação num formato semanticamente explícito e rico. À medida que a popularidade da Web Semântica aumenta e cada vez informação é partilhada sob a forma de ontologias, o problema de integração desta informação amplifica-se. Em semelhante contexto, não é expectável que dois agentes que pretendam cooperar utilizem a mesma ontologia para descrever a sua conceptualização do mundo. Inclusive pode revelar-se necessário que agentes interajam sem terem conhecimento prévio das ontologias utilizadas pelos restantes, sendo necessário que as conciliem em tempo de execução num processo comummente designado por Mapeamento de Ontologias [1]. O processo de mapeamento de ontologias é normalmente oferecido como um serviço aos agentes de negócio, podendo ser requisitado sempre que seja necessário produzir um alinhamento. No entanto, tendo em conta que cada agente tem as suas próprias necessidades e objetivos, assim como a própria natureza subjetiva das ontologias que utilizam, é possível que tenham diferentes interesses relativamente ao processo de alinhamento e que, inclusive, recorram aos serviços de mapeamento que considerem mais convenientes [1]. Diferentes matchers podem produzir resultados distintos e até mesmo contraditórios, criando-se assim conflitos entre os agentes. É necessário que se proceda então a uma tentativa de resolução dos conflitos existentes através de um processo de negociação, de tal forma que os agentes possam chegar a um consenso relativamente às correspondências que devem ser utilizadas na tradução de mensagens a trocar. A resolução de conflitos é considerada uma métrica de grande importância no que diz respeito ao processo de negociação [2]: considera-se que existe uma maior confiança associada a um alinhamento quanto menor o número de conflitos por resolver no processo de negociação que o gerou. Desta forma, um alinhamento com um número elevado de conflitos por resolver apresenta uma confiança menor que o mesmo alinhamento associado a um número elevado de conflitos resolvidos. O processo de negociação para que dois ou mais agentes gerem e concordem com um alinhamento é denominado de Negociação de Mapeamentos de Ontologias. À data existem duas abordagens propostas na literatura: (i) baseadas em Argumentação (e.g. [3] [4]) e (ii) baseadas em Relaxamento [5] [6]. Cada uma das propostas expostas apresenta um número de vantagens e limitações. Foram propostas várias formas de combinação das duas técnicas [2], com o objetivo de beneficiar das vantagens oferecidas e colmatar as suas limitações. No entanto, à data, não são conhecidas experiências documentadas que possam provar tal afirmação e, como tal, não é possível atestar que tais combinações tragam, de facto, o benefício que pretendem. O trabalho aqui apresentado pretende providenciar tais experiências e verificar se a afirmação de melhorias em relação aos resultados das técnicas individuais se mantém. Com o objetivo de permitir a combinação e de colmatar as falhas identificadas, foi proposta uma nova abordagem baseada em Relaxamento, que é posteriormente combinada com as abordagens baseadas em Argumentação. Os seus resultados, juntamente com os da combinação, são aqui apresentados e discutidos, sendo possível identificar diferenças nos resultados gerados por combinações diferentes e possíveis contextos de utilização.
Resumo:
Atualmente, no segmento metro-ferroviário, há uma tendência para que todos os equipamentos que constituem os sistemas auxiliares de uma estação (escadas mecânicas, elevadores, bloqueadores, validadores de bilhética, ventiladores, bombas, entre outros) sejam dotados de inteligência. Tipicamente, um conjunto de equipamentos são ligados a um autómato que permite o controlo local e remoto e é vulgar que, sendo de fabricantes diferentes, suportem tecnologias distintas. Um sistema de supervisão que permita o acesso à informação disponibilizada por cada um dos autómatos, ou à atuação sobre um deles, terá por isso que implementar e suportar diversos protocolos de comunicação de forma a não ficar limitado a um tipo de tecnologia. De forma a diminuir os custos de desenvolvimento e operação de um sistema de supervisão e controlo e facilitar a integração de novos equipamentos, com diferentes características, têm sido procuradas soluções que garantam uma mais fácil comunicação entre os diversos módulos intervenientes. Nesta dissertação são implementadas soluções baseadas em clientes OPC-DA e OPC-AE e no protocolo IEC 60870-5-104, permitindo que os sistemas de supervisão e de controlo comuniquem com os equipamentos através destes três módulos. Os principais aspectos inovadores estão associados à implementação de uma arquitetura multiprotocolo usando as novas tendências de supervisão e controlo baseadas em soluções distribuídas.
Resumo:
Este trabalho começa por apresentar uma instalação de rede informática local efetuada sob supervisão do candidato e parcialmente por ele, descrevendo de seguida algumas considerações que na altura se lhe levantaram. Sendo ligada à saúde, para além das preocupações normais de instalação de qualquer solução, a questão humana e social foi particularmente sentida. Várias organizações e pessoas individuais necessitam de implementar e utilizar soluções de comunicações informáticas, pelo que a privacidade e confiabilidade das informações processadas se torna um assunto premente. No sentido de obter uma resposta para este problema, o candidato evoluiu para a área da criptografia e segurança de comunicações, implementado alguns dos protocolos existentes e estudando-os com maior rigor. É justamente a descrição dessa evolução e da segurança com que se pode contar quando se utilizam meios informáticos o âmbito deste trabalho, focando principalmente o impacto que tem na sua utilização.
Resumo:
Dissertação de Mestrado apresentada ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação do Doutor José Campos Amorim
Resumo:
A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.
Resumo:
A metrologia na saúde tem um elevado grau de importância no quotidiano hospitalar dado que muitas decisões são tomadas com base em medições. Além disso, a constante evolução tecnológica na área da saúde e o número crescente de parâmetros fisiológicos dos equipamentos médicos exige a constante preocupação com o controlo metrológico. Assim, o funcionamento eficiente destes poderá contribuir para a segurança, uma melhor e mais rápida recuperação do doente e, consequentemente, um aumento do tempo de vida do equipamento, o que por sua vez se reflete numa maior economia de custos. A otimização de protocolos de metrologia em saúde, a elaboração de planos de controlo para validação de equipamentos médicos-hospitalares, a sensibilização de profissionais de saúde para o controlo metrológico, assim como o conhecimento das aplicações informáticas da organização são essenciais para uma eficaz gestão da manutenção hospitalar. O Serviço de Instalações e Equipamentos do Centro Hospitalar do Tâmega e Sousa, trabalha no sentido de assegurar uma resposta rápida, otimizada e eficiente para satisfazer as necessidades hospitalares através da aplicação de metodologias e ferramentas da qualidade destinadas à metrologia em saúde. Assim, o objetivo principal deste trabalho é apresentar metodologias e ferramentas aplicadas no controlo de parâmetros de equipamentos médico-hospitalares tais como, dispositivos de infusão, monitores de sinais vitais, eletrocardiógrafos, cardiotocógrafos, desfibrilhadores, incubadoras, aparelhos de fototerapia, bem como, o processo de gestão da manutenção aplicado pelo Serviço de Instalações e Equipamentos. Neste sentido foi possível demonstrar que o controlo metrológico é de extrema importância para uma instituição hospitalar.
Resumo:
A análise forense de documentos é uma das áreas das Ciências Forenses, responsável pela verificação da autenticidade dos documentos. Os documentos podem ser de diferentes tipos, sendo a moeda ou escrita manual as evidências forenses que mais frequentemente motivam a análise. A associação de novas tecnologias a este processo de análise permite uma melhor avaliação dessas evidências, tornando o processo mais célere. Esta tese baseia-se na análise forense de dois tipos de documentos - notas de euro e formulários preenchidos por escrita manual. Neste trabalho pretendeu-se desenvolver técnicas de processamento e análise de imagens de evidências dos tipos referidos com vista a extração de medidas que permitam aferir da autenticidade dos mesmos. A aquisição das imagens das notas foi realizada por imagiologia espetral, tendo-se definidas quatro modalidades de aquisição: luz visível transmitida, luz visível refletida, ultravioleta A e ultravioleta C. Para cada uma destas modalidades de aquisição, foram também definidos 2 protocolos: frente e verso. A aquisição das imagens dos documentos escritos manualmente efetuou-se através da digitalização dos mesmos com recurso a um digitalizador automático de um aparelho multifunções. Para as imagens das notas desenvolveram-se vários algoritmos de processamento e análise de imagem, específicos para este tipo de evidências. Esses algoritmos permitem a segmentação da região de interesse da imagem, a segmentação das sub-regiões que contém as marcas de segurança a avaliar bem como da extração de algumas características. Relativamente as imagens dos documentos escritos manualmente, foram também desenvolvidos algoritmos de segmentação que permitem obter todas as sub-regiões de interesse dos formulários, de forma a serem analisados os vários elementos. Neste tipo de evidências, desenvolveu-se ainda um algoritmo de análise para os elementos correspondentes à escrita de uma sequência numérica o qual permite a obtenção das imagens correspondentes aos caracteres individuais. O trabalho desenvolvido e os resultados obtidos permitiram a definição de protocolos de aquisição de imagens destes tipos de evidências. Os algoritmos automáticos de segmentação e análise desenvolvidos ao longo deste trabalho podem ser auxiliares preciosos no processo de análise da autenticidade dos documentos, o qual, ate então, é feito manualmente. Apresentam-se ainda os resultados dos estudos feitos às diversas evidências, nomeadamente as performances dos diversos algoritmos analisados, bem como algumas das adversidades encontradas durante o processo. Apresenta-se também uma discussão da metodologia adotada e dos resultados, bem como de propostas de continuação deste trabalho, nomeadamente, a extração de características e a implementação de classificadores capazes aferir da autenticidade dos documentos.
Resumo:
A gestão de redes informáticas converteu-se num fator vital para uma rede operar de forma eficiente, produtiva e lucrativa. A gestão envolve a monitorização e o controlo dos sistemas para que estes funcionam como o pretendido, ações de configuração, monitorização, reconfiguração dos componentes, são essenciais para o objetivo de melhorar o desempenho, diminuir o tempo de inatividade, melhor a segurança e efetuar contabilização. Paralelamente, a classificação de tráfego é um tema de bastante relevância em várias atividades relacionadas com as redes, tais como a previsão de QoS, segurança, monitorização, contabilização, planeamento de capacidade de backbones e deteção de invasão. A variação de determinados tipos de tráfego pode influenciar, decisões técnicas na área da gestão de redes, assim como decisões políticas e sociais. Neste trabalho pretende-se desenvolver um estudo dos vários protocolos, ferramentas de gestão e de classificação de tráfego disponíveis para apoiar a atividade de gestão. O estudo efetuado terminou com a proposta e implementação de uma solução de gestão adequado a um cenário real, bastante rico na diversidade de tecnologias e sistemas.
Resumo:
Introdução: A acumulação de gordura na região abdominal acarreta um maior risco para a saúde. Objetivo(s): Analisar o efeito de um protocolo de uma sessão de exercício físico aeróbio associada à eletrolipólise no tecido adiposo da região abdominal nos valores do consumo e proporção dos substratos energéticos. É ainda objetivo avaliar as diferenças no consumo e proporção dos substratos energéticos, com o mesmo protocolo, no sexo feminino e no sexo masculino. Métodos: 38 participantes foram distribuídos aleatoriamente por dois grupos, o grupo experimental (9 feminino e 9 masculino) e o grupo placebo (11 feminino e 9 masculino). Ambos os grupos foram avaliados através das medidas antropométricas e foram sujeitos aos dois protocolos do estudo, o de microcorrente com aplicação 2 frequências (25 e 10Hz), 20 minutos cada, e o de exercício aeróbio a 45-55% frequência cardíaca de reserva. Contudo, no grupo placebo a microcorrente foi realizada sem intensidade. Para obtenção dos valores do consumo e proporção dos substratos foi utilizado o K4b2 durante o exercício físico. Resultados: Não se verificaram diferenças significativas nas quantidades de ácidos gordos, glucose e no quociente respiratório entre os grupos (ρ> 0,05). No entanto, parece haver uma tendência para um maior consumo de ácidos gordos após a aplicação da microcorrente durante o exercício físico. Conclusão: Os resultados deste estudo indicam que uma sessão de eletrolipólise associada ao exercício físico aeróbio não parece ser suficiente para influenciar a quantidade do consumo e a proporção dos substratos energéticos numa amostra de indivíduos jovens de ambos os sexos.
Resumo:
Este trabalho foi realizado na Scania CV AB e teve como principal objectivo estabelecer uma diretriz sobre a possível utilização de aços vazados. Existe uma grande necessidade na realização deste trabalho, de forma a apoiar os engenheiros de projecto no seu processo de selecção dos materiais mais adequados, para produzir componentes mais leves e de elevado desempenho. Esta diretriz apresenta informação relacionada com propriedades mecânicas, processos de fundição, vazabilidade, tipologia de defeitos, tratamentos térmicos, soldabilidade e tratamentos superficiais dos aços vazados. Este trabalho foi limitado, na seleção de materiais para componentes do camião, a aços vazados que poderiam ser aplicados em dois componentes específicos: um componente estrutural da carroçaria sujeito a esforços de fadiga e a um colector de gases de combustão, sujeito a fluência, oxidação, fadiga por corrosão, fadiga-térmica e fadiga-mecânica. Foi realizado um benchmark focado nestes dois componentes de forma a saber que materiais são utilizados de momento por outras empresas concorrentes. Foi realizada ainda uma análise sobre possíveis materiais que possam ser aplicados em cada componente referido. Foi conduzida uma caracterização no estado bruto de fundição de um aço inoxidável vazado usado para produzir um protótipo do colector de gases. Esta caracterização consistiu numa análise microestrutural e medição de macro e microdurezas. Além da caracterização inicial, foram aplicados um conjunto de tratamentos térmicos, de forma a estudar a possibilidade de eliminar os carbonetos presentes inicialmente nas fronteiras de grão. As principais conclusões deste trabalho são que o aço vazado apresenta potencial para ser uma escolha válida em diversas aplicações, devido a um leque alargado de propriedades apresentadas tipicamente por este material. Relativamente a aplicações estruturais, o aço vazado é vantajoso comparativamente ao ferro fundido, quando são requeridos, por exemplo, soldabilidade e elevada resistência, combinada com elevada tenacidade à fractura. Para componentes sujeitos a elevadas temperaturas de serviço, o aço inoxidável vazado é vantajoso quando usado a temperaturas superiores a 750°C, apesar do seu elevado custo. O tratamento térmico composto por um recozimento de solubilização seguido de envelhecimento, elimina quase na totalidade os carbonetos presentes nas fronteiras de grão e verifica-se um aumento de dureza através de uma precipitação de carbonetos finamente dispersos na matriz, que poderão também aumentar a resistência à fluência.
Resumo:
O foco principal no estudo da Internet of Things tem sido a integração de dispositivos digitais com o mundo físico e vice-versa. Os dispositivos inteligentes têm vindo a ganhar uma forte presença na nossa vida diária e cada vez mais, tendem a integrar o sistema de uma casa, automatizando processos comuns como o controlo de temperatura ambiente ou mesmo a percentagem de luminosidade de uma divisão. A visão da IoT contempla um mundo interconectado, recolhendo informações de forma automática e possibilitando a comunicação entre dispositivos. Contudo, as tecnologias existentes para a criação de redes que albergam estes novos dispositivos carecem de padrões bem definidos, dificultando a interoperabilidade entre as diversas soluções existentes. Neste projeto são estudadas e aplicadas as tecnologias mais promissoras aplicáveis ao paradigma Internet of Things, com o objetivo de encontrar um conjunto de protocolos padrão para a implementação de sistemas de automação em casas inteligentes.1 Como objetivo final deste projeto, pretende-se criar uma rede de dispositivos com capacidades sensoriais que tenham a capacidade de comunicar com o mundo externo, permitindo o acesso à rede por qualquer tipo de utilizador. Com isso, espera-se caminhar para mais perto da padronização dos protocolos inerentes à IoT e habilitar interoperabilidade entre as mais diversas soluções. São apresentados e utilizados os protocolos que mais se adaptam ao tema escolhido, tentando simplificar a rede para que esta possa ser incluída em qualquer ambiente doméstico, recorrendo a hardware de custo reduzido. Os protocolos apresentados são o 6LoWPAN, utilizando o protocolo IEEE 802.15.4 como interface de rede juntamente com endereçamento IPv6. É também utilizado o protocolo CoAP na troca de mensagens entre os dispositivos.
Resumo:
As novas tecnologias aplicadas ao processamento de imagem e reconhecimento de padrões têm sido alvo de um grande progresso nas últimas décadas. A sua aplicação é transversal a diversas áreas da ciência, nomeadamente a área da balística forense. O estudo de evidências (invólucros e projeteis) encontradas numa cena de crime, recorrendo a técnicas de processamento e análise de imagem, é pertinente pelo facto de, aquando do disparo, as armas de fogo imprimirem marcas únicas nos invólucros e projéteis deflagrados, permitindo relacionar evidências deflagradas pela mesma arma. A comparação manual de evidências encontradas numa cena de crime com evidências presentes numa base de dados, em termos de parâmetros visuais, constitui uma abordagem demorada. No âmbito deste trabalho pretendeu-se desenvolver técnicas automáticas de processamento e análise de imagens de evidências, obtidas através do microscópio ótico de comparação, tendo por base algoritmos computacionais. Estes foram desenvolvidos com recurso a pacotes de bibliotecas e a ferramentas open-source. Para a aquisição das imagens de evidências balísticas foram definidas quatro modalidades de aquisição: modalidade Planar, Multifocus, Microscan e Multiscan. As imagens obtidas foram aplicados algoritmos de processamento especialmente desenvolvidos para o efeito. A aplicação dos algoritmos de processamento permite a segmentação de imagem, a extração de características e o alinhamento de imagem. Este último tem como finalidade correlacionar as evidências e obter um valor quantitativo (métrica), indicando o quão similar essas evidências são. Com base no trabalho desenvolvido e nos resultados obtidos, foram definidos protocolos de aquisição de imagens de microscopia, que possibilitam a aquisição de imagens das regiões passiveis de serem estudadas, assim como algoritmos que permitem automatizar o posterior processo de alinhamento de imagens de evidências, constituindo uma vantagem em relação ao processo de comparação manual.
Resumo:
O presente trabalho enquadra-se na área das redes de computadores, fazendo referência aos protocolos e ao conjunto de equipamentos e softwares necessários para a administração, controlo e monitorização desse tipo de infra-estruturas. Para a gestão de uma rede de dados, é essencial dispor de conhecimentos e documentação de nível técnico para representar da forma mais fiel possível a configuração da rede, seguindo passo a passo a interligação entre equipamentos existentes e oferecendo assim uma visão o mais fidedigna possível das instalações. O protocolo SNMP é utilizado em larga escala sendo praticamente um standard para a administração de redes baseadas na tecnologia TCP/IP. Este protocolo define a comunicação entre um administrador e um agente, estabelecendo o formato e o significado das mensagens trocadas entre ambos. Tem a capacidade de suportar produtos de diferentes fabricantes, permitindo ao administrador manter uma base de dados com informações relevantes da monitorização de vários equipamentos, que pode ser consultada e analisada por softwares NMS concebidos especialmente para a gestão de redes de computadores. O trabalho apresentado nesta dissertação teve como objectivo utilizar uma ferramenta NMS, para fazer a monitorização e a gestão da infra-estrutura de comunicações de forma que permitisse conhecer em tempo real o estado dos elementos de rede, ajudar no diagnóstico de possíveis problemas, instalados pela Nonius nos diversos navios da frota Douro Azul. O software NMS escolhido utiliza as potencialidades do protocolo SNMP para adquirir dados de monitorização de equipamentos de rede presentes na rede, bem como monitorizar redes remotas.
Resumo:
O controlo da qualidade em ressonância magnética (RM) passa pela realização de diversos testes ao equipamento e calibrações diárias, onde os fantomas desempenham um papel fundamental. Este trabalho teve como objetivo principal o desenvolvimento de um fantoma cerebral para um sistema de RM de intensidade 3.0 Tesla. Com base na literatura existente, escolheram-se como reagentes o cloreto de gadolínio (III) (GdCl3), a agarose, e o gelificante carragena, tendo sido ainda acrescentado o conservante químico azida de sódio (NaN3) de forma a inibir a degradação da solução. Realizaram-se vários testes com diferentes concentrações dos materiais selecionados até obter as misturas adequadas a suscetibilidade magnética das substâncias branca e cinzenta cerebrais. Os tempos de relaxação T1 das diversas substâncias desenvolvidas foram medidos, apresentando o fantoma final uns tempos de T1 de 702±10 ms, quando a concentração de GdCl3 foi de 100 µmol (substância branca) e 1179±23 ms quando a concentração foi de 15 µmol (substância cinzenta). Os valores de T1 do fantoma foram comparados estatisticamente com os tempos de relaxação conseguidos a partir de um cérebro humano, obtendo-se uma correlação de 0.867 com significância estatística. No intuito de demonstrar a aplicabilidade do fantoma, este foi sujeito a um protocolo de RM, do qual constaram as sequências habitualmente usadas no estudo cerebral. Como principais resultados constatou-se que, nas sequências ponderadas em T1, o fantoma apresenta uma forte associação positiva (rs > 0.700 p = 0.072) com o cérebro de referência, ainda que não sejam estatisticamente significativos. As sequências ponderadas em T2 demonstraram uma correlação positiva moderada e fraca, sendo a ponderação densidade protónica a única a apresentar uma associação negativa. Desta forma, o fantoma revelou-se um ótimo substituto do cérebro humano. Este trabalho culminou na criação de um modelo cerebral tridimensional onde foram individualizadas as regiões das substâncias branca e cinzenta, de forma a posteriormente serem preenchidas pelas correspondentes substâncias desenvolvidas, obtendo-se um fantoma cerebral antropomórfico.