841 resultados para Sistemas de transmissão de dados - Medidas de segurança


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem como objectivo o estudo e projecto de receptores optimizados para sistemas de comunicações por fibra óptica de muito alto débito (10Gb/s e 40Gb/s), com a capacidade integrada de compensação adaptativa pós-detecção da distorção originada pela característica de dispersão cromática e de polarização do canal óptico. O capítulo 1 detalha o âmbito de aplicabilidade destes receptores em sistemas de comunicações ópticas com multiplexagem no comprimento de onda (WDM) actuais. O capítulo apresenta ainda os objectivos e principais contribuições desta tese. O capítulo 2 detalha o projecto de um amplificador pós-detecção adequado para sistemas de comunicação ópticos com taxa de transmissão de 10Gb/s. São discutidas as topologias mais adequadas para amplificadores pós detecção e apresentados os critérios que ditaram a escolha da topologia de transimpedância bem como as condições que permitem optimizar o seu desempenho em termos de largura de banda, ganho e ruído. Para além disso são abordados aspectos relacionados com a implementação física em tecnologia monolítica de microondas (MMIC), focando em particular o impacto destes no desempenho do circuito, como é o caso do efeito dos componentes extrínsecos ao circuito monolítico, em particular as ligações por fio condutor do monólito ao circuito externo. Este amplificador foi projectado e produzido em tecnologia pHEMT de Arsenieto de Gálio e implementado em tecnologia MMIC. O protótipo produzido foi caracterizado na fábrica, ainda na bolacha em que foi produzido (on-wafer) tendo sido obtidos dados de caracterização de 80 circuitos protótipo. Estes foram comparados com resultados de simulação e com desempenho do protótipo montado num veículo de teste. O capítulo 3 apresenta o projecto de dois compensadores eléctricos ajustáveis com a capacidade de mitigar os efeitos da dispersão cromática e da dispersão de polarização em sistemas ópticos com débito binário de 10Gb/s e 40Gb/s, com modulação em banda lateral dupla e banda lateral única. Duas topologias possíveis para este tipo de compensadores (a topologia Feed-Forward Equalizer e a topologia Decision Feedback Equaliser) são apresentadas e comparadas. A topologia Feed-Forward Equaliser que serviu de base para a implementação dos compensadores apresentados é analisada com mais detalhe sendo propostas alterações que permitem a sua implementação prática. O capítulo apresenta em detalhe a forma como estes compensadores foram implementados como circuitos distribuídos em tecnologia MMIC sendo propostas duas formas de implementar as células de ganho variável: com recurso à configuração cascode ou com recurso à configuração célula de Gilbert. São ainda apresentados resultados de simulação e experimentais (dos protótipos produzidos) que permitem tirar algumas conclusões sobre o desempenho das células de ganho com as duas configurações distintas. Por fim, o capítulo inclui ainda resultados de desempenho dos compensadores testados como compensadores de um sinal eléctrico afectado de distorção. No capítulo 4 é feita uma análise do impacto da modulação em banda lateral dupla (BLD) em comparação com a modulação em banda lateral única (BLU) num sistema óptico afectado de dispersão cromática e de polarização. Mostra-se que com modulação em BLU, como não há batimento entre portadoras das duas bandas laterais em consequência do processo quadrático de detecção e há preservação da informação da distorção cromática do canal (na fase do sinal), o uso deste tipo de modulação em sistemas de comunicação óptica permite maior tolerância à dispersão cromática e os compensadores eléctricos são muito mais eficientes. O capítulo apresenta ainda resultados de teste dos compensadores desenvolvidos em cenários experimentais de laboratório representativos de sistemas ópticos a 10Gb/s e 40Gb/s. Os resultados permitem comparar o desempenho destes cenários sem e com compensação eléctrica optimizada, para os casos de modulação em BLU e em BLD, e considerando ainda os efeitos da dispersão na velocidade de grupo e do atraso de grupo diferencial. Mostra-se que a modulação BLU em conjunto com compensação adaptativa eléctrica permite um desempenho muito superior á modulação em BLD largamente utilizada nos sistemas de comunicações actuais. Por fim o capítulo 5 sintetiza e apresenta as principais conclusões deste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem como principal objectivo o estudo e a interpretação dos mecanismos de transferência de calor e massa no interior de um meio poroso húmido actuando como barreira térmica de protecção em condições de incêndio, visando, sobretudo, melhorar o desempenho destes sistemas. A barreira térmica estudada é constituída por camadas de fibra de vidro, cuja face exposta à chama é protegida por uma folha de alumínio perfurada. A realização deste estudo envolveu a concepção, realização e operação de uma montagem experimental, com a qual se obteve a evolução temporal da temperatura e da taxa de evaporação de água no interior de uma amostra da barreira térmica, submetida à acção directa de uma chama. A análise do processo de protecção foi complementada com resultados obtidos por simulação numérica do processo, designadamente a evolução das propriedades térmicas, que determinam os mecanismos de transferência de calor e massa no interior da barreira. Para esse efeito foi desenvolvido um modelo matemático de simulação do processo de protecção para as barreiras em estudo, que permitiu obter resultados que acompanham bem as evoluções verificadas nos ensaios experimentais. A barreira térmica estudada mostrou claramente possuir um bom desempenho no processo de protecção, face às barreiras térmicas secas. Com a realização deste estudo identificaram-se e quantificaram-se os mecanismos de transferência de calor e massa dominantes nas diversas fases do processo de protecção, o que permitiu extrair conclusões valiosas quanto às características dos meios porosos que contribuem para o seu bom desempenho como barreiras térmicas húmidas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As alterações climáticas favorecem a ocorrência global de episódios de precipitação e seca extremas, colocando em risco a qualidade da água em sistemas aquáticos usados consumo humano ou recreação. O fenómeno de seca, em particular, será mais frequente e severo, alterando toda a hidrodinâmica dos sistemas aquáticos e, consequentemente, a ecologia das comunidades aquáticas. A ocorrência de blooms de cianobactérias intensificarse- á sob este novo cenário climático. Em Portugal, estudos parcelares em rios e barragens têm sido realizados com enfoque em cianobactérias tóxicas e outras bactérias patogénicas, mas não há trabalhos publicados acerca da composição da comunidade bacteriana (CCB). O presente trabalho pretende colmatar esta falha, com particular atenção para a ocorrência de blooms cianobacterianos, em vários sistemas aquáticos portugueses lóticos e lênticos. Este objectivo foi alcançado utilizando metodologias moleculares, como a técnica rDNA 16S-DGGE (Denaturing Gradient Gel Electrophoresis), independente do cultivo, e a sequenciação. Dados ambientais foram também determinados para correlacionar com as variações sazonais ou espaciais da diversidade da CCB. O impacto da seca na distribuição espacial da CCB foi também investigado. A lagoa da Vela é um caso de estudo especial, devido à vasta documentação sobre a ocorrência de blooms de cianobactérias durante os últimos anos, e várias estirpes isoladas de blooms foram estudadas em mais detalhe. Os resultados mostraram, em geral, perfis de DGGE típicos de verão vs. inverno nos sistemas aquáticos estudados. Nos sistemas lênticos, os filótipos dominantes afiliaram com Cyanobacteria (formas unicelulares, coloniais e filamentosas), eucariotas fototróficos e Actinobacteria, enquanto nos rios, Bacteroidetes e Betaproteobacteria foram dominantes. Nos sistemas lênticos, os factores mais significativos para a sazonalidade da CCB incluíram a temperatura da água, a condutividade e a clorofila a, apesar da variação extrema dos níveis de precipitação, sugerindo que a BCC poderá resistir a mudanças severas causadas pela seca. Nos rios, a sazonalidade da CCB foi principalmente definida pela temperatura e os níveis de amónia. No verão seco de 2005, as barragens do Alentejo (Sul de Portugal) mostraram similaridade na CCB, com filótipos comuns de Cyanobacteria, Actinobacteria e Alphaproteobacteria. No entanto, os perfis de DGGE sugerem filótipos ubíquos em sistemas portugueses geograficamente distantes. Na Lagoa da Vela, a seca conduziu à redução drástica do nível da água e à variação na diversidade espacial da CCB (e cianobactérias dominantes) e potencial tóxico, o que pode ter impacto directo nos utilizadores da lagoa. Os resultados também mostraram a presença de estirpes tóxicas de Microcystis na lagoa e um bloom não clonal de estirpes de Aphanizomenon aphanizomenoides, com diferentes morfótipos, genótipos e ecótipos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O trabalho analisa o controle interno presente nas operações de contas a receber de uma empresa comercial do ramo de distribuição de autopeças. O objetivo geral do trabalho é identificar os tipos de controles internos de contas a receber presentes na gestão de uma empresa comercial de distribuição de autopeças em Goiânia – GO. O controle interno influencia fundamentalmente na continuidade das empresas, em virtude de constantes modificações em seus meios empresariais e a constante necessidade de adequação ao modelo exigido no mercado. Como metodologia desenvolveu-se um estudo de caso a partir de revisão literária. O estudo de caso foi desenvolvido por meio de entrevistas junto ao proprietário aplicando o questionário a seguir a fim de verificar os controles do ciclo de receitas existentes na empresa. O resultado foi obtido através de identificação dos controles internos existentes na empresa no departamento de contas a receber e comparados com os controles necessários de acordo com literatura apresentada, avaliando os controles utilizados e identificando possíveis falhas devido a não utilização de ferramentas de controle, sugerindo assim melhorias e implantação de controles adequados. Após coleta dos dados verificou-se que a empresa utiliza vários tipos de controles internos de contas a receber em suas atividades, porém, apresentam problemas a segregação de funções, ausência de formalização de procedimentos, integração entre sistemas, não constituição de provisão para devedores duvidosos, entre outros. Após a análise e descrição dos controles internos de contas a receber utilizados pela empresa, foi possível constatar o quão importantes são os controles internos na gestão dos fluxos e atividades de contas a receber em micro e pequenas empresas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese pretende contribuir para o estudo e análise dos factores relacionados com as técnicas de aquisição de imagens radiológicas digitais, a qualidade diagnóstica e a gestão da dose de radiação em sistema de radiologia digital. A metodologia encontra-se organizada em duas componentes. A componente observacional, baseada num desenho do estudo de natureza retrospectiva e transversal. Os dados recolhidos a partir de sistemas CR e DR permitiram a avaliação dos parâmetros técnicos de exposição utilizados em radiologia digital, a avaliação da dose absorvida e o índice de exposição no detector. No contexto desta classificação metodológica (retrospectiva e transversal), também foi possível desenvolver estudos da qualidade diagnóstica em sistemas digitais: estudos de observadores a partir de imagens arquivadas no sistema PACS. A componente experimental da tese baseou-se na realização de experiências em fantomas para avaliar a relação entre dose e qualidade de imagem. As experiências efectuadas permitiram caracterizar as propriedades físicas dos sistemas de radiologia digital, através da manipulação das variáveis relacionadas com os parâmetros de exposição e a avaliação da influência destas na dose e na qualidade da imagem. Utilizando um fantoma contrastedetalhe, fantomas antropomórficos e um fantoma de osso animal, foi possível objectivar medidas de quantificação da qualidade diagnóstica e medidas de detectabilidade de objectos. Da investigação efectuada, foi possível salientar algumas conclusões. As medidas quantitativas referentes à performance dos detectores são a base do processo de optimização, permitindo a medição e a determinação dos parâmetros físicos dos sistemas de radiologia digital. Os parâmetros de exposição utilizados na prática clínica mostram que a prática não está em conformidade com o referencial Europeu. Verifica-se a necessidade de avaliar, melhorar e implementar um padrão de referência para o processo de optimização, através de novos referenciais de boa prática ajustados aos sistemas digitais. Os parâmetros de exposição influenciam a dose no paciente, mas a percepção da qualidade de imagem digital não parece afectada com a variação da exposição. Os estudos que se realizaram envolvendo tanto imagens de fantomas como imagens de pacientes mostram que a sobreexposição é um risco potencial em radiologia digital. A avaliação da qualidade diagnóstica das imagens mostrou que com a variação da exposição não se observou degradação substancial da qualidade das imagens quando a redução de dose é efectuada. Propõe-se o estudo e a implementação de novos níveis de referência de diagnóstico ajustados aos sistemas de radiologia digital. Como contributo da tese, é proposto um modelo (STDI) para a optimização de sistemas de radiologia digital.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No contexto dos contaminantes aquáticos, os herbicidas são considerados como um dos grupos mais perigosos. Uma vez aplicados, estes são facilmente transportados para cursos de água, quer devido a uma pulverização pouco cuidada ou devido a fenómenos de escorrência superficial e/ou subterrânea. A presença destes agroquímicos no ambiente tem vindo a ser associada a efeitos nefastos em organismos não-alvo, como é o caso dos peixes. Contudo, existe ainda uma grande lacuna no que diz respeito à informação científica relacionada com o seu impacto genotóxico. Deste modo, a presente tese foi delineada com o intuito de avaliar o risco genotóxico em peixes de duas formulações de herbicidas: o Roundup®, que tem como princípio activo o glifosato, e o Garlon®, que apresenta o triclopir na base da sua constituição, produtos estes largamente utilizados na limpeza de campos agrícolas, assim como em florestas. Foi ainda planeado desenvolver uma base de conhecimento no que diz respeito aos mecanismos de dano do ADN. Como último objectivo, pretendeu-se contribuir para a mitigação dos efeitos dos agroquímicos no biota aquático, nomeadamente em peixes, fornecendo dados científicos no sentido de melhorar as práticas agrícolas e florestais. Este estudo foi realizado adoptando a enguia europeia (Anguilla anguilla L.) como organismo-teste, e submetendo-a a exposições de curta duração (1 e 3 dias) dos produtos comerciais mencionados, em concentrações consideradas ambientalmente realistas. Para a avaliação da genotoxicidade foram aplicadas duas metodologias: o ensaio do cometa e o teste das anomalias nucleares eritrocíticas (ANE). Enquanto o ensaio do cometa detecta quebras na cadeia do ADN, um dano passível de ser reparado, o aparecimento das ANE revela lesões cromossomais, sinalizando um tipo de dano de difícil reparação. O ensaio do cometa foi ainda melhorado com uma nova etapa que incluiu a incubação com enzimas de reparação (FPG e EndoIII), permitindo perceber a ocorrência de dano oxidativo no ADN. No que diz respeito ao Roundup®, o envolvimento do sistema antioxidante como indicador de um estado próoxidante foi também alvo de estudo. Uma vez que as referidas formulações se apresentam sob a forma de misturas, o potencial genotóxico dos seus princípios activos foi também avaliado individualmente. No caso particular do Roundup®, também foram estudados o seu surfactante (amina polietoxilada; POEA) e o principal metabolito ambiental (ácido aminometilfosfórico; AMPA). Os resultados obtidos mostraram a capacidade do Roundup® em induzir tanto dano no ADN (em células de sangue, guelras e fígado) como dano cromossómico (em células de sangue). A investigação sobre o possível envolvimento do stresse oxidativo demonstrou que o tipo de dano no ADN varia com as concentrações testadas e com a duração da exposição. Deste modo, com o aumento do tempo de exposição, os processos relacionados com o envolvimento de espécies reactivas de oxigénio (ERO) ganharam preponderância como mecanismo de dano no ADN, facto que é corroborado pela activação do sistema antioxidante observado nas guelras, assim como pelo aumento dos sítios sensíveis a FPG em hepatócitos. O glifosato e o POEA foram também considerados genotóxicos. O POEA mostrou induzir uma maior extensão de dano no ADN, tanto comparado com o glifosato como com a mistura comercial. Apesar de ambos os componentes contribuirem para a genotoxicidade da formulação, a soma dos seus efeitos individuais nunca foi observada, apontando para um antagonismo entre eles e indicando que o POEA não aumenta o risco associado ao princípio activo. Deste modo, realça-se a necessidade de regulamentar limiares de segurança para todos os componentes da formulação, recomendando, em particular, a revisão da classificação do risco do POEA (actualmente classificado com “inerte”). Uma vez confirmada a capacidade do principal metabolito do glifosato – AMPA – em exercer dano no ADN assim como dano cromossómico, os produtos da degradação ambiental dos princípios activos assumem-se como um problema silencioso, realçando assim a importância de incluir o AMPA na avaliação do risco relacionado com herbicidas com base no glifosato. A formulação Garlon® e o seu princípio activo triclopir mostraram um claro potencial genotóxico. Adicionalmente, o Garlon® mostrou possuir um potencial genotóxico mais elevado do que o seu princípio activo. No entanto, a capacidade de infligir dano oxidativo no ADN não foi demonstrada para nenhum dos agentes. No que concerne à avaliação da progressão do dano após a remoção da fonte de contaminação, nem os peixes expostos a Roundup® nem os expostos a Garlon® conseguiram restaurar completamente a integridade do seu ADN ao fim de 14 dias. No que concerne ao Roundup®, o uso de enzimas de reparação de lesões específicas do ADN associado ao teste do cometa permitiu detectar um aparecimento tardio de dano oxidativo, indicando deste modo um decaimento progressivo da protecção antioxidante e ainda uma incapacidade de reparar este tipo de dano. O período de pós-exposição correspondente ao Garlon® revelou uma tendência de diminuição dos níveis de dano, apesar de nunca se observar uma completa recuperação. Ainda assim, foi evidente uma intervenção eficiente das enzimas de reparação do ADN, mais concretamente as direccionadas às purinas oxidadas. A avaliação das metodologias adoptadas tornou evidente que o procedimento base do ensaio do cometa, que detecta apenas o dano nãoespecífico no ADN, possui algumas limitações quando comparado com a metodologia que incluiu a incubação com as enzimas de reparação, uma vez que a última mostrou reduzir a possibilidade de ocorrência de resultados falsos negativos. Os dois parâmetros adoptados (ensaio do cometa e teste das ANE) demonstraram possuir aptidões complementares, sendo assim recomendado a sua utilização conjunta com vista a efectuar uma avaliação mais adequada do risco genotóxico. Globalmente, os resultados obtidos forneceram indicações de grande utilidade para as entidades reguladoras, contribuindo ainda para a (re)formulação de medidas de conservação do ambiente aquático. Neste sentido, os dados obtidos apontam para a importância da avaliação de risco dos herbicidas incluir testes de genotoxicidade. A magnitude de risco detectada para ambas as formulações adverte para a necessidade de adopção de medidas restritivas em relação à sua aplicação na proximidade de cursos de água. Como medidas mitigadoras de impactos ambientais, aponta-se o desenvolvimento de formulações que incorporem adjuvantes selecionados com base na sua baixa toxicidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objeto principal desta tese é o estudo de algoritmos de processamento e representação automáticos de dados, em particular de informação obtida por sensores montados a bordo de veículos (2D e 3D), com aplicação em contexto de sistemas de apoio à condução. O trabalho foca alguns dos problemas que, quer os sistemas de condução automática (AD), quer os sistemas avançados de apoio à condução (ADAS), enfrentam hoje em dia. O documento é composto por duas partes. A primeira descreve o projeto, construção e desenvolvimento de três protótipos robóticos, incluindo pormenores associados aos sensores montados a bordo dos robôs, algoritmos e arquitecturas de software. Estes robôs foram utilizados como plataformas de ensaios para testar e validar as técnicas propostas. Para além disso, participaram em várias competições de condução autónoma tendo obtido muito bons resultados. A segunda parte deste documento apresenta vários algoritmos empregues na geração de representações intermédias de dados sensoriais. Estes podem ser utilizados para melhorar técnicas já existentes de reconhecimento de padrões, deteção ou navegação, e por este meio contribuir para futuras aplicações no âmbito dos AD ou ADAS. Dado que os veículos autónomos contêm uma grande quantidade de sensores de diferentes naturezas, representações intermédias são particularmente adequadas, pois podem lidar com problemas relacionados com as diversas naturezas dos dados (2D, 3D, fotométrica, etc.), com o carácter assíncrono dos dados (multiplos sensores a enviar dados a diferentes frequências), ou com o alinhamento dos dados (problemas de calibração, diferentes sensores a disponibilizar diferentes medições para um mesmo objeto). Neste âmbito, são propostas novas técnicas para a computação de uma representação multi-câmara multi-modal de transformação de perspectiva inversa, para a execução de correcção de côr entre imagens de forma a obter mosaicos de qualidade, ou para a geração de uma representação de cena baseada em primitivas poligonais, capaz de lidar com grandes quantidades de dados 3D e 2D, tendo inclusivamente a capacidade de refinar a representação à medida que novos dados sensoriais são recebidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A investigação em apreço tem como horizonte de ocorrência o espaço inter-organizacional onde as empresas se relacionam entre si, com os seus fornecedores, canais e Clientes. É pretendido estudar o actual estado das parcerias inter-organizacionais do sector segurador nacional e definir uma estratégia de desenvolvimento integrado dos sistemas de valor. Com base num modelo de análise ancorado na (1) racionalidade económica inscrita na TCE (teoria dos custos de transacção) e (2) na óptica das Capacidades Dinâmicas, é proposto o Modelo GPS (Gestão Integrada de Parcerias) compaginável com uma visão holística e dinâmica. A metodologia de verificação empírica compreendeu (1) recolha de dados através de questionário, dirigido a Companhias e Parceiros e (2) entrevistas semi-estruturadas. A análise descritiva dos dados permitiu validar o modelo GPS e caracterizar um sistema de valor heterogéneo, complexo e diversificado relativamente à natureza e intensidade de relacionamentos. O sistema de relacionamentos foi enquadrado numa escala de maturidade onde foram posicionadas as várias práticas de gestão de parcerias. Actualmente nos seguros estamos perante um sistema mais economic-intensive, transaccional, do que knowledge-intensive. No teste de hipóteses, efectuado com a ferramenta SPSS, assinalam-se as correlações que se esperavam encontrar, bem como as (principais) ausências. De facto, a ausência de vestígios de correlação entre governance social/confiança e colaboração nos seguros não era esperada e constitui uma chamada de atenção para uma dimensão sub-explorada, conducente a um quadro tensional. No final, com base na realidade captada, foram traçadas recomendações de desenvolvimento dos sistemas de valor visando alcançar níveis colaborativos mais eficazes, assentes na força dos laços fortes. Todavia, esta nova narrativa de gestão não é neutral face aos modelos vigentes, implicando algum grau de ruptura. A continuação de especialização em actividades core, desconstruindo de forma (mais) pronunciada a cadeia de valor, secundada por maior níveis de colaboração e socialização entre pares, são elementos constitutivos da realidade futura. Vendo para além da linha do horizonte, os gestores seguradores não podem ficar indiferentes à projecção de uma matriz de fundo de relacionamentos mais colaborativos enquanto terreno fértil de inovação e renovação de fontes de vantagem competitiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A importância e preocupação dedicadas à autonomia e independência das pessoas idosas e dos pacientes que sofrem de algum tipo de deficiência tem vindo a aumentar significativamente ao longo das últimas décadas. As cadeiras de rodas inteligentes (CRI) são tecnologias que podem ajudar este tipo de população a aumentar a sua autonomia, sendo atualmente uma área de investigação bastante ativa. Contudo, a adaptação das CRIs a pacientes específicos e a realização de experiências com utilizadores reais são assuntos de estudo ainda muito pouco aprofundados. A cadeira de rodas inteligente, desenvolvida no âmbito do Projeto IntellWheels, é controlada a alto nível utilizando uma interface multimodal flexível, recorrendo a comandos de voz, expressões faciais, movimentos de cabeça e através de joystick. Este trabalho teve como finalidade a adaptação automática da CRI atendendo às características dos potenciais utilizadores. Foi desenvolvida uma metodologia capaz de criar um modelo do utilizador. A investigação foi baseada num sistema de recolha de dados que permite obter e armazenar dados de voz, expressões faciais, movimentos de cabeça e do corpo dos pacientes. A utilização da CRI pode ser efetuada em diferentes situações em ambiente real e simulado e um jogo sério foi desenvolvido permitindo especificar um conjunto de tarefas a ser realizado pelos utilizadores. Os dados foram analisados recorrendo a métodos de extração de conhecimento, de modo a obter o modelo dos utilizadores. Usando os resultados obtidos pelo sistema de classificação, foi criada uma metodologia que permite selecionar a melhor interface e linguagem de comando da cadeira para cada utilizador. A avaliação para validação da abordagem foi realizada no âmbito do Projeto FCT/RIPD/ADA/109636/2009 - "IntellWheels - Intelligent Wheelchair with Flexible Multimodal Interface". As experiências envolveram um vasto conjunto de indivíduos que sofrem de diversos níveis de deficiência, em estreita colaboração com a Escola Superior de Tecnologia de Saúde do Porto e a Associação do Porto de Paralisia Cerebral. Os dados recolhidos através das experiências de navegação na CRI foram acompanhados por questionários preenchidos pelos utilizadores. Estes dados foram analisados estatisticamente, a fim de provar a eficácia e usabilidade na adequação da interface da CRI ao utilizador. Os resultados mostraram, em ambiente simulado, um valor de usabilidade do sistema de 67, baseado na opinião de uma amostra de pacientes que apresentam os graus IV e V (os mais severos) de Paralisia Cerebral. Foi também demonstrado estatisticamente que a interface atribuída automaticamente pela ferramenta tem uma avaliação superior à sugerida pelos técnicos de Terapia Ocupacional, mostrando a possibilidade de atribuir automaticamente uma linguagem de comando adaptada a cada utilizador. Experiências realizadas com distintos modos de controlo revelaram a preferência dos utilizadores por um controlo compartilhado com um nível de ajuda associado ao nível de constrangimento do paciente. Em conclusão, este trabalho demonstra que é possível adaptar automaticamente uma CRI ao utilizador com claros benefícios a nível de usabilidade e segurança.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A desmaterialização da economia é um dos caminhos para a promoção do desenvolvimento sustentável na medida em que elimina ou reduz a utilização de recursos naturais, fazendo mais com menos. A intensificação dos processos tecnológicos é uma forma de desmaterializar a economia. Sistemas mais compactos e mais eficientes consomem menos recursos. No caso concreto dos sistemas envolvendo processo de troca de calor, a intensificação resulta na redução da área de permuta e da quantidade de fluido de trabalho, o que para além de outra vantagem que possa apresentar decorrentes da miniaturização, é um contributo inegável para a sustentabilidade da sociedade através do desenvolvimento científico e tecnológico. O desenvolvimento de nanofluidos surge no sentido de dar resposta a estes tipo de desafios da sociedade moderna, contribuindo para a inovação de produtos e sistemas, dando resposta a problemas colocados ao nível das ciências de base. A literatura é unânime na identificação do seu potencial como fluidos de permuta, dada a sua elevada condutividade, no entanto a falta de rigor subjacente às técnicas de preparação dos mesmos, assim como de um conhecimento sistemático das suas propriedades físicas suportado por modelos físico-matemáticos devidamente validados levam a que a operacionalização industrial esteja longe de ser concretizável. Neste trabalho, estudou-se de forma sistemática a condutividade térmica de nanofluidos de base aquosa aditivados com nanotubos de carbono, tendo em vista a identificação dos mecanismos físicos responsáveis pela condução de calor no fluido e o desenvolvimento de um modelo geral que permita com segurança determinar esta propriedade com o rigor requerido ao nível da engenharia. Para o efeito apresentam-se métodos para uma preparação rigorosa e reprodutível deste tipo de nanofluido assim como das metodologias consideradas mais importantes para a aferição da sua estabilidade, assegurando deste modo o rigor da técnica da sua produção. A estabilidade coloidal é estabelecida de forma rigorosa tendo em conta parâmetros quantificáveis como a ausência de aglomeração, a separação de fases e a deterioração da morfologia das nanopartículas. Uma vez assegurado o método de preparação dos nanofluídos, realizou-se uma análise paramétrica conducente a uma base de dados obtidos experimentalmente que inclui a visão central e globalizante da influência relativa dos diferentes fatores de controlo com impacto nas propriedades termofísicas. De entre as propriedades termofísicas, este estudo deu particular ênfase à condutividade térmica, sendo os fatores de controlo selecionados os seguintes: fluido base, temperatura, tamanho da partícula e concentração de nanopartículas. Experimentalmente, verificou-se que de entre os fatores de controlo estudados, os que maior influência detêm sobre a condutividade térmica do nanofluido, são o tamanho e concentração das nanopartículas. Com a segurança conferida por uma base de dados sólida e com o conhecimento acerca da contribuição relativa de cada fator de controlo no processo de transferência de calor, desenvolveu-se e validou-se um modelo físico-matemático com um caracter generalista, que permitirá determinar com segurança a condutividade térmica de nanofluidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The ever-growing energy consumption in mobile networks stimulated by the expected growth in data tra ffic has provided the impetus for mobile operators to refocus network design, planning and deployment towards reducing the cost per bit, whilst at the same time providing a signifi cant step towards reducing their operational expenditure. As a step towards incorporating cost-eff ective mobile system, 3GPP LTE-Advanced has adopted the coordinated multi-point (CoMP) transmission technique due to its ability to mitigate and manage inter-cell interference (ICI). Using CoMP the cell average and cell edge throughput are boosted. However, there is room for reducing energy consumption further by exploiting the inherent exibility of dynamic resource allocation protocols. To this end packet scheduler plays the central role in determining the overall performance of the 3GPP longterm evolution (LTE) based on packet-switching operation and provide a potential research playground for optimizing energy consumption in future networks. In this thesis we investigate the baseline performance for down link CoMP using traditional scheduling approaches, and subsequently go beyond and propose novel energy e fficient scheduling (EES) strategies that can achieve power-e fficient transmission to the UEs whilst enabling both system energy effi ciency gain and fairness improvement. However, ICI can still be prominent when multiple nodes use common resources with di fferent power levels inside the cell, as in the so called heterogeneous networks (Het- Net) environment. HetNets are comprised of two or more tiers of cells. The rst, or higher tier, is a traditional deployment of cell sites, often referred to in this context as macrocells. The lower tiers are termed small cells, and can appear as microcell, picocells or femtocells. The HetNet has attracted signiffi cant interest by key manufacturers as one of the enablers for high speed data at low cost. Research until now has revealed several key hurdles that must be overcome before HetNets can achieve their full potential: bottlenecks in the backhaul must be alleviated, as well as their seamless interworking with CoMP. In this thesis we explore exactly the latter hurdle, and present innovative ideas on advancing CoMP to work in synergy with HetNet deployment, complemented by a novel resource allocation policy for HetNet tighter interference management. As system level simulator has been used to analyze the proposed algorithm/protocols, and results have concluded that up to 20% energy gain can be observed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Wireless communication technologies have become widely adopted, appearing in heterogeneous applications ranging from tracking victims, responders and equipments in disaster scenarios to machine health monitoring in networked manufacturing systems. Very often, applications demand a strictly bounded timing response, which, in distributed systems, is generally highly dependent on the performance of the underlying communication technology. These systems are said to have real-time timeliness requirements since data communication must be conducted within predefined temporal bounds, whose unfulfillment may compromise the correct behavior of the system and cause economic losses or endanger human lives. The potential adoption of wireless technologies for an increasingly broad range of application scenarios has made the operational requirements more complex and heterogeneous than before for wired technologies. On par with this trend, there is an increasing demand for the provision of cost-effective distributed systems with improved deployment, maintenance and adaptation features. These systems tend to require operational flexibility, which can only be ensured if the underlying communication technology provides both time and event triggered data transmission services while supporting on-line, on-the-fly parameter modification. Generally, wireless enabled applications have deployment requirements that can only be addressed through the use of batteries and/or energy harvesting mechanisms for power supply. These applications usually have stringent autonomy requirements and demand a small form factor, which hinders the use of large batteries. As the communication support may represent a significant part of the energy requirements of a station, the use of power-hungry technologies is not adequate. Hence, in such applications, low-range technologies have been widely adopted. In fact, although low range technologies provide smaller data rates, they spend just a fraction of the energy of their higher-power counterparts. The timeliness requirements of data communications, in general, can be met by ensuring the availability of the medium for any station initiating a transmission. In controlled (close) environments this can be guaranteed, as there is a strict regulation of which stations are installed in the area and for which purpose. Nevertheless, in open environments, this is hard to control because no a priori abstract knowledge is available of which stations and technologies may contend for the medium at any given instant. Hence, the support of wireless real-time communications in unmanaged scenarios is a highly challenging task. Wireless low-power technologies have been the focus of a large research effort, for example, in the Wireless Sensor Network domain. Although bringing extended autonomy to battery powered stations, such technologies are known to be negatively influenced by similar technologies contending for the medium and, especially, by technologies using higher power transmissions over the same frequency bands. A frequency band that is becoming increasingly crowded with competing technologies is the 2.4 GHz Industrial, Scientific and Medical band, encompassing, for example, Bluetooth and ZigBee, two lowpower communication standards which are the base of several real-time protocols. Although these technologies employ mechanisms to improve their coexistence, they are still vulnerable to transmissions from uncoordinated stations with similar technologies or to higher power technologies such as Wi- Fi, which hinders the support of wireless dependable real-time communications in open environments. The Wireless Flexible Time-Triggered Protocol (WFTT) is a master/multi-slave protocol that builds on the flexibility and timeliness provided by the FTT paradigm and on the deterministic medium capture and maintenance provided by the bandjacking technique. This dissertation presents the WFTT protocol and argues that it allows supporting wireless real-time communication services with high dependability requirements in open environments where multiple contention-based technologies may dispute the medium access. Besides, it claims that it is feasible to provide flexible and timely wireless communications at the same time in open environments. The WFTT protocol was inspired on the FTT paradigm, from which higher layer services such as, for example, admission control has been ported. After realizing that bandjacking was an effective technique to ensure the medium access and maintenance in open environments crowded with contention-based communication technologies, it was recognized that the mechanism could be used to devise a wireless medium access protocol that could bring the features offered by the FTT paradigm to the wireless domain. The performance of the WFTT protocol is reported in this dissertation with a description of the implemented devices, the test-bed and a discussion of the obtained results.