28 resultados para Mecanismos de solução de controvérsias

em Instituto Politécnico do Porto, Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Perante a evolução constante da Internet, a sua utilização é quase obrigatória. Através da web, é possível conferir extractos bancários, fazer compras em países longínquos, pagar serviços sem sair de casa, entre muitos outros. Há inúmeras alternativas de utilização desta rede. Ao se tornar tão útil e próxima das pessoas, estas começaram também a ganhar mais conhecimentos informáticos. Na Internet, estão também publicados vários guias para intrusão ilícita em sistemas, assim como manuais para outras práticas criminosas. Este tipo de informação, aliado à crescente capacidade informática do utilizador, teve como resultado uma alteração nos paradigmas de segurança informática actual. Actualmente, em segurança informática a preocupação com o hardware é menor, sendo o principal objectivo a salvaguarda dos dados e continuidade dos serviços. Isto deve-se fundamentalmente à dependência das organizações nos seus dados digitais e, cada vez mais, dos serviços que disponibilizam online. Dada a mudança dos perigos e do que se pretende proteger, também os mecanismos de segurança devem ser alterados. Torna-se necessário conhecer o atacante, podendo prever o que o motiva e o que pretende atacar. Neste contexto, propôs-se a implementação de sistemas de registo de tentativas de acesso ilícitas em cinco instituições de ensino superior e posterior análise da informação recolhida com auxílio de técnicas de data mining (mineração de dados). Esta solução é pouco utilizada com este intuito em investigação, pelo que foi necessário procurar analogias com outras áreas de aplicação para recolher documentação relevante para a sua implementação. A solução resultante revelou-se eficaz, tendo levado ao desenvolvimento de uma aplicação de fusão de logs das aplicações Honeyd e Snort (responsável também pelo seu tratamento, preparação e disponibilização num ficheiro Comma Separated Values (CSV), acrescentando conhecimento sobre o que se pode obter estatisticamente e revelando características úteis e previamente desconhecidas dos atacantes. Este conhecimento pode ser utilizado por um administrador de sistemas para melhorar o desempenho dos seus mecanismos de segurança, tais como firewalls e Intrusion Detection Systems (IDS).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A constante evolução da tecnologia obriga a que o mundo empresarial tenha que alocar esforços para se manter actualizado. Os equipamentos tecnológicos que se encontram actualmente na vanguarda da tecnologia são os dispositivos móveis, que cada vez mais nos rodeiam e acompanham com o intuito de nos facilitar a execução de tarefas rotineiras. O ramo de construção e obras públicas em particular é um sector que obriga a que os seus trabalhadores estejam constantemente em movimento, e que muito têm a ganhar com a utilização de ferramentas de trabalho em equipamentos móveis. Neste projecto pretendeu-se identificar qual o sistema operativo para dispositivos móveis que melhor se enquadra com as necessidades empresariais, assim como quais os mecanismos de comunicação inter-máquinas que melhor se enquadram com o cenário em estudo. Foi então desenvolvida uma plataforma para dispositivos móveis que permite agilizar a execução de processos que normalmente são morosos ou que obrigam à utilização do computador em locais menos próprios, nomeadamente o ambiente de obra. A solução proposta e implementada envolve uma aplicação modular quer permita a fácil inserção e remoção de módulos. Foram também realizados os estudos e implementações de quatro módulos, designadamente: auto-afectação, conferência documental, fornecedores e presenças em obra. Concluído este projecto, ficam reunidas as condições para o fácil desenvolvimento de novos módulos, visando inovação e optimização dos processos de trabalho da empresa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processo de negociação tem ganho relevância como uma das formas de gestão de conflitos. Verifica-se que nas organizações a negociação é um processo omnipresente, que tem sido alvo de muito estudo e investigação, e as capacidades de negociação são consideradas determinantes para o sucesso. Em consequência dessas tendências, surgem propostas de modelos de negociação bastantes flexíveis e que visam colaboração entre as partes interessadas, modelos que se adequam aos contextos organizacionais em que predominam relações estáveis e de longo prazo. Estas propostas procuram a solução óptima para as partes interessadas. No entanto, faltam frequentemente os mecanismos e procedimentos que garantam um processo estruturado para elaborar e analisar os diversos cenários na negociação, considerando um conjunto de aspectos relevantes para ambas as partes. No presente trabalho de dissertação formula-se uma proposta baseada no modelo de negociação Win Win Quantitativa, em que foi utilizada uma abordagem do método multicritério Analitic Hierarchy Process (AHP) para seleccionar a melhor opção de serviço para uma determinada empresa. Para o caso de estudo, num contexto real, foi necessário desenvolver uma aplicação Excel que permitisse analisar, de uma forma clara, as diversas alternativas perante os critérios mencionados. A aplicação do método AHP permite aos clientes tomar uma decisão potencialmente mais acertada. A aplicação informática procura optimizar os custos inerentes à prestação de serviços, oferecendo aos clientes um custo reduzido e assim tornando a empresa mais competitiva e atractiva para os potenciais clientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A descoberta de conhecimento em dados hoje em dia é um ponto forte para as empresas. Atualmente a CardMobili não dispõe de qualquer sistema de mineração de dados, sendo a existência deste uma mais-valia para as suas operações de marketing diárias, nomeadamente no lançamento de cupões a um grupo restrito de clientes com uma elevada probabilidade que os mesmos os utilizem. Para isso foi analisada a base de dados da aplicação tentando extrair o maior número de dados e aplicadas as transformações necessárias para posteriormente serem processados pelos algoritmos de mineração de dados. Durante a etapa de mineração de dados foram aplicadas as técnicas de associação e classificação, sendo que os melhores resultados foram obtidos com técnicas de associação. Desta maneira pretende-se que os resultados obtidos auxiliem o decisor na sua tomada de decisões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mal sabia o Italiano Antonio Santi Giuseppe Meucci na segunda metade do século XIX (1870-1876), que a sua invenção iria alcançar um êxito sem precedente e que mudaria por completo o estilo de vida das gerações vindouras: o “Telettrofono” (telégrafo falante). Porém, e por necessidade, acabou por vender o protótipo e seus respetivos direitos, a Alexander Graham Bell, o qual ficou historicamente conhecido como o inventor do telefone. Com efeito, o telefone quase que dispensa apresentação. É um dispositivo de telecomunicações que entrou paulatinamente nas vidas das pessoas, seja no lazer, no exercícios das suas profissões, em situações de emergência, em teatro de guerra, num infindável número de situações, e que foi simplesmente planeado para transmitir sons por meio de sinais elétricos em condutores próprios para o efeito (vias telefónicas). Por definição, é um aparelho eletroacústico que permite a transformação, no ponto emissor, de energia acústica em energia elétrica e, no ponto recetor, a transformação da energia elétrica em acústica, permitindo assim a troca de informações (falada e ouvida) entre dois ou mais assinantes. Ora, a ideia de Power over Ethernet (PoE) teve, forçosamente, seu marco nos finais do século XIX, quando Alexander Bell (“Bell Telephone Company”) teve de refletir/decidir se o telefone a instalar em cada residência, seria alimentado localmente por uma bateria (fonte de energia local), ou se deveria alimentar cada dispositivo telefónico remotamente através de fios condutores. Esta é a noção de Power over Ethernet na sua vanguarda de aplicação no início do século XXI, e objeto de uma breve apresentação, à qual o convido à leitura das restantes secções.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar de muito utilizada no sector industrial, a automação ainda não atingiu o mesmo patamar de implementação no sector doméstico. A evolução tecnológica leva a que quase todos os dias apareçam novos produtos que visam a implementação de sistemas domóticos que possibilitem o conforto, a segurança e a eficiência nas habitações. Contudo, quando se pretende instalar um sistema domótico com o objectivo de simplificar os processos numa habitação, a palavra que surge não é “simplicidade”, mas sim “complicação”. Para além de a grande maioria das pessoas não estar familiarizada com as funcionalidades que um sistema domótico permite, existe sempre o pensamento que esses sistemas têm um custo elevado, o que de certa forma não é um pensamento errado. Se quanto ao aspecto do preço, não há muito a fazer, ele depende das leis do mercado e do custo da inovação, quanto à complexidade da instalação e utilização dos sistemas, trata‐se de um pensamento induzido nas pessoas que não conhecem os sistemas domóticos e que facilmente se consegue desmistificar. Os projectos de domótica nas habitações deveriam ser pensados aquando do projecto da habitação. No entanto, a realidade não é essa. A grande maioria das habitações não foi pensada para a instalação desses sistemas e só depois da instalação eléctrica estar efectuada e a habitação habitada é que se percebe que se precisava de ter mais alguma flexibilidade e funcionalidade na instalação. A evolução tecnológica permitiu desenvolver soluções para este tipo de situações. Hoje em dia não é necessário reconstruir a habitação para instalar sistemas domóticos. Existem soluções que usam a rede eléctrica já instalada e que permitem instalar funções domóticas na habitação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto Politécnico do Porto para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Gestão das Organizações – Ramo de Gestão de Empresas Orientador: Professor Doutor Pedro Nunes Orientador: Professor Henrique Curado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presença de metais pesados no meio ambiente deve-se, principalmente, a actividades antropogénicas. Ao contrário do Cu e do Zn, que em baixas concentrações são essenciais para o normal funcionamento celular, não se conhece para o chumbo nenhuma função biológica. O chumbo apresenta efeitos tóxicos, e considerado possível agente carcinogéneo, sendo classificado como poluente prioritário pela Agencia de Protecção Ambiental dos EUA (US-EPA). O presente trabalho teve como objetivo avaliar o papel da glutationa e do vacúolo, como mecanismos de defesa, contra os efeitos tóxicos induzidos pelo chumbo, usando como modelo a levedura Saccharomyces cerevisiae. A levedura S. cerevisiae quando exposta a varias concentrações de chumbo, durante 3h, perde a viabilidade e acumula espécies reativas de oxigénio (ROS). O estudo comparativo da perda de viabilidade e acumulação de ROS em células de uma estirpe selvagem (WT) e de estirpes mutantes, incapazes de produzir glutationa devido a uma deficiência no gene GSH1 (gsh1) ou GSH2 (gsh2) mostrou que as estirpes gsh1 ou(gsh2 não apresentavam um aumento da sensibilidade ao efeito toxico do chumbo. No entanto, o tratamento de células da estirpe WT com iodoacetamida (um agente alquilante que induz a depleção de glutationa) aumentou a sensibilidade das células a presença de chumbo. Pelo contrário, o enriquecimento em GSH, através da incubação de células WT com glucose e uma mistura de aminoácidos que constituem a GSH (acido L-glutâmico, L-cisteína e glicina), reduziu o stress oxidativo e a perda de viabilidade induzida por chumbo. A importância do vacúolo, como mecanismo de defesa, foi avaliada através da utilização de um mutante sem qualquer estrutura vacuolar (vps16) ou de mutantes deficientes na subunidade catalítica A (vma1) ou B (vma2) ou no proteolítico - subunidade C (vma3) da V-ATPase. As células da estirpe ƒ´vps16 apresentaram uma elevada suscetibilidade a presença de chumbo. As células das estirpes deficientes na subunidade A, B ou c da V-ATPase, apresentaram uma maior perda de viabilidade, quando expostas a chumbo, do que as células da estirpe WT, mas menor do que a da estirpe vps16 Em conclusão, os resultados obtidos, no seu conjunto, sugerem que a glutationa esta envolvida na defesa contra a toxicidade provocada por chumbo; todavia, a glutationa, por si só, parece não ser suficiente para suster o stress oxidativo e a perda de viabilidade induzida por chumbo. O vacúolo parece constituir um importante mecanismo de defesa contra a toxicidade provocada por chumbo. A V-ATPase parece estar envolvida na compartimentação de chumbo no vacúolo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, os sistemas de informação hospitalares têm de possibilitar uma utilização diferenciada pelos diferentes intervenientes, num cenário de constante adaptação e evolução. Para tal, é essencial a interoperabilidade entre os sistemas de informação do hospital e os diversos fornecedores de serviços, assim como dispositivos hospitalares. Apesar da necessidade de suportar uma heterogeneidade entre sistemas ser fundamental, o acesso/troca de informação deve ser feito de uma forma protocolada, segura e transparente. A infraestrutura de informação médica moderna consiste em muitos sistemas heterogéneos, com diversos mecanismos para controlar os dados subjacentes. Informações relativas a um único paciente podem estar dispersas por vários sistemas (ex: transferência de pacientes, readmissão, múltiplos tratamentos, etc.). Torna-se evidente a necessidade aceder a dados do paciente de forma consolidada a partir de diferentes locais. Desta forma, é fundamental utilizar uma arquitetura que promova a interoperabilidade entre sistemas. Para conseguir esta interoperabilidade, podem-se implementar camadas de “middleware” que façam a adaptação das trocas de informação entre os sistemas. Todavia, não resolvemos o problema subjacente, ou seja, a necessidade de utilização de um standard para garantir uma interacção fiável entre cliente/fornecedor. Para tal, é proposto uma solução que passa por um ESB dedicado para a área da saúde, denominada por HSB (Healthcare Service Bus). Entre as normas mais usuais nesta área devem-se salientar o HL7 e DICOM, esta última mais especificamente para dispositivos de imagem hospitalar, sendo a primeira utilizada para gestão e trocas de informação médica entre sistemas. O caso de estudo que serviu de base a esta dissertação é o de um hospital de média dimensão cujo sistema de informação começou por ser uma solução monolítica, de um só fornecedor. Com o passar dos anos, o fornecedor único desagregou-se em vários, independentes e concorrentes, dando lugar a um cenário extremamente preocupante em termos de manutenção e evolução futura do sistema de informação existente. Como resultado do trabalho efetuado, foi proposta uma arquitetura que permite a evolução do sistema atual de forma progressiva para um HSB puro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho faz-se uma pesquisa e análise dos conceitos associados à navegação inercial para estimar a distância percorrida por uma pessoa. Foi desenvolvida uma plataforma de hardware para implementar os algoritmos de navegação inercial e estudar a marcha humana. Os testes efetuados permitiram adaptar os algoritmos de navegação inercial para humanos e testar várias técnicas para reduzir o erro na estimativa da distância percorrida. O sistema desenvolvido é um sistema modular que permite estudar o efeito da inserção de novos sensores. Desta forma foram adaptados os algoritmos de navegação para permitir a utilização da informação dos sensores de força colocados na planta do pé do utilizador. A partir desta arquitetura foram efetuadas duas abordagens para o cálculo da distância percorrida por uma pessoa. A primeira abordagem estima a distância percorrida considerando o número de passos. A segunda abordagem faz uma estimação da distância percorrida com base nos algoritmos de navegação inercial. Foram realizados um conjunto de testes para comparar os erros na estimativa da distância percorrida pelas abordagens efetuadas. A primeira abordagem obteve um erro médio de 4,103% em várias cadências de passo. Este erro foi obtido após sintonia para o utilizador em questão. A segunda abordagem obteve um erro de 9,423%. De forma a reduzir o erro recorreu-se ao filtro de Kalman o que levou a uma redução do erro para 9,192%. Por fim, recorreu-se aos sensores de força que permitiram uma redução para 8,172%. A segunda abordagem apesar de ter um erro maior não depende do utilizador pois não necessita de sintonia dos parâmetros para estimar a distância para cada pessoa. Os testes efetuados permitiram, através dos sensores de força, testar a importância da força sentida pela planta do pé para aferir a fase do ciclo de marcha. Esta capacidade permite reduzir os erros na estimativa da distância percorrida e obter uma maior robustez neste tipo de sistemas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao longo dos últimos anos, vários esforços e estudos foram feitos com o objetivo de colocar a fibra ótica no mercado, como um sistema preferencial de monitorização das mais diversas obras de Engenharia. Os sensores baseados na tecnologia em fibra ótica apresentam vantagens reconhecidas pelos mais diversos especialistas, sendo atualmente reconhecida como uma das soluções mais eficazes. Na engenharia Civil, a monitorização das grandes obras tem ganho uma importância crescente. Neste contexto, a monitorização de convergências em túneis visa o controlo da respectiva integridade estrutural ao longo da construção e a exploração da obra. Atualmente a solução de monitorização estrutural de túneis utilizada pela FiberSensing é uma solução desenhada em conjunto com a EPOS e o Cegeo (IST), baseada em sensores de Bragg em Fibra Ótica: o SysTunnel. O objetivo do estudo de uma solução alternativa encontra-se no facto do SysTunnel apresentar algumas debilidades no algoritmo de cálculo, sendo para o seu cálculo necessário a introdução de um parâmetro relacionado com o solo envolvente do túnel, facto que introduz incertezas no cálculo das convergências. O presente relatório tem como finalidade documentar o estágio curricular realizado na FiberSensing, entre 01/02/2014 a 31/07/2014. Este estágio teve como objetivo o desenvolvimento de uma solução alternativa de monitorização estrutural baseada na tecnologia das redes de Bragg para a monitorização das convergências em túneis.