66 resultados para modelo de risco proporcional de Cox
Resumo:
Esta dissertação aborda uma das metodologias mais recentes na área da Manutenção e Inspecção, a RBIM. Esta metodologia centra-se no risco que uma determinada instalação ou componente representa para a Saúde, a Segurança, o Ambiente e os seus custos. Efectua-se um resumo histórico da Manutenção desde o início do século XX, resumindo-se as metodologias de manutenção mais importantes. A metodologia RBIM analisa o risco tendo em consideração a probabilidade de falha e as consequências de falha, que são combinadas numa matriz, designada matriz de risco. A probabilidade de falha (PoF) é a frequência da ocorrência de um determinado acontecimento por ano, que pode ser avaliada qualitativamente ou quantitativamente, apresentando-se um quadro com quatro abordagens de avaliação da PoF. A consequência de falha (CoF) é o resultado de um acontecimento ou ocorrência. As consequências podem afectar a Saúde, a Segurança, o Ambiente e a Economia. A CoF, para cada um dos sectores, pode ser, à imagem da PoF, avaliada qualitativamente ou qualitativamente. Uma avaliação de risco pode ser efectuada de três abordagens diferentes, qualitativa, semi-qualitativa e quantitativa, conforme o nível de precisão desejado. Independentemente do nível de precisão, uma avaliação RBIM deve seguir um procedimento estabelecido. O projecto RIMAP apresenta um procedimento onde constam a análise preliminar, recolha e validação de dados, análise de risco multicritério, decisão e plano de acção, a implementação e a avaliação da eficiência. A metodologia RBIM tem muitos dos conceitos constantes na metodologia RCM, como a FMECA e árvore de falhas. As duas fazem uso de diagramas lógicos para a identificação de falhas, e implicam a necessidade de existir uma equipa multidisciplinar para avaliação. Para se dar uma ideia mais clara da aplicação da metodologia RBIM, descreve-se uma instalação pertencente à FAP onde se aplicará uma avaliação de risco segundo o DRAFT DOC API .
Resumo:
PARADIGMA (do grego parádeigma) significa o exemplo que serve como modelo; o sistema ou modelo conceptual que orienta o desenvolvimento posterior das pesquisas, estando na base da evolução científica padrão; Thomas Kuhn disse "um paradigma, é aquilo que os membros de uma comunidade partilham e, inversamente, uma comunidade científica consiste em homens que partilham um paradigma". Até há pouco tempo, a forma como temos usado os nossos recursos energéticos, como (re) construímos as nossas cidades, como nos comportamos diariamente demonstra um padrão comum, consagrado na ideia de poder usar os diversos recursos à nossa disposição, ilimitadamente sem restrições. O Aquecimento Global é uma realidade incontornável. A forma de mitigar o seu aumento será através da redução drástica dos gases de efeito de estufa – GEE. O Protocolo de Quioto estabelece as metas de emissões GEE que os países que o ratificaram acordaram, até 2012. Os meios científicos alertam, que será muito importante limitar o aquecimento global a 2 Graus até 2020. Para se caminhar no sentido da Mitigação das Alterações Climáticas surge o desenvolvimento sustentável. Conforme o Relatório da Comissão Brundtland, este é definido como ― a forma de satisfazer as necessidades do presente sem comprometer a capacidade de as gerações futuras poderem também satisfazer as suas‖. O desenvolvimento sustentável obriga-nos a olhar para o Planeta com outros olhos. De repente, percebemos que afinal os recursos que a mãe Terra nos oferece não são ilimitados e que a forma como os usamos não é isenta. A nossa vida neste maravilhoso planeta azul pode estar em risco. Mais: a vida dos nossos filhos que amamos poderá estar em risco ou no mínimo, eles poderão não ter à sua disposição, aquilo que nós tivemos. Todas as áreas de intervenção do homem terão de ser analisadas. Esta estratégia terá de ser assumida globalmente. A nossa vida privada deverá mudar, as nossas cidades deverão mudar. As cidades inteligentes ou Smartcities enquadram todas as áreas que as compõem nos pressupostos do novo modelo: o desenvolvimento sustentável. Uma das áreas é representada pelos edifícios. Os edifícios são responsáveis por uma fatia muito grande no consumo energético total. Na União Europeia o seu consumo representa cerca de 40% do total de energia final, e consequentemente são responsáveis por uma grande parte das emissões de GEE para a atmosfera. A Certificação Energética de Edifícios é o meio de promover o desenho de edifícios de menor consumo energético. Pretende-se que num futuro próximo o consumo dos edifícios seja perto do zero, ou zero. Esta pretensão aplicar-se-á a todos os edifícios: novos e existentes. Este trabalho pretende explicar o que acabámos de descrever e quem sabe iluminar um pouco mais o caminho para o desenvolvimento sustentável. Efectuou-se um levantamento e análise às casas passivas, analisamos a sua evolução, seu desenvolvimento, comparando as diferenças que será necessário implementar entre diferentes zonas climáticas (centro da Europa e Portugal). Desenvolvemos um estudo completo de eficiência energética de uma habitação localizada na zona de Sintra. Estudámos o impacto que seria a aplicação de isolamento exterior de cortiça, calculámos os ganhos percentuais. Numa altura em que a mudança de conceitos e mentalidades, se processa a diferentes velocidades, cria-se com este trabalho a oportunidade de desenvolver um documento orientador, destinado aos técnicos das especialidades envolvidas, uma dissertação; que constitua um ponto de partida para o desenvolvimento e aplicação de ideias e diferentes tecnologias sustentáveis, com conclusões. Introduziu-se neste estudo a Cortiça, como isolamento natural de origem nacional.
Resumo:
No actual ambiente competitivo, o baixo custo, a alta qualidade e um grau crescente de personalização são exigências para a sobrevivência das empresas que têm influenciado as acções dos profissionais de manutenção com vista ao aperfeiçoamento das políticas de manutenção. Como resultado, surgiu na área de manutenção industrial uma grande quantidade de métodos, softwares, modelos e ferramentas de gestão, onde se destaca o RCM (Reliability Centered Maintenance ou Manutenção Centrada na Fiabilidade) de origem Norte Americana na década de 60. Inicialmente começou-se a utilizar este método na indústria de aviação passando posteriormente a ser utilizada também pelo Exército dos E.U.A. e a partir da década de 80 por outras indústrias comerciais. Após a explicação da metodologia RCM e tendo como base o modelo da moto Softail, começou-se por definir o sistema através da preparação para a análise, selecção do equipamento a ser analisado e identificação das funções. Após definição do sistema passa-se à sua análise. Neste caso optou-se pela análise FMEA onde se identificam as falhas funcionais, os efeitos e causas dessas mesmas falhas, conhecendo-se o histórico de avarias do modelo Softail durante o período de garantia, desde 1999 até ao presente ano. Do histórico de avarias durante o período de garantia, e após estudo do mesmo, conclui-se que 28,35% das avarias são cosméticas, relativas a problemas de cromados (danos ou qualidade dos cromados) avarias essas que não influenciam o desempenho do motociclo; 9,58% de problemas relativos a baterias, problemas esses que poderão influenciar o normal funcionamento do motociclo e que se deverá ter mais atenção; 7,66% dos motociclos tiveram problemas de entrada de água para o interior do velocímetro, uma vez mais este problema não interfere com o bom desempenho do motociclo; 4,6% relativos a danos na pintura, uma vez mais problema cosmético que não interfere com o bom desempenho do motociclo; segue-se 4,21% devido a barulhos na frente do motociclo e que deverá requerer alguma atenção; 4,21% de mau funcionamento da instrumentação eléctrica, onde se deverá ter também atenção. No estudo da FMEA conclui-se que o principal efeito/consequência gerado pela falha da bateria (falha com maior frequência) é o não funcionamento do motor por falta de alimentação do sistema de gestão electrónica do motociclo e consequente imobilização do mesmo. Com base na FMEA realizada foram salientados os aspectos, em termos de modos de falha, que são mais importantes, com base nas reclamações em prazo de garantia, tais como questões estéticas dos cromados e pinturas e problemas relacionados com o funcionamento da bateria, entre outros. Na FMEA podem ser vistos em termos criticidade todos os modos de falha, através do RPN (Risk Priority Number), ou em português Número de Prioridade de Risco, mostrando assim onde a marca pode aplicar prioridades em termos de acções de projecto ou manutenção. Com estas alterações pretende-se aumentar a fiabilidade do modelo Softail, podendo no futuro alargar este novo plano de manutenção às restantes famílias da gama Harley-Davidson.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
A monitorização de processos ambientais conduz à obtenção de resultados cuja aferição da qualidade é um requisito raramente cumprido. No entanto, importantes decisões de gestão ambiental, sociais e políticas com impacto directo nas populações são tomadas suportadas nestes resultados. A validação de uma medição, como suporte à decisão, é impossível sem o conhecimento da incerteza associada ao próprio resultado. É a incerteza que define a qualidade do resultado. Com este trabalho pretendeu-se contribuir para o aperfeiçoamento do Controlo da Poluição na Refinaria da Galp Energia, em Sines, através do estabelecimento de um projecto de cálculo das incertezas associadas aos teores de poluentes medidos. Foram alvo deste estudo os valores medidos de dióxido de enxofre, óxidos de azoto e partículas monitorizadas. O conhecimento do valor de incerteza associada aos resultados permitirá actuar preventivamente e tomar acções correctivas de modo a garantir o cumprimento pleno da licença ambiental. Para avaliar a incerteza usou-se o procedimento preconizado pela norma ISO em que os passos envolvidos são a especificação do processo de medida, identificação das fontes de incerteza, cálculo da incerteza combinada e cálculo da incerteza expandida. Após a caracterização da actividade da empresa, do enquadramento legislativo, do desempenho no triénio 2005-2007 e da caracterização dos aparelhos de medida, foi feito um estudo estatístico aos valores medidos por estes três analisadores durante diversos períodos do ano de 2007 e foi determinado o modelo de cálculo do valor de incerteza associado a cada uma das medidas. Os valores, associados à respectiva incerteza, foram comparados com os limites impostos pela licença ambiental, verificando-se o cumprimento desta. A determinação da incerteza associada aos resultados de monitorização dos efluentes gasosos desta instalação reforça a credibilidade dos valores medidos, o compromisso da melhoria contínua da qualidade dos processos, produtos e serviços, do desempenho ambiental e da segurança das pessoas e bens, como contributo para um desenvolvimento sustentável desta companhia.
Resumo:
Esta tese pretende contribuir para o estudo e análise dos factores relacionados com as técnicas de aquisição de imagens radiológicas digitais, a qualidade diagnóstica e a gestão da dose de radiação em sistema de radiologia digital. A metodologia encontra-se organizada em duas componentes. A componente observacional, baseada num desenho do estudo de natureza retrospectiva e transversal. Os dados recolhidos a partir de sistemas CR e DR permitiram a avaliação dos parâmetros técnicos de exposição utilizados em radiologia digital, a avaliação da dose absorvida e o índice de exposição no detector. No contexto desta classificação metodológica (retrospectiva e transversal), também foi possível desenvolver estudos da qualidade diagnóstica em sistemas digitais: estudos de observadores a partir de imagens arquivadas no sistema PACS. A componente experimental da tese baseou-se na realização de experiências em fantomas para avaliar a relação entre dose e qualidade de imagem. As experiências efectuadas permitiram caracterizar as propriedades físicas dos sistemas de radiologia digital, através da manipulação das variáveis relacionadas com os parâmetros de exposição e a avaliação da influência destas na dose e na qualidade da imagem. Utilizando um fantoma contraste de detalhe, fantomas antropomórficos e um fantoma de osso animal, foi possível objectivar medidas de quantificação da qualidade diagnóstica e medidas de detectabilidade de objectos. Da investigação efectuada, foi possível salientar algumas conclusões. As medidas quantitativas referentes à performance dos detectores são a base do processo de optimização, permitindo a medição e a determinação dos parâmetros físicos dos sistemas de radiologia digital. Os parâmetros de exposição utilizados na prática clínica mostram que a prática não está em conformidade com o referencial Europeu. Verifica-se a necessidade de avaliar, melhorar e implementar um padrão de referência para o processo de optimização, através de novos referenciais de boa prática ajustados aos sistemas digitais. Os parâmetros de exposição influenciam a dose no paciente, mas a percepção da qualidade de imagem digital não parece afectada com a variação da exposição. Os estudos que se realizaram envolvendo tanto imagens de fantomas como imagens de pacientes mostram que a sobreexposição é um risco potencial em radiologia digital. A avaliação da qualidade diagnóstica das imagens mostrou que com a variação da exposição não se observou degradação substancial da qualidade das imagens quando a redução de dose é efectuada. Propõe-se o estudo e a implementação de novos níveis de referência de diagnóstico ajustados aos sistemas de radiologia digital. Como contributo da tese, é proposto um modelo (STDI) para a optimização de sistemas de radiologia digital.
Resumo:
A constatação relativa às importantes transformações que têm vindo a ocorrer na biomedicina, em virtude dos inúmeros avanços em áreas como a genética e a biologia molecular, fornecem-nos elementos de análise bastante relevantes para a compreensão das reconfigurações que a tecnociência tem imprimido nas ciências da vida. Tomando esta evidência como ponto de partida, pretende-se com este trabalho desenvolver uma abordagem ancorada numa reflexão acerca do modo como as noções de Risco e de Incerteza são equacionadas pela ciência moderna. O questionamento crítico destas noções permitir-nos-á, assim, analisar dois aspectos fundamentais. Por um lado, o modo como o pensamento moderno se posiciona teórica e epistemologicamente face aos paradoxos e complexas margens de indeterminação que sempre decorrem da actividade técnico-científica, e por outro, analisar quais as finalidades que subjazem à vontade da ciência e da técnica em controlarem a realidade nas suas múltiplas e variadas dimensões.
Resumo:
Da ubiquidade discursiva do risco ao seu enraizamento social. Ideologias de risco e de prevenção. O risco e as novas lógicas de investimentos terapêuticos. O risco nos territórios da racionalidade leiga. Percepções e gestão do risco: do retrato extensivo à análise das narrativas leigas. Mapeamentos leigos do risco: retrato panorâmico. Modulações narrativas e lógicas leigas na relação com o risco: percepções sociais e modalidades de gestão prática.
Resumo:
O risco é uma das áreas em que é mais evidente a primazia dos sistemas periciais nas sociedades contemporâneas. Viver em “sociedades de risco” só é sustentável quando há confiança na competência dos peritos e na autenticidade do conhecimento especializado, como garantia de minimização do risco. Hoje em dia, as sociedades encontram-se, com efeito, na dependência dos peritos científicos e dos “órgãos sensórios” da ciência (instrumentos, técnicas) para a identificação dos riscos modernos, que são em grande parte inacessíveis à percepção humana.
Resumo:
Os riscos alimentares, ambientais e de saúde pública têm dado origem a polémicas públicas acesas que têm alimentado receios e movimentações sociais e levado mesmo à obstrução de decisões políticas e à paralisação de investimentos.
Resumo:
Também transversal a todos os casos analisados é o importante papel desempenhado pelos meios de comunicação social. Nas sociedades contemporâneas, os conflitos sociais apenas adquirem existência na esfera pública quando recebem cobertura mediática. No caso particular das questões de risco, tal é especialmente verdade. Os mass media, por via do chamado efeito do Agenda Setting, conferem existência a problemas que de outra forma estariam ausentes da esfera pública. Ao divulgarem um caso de risco, pressionam o poder político para tomar medidas ou justificar as opções tomadas, assim como a comunidade científica para sustentar o aconselhamento prestado.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.
Resumo:
A rápida evolução dos dispositivos móveis e das tecnologias de comunicação sem fios transformou o telemóvel num poderoso dispositivo de computação móvel. A necessidade de estar sempre contactável, comum à civilização moderna, tem aumentado a dependência deste dispositivo, sendo transportado pela maioria das pessoas num ambiente urbano e assumindo um papel talvez mais importante que a própria carteira. A ubiquidade e capacidade de computação dos telemóveis aumentam o interesse no desenvolvimento de serviços móveis, além de tradicionais serviços de voz. Um telemóvel pode em breve tornar-se um elemento activo nas nossas tarefas diárias, servindo como um instrumento de pagamento e controlo de acessos, proporcionando assim novas interfaces para serviços existentes. A unificação de vários serviços num único dispositivo é um desafio que pode simplificar a nossa rotina diária e aumentar o conforto, no limite deixaremos de necessitar de dinheiro físico, cartões de crédito ou débito, chaves de residência e de veículos automóveis, ou inclusive documentos de identificação como bilhetes de identidade ou passaportes. O interesse demonstrado pelos intervenientes, desde os fabricantes de telemóveis e operadores de rede móvel até às instituições financeiras, levaram ao aparecimento de múltiplas soluções de serviços móveis. Porém estas soluções respondem geralmente a problemas específicos, apenas contemplando um fornecedor de serviços ou uma determinada operação de pagamento, como seja a compra de bilhetes ou pagamento de estacionamento. Estas soluções emergentes consistem também tipicamente em especificações fechadas e protocolos proprietários. A definição de uma arquitectura genérica, aberta interoperável e extensível é necessária para que os serviços móveis possam ser adoptados de uma forma generalizada por diferentes fornecedores de serviços e para diversos tipos de pagamento. A maior parte das soluções actuais de pagamento móvel depende de comunicações através da rede móvel, algumas utilizam o telemóvel apenas como uma interface de acesso à internet enquanto outras possibilitam o envio de um SMS (Short Message Service) para autorizar uma transacção, o que implica custos de comunicação em todas as operações de pagamento. Este custo de operação torna essas soluções inadequadas para a realização de micropagamentos e podem por isso ter uma aceitação limitada por parte dos clientes. As soluções existentes focam-se maioritariamente em pagamentos à distância, não tirando partido das características do pagamento presencial e não oferecendo por isso uma verdadeira alternativa ao modelo actual de pagamento com cartões de crédito/débito. As capacidades computacionais dos telemóveis e suporte de diversos protocolos de comunicação sem fio local não têm sido aproveitadas, vendo o telemóvel apenas como um terminal GSM (Global System for Mobile Communications) e não oferecendo serviços adicionais como seja a avaliação dinâmica de risco ou controlo de despesas. Esta dissertação propõe e valida, através de um demonstrador, uma aquitectua aberta para o pagamento e controlo de acesso baseado em dispositivos móveis, intitulada WPAC (Wireless Payment and Access Control). Para chegar à solução apresentada foram estudadas outras soluções de pagamento, desde o aparecimento dos cartões de débito até a era de pagamentos electrónicos móveis, passando pelas soluções de pagamento através da internet. As capacidades dos dispositivos móveis, designadamente os telemóveis, e tecnologias de comunicação sem fios foram também analisadas a fim de determinar o estado tecnológico actual. A arquitectura WPAC utiliza padrões de desenho utilizados pela indústria em soluções de sucesso, a utilização de padrões testados e a reutilização de soluções com provas dadas permite aumentar a confiança nesta solução, um destes exemplos é a utilização de uma infra-estrutura de chave pública para o estabelecimento de um canal de comunicação seguro. Esta especificação é uma arquitectura orientada aos serviços que utiliza os Web Services para a definição do contracto do serviço de pagamento. A viabilidade da solução na orquestração de um conjunto de tecnologias e a prova de conceito de novas abordagens é alcançada com a construção de um protótipo e a realização de testes. A arquitectura WPAC possibilita a realização de pagamentos móveis presenciais, isto é, junto do fornecedor de bens ou serviços, seguindo o modelo de pagamento com cartões de crédito/débito no que diz respeito aos intervenientes e relações entre eles. Esta especificação inclui como aspecto inovador a avaliação dinâmica de risco, que utiliza o valor do pagamento, a existência de pagamentos frequentes num período curto de tempo, e a data, hora e local do pagamento como factores de risco; solicitando ao cliente o conjunto de credenciais adequado ao risco avaliado, desde códigos pessoais a dados biométricos. É também apresentada uma alternativa ao processo normal de pagamento, que apesar de menos cómoda permite efectuar pagamentos quando não é possível estabelecer um canal de comunicação sem fios, aumentando assim a tolerância a falhas. Esta solução não implica custos de operação para o cliente na comunicação com o ponto de venda do comerciante, que é realizada através de tecnologias de comunicação local sem fios, pode ser necessária a comunicação através da rede móvel com o emissor do agente de pagamento para a actualização do agente de software ou de dados de segurança, mas essas transmissões são ocasionais. O modelo de segurança recorre a certificados para autenticação dos intervenientes e a uma infra-estrutura de chave pública para cifra e assinatura de mensagens. Os dados de segurança incluídos no agente de software móvel, para desabilitar a cópia ou corrupção da aplicação mas também para a comparação com as credenciais inseridas pelo cliente, devem igualmente ser encriptados e assinados de forma a garantir a sua confidencialidade e integridade. A arquitectura de pagamento utiliza o standard de Web Services, que é amplamente conhecido, aberto e interoperável, para definição do serviço de pagamento. Existem extensões à especificação de Web Services relativas à segurança que permitem trocar itens de segurança e definem o modo de cifra e assinatura de mensagens, possibilitando assim a sua utilização em aplicações que necessitem de segurança como é o caso de serviços de pagamento e controlo de acesso. O contracto de um Web Service define o modo de invocação dos serviços, transmissão de informação e representação de dados, sendo normalmente utilizado o protocolo SOAP que na prática não é mais que um protocolo de troca de mansagens XML (eXtensible Markup Language). O envio e recepção de mensagens XML; ou seja, a transmissão de simples sequências de caracteres, é suportado pela maioria dos protocolos de comunicação, sendo portanto uma solução abrangente que permite a adopção de diversas tecnologias de comunicação sem fios. O protótipo inclui um agente de software móvel, implementado sobre a forma de uma MIDlet, aplicação Java para dispositivos móveis, que implementa o protocolo de pagamento comunicando sobre uma ligação Bluetooth com o ponto de venda do comerciante, simulado por uma aplicação desenvolvida sobre a plataforma .NET e que por isso faz prova da heterogeneidade da solução. A comunicação entre o comerciante e o seu banco para autorização do pagamento e transferência monetária utiliza o protocolo existente para a autorização de pagamentos, com base em cartões de crédito/débito. A definição desta especificação aberta e genérica em conjunto com o forte interesse demonstrado pelos intervenientes, proporciona uma boa perspectiva em termos de adopção da solução, o que pode impulsionar a implementação de serviços móveis e dessa forma simplificar as rotinas diárias das pessoas. Soluções móveis de pagamento reduzem a necessidade de transportar vários cartões de crédito/débito na nossa carteira. A avaliação dinâmica de risco permite aumentar a segurança dos pagamentos, com a solicitação de mais credenciais ao cliente para pagamentos com um maior risco associado, sendo um ponto importante quer para os clientes quer para as instituições financeiras pois diminui o risco de fraude e aumenta a confiança no sistema. Esta solução de pagamento electrónico pode também facilitar a consulta de pagamentos efectuados e saldos, mantendo um histórico dos movimentos, o que não é possível nos cartões de crédito/débito sem uma visita a uma ATM (Automated Teller Machine) ou utilização de homebanking.
Resumo:
Os quebra-mares de taludes são estruturas de protecção portuária muito comuns em Portugal e em cujo projecto se assume a necessidade de obras de manutenção ou reparação durante a sua vida útil. Para a avaliação da necessidade de realização destas obras, é necessária a existência de um programa de acompanhamento da estrutura contemplando a medição de grandezas relevantes para essa avaliação. Uma destas grandezas é o volume erodido do manto protector por acção da agitação marítima, que pode determinar-se a partir de levantamentos consecutivos da envolvente dos taludes e com o qual se pode definir o dano da estrutura. Melby (1999) apresentou uma fórmula para previsão da evolução do dano em quebra-mares de taludes com base nas características da agitação neles incidente. Nesta dissertação apresentam-se os resultados do trabalho realizado com o objectivo de avaliar a aplicabilidade daquela fórmula em condições de agitação diferentes das consideradas por aquele autor. De modo a atingir esse objectivo reproduziram-se as experiências descritas por Melby (1999). Tratam-se de ensaios de longa duração em modelo Físico reduzido em que sequências de estados de agitação estacionários vão atingindo o manto protector e se mede a área erodida no final da actuação de cada estado de agitação. Uma vez que estes ensaios terminam apenas quando fica visível uma porção apreciável do filtro sob o manto protector, a sua duração é substancialmente superior à dos ensaios comuns de estabilidade e galgamentos deste tipo de estrutura. A medição da área erodida no final da actuação de cada estado de agitação foi realizada a partir da reconstrução de pares estereoscópicos de fotografias em que a refracção induzida pela interface ar-água é corrigida. Tal significa que aquelas fotografias podem ser tiradas mantendo-se a água no canal. Pretendeu-se com a utilização desta técnica de levantamento avaliar a sua operacionalidade em ensaios de longa duração, para os quais seja necessário o levantamento exaustivo de perfis.