999 resultados para Operação Lava Jato


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho final de mestrado baseia-se no projecto de execução e remodelação de uma rede predial de abastecimento de água e de uma rede predial de drenagem de águas residuais domésticas de um edifício existente na localidade da Tapada das Mercês (freguesia de Algueirão - Mem Martins, Concelho de Sintra). Este prédio está dividido em dois pisos: o Mercado da Tapada das Mercês - Piso 0 - e a Casa da Juventude - Piso-1. Com este trabalho, respondeu-se a uma solicitação da Divisão de Projectos Municipais e da Divisão de Mercados da Câmara Municipal de Sintra e procurou-se: Melhorar o desempenho das redes existentes; Diminuir os custos de operação e manutenção dessas mesmas redes; Resolver o problema das infiltrações no tecto da Casa da Juventude, que está a afectar a rede de distribuição eléctrica perturbando o normal funcionamento desses serviços. Pretende-se também fornecer sugestões de melhoria do Regulamento -Decreto Regulamentar nº 23/95 e aumentar os meus conhecimentos nesta área, atendendo a que a minha formação base é em Vias de Comunicação e Transportes. A título de reflexão, propõe-se uma actualização em termos de materiais para o regulamento acima mencionado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A rápida evolução dos dispositivos móveis e das tecnologias de comunicação sem fios transformou o telemóvel num poderoso dispositivo de computação móvel. A necessidade de estar sempre contactável, comum à civilização moderna, tem aumentado a dependência deste dispositivo, sendo transportado pela maioria das pessoas num ambiente urbano e assumindo um papel talvez mais importante que a própria carteira. A ubiquidade e capacidade de computação dos telemóveis aumentam o interesse no desenvolvimento de serviços móveis, além de tradicionais serviços de voz. Um telemóvel pode em breve tornar-se um elemento activo nas nossas tarefas diárias, servindo como um instrumento de pagamento e controlo de acessos, proporcionando assim novas interfaces para serviços existentes. A unificação de vários serviços num único dispositivo é um desafio que pode simplificar a nossa rotina diária e aumentar o conforto, no limite deixaremos de necessitar de dinheiro físico, cartões de crédito ou débito, chaves de residência e de veículos automóveis, ou inclusive documentos de identificação como bilhetes de identidade ou passaportes. O interesse demonstrado pelos intervenientes, desde os fabricantes de telemóveis e operadores de rede móvel até às instituições financeiras, levaram ao aparecimento de múltiplas soluções de serviços móveis. Porém estas soluções respondem geralmente a problemas específicos, apenas contemplando um fornecedor de serviços ou uma determinada operação de pagamento, como seja a compra de bilhetes ou pagamento de estacionamento. Estas soluções emergentes consistem também tipicamente em especificações fechadas e protocolos proprietários. A definição de uma arquitectura genérica, aberta interoperável e extensível é necessária para que os serviços móveis possam ser adoptados de uma forma generalizada por diferentes fornecedores de serviços e para diversos tipos de pagamento. A maior parte das soluções actuais de pagamento móvel depende de comunicações através da rede móvel, algumas utilizam o telemóvel apenas como uma interface de acesso à internet enquanto outras possibilitam o envio de um SMS (Short Message Service) para autorizar uma transacção, o que implica custos de comunicação em todas as operações de pagamento. Este custo de operação torna essas soluções inadequadas para a realização de micropagamentos e podem por isso ter uma aceitação limitada por parte dos clientes. As soluções existentes focam-se maioritariamente em pagamentos à distância, não tirando partido das características do pagamento presencial e não oferecendo por isso uma verdadeira alternativa ao modelo actual de pagamento com cartões de crédito/débito. As capacidades computacionais dos telemóveis e suporte de diversos protocolos de comunicação sem fio local não têm sido aproveitadas, vendo o telemóvel apenas como um terminal GSM (Global System for Mobile Communications) e não oferecendo serviços adicionais como seja a avaliação dinâmica de risco ou controlo de despesas. Esta dissertação propõe e valida, através de um demonstrador, uma aquitectua aberta para o pagamento e controlo de acesso baseado em dispositivos móveis, intitulada WPAC (Wireless Payment and Access Control). Para chegar à solução apresentada foram estudadas outras soluções de pagamento, desde o aparecimento dos cartões de débito até a era de pagamentos electrónicos móveis, passando pelas soluções de pagamento através da internet. As capacidades dos dispositivos móveis, designadamente os telemóveis, e tecnologias de comunicação sem fios foram também analisadas a fim de determinar o estado tecnológico actual. A arquitectura WPAC utiliza padrões de desenho utilizados pela indústria em soluções de sucesso, a utilização de padrões testados e a reutilização de soluções com provas dadas permite aumentar a confiança nesta solução, um destes exemplos é a utilização de uma infra-estrutura de chave pública para o estabelecimento de um canal de comunicação seguro. Esta especificação é uma arquitectura orientada aos serviços que utiliza os Web Services para a definição do contracto do serviço de pagamento. A viabilidade da solução na orquestração de um conjunto de tecnologias e a prova de conceito de novas abordagens é alcançada com a construção de um protótipo e a realização de testes. A arquitectura WPAC possibilita a realização de pagamentos móveis presenciais, isto é, junto do fornecedor de bens ou serviços, seguindo o modelo de pagamento com cartões de crédito/débito no que diz respeito aos intervenientes e relações entre eles. Esta especificação inclui como aspecto inovador a avaliação dinâmica de risco, que utiliza o valor do pagamento, a existência de pagamentos frequentes num período curto de tempo, e a data, hora e local do pagamento como factores de risco; solicitando ao cliente o conjunto de credenciais adequado ao risco avaliado, desde códigos pessoais a dados biométricos. É também apresentada uma alternativa ao processo normal de pagamento, que apesar de menos cómoda permite efectuar pagamentos quando não é possível estabelecer um canal de comunicação sem fios, aumentando assim a tolerância a falhas. Esta solução não implica custos de operação para o cliente na comunicação com o ponto de venda do comerciante, que é realizada através de tecnologias de comunicação local sem fios, pode ser necessária a comunicação através da rede móvel com o emissor do agente de pagamento para a actualização do agente de software ou de dados de segurança, mas essas transmissões são ocasionais. O modelo de segurança recorre a certificados para autenticação dos intervenientes e a uma infra-estrutura de chave pública para cifra e assinatura de mensagens. Os dados de segurança incluídos no agente de software móvel, para desabilitar a cópia ou corrupção da aplicação mas também para a comparação com as credenciais inseridas pelo cliente, devem igualmente ser encriptados e assinados de forma a garantir a sua confidencialidade e integridade. A arquitectura de pagamento utiliza o standard de Web Services, que é amplamente conhecido, aberto e interoperável, para definição do serviço de pagamento. Existem extensões à especificação de Web Services relativas à segurança que permitem trocar itens de segurança e definem o modo de cifra e assinatura de mensagens, possibilitando assim a sua utilização em aplicações que necessitem de segurança como é o caso de serviços de pagamento e controlo de acesso. O contracto de um Web Service define o modo de invocação dos serviços, transmissão de informação e representação de dados, sendo normalmente utilizado o protocolo SOAP que na prática não é mais que um protocolo de troca de mansagens XML (eXtensible Markup Language). O envio e recepção de mensagens XML; ou seja, a transmissão de simples sequências de caracteres, é suportado pela maioria dos protocolos de comunicação, sendo portanto uma solução abrangente que permite a adopção de diversas tecnologias de comunicação sem fios. O protótipo inclui um agente de software móvel, implementado sobre a forma de uma MIDlet, aplicação Java para dispositivos móveis, que implementa o protocolo de pagamento comunicando sobre uma ligação Bluetooth com o ponto de venda do comerciante, simulado por uma aplicação desenvolvida sobre a plataforma .NET e que por isso faz prova da heterogeneidade da solução. A comunicação entre o comerciante e o seu banco para autorização do pagamento e transferência monetária utiliza o protocolo existente para a autorização de pagamentos, com base em cartões de crédito/débito. A definição desta especificação aberta e genérica em conjunto com o forte interesse demonstrado pelos intervenientes, proporciona uma boa perspectiva em termos de adopção da solução, o que pode impulsionar a implementação de serviços móveis e dessa forma simplificar as rotinas diárias das pessoas. Soluções móveis de pagamento reduzem a necessidade de transportar vários cartões de crédito/débito na nossa carteira. A avaliação dinâmica de risco permite aumentar a segurança dos pagamentos, com a solicitação de mais credenciais ao cliente para pagamentos com um maior risco associado, sendo um ponto importante quer para os clientes quer para as instituições financeiras pois diminui o risco de fraude e aumenta a confiança no sistema. Esta solução de pagamento electrónico pode também facilitar a consulta de pagamentos efectuados e saldos, mantendo um histórico dos movimentos, o que não é possível nos cartões de crédito/débito sem uma visita a uma ATM (Automated Teller Machine) ou utilização de homebanking.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As ameaças à segurança da informação, (INFOSEC) atentam contra a perda da respectiva confidencialidade, integridade e disponibilidade, pelo que as organizações são impelidas a implementar políticas de segurança, quer ao nível físico quer ao nível lógico, utilizando mecanismos específicos de defesa. O projecto Network Air Gap Controller (NAGC) foi concebido no sentido de contribuir para as questões da segurança, designadamente daquelas que se relacionam directamente com a transferência de informação entre redes de classificação de segurança diferenciadas ou de sensibilidades distintas, sem requisitos de comunicação em tempo real, e que mereçam um maior empenho nas condições de robustez, de disponibilidade e de controlo. Os organismos que, em razão das atribuições e competências cometidas, necessitam de fazer fluir informação entre este tipo de redes, são por vezes obrigados a realizar a transferência de dados com recurso a um processo manual, efectuado pelo homem e não pela máquina, que envolve dispositivos amovivéis, como sejam o CD, DVD, PEN, discos externos ou switches manuais. Neste processo, vulgarmente designado por Network Air Gap (NAG), o responsável pela transferência de dados deverá assumir de forma infalível, como atribuições intrínsecas e inalienáveis da função exercida, as garantias do cumprimento de um vasto conjunto de normas regulamentares. As regras estabelecidas desdobram-se em ferramentas e procedimentos que se destinam, por exemplo, à guarda em arquivo de todas as transferências efectuadas; à utilização de ferramentas de segurança (ex: antivírus) antes da colocação da informação na rede de classificação mais elevada; ao não consentimento de transferência de determinados tipos de ficheiro (ex: executáveis) e à garantia de que, em consonância com a autonomia que normalmente é delegada no elemento responsável pela operação das comunicações, apenas se efectuam transferências de informação no sentido da rede de classificação inferior para a rede de classificação mais elevada. Face ao valor da informação e do impacto na imagem deste tipo de organizações, o operador de comunicações que não cumpra escrupulosamente o determinado é inexoravelmente afastado dessas funções, sendo que o processo de apuramento de responsabilidades nem sempre poderá determinar de forma inequívoca se as razões apontam para um acto deliberado ou para factores não intencionais, como a inépcia, o descuido ou a fadiga. Na realidade, as actividades periódicas e rotineiras, tornam o homem propenso à falha e poderão ser incontornavelmente asseguradas, sem qualquer tipo de constrangimentos ou diminuição de garantias, por soluções tecnológicas, desde que devidamente parametrizadas, adaptadas, testadas e amadurecidas, libertando os recursos humanos para tarefas de manutenção, gestão, controlo e inspecção. Acresce que, para este tipo de organizações, onde se multiplicam o número de redes de entrada de informação, com diferentes classificações e actores distintos, e com destinatários específicos, a utilização deste tipo de mecanismos assume uma importância capital. Devido a este factor multiplicativo, impõe-se que o NAGC represente uma opção válida em termos de oferta tecnológica, designadamente para uma gama de produtos de baixíssimo custo e que possa desenvolver-se por camadas de contributo complementar, em função das reais necessidades de cada cenário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é efectuado, não só o diagnóstico em regime permanente, mas também o estudo, simulação e análise do comportamento dinâmico da rede eléctrica da ilha de São Vicente em Cabo Verde. Os estudos de estabilidade transitória desempenham um importante papel, tanto no planeamento como na operação dos sistemas de potência. Tais estudos são realizados, em grande parte, através de simulação digital no domínio do tempo, utilizando integração numérica para resolver as equações não-lineares que modelam a dinâmica do sistema e dependem da existência de registos reais de perturbação (ex: osciloperturbografia). O objectivo do trabalho será também verificar a aplicabilidade dos requisitos técnicos que as unidades geradoras devem ter, no que concerne ao controlo de tensão, estabelecidos na futura regulamentação europeia desenvolvida pela ENTSO-E (European Network Transmission System Operator for Electricity). De entre os requisitos analisou-se a capacidade das máquinas existentes suportarem cavas de tensão decorrentes de curto-circuitos trifásicos simétricos, Fault Ride Through, no ponto de ligação à rede. Identificaram-se para o efeito os factores que influenciam a estabilidade desta rede, em regime perturbado nomeadamente: (i) duração do defeito, (ii) caracterização da carga, com e sem a presença do sistema de controlo de tensão (AVR) em unidades de geração síncronas. Na ausência de registos reais sobre o comportamento do sistema, conclui-se que este é sensível à elasticidade das cargas em particular do tipo potência constante, existindo risco de perda de estabilidade, neste caso, para defeitos superiores a 5ms sem AVR. A existência de AVR nesta rede afigura-se como indispensável para garantir estabilidade de tensão sendo contudo necessário proceder a uma correcta parametrização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho pretende-se estudar, dimensionar e implementar experimentalmente de um sistema de alimentação para transformadores de alta tensão a alta frequência. Este sistema será constituído por dois elementos principais, um rectificador monofásico em ponte totalmente controlado e por um inversor de tensão. Inicialmente realizou-se um estudo sobre as diferentes topologias possíveis para o rectificador considerando diferentes tipos de carga. Realizou-se, também, um estudo sobre o circuito de geração dos impulsos de disparo dos tiristores, executado com base num circuito integrado TCA 785, dimensionou-se os elementos constituintes do circuito de disparo, e de um sistema de controlo da tensão de saída do rectificador. Posteriormente estudou-se o funcionamento do inversor de tensão, definindo-se os modos de operação e dimensionou-se um circuito ressonante tendo em conta os parâmetros construtivos do transformador que se pretende utilizar. Finalmente procedeu-se à implementação prática dos sistemas previamente dimensionados e simulados e à apresentação dos respectivos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os défices do ciclo da ureia são um grupo de doenças hereditárias do metabolismo caracterizadas fundamentalmente por uma acumulação de amónia. Clinicamente o espectro é muito alargado, com formas de apresentação no período neonatal até situações mais moderadas de apresentação tardia em adultos. O tratamento é fundamentalmente de base nutricional e traduz-se numa redução significativa da mortalidade e morbilidade. Com a introdução da espectrometria de massa nos laboratórios de rastreio neonatal em meados dos anos 90, passou a ser possível quantificar alguns intermediários do ciclo, o que associado à existência de um intervalo livre e um tratamento eficaz, permitiu o rastreio de algumas das doenças deste grupo. Em 2004 iniciou-se em Portugal o rastreio dos défices do ciclo da ureia, tendo-se rastreado até ao presente, 988 687 recém-nascidos e identificado 19 casos positivos. Recentes desenvolvimentos técnicos vieram possibilitar a quantificação de novos marcadores, mais concretamente do ácido orótico, o que abre a possibilidade de rastrear o défice em ornitina transcarbamilase, o défice do ciclo da ureia mais frequente. Os autores apresentam a situação atual do rastreio dos défices do ciclo da ureia e as perspetivas em virtude dos novos desenvolvimentos técnicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho incide sobre o planeamento de produção de unidades térmicas de geração de energia eléctrica num horizonte temporal de uma semana. O objectivo deste trabalho é realizar a afectação das unidades térmicas considerando simultaneamente o custo de operação e o custo das emissões poluentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como principal objectivo compreender de que modo os alunos de 1.º ano de escolaridade desenvolvem estratégias de cálculo mental, num contexto de resolução de problemas de adição e subtracção. Para tal, procurou responder-se a três questões: a) Que estratégias de cálculo mental são utilizadas pelos alunos na resolução de problemas de adição e subtracção?; b) De que modo evoluem essas estratégias?; e c) Será que o significado da operação de adição ou subtracção, presente no problema, influencia a estratégia de cálculo mental utilizada na sua resolução? Tendo em conta a problemática do estudo, seguiu-se uma metodologia de natureza qualitativa, tendo sido realizados três estudos de caso. O trabalho de campo deste estudo foi realizado numa turma do 1.º ano do 1.º ciclo do ensino básico, da qual sou professora, tendo sido concluído no início do ano lectivo seguinte, quando os alunos frequentavam o 2.º ano de escolaridade. Os alunos em estudo resolveram três cadeias de problemas, contemplando os diferentes significados das operações de adição e subtracção: as primeiras duas cadeias foram resolvidas a pares, na sala de aula, e a última foi resolvida individualmente, apenas pelos alunos que constituíram os casos e fora da sala de aula. Os registos realizados pelos alunos aquando da resolução dos problemas, juntamente com as gravações áudio, vídeo e as notas de campo, constituíram-se como as principais fontes de recolha de dados. Os dados permitem afirmar que as estratégias de cálculo usadas pelos alunos evoluíram de estratégias elementares baseadas em contagem e na utilização de factos numéricos, para estratégias de cálculo mental complexas, aditivas ou subtractivas das categorias 1010 e N10. Foi possível identificar uma preferência por estratégias aditivas do tipo 1010 na resolução dos problemas de adição e, na resolução dos problemas de subtracção, as estratégias utilizadas pelos alunos variaram com o significado presente em cada problema: foram usadas estratégias subtractivas do tipo 1010 em problemas com o significado de retirar e, na resolução dos problemas com os significados de comparar e completar, de um modo geral, os alunos utilizaram estratégias aditivas do tipo A10, pertencente à categoria N10. Os dados apontam também para uma possível influência do ambiente de aprendizagem na utilização de estratégias de cálculo mental mais eficientes, particularmente a nível da estratégia aditiva do tipo 1010. Os dados permitem ainda concluir que alunos do 1.º ano são capazes de desenvolver e utilizar estratégias de cálculo mental, referidas na literatura a que tive acesso (por exemplo, Beishuizen, 1993; 2001; Buys, 2001; Cooper, Heirdsfield & Irons, 1995; Thompson & Smith, 1999), associadas a alunos mais velhos. Deste modo, os resultados deste estudo salientam a necessidade de, em ambientes de aprendizagem enriquecedores, o professor promover o desenvolvimento de estratégias complexas de cálculo mental, evoluindo para além das estratégias de cálculo elementares, habitualmente associadas aos alunos mais novos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Num mercado de electricidade competitivo onde existe um ambiente de incerteza, as empresas de geração adoptam estratégias que visam a maximização do lucro, e a minimização do risco. Neste contexto, é de extrema importância para desenvolver uma estratégia adequada de gestão de risco ter em conta as diferentes opções de negociação de energia num mercado liberalizado, de forma a suportar a tomada de decisões na gestão de risco. O presente trabalho apresenta um modelo que avalia a melhor estratégia de um produtor de energia eléctrica que comercializa num mercado competitivo, onde existem dois mercados possíveis para a transacção de energia: o mercado organizado (bolsa) e o mercado de contratos bilaterais. O produtor tenta maximizar seus lucros e minimizar os riscos correspondentes, seleccionando o melhor equilíbrio entre os dois mercados possíveis (bolsa e bilateral). O mercado de contratos bilaterais visa gerir adequadamente os riscos inerentes à operação de mercados no curto prazo (mercado organizado) e dar o vendedor / comprador uma capacidade real de escolher o fornecedor com que quer negociar. O modelo apresentado neste trabalho faz uma caracterização explícita do risco no que diz respeito ao agente de mercado na questão da sua atitude face ao risco, medido pelo Value at Risk (VaR), descrito neste trabalho por Lucro-em-Risco (PAR). O preço e os factores de risco de volume são caracterizados por um valor médio e um desvio padrão, e são modelizados por distribuições normais. Os resultados numéricos são obtidos utilizando a simulação de Monte Carlo implementado em Matlab, e que é aplicado a um produtor que mantém uma carteira diversificada de tecnologias de geração, para um horizonte temporal de um ano. Esta dissertação está organizada da seguinte forma: o capítulo 1, 2 e 3 descrevem o estado-da-arte relacionado com a gestão de risco na comercialização de energia eléctrica. O capítulo 4 descreve o modelo desenvolvido e implementado, onde é também apresentado um estudo de caso com uma aplicação do modelo para avaliar o risco de negociação de um produtor. No capítulo 5 são apresentadas as principais conclusões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem como principal objectivo a investigação teórica e experimental do desempenho de um sensor polarimétrico baseado num cristal líquido para medição da concentração de glicose. Recentemente uma série de sensores polarimétricos baseados em cristais líquidos foram propostos na literatura e receberam considerável interesse devido as suas características únicas. De facto, em comparação com outros moduladores electro-ópticos, o cristal líquido funciona com tensões mais baixas, tem baixo consumo de energia e maior ângulo de rotação. Além disso, este tipo de polarímetro pode ter pequenas dimensões que é uma característica interessante para dispositivos portáteis e compactos. Existem por outro lado algumas desvantagens, nomeadamente o facto do desempenho do polarímetro ser fortemente dependente do tipo de cristal líquido e da tensão a ele aplicada o que coloca desafios na escolha dos parâmetros óptimos de operação. Esta tese descreve o desenvolvimento do sensor polarimétrico, incluindo a integração dos componentes de óptica e electrónica, os algoritmos de processamento de sinal e um interface gráfico que facilita a programação de diversos parâmetros de operação e a calibração do sensor. Após a optimização dos parâmetros de operação verificou-se que o dispositivo mede a concentração da glicose em amostras com uma concentração de 8 mg/ml, com uma percentagem de erro inferior a 6% e um desvio padrão de 0,008o. Os resultados foram obtidos para uma amostra com percurso óptico de apenas 1 cm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho ocorre face à necessidade da empresa Helisuporte ter uma perspectiva a nível de fiabilidade das suas aeronaves. Para isso, foram traçados como objectivos de estudo a criação de uma base de dados de anomalias; identificação de sistemas e componentes problemáticos; caracterização dos mesmos, avaliar a condição de falha e, com isto, apresentar soluções de controlo de anomalias. Assim, foi desenvolvida uma metodologia que proporciona tratamento de dados com recurso a uma análise não-paramétrica, tendo sido escolhida a estatística de amostra. Esta irá permitir a identificação dos sistemas problemáticos e seus componentes anómalos. Efectuado o tratamento de dados, passamos para a caracterização fiabilística desses componentes, assumindo o tempo de operação e a vida útil específica de cada um. Esta foi possível recorrendo ao cálculo do nível de fiabilidade, MTBF, MTBUR e taxa de avarias. De modo a identificar as diferentes anomalias e caracterizar o “know-how” da equipa de manutenção, implementou-se a análise de condição de falha, mais propriamente a análise dos modos e efeitos de falha. Tendo isso em atenção, foi construído um encadeamento lógico simples, claro e eficaz, face a uma frota complexa. Implementada essa metodologia e analisados os resultados podemos afirmar que os objectivos foram alcançados, concluindo-se que os valores de fiabilidade que caracterizam alguns dos componentes das aeronaves pertencentes à frota em estudo não correspondem ao esperado e idealizado como referência de desempenho dos mesmos. Assim, foram sugeridas alterações no manual de manutenção de forma a melhorar estes índices. Com isto conseguiu-se desenvolver, o que se poderá chamar de, “fiabilidade na óptica do utilizador”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Investigar como o controle de tarefas e o uso de diferentes tecnologias e de estrutura organizacional determinam o processo de saúde-doença. MÉTODOS: O estudo foi desenvolvido em duas indústrias vidreiras -- automática e manual --, no Município de São Paulo, Brasil, entre 1996 e 1997. A metodologia utilizada teve como base a análise ergonômica do trabalho. A pesquisa foi realizada utilizando-se estudo de caso e comparações entre dois grupos de trabalhadores, incluindo observação direta dos postos de trabalho, entrevistas e um questionário respondido por 41 trabalhadores: 14 da sopragem manual de vidro e 27 da operação da máquina automática. O questionário estruturado versava sobre queixas de saúde e características do trabalho e do posto. RESULTADOS: A comparação entre os dois grupos de trabalhadores apontou diferenças estatisticamente significativas em relação às respostas sobre o nível de ruído, as ferramentas de trabalho, a variação de postura no posto de trabalho e as queixas de dores nos braços. Foram detectados fatores de risco, tais como repetição dos movimentos para os trabalhadores da indústria manual e fatores da organização do trabalho nas duas indústrias, tais como ritmo, participação em decisões importantes e treinamento. CONCLUSÕES: O uso da metodologia ergonômica mostrou-se adequada. O estudo confirmou a exposição dos trabalhadores a intensidades elevadas de ruído e a altas temperaturas. Na indústria manual, o trabalhador parece desempenhar um papel que o faz se sentir mais importante, pois ele realiza uma parte significativa do trabalho total, diferentemente do trabalhador da indústria automática que está "vigiando" um processo em que a máquina é a produtora.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Estimar o potencial de emergência média diária de adultos fêmeas de Aedes albopictus, espécie que, embora não tenha sido incriminada, até o momento, como vetora de dengue no Brasil, é muito próxima de Aedes aegypti. MÉTODOS: As observações foram realizadas quinzenalmente e de maneira ininterrupta na localidade de Pedrinhas, Estado de São Paulo, no período de 1996 a 2000. Para estimar a produtividade dos criadouros, mediu-se o índice de emergência (E). Foram utilizados dois reservatórios grandes e permanentes com mais de 10 litros de água, para que o líquido faltante fosse reposto a cada coleta. Os demais reservatórios (seis) foram representados por cubas com capacidade de 1 litro, sendo que, a cada cuba, foi adicionado 1 litro de água destilada. Posteriormente, a cada coleta, o volume de água foi reposto independentemente da pluviosidade. As associações foram estudadas pelo índice de correlação de Pearson. RESULTADOS: A emergência (E) do reservatório mantido descoberto foi de 66,5, maior do que a emergência da caixa d'água coberta, que foi de 12,2. Ambos os criadouros tiveram o caráter de "permanente" assegurado pela reposição do líquido, caso o volume diminuísse ao longo do tempo de observação. Não houve associação importante com as condições de pluviosidade e de temperatura. Os recipientes menores foram representados por cubas, em número de seis. Algumas delas mostraram associação com as condições meteorológicas e os índices de emergência (E), indicando os meses de menor pluviosidade como menos produtivos. Esses meses, de junho a novembro, seriam o lapso de tempo mais propício para realizar a operação de remoção mecânica de recipientes. CONCLUSÃO: As diferenças encontradas na produtividade dos dois reservatórios permanentes poderão, ao menos parcialmente, ser explicadas pela presença de matéria orgânica que serviria para a alimentação larval. Quanto aos recipientes transitórios, supõe-se que a época de menor pluviosidade seria a mais propícia para executar a limpeza dos quintais domésticos. Com isso, seria mais eficaz a diminuição da proliferação de mosquitos na estação seguinte. A presença de matéria orgânica na água dos criadouros poderá, se vegetal ou animal, trazer subsídios à separação das populações de Aedes aegypti e de Ae. albopictus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho consiste na implementação em hardware de unidades funcionais dedicadas e optimizadas, para a realização das operações de codificação e descodificação, definidas na norma de codificação com perda Joint Photographic Experts Group (JPEG), ITU-T T.81 ISO/IEC 10918-1. Realiza-se um estudo sobre esta norma de forma a caracterizar os seus principais blocos funcionais. A finalidade deste estudo foca-se na pesquisa e na proposta de optimizações, de forma a minimizar o hardware necessário para a realização de cada bloco, de modo a que o sistema realizado obtenha taxas de compressão elevadas, minimizando a distorção obtida. A redução de hardware de cada sistema, codificador e descodificador, é conseguida à custa da manipulação das equações dos blocos Forward Discrete Cosine Transform (FDCT) e Quantificação (Q) e dos blocos Forward Discrete Cosine Transform (IDCT) e Quantificação Inversa (IQ). Com as conclusões retiradas do estudo e através da análise de estruturas conhecidas, descreveu-se cada bloco em Very-High-Speed Integrated Circuits (VHSIC) Hardware Description Language (VHDL) e fez-se a sua síntese em Field Programmable Gate Array (FPGA). Cada sistema implementado recorre à execução de cada bloco em paralelo de forma a optimizar a codificação/descodificação. Assim, para o sistema codificador, será realizada a operação da FDCT e Quantificação sobre duas matrizes diferentes e em simultâneo. O mesmo sucede para o sistema descodificador, composto pelos blocos Quantificação Inversa e IDCT. A validação de cada bloco sintetizado é executada com recurso a vectores de teste obtidos através do estudo efectuado. Após a integração de cada bloco, verificou-se que, para imagens greyscale de referência com resolução de 256 linhas por 256 colunas, é necessário 820,5 μs para a codificação de uma imagem e 830,5 μs para a descodificação da mesma. Considerando uma frequência de trabalho de 100 MHz, processam-se aproximadamente 1200 imagens por segundo.