1000 resultados para Gama Inteira Generalizada
Resumo:
O bom desempenho dos motores de indução trifásicos, ao nível do binário, em velocidades de funcionamento abaixo da velocidade nominal, faz deles uma boa opção para realizar o controlo de velocidade nesta gama de velocidades. Actualmente, com o rápido avanço da electrónica de potência é mais acessível a implementação de dispositivos que permitam variar a velocidade dos motores de indução trifásicos, contribuindo para que estas máquinas sejam cada vez mais utilizadas em accionamentos de velocidade variável. Este trabalho tem como objectivo o estudo prático da utilização da técnica de controlo escalar por variação simultânea da tensão e frequência (V/f) no accionamento do motor de indução trifásico. Para o efeito, foi implementado um conversor de potência compacto do tipo ondulador de tensão trifásico. Os sinais de comando para o conversor, que utilizam a modulação por largura de impulso, são gerados por um microcontrolador, que para além das capacidades normais de um dispositivo desse tipo, pemite ainda o processamento digital de sinal. O microcontrolador permite ainda a monitorização da velocidade de rotação do motor e da corrente no motor. A análise do desempenho do sistema incide essencialmente sobre o controlo da velocidade de rotação do motor, tendo sido criadas várias condições de funcionamento, com diferentes inclinações das rampas de aceleração e desaceleração.
Resumo:
We calculate the equilibrium thermodynamic properties, percolation threshold, and cluster distribution functions for a model of associating colloids, which consists of hard spherical particles having on their surfaces three short-ranged attractive sites (sticky spots) of two different types, A and B. The thermodynamic properties are calculated using Wertheim's perturbation theory of associating fluids. This also allows us to find the onset of self-assembly, which can be quantified by the maxima of the specific heat at constant volume. The percolation threshold is derived, under the no-loop assumption, for the correlated bond model: In all cases it is two percolated phases that become identical at a critical point, when one exists. Finally, the cluster size distributions are calculated by mapping the model onto an effective model, characterized by a-state-dependent-functionality (f) over bar and unique bonding probability (p) over bar. The mapping is based on the asymptotic limit of the cluster distributions functions of the generic model and the effective parameters are defined through the requirement that the equilibrium cluster distributions of the true and effective models have the same number-averaged and weight-averaged sizes at all densities and temperatures. We also study the model numerically in the case where BB interactions are missing. In this limit, AB bonds either provide branching between A-chains (Y-junctions) if epsilon(AB)/epsilon(AA) is small, or drive the formation of a hyperbranched polymer if epsilon(AB)/epsilon(AA) is large. We find that the theoretical predictions describe quite accurately the numerical data, especially in the region where Y-junctions are present. There is fairly good agreement between theoretical and numerical results both for the thermodynamic (number of bonds and phase coexistence) and the connectivity properties of the model (cluster size distributions and percolation locus).
Resumo:
We generalize the Flory-Stockmayer theory of percolation to a model of associating (patchy) colloids, which consists of hard spherical particles, having on their surfaces f short-ranged-attractive sites of m different types. These sites can form bonds between particles and thus promote self-assembly. It is shown that the percolation threshold is given in terms of the eigenvalues of a m x m matrix, which describes the recursive relations for the number of bonded particles on the ith level of a cluster with no loops; percolation occurs when the largest of these eigenvalues equals unity. Expressions for the probability that a particle is not bonded to the giant cluster, for the average cluster size and the average size of a cluster to which a randomly chosen particle belongs, are also derived. Explicit results for these quantities are computed for the case f = 3 and m = 2. We show how these structural properties are related to the thermodynamics of the associating system by regarding bond formation as a (equilibrium) chemical reaction. This solution of the percolation problem, combined with Wertheim's thermodynamic first-order perturbation theory, allows the investigation of the interplay between phase behavior and cluster formation for general models of patchy colloids.
Resumo:
A morte descrita por Shakespeare, cujo fragmento se encontra supramencionado, é desejada por muitos no mundo contemporâneo, porquanto esta mudou seu caráter, não é mais uma morte domiciliar rodeada das pessoas queridas. Atualmente, a morte dá-se ora antes de termos um tratamento digno; ora em meio a tratamentos que gostaríamos de nos furtar. No contexto brasileiro, as pessoas menos afortunadas financeiramente, que, raramente têm acesso às modernas tecnologias, morrem, muitas vezes, na espera de uma chance de consultar um médico; é a “eutanásia social”, a mistanásia. Os mais privilegiados economicamente têm à sua disposição uma larga gama de tratamentos, que, por vezes, são extremamente úteis, outras, acarretam apenas a morte longe da família, longe dos amigos, longe do calor humano e próximo do frio das máquinas hospitalares. Esse paradoxo deve-se, em boa parte, ao progresso geométrico da ciência e tecnologia na área médica e das demais ciências da vida. Para muitas pessoas, a disponibilidade da medicina de alta tecnologia para “consertar” as marcas da vida é uma fonte de esperança e consolo. Para outras, são tratamentos fúteis que podem acarretar males maiores do que benefícios. Porém, é comum a recusa a abrir mão de tratamentos desproporcionais por parte de alguns médicos e familiares na busca incessante da “vida”. Essas pessoas agem como se a “vida” não fosse também morte. Vida é nascimento, desenvolvimento e morte; por vezes o desenvolvimento é menor do que esperávamos, e a morte chega antes do que almejávamos, mas ela também é parte da vida. A não consideração da morte como uma dimensão da existência humana e do conseqüente desafio de lidar com ela como um dos objetivos da medicina faz com que sejam introduzidos tratamentos agressivos que somente prolongarão o processo de morrer. A postura a ser pautada diante desse processo traz implicações éticas e jurídicas que deverão ser analisadas em cada caso, é uma exigência introduzida pelos novos paradigmas científicos, traduzindo a complexidade das interfaces da problemática da (in)admissibilidade de práticas eutanásicas. Todavia, em face da limitação espacial deste ensaio optamos por discorrer apenas sobre a modalidade passiva, a qual será diferenciada das outras modalidades para, posteriormente, serem analisadas as implicações no campo da bioética e do direito.
Resumo:
A ideia de que a família é um elemento crucial na equação descritiva e explicativa dos processos de saúde e doença de cada pessoa é hoje bastante consensual. A família, como determinante fundamental dos processos de desenvolvimento, adaptação e perturbação do sujeito, é chamada a explicar a aquisição de hábitos e estilos de vida saudáveis e de risco, a exposição a comportamentos de risco e as estratégias de confronto com esses riscos, os processos de adoecer, de aceitação do diagnóstico e adaptação à doença crónica ou prolongada, de adesão aos tratamentos e de vivência da doença terminal. Mas a saúde e doença de cada pessoa também são chamadas a explicar os processos de adaptação e perturbação da família que constituem, ou de cada um dos seus membros. Finalmente a família é, ela mesma, enquanto entidade dinâmica, possível de caracterizar como mais ou menos saudável, sendo que a saúde da família afecta, necessariamente, a saúde actual e futura dos seus membros. Assim é quase unanimemente aceite que a família é um determinante importante dos processos de saúde e doença quer o sujeito ocupe as posições de filho, irmão ou pai/mãe, sendo que a família mais alargada tem sido, enquanto tal, pouco estudada. O conceito de família, na literatura da psicologia da saúde, não é alvo de grande discussão, sendo reconhecidas as múltiplas formas da mesma, e valorizada a sua importância nas diferentes fases da vida. A família é definida como um grupo composto por membros com obrigações mútuas que fornecem uns aos outros uma gama alargada de formas de apoio emocional e material. Caracteriza-se por ter uma estrutura, funções e papéis definidos, formas de interacção, recursos partilhados, um ciclo de vida, uma história comum, mas também um conjunto de indivíduos com histórias, experiências e expectativas individuais e únicas.
Resumo:
No actual ambiente competitivo, o baixo custo, a alta qualidade e um grau crescente de personalização são exigências para a sobrevivência das empresas que têm influenciado as acções dos profissionais de manutenção com vista ao aperfeiçoamento das políticas de manutenção. Como resultado, surgiu na área de manutenção industrial uma grande quantidade de métodos, softwares, modelos e ferramentas de gestão, onde se destaca o RCM (Reliability Centered Maintenance ou Manutenção Centrada na Fiabilidade) de origem Norte Americana na década de 60. Inicialmente começou-se a utilizar este método na indústria de aviação passando posteriormente a ser utilizada também pelo Exército dos E.U.A. e a partir da década de 80 por outras indústrias comerciais. Após a explicação da metodologia RCM e tendo como base o modelo da moto Softail, começou-se por definir o sistema através da preparação para a análise, selecção do equipamento a ser analisado e identificação das funções. Após definição do sistema passa-se à sua análise. Neste caso optou-se pela análise FMEA onde se identificam as falhas funcionais, os efeitos e causas dessas mesmas falhas, conhecendo-se o histórico de avarias do modelo Softail durante o período de garantia, desde 1999 até ao presente ano. Do histórico de avarias durante o período de garantia, e após estudo do mesmo, conclui-se que 28,35% das avarias são cosméticas, relativas a problemas de cromados (danos ou qualidade dos cromados) avarias essas que não influenciam o desempenho do motociclo; 9,58% de problemas relativos a baterias, problemas esses que poderão influenciar o normal funcionamento do motociclo e que se deverá ter mais atenção; 7,66% dos motociclos tiveram problemas de entrada de água para o interior do velocímetro, uma vez mais este problema não interfere com o bom desempenho do motociclo; 4,6% relativos a danos na pintura, uma vez mais problema cosmético que não interfere com o bom desempenho do motociclo; segue-se 4,21% devido a barulhos na frente do motociclo e que deverá requerer alguma atenção; 4,21% de mau funcionamento da instrumentação eléctrica, onde se deverá ter também atenção. No estudo da FMEA conclui-se que o principal efeito/consequência gerado pela falha da bateria (falha com maior frequência) é o não funcionamento do motor por falta de alimentação do sistema de gestão electrónica do motociclo e consequente imobilização do mesmo. Com base na FMEA realizada foram salientados os aspectos, em termos de modos de falha, que são mais importantes, com base nas reclamações em prazo de garantia, tais como questões estéticas dos cromados e pinturas e problemas relacionados com o funcionamento da bateria, entre outros. Na FMEA podem ser vistos em termos criticidade todos os modos de falha, através do RPN (Risk Priority Number), ou em português Número de Prioridade de Risco, mostrando assim onde a marca pode aplicar prioridades em termos de acções de projecto ou manutenção. Com estas alterações pretende-se aumentar a fiabilidade do modelo Softail, podendo no futuro alargar este novo plano de manutenção às restantes famílias da gama Harley-Davidson.
Resumo:
Com a recente entrada em vigor do novo acervo normativo nacional que inclui a normalização europeia e a sujeição ao sistema de atestação da conformidade dos agregados, dos betumes e das misturas betuminosas, permitindo a aposição da marcação «CE» é necessário adaptar os cadernos de encargos para obras de pavimentação aos requisitos da normalização europeia, que passa pelo cumprimento das novas normas de produto e aplicação dos novos métodos de ensaio. Assim, o objectivo deste trabalho é elaborar um caderno de encargos tipo adequado aos principais tipos de misturas utilizadas nas obras de pavimentação da rede viária municipal, com base no novo acervo normativo nacional e no caderno de encargos tipo obra promovido pela administração rodoviária, Estradas de Portugal (EP). Apresenta-se neste documento o enquadramento geral da normalização europeia relativamente aos agregados, ligantes e misturas betuminosas e faz-se a síntese das características dos materiais constituintes das misturas não ligadas e de misturas betuminosas de utilização generalizada nas obras de pavimentação das Autarquias Portuguesas. Descrevem-se ainda as condições de execução das camadas constituintes dos pavimentos e respectivos critérios de aceitação e rejeição, bem como o tipo de ensaios e frequências para o controlo de qualidade das misturas. Finalmente é feita uma caracterização das condicionantes das obras de pavimentação municipais e uma avaliação aos requisitos e ensaios relativos ao controlo de qualidade dos materiais e misturas apresentadas, com vista à sua integração em caderno de encargos tipo municipal.
Resumo:
A reparação ou substituição de elementos degradados em estruturas de madeira em serviço pode em alguns casos ser feita com a introdução de próteses de madeira nova, ligadas à madeira existente através de chapas ou varões colados. Esta abordagem apresenta-se como uma alternativa eficiente e rápida, que permite muitas vezes a manutenção de estruturas que seriam de outro modo substituídas ou profundamente alteradas, com técnicas mais intrusivas. Nestas intervenções são geralmente usadas colas epoxídicas, por serem as mais adequadas à execução de colagens em obra. O principal inconveniente destas colas é o facto de serem bastante sensíveis a temperaturas de serviço elevadas, resultando na redução da resistência e da rigidez das juntas coladas. No entanto, estudos anteriores realizados no LNEC mostraram que a resposta das colas epoxídicas à temperatura pode ser melhorada com o aumento da temperatura durante o processo de cura ou com a pós-cura das juntas de madeira coladas. Na presente dissertação foi desenvolvido e testado um novo método capaz de aplicar regimes de pós-cura a juntas coladas em obra, baseado na incorporação de resistências eléctricas na linha de cola. Foram também verificados os efeitos de diferentes regimes de cura na resistência de ligações coladas de madeira de Espruce realizadas com colas epoxídicas. O desempenho das juntas coladas foi avaliado através de ensaios de corte realizados à temperatura ambiente e a temperaturas elevadas, dentro da gama de temperaturas se serviço previstas, por exemplo, em coberturas. Os resultados mostraram a viabilidade do método proposto e confirmaram os efeitos benéficos da pós-cura aplicada desta forma a ligações coladas de madeira com colas epoxídicas.
Resumo:
Foram estudadas as características intelectuais de 65 crianças obesas, de 8 a 13 anos e 11 meses, comparativamente às de 35 crianças eutróficas, através da Escala de Inteligência Wechsler para Crianças. Os dois grupos foram pareados de acordo com a faixa etária, série escolar e nível socioeconômico. O grupo de obesos foi composto por pacientes atendidos pelo Departamento de Pediatria da Universidade Federal São Paulo, e o grupo-controle, por crianças pertencentes a escolas públicas. O grupo de eutróficos apresentou significantemente melhor desempenho no teste de inteligência do que o grupo de obesos (Quociente de inteligência -QI médio - 91 x 85; p < 0,05). Crianças eutróficas revelaram maior amplitude de interesses e capacidade de adaptação social e, melhor velocidade e destreza. Houve correlação positiva entre o nível de renda, a relação peso/estatura e o QI. Apesar de todos os resultados médios de QI apresentarem dados consistentemente favoráveis aos eutróficos, não se pode afirmar total superioridade desse grupo em virtude da ampla gama de fatores emocionais intervenientes no processo de inteligência, não controlados pelo estudo.
Resumo:
Neste trabalho estudou-se a lixiviação de um concentrado de sulfureto de zinco e a recuperação de Fe(III) de soluções sulfúricas por extracção líquido-líquido. Nos estudos de lixiviação utilizou-se o ião férrico (Sulfato de ferro ou cloreto de ferro) como agente oxidante e avaliaram-se os efeitos da razão sólido/líquido, concentração do ião Fe(III) e o tipo do meio (sulfúrico e clorídrico) na eficiência da lixiviação. Os resultados mostraram que para uma razão sólido/líquido de 5% foi possível lixiviar 48% de zinco e 15% do cobre em 2h de lixiviação com uma solução de 0,5 M H2SO4 e 0,11 Fe2(SO4) a 80°C. A lixiviação do cobre é favorecida em meio clorídrico onde cerca de 23% de cobre foi lixiviado, após 2h, com uma razão sólido/líquido de 20% e uma solução de 0,5 M FeCl3 2 M HCI e 1 M NaCl a 80°C, quando em meio sulfúrico tinha sido possível lixiviar apenas 6% deste metal. A realização de dois andares de lixiviação, sendo o primeiro em meio sulfúrico e o segundo em meio clorídrico, permitiu aumentar as taxas de lixiviação dos metais, tendo-se obtido um rendimento global de 45% de Zn e 23% de Cu nas seguintes condições experimentais: s/l=20% (p/v), T=80°C, v=350 rpm, 1º andar com [Fe2(SO4)3]=0,25 M; [H2SO4]=2 M e 2º andar com [FeCl3]=0,5 M; [HCl]=2 M; [NaCl]=1 M. Nos estudos de extracção líquido-líquido para a recuperação de Fe(III) de meios sulfúricos utilizam-se misturas de extractantes, i.e. um ácido organofosforado (lonquest ou DEHPA) com uma amina primária (JMT). Foi ainda, testada a presença de um modificador (isotridecanol) no solvente. As várias misturas revelaram uma elevada afinidade para o ferro na gam de PH’s 1,04 a 1,74 e elevada selectividade para a separação ferro/zinco. Os factores de separação Fe/Zn atingem valores na gama 1000-8000, sendo favorecidos pelas elevadas concentrações de ferro na fase orgânica. A presença de modificador no solvente dificultou a extracção de ferro da fase aquosa mas favoreceu a respectiva reextracção da fase orgânica carregada que foi efectuada com uma solução 50 g/L de H2SO4. Na etapa final deste trabalho, aplicou-se a extracção líquido-líquido para a remoção de Cu e Fe duma líxvia obtida por lixiviação sulfúrica do concentrado de sulfureto de zinco. Numa primeira etapa extraiu-se todo o cobre da lixívia com a aldoxima Acorga M5640(10%(v/v)). Em seguida, traçou-se a isotérmica para a extracção de Fe(III) da lixívia utilizando DEHPA(20%(v/v)/JMT(10%(v/v)) com (20%(v7v)) e sem 2-octanol. Os resultados obtidos mostram que ambos os sistemas podem ser utilizados na extracção do fero do meio sulfúrico.
Resumo:
La investigación en liderazgo ha constituido desde hace años un tópico de elección y tiene cada vez más una mayor pertinencia en el ámbito de los estudios organizativos. Es más o menos pacífica la idea generalizada de que las organizaciones son espacios muy permeables y con tendencia para el ejercicio del poder y de la política y de que muchas decisiones que ahí ocurren no reflejan necesariamente los intereses del bien común. Esto contrasta con una cierta ―timidez‖ por parte de la academia en abordar las singularidades del liderazgo político en las organizaciones.La verdad es que cuando cruzamos los dos fenómenos verificamos sorprendentemente que un siglo de investigación en liderazgo ha dejado un patrimonio de resultados y conclusiones válidas. Pero a medida que se han ido multiplicando los estudios (fundados cada vez más en los padrones de racionalidad), los silencios, las ausencias y las fragilidades relativos a la dinámica y particularidades del liderazgo político en escenarios de trabajo se han ido agudizando, particularmente en lo que dice respecto a sus proscriptores y a las implicaciones que provocan en los colaboradores y en las organizaciones, por no hablar de las variables moderadoras y mediadoras que están casi apartadas de la discusión.Para llevar a cabo el trabajo de campo, hemos hecho un abordaje metodológico triangular, hemos inquirido 992 sujetos de procedencias organizativas diversificadas (organizaciones públicas, privadas y una organización no lucrativa), hemos entrevistado 8 jefes siendo estas entrevistas adaptadas de 11 relatos de incidentes políticos críticos.
Resumo:
As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.
Resumo:
A rápida evolução dos dispositivos móveis e das tecnologias de comunicação sem fios transformou o telemóvel num poderoso dispositivo de computação móvel. A necessidade de estar sempre contactável, comum à civilização moderna, tem aumentado a dependência deste dispositivo, sendo transportado pela maioria das pessoas num ambiente urbano e assumindo um papel talvez mais importante que a própria carteira. A ubiquidade e capacidade de computação dos telemóveis aumentam o interesse no desenvolvimento de serviços móveis, além de tradicionais serviços de voz. Um telemóvel pode em breve tornar-se um elemento activo nas nossas tarefas diárias, servindo como um instrumento de pagamento e controlo de acessos, proporcionando assim novas interfaces para serviços existentes. A unificação de vários serviços num único dispositivo é um desafio que pode simplificar a nossa rotina diária e aumentar o conforto, no limite deixaremos de necessitar de dinheiro físico, cartões de crédito ou débito, chaves de residência e de veículos automóveis, ou inclusive documentos de identificação como bilhetes de identidade ou passaportes. O interesse demonstrado pelos intervenientes, desde os fabricantes de telemóveis e operadores de rede móvel até às instituições financeiras, levaram ao aparecimento de múltiplas soluções de serviços móveis. Porém estas soluções respondem geralmente a problemas específicos, apenas contemplando um fornecedor de serviços ou uma determinada operação de pagamento, como seja a compra de bilhetes ou pagamento de estacionamento. Estas soluções emergentes consistem também tipicamente em especificações fechadas e protocolos proprietários. A definição de uma arquitectura genérica, aberta interoperável e extensível é necessária para que os serviços móveis possam ser adoptados de uma forma generalizada por diferentes fornecedores de serviços e para diversos tipos de pagamento. A maior parte das soluções actuais de pagamento móvel depende de comunicações através da rede móvel, algumas utilizam o telemóvel apenas como uma interface de acesso à internet enquanto outras possibilitam o envio de um SMS (Short Message Service) para autorizar uma transacção, o que implica custos de comunicação em todas as operações de pagamento. Este custo de operação torna essas soluções inadequadas para a realização de micropagamentos e podem por isso ter uma aceitação limitada por parte dos clientes. As soluções existentes focam-se maioritariamente em pagamentos à distância, não tirando partido das características do pagamento presencial e não oferecendo por isso uma verdadeira alternativa ao modelo actual de pagamento com cartões de crédito/débito. As capacidades computacionais dos telemóveis e suporte de diversos protocolos de comunicação sem fio local não têm sido aproveitadas, vendo o telemóvel apenas como um terminal GSM (Global System for Mobile Communications) e não oferecendo serviços adicionais como seja a avaliação dinâmica de risco ou controlo de despesas. Esta dissertação propõe e valida, através de um demonstrador, uma aquitectua aberta para o pagamento e controlo de acesso baseado em dispositivos móveis, intitulada WPAC (Wireless Payment and Access Control). Para chegar à solução apresentada foram estudadas outras soluções de pagamento, desde o aparecimento dos cartões de débito até a era de pagamentos electrónicos móveis, passando pelas soluções de pagamento através da internet. As capacidades dos dispositivos móveis, designadamente os telemóveis, e tecnologias de comunicação sem fios foram também analisadas a fim de determinar o estado tecnológico actual. A arquitectura WPAC utiliza padrões de desenho utilizados pela indústria em soluções de sucesso, a utilização de padrões testados e a reutilização de soluções com provas dadas permite aumentar a confiança nesta solução, um destes exemplos é a utilização de uma infra-estrutura de chave pública para o estabelecimento de um canal de comunicação seguro. Esta especificação é uma arquitectura orientada aos serviços que utiliza os Web Services para a definição do contracto do serviço de pagamento. A viabilidade da solução na orquestração de um conjunto de tecnologias e a prova de conceito de novas abordagens é alcançada com a construção de um protótipo e a realização de testes. A arquitectura WPAC possibilita a realização de pagamentos móveis presenciais, isto é, junto do fornecedor de bens ou serviços, seguindo o modelo de pagamento com cartões de crédito/débito no que diz respeito aos intervenientes e relações entre eles. Esta especificação inclui como aspecto inovador a avaliação dinâmica de risco, que utiliza o valor do pagamento, a existência de pagamentos frequentes num período curto de tempo, e a data, hora e local do pagamento como factores de risco; solicitando ao cliente o conjunto de credenciais adequado ao risco avaliado, desde códigos pessoais a dados biométricos. É também apresentada uma alternativa ao processo normal de pagamento, que apesar de menos cómoda permite efectuar pagamentos quando não é possível estabelecer um canal de comunicação sem fios, aumentando assim a tolerância a falhas. Esta solução não implica custos de operação para o cliente na comunicação com o ponto de venda do comerciante, que é realizada através de tecnologias de comunicação local sem fios, pode ser necessária a comunicação através da rede móvel com o emissor do agente de pagamento para a actualização do agente de software ou de dados de segurança, mas essas transmissões são ocasionais. O modelo de segurança recorre a certificados para autenticação dos intervenientes e a uma infra-estrutura de chave pública para cifra e assinatura de mensagens. Os dados de segurança incluídos no agente de software móvel, para desabilitar a cópia ou corrupção da aplicação mas também para a comparação com as credenciais inseridas pelo cliente, devem igualmente ser encriptados e assinados de forma a garantir a sua confidencialidade e integridade. A arquitectura de pagamento utiliza o standard de Web Services, que é amplamente conhecido, aberto e interoperável, para definição do serviço de pagamento. Existem extensões à especificação de Web Services relativas à segurança que permitem trocar itens de segurança e definem o modo de cifra e assinatura de mensagens, possibilitando assim a sua utilização em aplicações que necessitem de segurança como é o caso de serviços de pagamento e controlo de acesso. O contracto de um Web Service define o modo de invocação dos serviços, transmissão de informação e representação de dados, sendo normalmente utilizado o protocolo SOAP que na prática não é mais que um protocolo de troca de mansagens XML (eXtensible Markup Language). O envio e recepção de mensagens XML; ou seja, a transmissão de simples sequências de caracteres, é suportado pela maioria dos protocolos de comunicação, sendo portanto uma solução abrangente que permite a adopção de diversas tecnologias de comunicação sem fios. O protótipo inclui um agente de software móvel, implementado sobre a forma de uma MIDlet, aplicação Java para dispositivos móveis, que implementa o protocolo de pagamento comunicando sobre uma ligação Bluetooth com o ponto de venda do comerciante, simulado por uma aplicação desenvolvida sobre a plataforma .NET e que por isso faz prova da heterogeneidade da solução. A comunicação entre o comerciante e o seu banco para autorização do pagamento e transferência monetária utiliza o protocolo existente para a autorização de pagamentos, com base em cartões de crédito/débito. A definição desta especificação aberta e genérica em conjunto com o forte interesse demonstrado pelos intervenientes, proporciona uma boa perspectiva em termos de adopção da solução, o que pode impulsionar a implementação de serviços móveis e dessa forma simplificar as rotinas diárias das pessoas. Soluções móveis de pagamento reduzem a necessidade de transportar vários cartões de crédito/débito na nossa carteira. A avaliação dinâmica de risco permite aumentar a segurança dos pagamentos, com a solicitação de mais credenciais ao cliente para pagamentos com um maior risco associado, sendo um ponto importante quer para os clientes quer para as instituições financeiras pois diminui o risco de fraude e aumenta a confiança no sistema. Esta solução de pagamento electrónico pode também facilitar a consulta de pagamentos efectuados e saldos, mantendo um histórico dos movimentos, o que não é possível nos cartões de crédito/débito sem uma visita a uma ATM (Automated Teller Machine) ou utilização de homebanking.
Resumo:
As ameaças à segurança da informação, (INFOSEC) atentam contra a perda da respectiva confidencialidade, integridade e disponibilidade, pelo que as organizações são impelidas a implementar políticas de segurança, quer ao nível físico quer ao nível lógico, utilizando mecanismos específicos de defesa. O projecto Network Air Gap Controller (NAGC) foi concebido no sentido de contribuir para as questões da segurança, designadamente daquelas que se relacionam directamente com a transferência de informação entre redes de classificação de segurança diferenciadas ou de sensibilidades distintas, sem requisitos de comunicação em tempo real, e que mereçam um maior empenho nas condições de robustez, de disponibilidade e de controlo. Os organismos que, em razão das atribuições e competências cometidas, necessitam de fazer fluir informação entre este tipo de redes, são por vezes obrigados a realizar a transferência de dados com recurso a um processo manual, efectuado pelo homem e não pela máquina, que envolve dispositivos amovivéis, como sejam o CD, DVD, PEN, discos externos ou switches manuais. Neste processo, vulgarmente designado por Network Air Gap (NAG), o responsável pela transferência de dados deverá assumir de forma infalível, como atribuições intrínsecas e inalienáveis da função exercida, as garantias do cumprimento de um vasto conjunto de normas regulamentares. As regras estabelecidas desdobram-se em ferramentas e procedimentos que se destinam, por exemplo, à guarda em arquivo de todas as transferências efectuadas; à utilização de ferramentas de segurança (ex: antivírus) antes da colocação da informação na rede de classificação mais elevada; ao não consentimento de transferência de determinados tipos de ficheiro (ex: executáveis) e à garantia de que, em consonância com a autonomia que normalmente é delegada no elemento responsável pela operação das comunicações, apenas se efectuam transferências de informação no sentido da rede de classificação inferior para a rede de classificação mais elevada. Face ao valor da informação e do impacto na imagem deste tipo de organizações, o operador de comunicações que não cumpra escrupulosamente o determinado é inexoravelmente afastado dessas funções, sendo que o processo de apuramento de responsabilidades nem sempre poderá determinar de forma inequívoca se as razões apontam para um acto deliberado ou para factores não intencionais, como a inépcia, o descuido ou a fadiga. Na realidade, as actividades periódicas e rotineiras, tornam o homem propenso à falha e poderão ser incontornavelmente asseguradas, sem qualquer tipo de constrangimentos ou diminuição de garantias, por soluções tecnológicas, desde que devidamente parametrizadas, adaptadas, testadas e amadurecidas, libertando os recursos humanos para tarefas de manutenção, gestão, controlo e inspecção. Acresce que, para este tipo de organizações, onde se multiplicam o número de redes de entrada de informação, com diferentes classificações e actores distintos, e com destinatários específicos, a utilização deste tipo de mecanismos assume uma importância capital. Devido a este factor multiplicativo, impõe-se que o NAGC represente uma opção válida em termos de oferta tecnológica, designadamente para uma gama de produtos de baixíssimo custo e que possa desenvolver-se por camadas de contributo complementar, em função das reais necessidades de cada cenário.
Resumo:
Os aditivos alimentares desempenham um papel vital na indústria alimentar moderna e são geralmente utilizados na manutenção da qualidade e das características dos alimentos, promovendo desta forma a segurança alimentar. Para garantir o consumo seguro de alimentos com aditivos, os Estados Membros da União Europeia devem estabelecer um sistema regular de vigilância para monitorização desse consumo. No sentido de obter essa informação, é necessário aplicar métodos de análise robustos de modo a quantificar os níveis dessas substâncias numa larga variedade de matrizes alimentares. O presente trabalho teve como objectivos: a determinação analítica do tipo e do teor de aditivos alimentares nos novos refrigerantes à base de água mineral através de um método de HPLC baseado na norma EN 12856, a validação do método analítico para a quantificação dos edulcorantes (acessulfame K, aspartame e sacarina) e dos conservantes (ácido sórbico e ácido benzóico) e a comparação dos resultados obtidos com os valores máximos permitidos pela legislação portuguesa. Dos refrigerantes à base de água existentes no mercado português, foram analisadas 34 amostras de diferentes marcas, para determinação do tipo e teor de aditivos. Na validação da metodologia foram avaliados os seguintes parâmetros: gama de trabalho, linearidade, sensibilidade, limite de detecção (LD), limite de quantificação (LQ), precisão (repetibilidade e precisão intermédia) e exactidão. Relativamente à análise dos edulcorantes, verificou-se a presença do acessulfame K em 12 refrigerantes numa concentração que oscilou entre 34 e 94 mg/L. O aspartame foi encontrado apenas em 5 amostras num intervalo de concentração de 36 a 159 mg/L e a sacarina não foi detectada. No caso dos conservantes, o ácido sórbico foi encontrado em 19 dos refrigerantes numa gama de concentração entre 109 e 283 mg/L enquanto que o ácido benzóico, presente em 18 amostras, apresentou um teor que variou entre 91 e 143 mg/L. Observou-se ainda que o teor de cada um dos aditivos nos diferentes refrigerantes não excedeu o limite máximo legislado.