76 resultados para gama-glutamiltransferase urinária

em Repositório Científico do Instituto Politécnico de Lisboa - Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A institucionalização do direito à saúde, na constituição de 1976, como direito social e humano não parece ter conseguido, na prática dos profissionais de saúde, abalar a relação paternalista que coloca o doente numa situação de submissão face à dominância do poder/saber médico central ou periférico que o doente, nos termos de Parsons, deve acatar humildemente como “um bom doente”. É este papel de passividade e submissão do doente que nos propomos problematizar nos meandros dos direitos humanos/direitos sociais de cidadania como campo de construção social assente em práticas norteadas por direitos e deveres que, nos termos de Foucault, submetem os cidadãos a constrangimentos inerentes às relações de poder.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A constituição da Associação Cultural Marionetas de Lisboa em 1985 tornou-se um momento marcante na história do Teatro de Marionetas em Portugal. É feita uma resenha histórica breve introduzindo alguns dados recentemente vindos a público sobre a presença das marionetas em Portugal desde tempos remotos, nomeadamente a chamada de atenção para um documento do primeiro quartel do século XVI que sugere a possibilidade de ter existido nessa época uma espécie de Teatro de Sombras. Dedica-se algum espaço ao panorama do teatro de marionetas em Portugal no século XX, que teve ilustres representantes entre algumas elites como exemplo da marioneta urbana renascida no século XX depois do longo interregno e perseguições que se seguiram á morte do Judeu. Contudo, foi na sua matriz rural - como o exemplificam os Bonecos de Santo Aleixo e de Orada, o Pavilhão Mexicano do Manuel Rosado e o Teatro D. Roberto do António Dias entre outros, que o teatro de fantoches, como então se designava, ficou gravado no imaginário colectivo. As bruscas alterações sociais, demográficas e económicas na 2ª metade do século provocaram inexoravelmente a decadência do teatro de bonecos nas comunidades rurais desertificadas, reduzindo-o à condição de curiosidade etnográfica embora, num ou noutro caso, reconstituído mais tarde em meio urbano. É neste contexto que o aparecimento das Marionetas de Lisboa acontece. A repercussão do aparecimento desta estrutura constituiu um estímulo para florescimento de outras estruturas, por vezes seguindo o mesmo modelo organizativo, que enriqueceram o panorama nacional da Arte da Marioneta. Em conclusão, far-se-á um balanço da acção das Marionetas de Lisboa, nomeadamente no plano da divulgação e formação de públicos, não esquecendo a vertente da formação tecnológica e artística, com reflexos directos e indirectos na comunidade contribuindo para um novo olhar e novas atitudes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Era objectivo do presente trabalho o desenvolvimento de um biossensor baseado na inibição da amidase de Pseudomonas aeruginosa para a quantificação de ureia em diversas amostras com recurso a um eléctrodo selectivo de iões amónio (ISE). A ureia é um poderoso inibidor do centro activo da amidase (Acilamida hidrolase EC 3.5.1.4) de Pseudomonas aeruginosa a qual catalisa a hidrólise de amidas alifáticas produzindo o ácido correspondente e amónia. O extracto celular de Pseudomonas aeruginosa L10 contendo actividade de amidase foi imobilizado em membranas de poliétersulfona modificadas (PES) e em membranas de nylon Porablot NY Plus na presença de gelatina e de glutaraldeído (GA) como agente bifuncional. Estas membranas foram posteriormente utilizadas na construção do biossensor baseado no ISE, utilizando acetamida como substrato, a reacção enzimática foi seguida medindo os iões amónio produzidos pela hidrólise da amida alifática, e a resposta do biossensor apresentada como a velocidade inicial da reacção (mV.min-1). A optimização dos parâmetros de imobilização foi efectuada de acordo com a metodologia ANOVA. Assim, a mistura de 30μL extracto celular, 2μL GA (5%) e 10 μL Gelatina 15% (p/v) foi a que conduziu a uma melhor resposta do biossensor. Efectuou-se ainda o estudo de optimização de alguns parâmetros experimentais pH e tempo de incubação em ureia, este conduziu ao valor pH=7,2 como pH óptimo de resposta do biossensor e 20 min como tempo óptimo de incubação das membranas nas soluções de ureia, sendo neste caso a resposta do biossensor dada pela diferença das respostas do biossensor antes e após incubação. A calibração do biossensor foi efectuada em soluções contendo concentrações conhecidas de ureia preparadas em tampão Tris, leite e vinho caseiro, exibindo um limite de detecção de 2,0 ×10-6 M de ureia. A incubação das membranas em hidroxilamina 2M por um período de 2h permitiu a recuperação de 70% da actividade enzimática da membrana. O biossensor apresentou uma elevada estabilidade de armazenamento por um período de 55 dias revelando uma perda de apenas 15% da sua resposta. O biossensor desenvolvido apresenta uma sensibilidade de 58,245 mV.min-1 e um tempo de resposta de aproximadamente 20s. A resposta do biossensor foi linear para concentrações de ureia presentes no vinho na gama de 4-10 μM de ureia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O bom desempenho dos motores de indução trifásicos, ao nível do binário, em velocidades de funcionamento abaixo da velocidade nominal, faz deles uma boa opção para realizar o controlo de velocidade nesta gama de velocidades. Actualmente, com o rápido avanço da electrónica de potência é mais acessível a implementação de dispositivos que permitam variar a velocidade dos motores de indução trifásicos, contribuindo para que estas máquinas sejam cada vez mais utilizadas em accionamentos de velocidade variável. Este trabalho tem como objectivo o estudo prático da utilização da técnica de controlo escalar por variação simultânea da tensão e frequência (V/f) no accionamento do motor de indução trifásico. Para o efeito, foi implementado um conversor de potência compacto do tipo ondulador de tensão trifásico. Os sinais de comando para o conversor, que utilizam a modulação por largura de impulso, são gerados por um microcontrolador, que para além das capacidades normais de um dispositivo desse tipo, pemite ainda o processamento digital de sinal. O microcontrolador permite ainda a monitorização da velocidade de rotação do motor e da corrente no motor. A análise do desempenho do sistema incide essencialmente sobre o controlo da velocidade de rotação do motor, tendo sido criadas várias condições de funcionamento, com diferentes inclinações das rampas de aceleração e desaceleração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We calculate the equilibrium thermodynamic properties, percolation threshold, and cluster distribution functions for a model of associating colloids, which consists of hard spherical particles having on their surfaces three short-ranged attractive sites (sticky spots) of two different types, A and B. The thermodynamic properties are calculated using Wertheim's perturbation theory of associating fluids. This also allows us to find the onset of self-assembly, which can be quantified by the maxima of the specific heat at constant volume. The percolation threshold is derived, under the no-loop assumption, for the correlated bond model: In all cases it is two percolated phases that become identical at a critical point, when one exists. Finally, the cluster size distributions are calculated by mapping the model onto an effective model, characterized by a-state-dependent-functionality (f) over bar and unique bonding probability (p) over bar. The mapping is based on the asymptotic limit of the cluster distributions functions of the generic model and the effective parameters are defined through the requirement that the equilibrium cluster distributions of the true and effective models have the same number-averaged and weight-averaged sizes at all densities and temperatures. We also study the model numerically in the case where BB interactions are missing. In this limit, AB bonds either provide branching between A-chains (Y-junctions) if epsilon(AB)/epsilon(AA) is small, or drive the formation of a hyperbranched polymer if epsilon(AB)/epsilon(AA) is large. We find that the theoretical predictions describe quite accurately the numerical data, especially in the region where Y-junctions are present. There is fairly good agreement between theoretical and numerical results both for the thermodynamic (number of bonds and phase coexistence) and the connectivity properties of the model (cluster size distributions and percolation locus).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We generalize the Flory-Stockmayer theory of percolation to a model of associating (patchy) colloids, which consists of hard spherical particles, having on their surfaces f short-ranged-attractive sites of m different types. These sites can form bonds between particles and thus promote self-assembly. It is shown that the percolation threshold is given in terms of the eigenvalues of a m x m matrix, which describes the recursive relations for the number of bonded particles on the ith level of a cluster with no loops; percolation occurs when the largest of these eigenvalues equals unity. Expressions for the probability that a particle is not bonded to the giant cluster, for the average cluster size and the average size of a cluster to which a randomly chosen particle belongs, are also derived. Explicit results for these quantities are computed for the case f = 3 and m = 2. We show how these structural properties are related to the thermodynamics of the associating system by regarding bond formation as a (equilibrium) chemical reaction. This solution of the percolation problem, combined with Wertheim's thermodynamic first-order perturbation theory, allows the investigation of the interplay between phase behavior and cluster formation for general models of patchy colloids.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A morte descrita por Shakespeare, cujo fragmento se encontra supramencionado, é desejada por muitos no mundo contemporâneo, porquanto esta mudou seu caráter, não é mais uma morte domiciliar rodeada das pessoas queridas. Atualmente, a morte dá-se ora antes de termos um tratamento digno; ora em meio a tratamentos que gostaríamos de nos furtar. No contexto brasileiro, as pessoas menos afortunadas financeiramente, que, raramente têm acesso às modernas tecnologias, morrem, muitas vezes, na espera de uma chance de consultar um médico; é a “eutanásia social”, a mistanásia. Os mais privilegiados economicamente têm à sua disposição uma larga gama de tratamentos, que, por vezes, são extremamente úteis, outras, acarretam apenas a morte longe da família, longe dos amigos, longe do calor humano e próximo do frio das máquinas hospitalares. Esse paradoxo deve-se, em boa parte, ao progresso geométrico da ciência e tecnologia na área médica e das demais ciências da vida. Para muitas pessoas, a disponibilidade da medicina de alta tecnologia para “consertar” as marcas da vida é uma fonte de esperança e consolo. Para outras, são tratamentos fúteis que podem acarretar males maiores do que benefícios. Porém, é comum a recusa a abrir mão de tratamentos desproporcionais por parte de alguns médicos e familiares na busca incessante da “vida”. Essas pessoas agem como se a “vida” não fosse também morte. Vida é nascimento, desenvolvimento e morte; por vezes o desenvolvimento é menor do que esperávamos, e a morte chega antes do que almejávamos, mas ela também é parte da vida. A não consideração da morte como uma dimensão da existência humana e do conseqüente desafio de lidar com ela como um dos objetivos da medicina faz com que sejam introduzidos tratamentos agressivos que somente prolongarão o processo de morrer. A postura a ser pautada diante desse processo traz implicações éticas e jurídicas que deverão ser analisadas em cada caso, é uma exigência introduzida pelos novos paradigmas científicos, traduzindo a complexidade das interfaces da problemática da (in)admissibilidade de práticas eutanásicas. Todavia, em face da limitação espacial deste ensaio optamos por discorrer apenas sobre a modalidade passiva, a qual será diferenciada das outras modalidades para, posteriormente, serem analisadas as implicações no campo da bioética e do direito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A ideia de que a família é um elemento crucial na equação descritiva e explicativa dos processos de saúde e doença de cada pessoa é hoje bastante consensual. A família, como determinante fundamental dos processos de desenvolvimento, adaptação e perturbação do sujeito, é chamada a explicar a aquisição de hábitos e estilos de vida saudáveis e de risco, a exposição a comportamentos de risco e as estratégias de confronto com esses riscos, os processos de adoecer, de aceitação do diagnóstico e adaptação à doença crónica ou prolongada, de adesão aos tratamentos e de vivência da doença terminal. Mas a saúde e doença de cada pessoa também são chamadas a explicar os processos de adaptação e perturbação da família que constituem, ou de cada um dos seus membros. Finalmente a família é, ela mesma, enquanto entidade dinâmica, possível de caracterizar como mais ou menos saudável, sendo que a saúde da família afecta, necessariamente, a saúde actual e futura dos seus membros. Assim é quase unanimemente aceite que a família é um determinante importante dos processos de saúde e doença quer o sujeito ocupe as posições de filho, irmão ou pai/mãe, sendo que a família mais alargada tem sido, enquanto tal, pouco estudada. O conceito de família, na literatura da psicologia da saúde, não é alvo de grande discussão, sendo reconhecidas as múltiplas formas da mesma, e valorizada a sua importância nas diferentes fases da vida. A família é definida como um grupo composto por membros com obrigações mútuas que fornecem uns aos outros uma gama alargada de formas de apoio emocional e material. Caracteriza-se por ter uma estrutura, funções e papéis definidos, formas de interacção, recursos partilhados, um ciclo de vida, uma história comum, mas também um conjunto de indivíduos com histórias, experiências e expectativas individuais e únicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No actual ambiente competitivo, o baixo custo, a alta qualidade e um grau crescente de personalização são exigências para a sobrevivência das empresas que têm influenciado as acções dos profissionais de manutenção com vista ao aperfeiçoamento das políticas de manutenção. Como resultado, surgiu na área de manutenção industrial uma grande quantidade de métodos, softwares, modelos e ferramentas de gestão, onde se destaca o RCM (Reliability Centered Maintenance ou Manutenção Centrada na Fiabilidade) de origem Norte Americana na década de 60. Inicialmente começou-se a utilizar este método na indústria de aviação passando posteriormente a ser utilizada também pelo Exército dos E.U.A. e a partir da década de 80 por outras indústrias comerciais. Após a explicação da metodologia RCM e tendo como base o modelo da moto Softail, começou-se por definir o sistema através da preparação para a análise, selecção do equipamento a ser analisado e identificação das funções. Após definição do sistema passa-se à sua análise. Neste caso optou-se pela análise FMEA onde se identificam as falhas funcionais, os efeitos e causas dessas mesmas falhas, conhecendo-se o histórico de avarias do modelo Softail durante o período de garantia, desde 1999 até ao presente ano. Do histórico de avarias durante o período de garantia, e após estudo do mesmo, conclui-se que 28,35% das avarias são cosméticas, relativas a problemas de cromados (danos ou qualidade dos cromados) avarias essas que não influenciam o desempenho do motociclo; 9,58% de problemas relativos a baterias, problemas esses que poderão influenciar o normal funcionamento do motociclo e que se deverá ter mais atenção; 7,66% dos motociclos tiveram problemas de entrada de água para o interior do velocímetro, uma vez mais este problema não interfere com o bom desempenho do motociclo; 4,6% relativos a danos na pintura, uma vez mais problema cosmético que não interfere com o bom desempenho do motociclo; segue-se 4,21% devido a barulhos na frente do motociclo e que deverá requerer alguma atenção; 4,21% de mau funcionamento da instrumentação eléctrica, onde se deverá ter também atenção. No estudo da FMEA conclui-se que o principal efeito/consequência gerado pela falha da bateria (falha com maior frequência) é o não funcionamento do motor por falta de alimentação do sistema de gestão electrónica do motociclo e consequente imobilização do mesmo. Com base na FMEA realizada foram salientados os aspectos, em termos de modos de falha, que são mais importantes, com base nas reclamações em prazo de garantia, tais como questões estéticas dos cromados e pinturas e problemas relacionados com o funcionamento da bateria, entre outros. Na FMEA podem ser vistos em termos criticidade todos os modos de falha, através do RPN (Risk Priority Number), ou em português Número de Prioridade de Risco, mostrando assim onde a marca pode aplicar prioridades em termos de acções de projecto ou manutenção. Com estas alterações pretende-se aumentar a fiabilidade do modelo Softail, podendo no futuro alargar este novo plano de manutenção às restantes famílias da gama Harley-Davidson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, o número de hortas urbanas tem vindo a sofrer um acréscimo significativo. Com o apoio das Câmaras Municipais, uma faixa de população mais carenciada cultiva diferentes espécies vegetais que posteriormente, são consumidas pelos próprios ou vendidas a terceiros. A localização destas hortas junto de vias rodoviárias de elevada intensidade de tráfego automóvel levou, porém, a uma preocupação generalizada com a qualidade destes alimentos e com o seu efeito obre a saúde pública. Este trabalho centrou-se na quantificação de metais pesados (Pb, Ni, Cr e Cd) depositados e absorvidos, em duas espécies vegetais (alface e couve-galega) e nos solos destas culturas. As amostras foram submetidas a digestão húmida em banho de areia, para degradação da matriz e os metais foram quantificados utilizando um equipamento de absorção atómica em Câmara de grafite (GFAAS). Foi realizada uma caracterização dos solos, de forma a verificar a influência de alguns parâmetros na acumulação das espécies metálicas pelos próprios solos e na sua absorção por parte das espécies vegetais em estudo. As amostras foram recolhidas junto à Auto-estrada de Cascais (A5C), Circular Regional Interna de Lisboa (CRIL), 2ª Circular (2C), Itinerário Complementar 19 (IC19), ISEL (ISELAPT), Montijo (PVGEV), Belém (BE) e Calçada de Carriche (OB). Em termos de metais pesados, verificou-se que todos os solos que apresentam maior teor em chumbo são os de Belém e 2ª Circular. Para os restantes metais, as amostras que apresentam teores mais elevados são as das vias onde se verifica uma grande acumulação de tráfego (Belém; CRIL; A5; IC19; Olival Basto). Verificou-se também que, nestes casos, os valores de pH se encontram entre 7.77 e 8.76; os valores da matéria orgânica, se situam entre 13.61% e 4.27% e a percentagem de água entre 14.97% e 7.48%. Nas amostras de alface, a que apresentou um maior teor em chumbo foi a de Olival Basto. A amostra de alface recolhida junto ao ISEL apresenta o maior teor em níquel e em cádmio. O crómio é superior nas alfaces recolhidas na horta junto à Ponte Vasco da Gama. Nas amostras de couve-galega, a que apresentou um teor mais elevado em chumbo foi a do Olival Basto, enquanto para os restantes metais, e tal como verificado para as amostras de solo, são as das hortas junto às vias de grande acumulação de tráfego as qu apresentam maiores teores. Este trabalho permitiu identificar em que casos os teores estabelecidos pela legislação Europeia eram ultrapassados, podendo a eventual ingestão das espécies vegetais em estudo provocar um efeito negativo sobre a saúde humana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reparação ou substituição de elementos degradados em estruturas de madeira em serviço pode em alguns casos ser feita com a introdução de próteses de madeira nova, ligadas à madeira existente através de chapas ou varões colados. Esta abordagem apresenta-se como uma alternativa eficiente e rápida, que permite muitas vezes a manutenção de estruturas que seriam de outro modo substituídas ou profundamente alteradas, com técnicas mais intrusivas. Nestas intervenções são geralmente usadas colas epoxídicas, por serem as mais adequadas à execução de colagens em obra. O principal inconveniente destas colas é o facto de serem bastante sensíveis a temperaturas de serviço elevadas, resultando na redução da resistência e da rigidez das juntas coladas. No entanto, estudos anteriores realizados no LNEC mostraram que a resposta das colas epoxídicas à temperatura pode ser melhorada com o aumento da temperatura durante o processo de cura ou com a pós-cura das juntas de madeira coladas. Na presente dissertação foi desenvolvido e testado um novo método capaz de aplicar regimes de pós-cura a juntas coladas em obra, baseado na incorporação de resistências eléctricas na linha de cola. Foram também verificados os efeitos de diferentes regimes de cura na resistência de ligações coladas de madeira de Espruce realizadas com colas epoxídicas. O desempenho das juntas coladas foi avaliado através de ensaios de corte realizados à temperatura ambiente e a temperaturas elevadas, dentro da gama de temperaturas se serviço previstas, por exemplo, em coberturas. Os resultados mostraram a viabilidade do método proposto e confirmaram os efeitos benéficos da pós-cura aplicada desta forma a ligações coladas de madeira com colas epoxídicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudou-se a lixiviação de um concentrado de sulfureto de zinco e a recuperação de Fe(III) de soluções sulfúricas por extracção líquido-líquido. Nos estudos de lixiviação utilizou-se o ião férrico (Sulfato de ferro ou cloreto de ferro) como agente oxidante e avaliaram-se os efeitos da razão sólido/líquido, concentração do ião Fe(III) e o tipo do meio (sulfúrico e clorídrico) na eficiência da lixiviação. Os resultados mostraram que para uma razão sólido/líquido de 5% foi possível lixiviar 48% de zinco e 15% do cobre em 2h de lixiviação com uma solução de 0,5 M H2SO4 e 0,11 Fe2(SO4) a 80°C. A lixiviação do cobre é favorecida em meio clorídrico onde cerca de 23% de cobre foi lixiviado, após 2h, com uma razão sólido/líquido de 20% e uma solução de 0,5 M FeCl3 2 M HCI e 1 M NaCl a 80°C, quando em meio sulfúrico tinha sido possível lixiviar apenas 6% deste metal. A realização de dois andares de lixiviação, sendo o primeiro em meio sulfúrico e o segundo em meio clorídrico, permitiu aumentar as taxas de lixiviação dos metais, tendo-se obtido um rendimento global de 45% de Zn e 23% de Cu nas seguintes condições experimentais: s/l=20% (p/v), T=80°C, v=350 rpm, 1º andar com [Fe2(SO4)3]=0,25 M; [H2SO4]=2 M e 2º andar com [FeCl3]=0,5 M; [HCl]=2 M; [NaCl]=1 M. Nos estudos de extracção líquido-líquido para a recuperação de Fe(III) de meios sulfúricos utilizam-se misturas de extractantes, i.e. um ácido organofosforado (lonquest ou DEHPA) com uma amina primária (JMT). Foi ainda, testada a presença de um modificador (isotridecanol) no solvente. As várias misturas revelaram uma elevada afinidade para o ferro na gam de PH’s 1,04 a 1,74 e elevada selectividade para a separação ferro/zinco. Os factores de separação Fe/Zn atingem valores na gama 1000-8000, sendo favorecidos pelas elevadas concentrações de ferro na fase orgânica. A presença de modificador no solvente dificultou a extracção de ferro da fase aquosa mas favoreceu a respectiva reextracção da fase orgânica carregada que foi efectuada com uma solução 50 g/L de H2SO4. Na etapa final deste trabalho, aplicou-se a extracção líquido-líquido para a remoção de Cu e Fe duma líxvia obtida por lixiviação sulfúrica do concentrado de sulfureto de zinco. Numa primeira etapa extraiu-se todo o cobre da lixívia com a aldoxima Acorga M5640(10%(v/v)). Em seguida, traçou-se a isotérmica para a extracção de Fe(III) da lixívia utilizando DEHPA(20%(v/v)/JMT(10%(v/v)) com (20%(v7v)) e sem 2-octanol. Os resultados obtidos mostram que ambos os sistemas podem ser utilizados na extracção do fero do meio sulfúrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As ameaças à segurança da informação, (INFOSEC) atentam contra a perda da respectiva confidencialidade, integridade e disponibilidade, pelo que as organizações são impelidas a implementar políticas de segurança, quer ao nível físico quer ao nível lógico, utilizando mecanismos específicos de defesa. O projecto Network Air Gap Controller (NAGC) foi concebido no sentido de contribuir para as questões da segurança, designadamente daquelas que se relacionam directamente com a transferência de informação entre redes de classificação de segurança diferenciadas ou de sensibilidades distintas, sem requisitos de comunicação em tempo real, e que mereçam um maior empenho nas condições de robustez, de disponibilidade e de controlo. Os organismos que, em razão das atribuições e competências cometidas, necessitam de fazer fluir informação entre este tipo de redes, são por vezes obrigados a realizar a transferência de dados com recurso a um processo manual, efectuado pelo homem e não pela máquina, que envolve dispositivos amovivéis, como sejam o CD, DVD, PEN, discos externos ou switches manuais. Neste processo, vulgarmente designado por Network Air Gap (NAG), o responsável pela transferência de dados deverá assumir de forma infalível, como atribuições intrínsecas e inalienáveis da função exercida, as garantias do cumprimento de um vasto conjunto de normas regulamentares. As regras estabelecidas desdobram-se em ferramentas e procedimentos que se destinam, por exemplo, à guarda em arquivo de todas as transferências efectuadas; à utilização de ferramentas de segurança (ex: antivírus) antes da colocação da informação na rede de classificação mais elevada; ao não consentimento de transferência de determinados tipos de ficheiro (ex: executáveis) e à garantia de que, em consonância com a autonomia que normalmente é delegada no elemento responsável pela operação das comunicações, apenas se efectuam transferências de informação no sentido da rede de classificação inferior para a rede de classificação mais elevada. Face ao valor da informação e do impacto na imagem deste tipo de organizações, o operador de comunicações que não cumpra escrupulosamente o determinado é inexoravelmente afastado dessas funções, sendo que o processo de apuramento de responsabilidades nem sempre poderá determinar de forma inequívoca se as razões apontam para um acto deliberado ou para factores não intencionais, como a inépcia, o descuido ou a fadiga. Na realidade, as actividades periódicas e rotineiras, tornam o homem propenso à falha e poderão ser incontornavelmente asseguradas, sem qualquer tipo de constrangimentos ou diminuição de garantias, por soluções tecnológicas, desde que devidamente parametrizadas, adaptadas, testadas e amadurecidas, libertando os recursos humanos para tarefas de manutenção, gestão, controlo e inspecção. Acresce que, para este tipo de organizações, onde se multiplicam o número de redes de entrada de informação, com diferentes classificações e actores distintos, e com destinatários específicos, a utilização deste tipo de mecanismos assume uma importância capital. Devido a este factor multiplicativo, impõe-se que o NAGC represente uma opção válida em termos de oferta tecnológica, designadamente para uma gama de produtos de baixíssimo custo e que possa desenvolver-se por camadas de contributo complementar, em função das reais necessidades de cada cenário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os aditivos alimentares desempenham um papel vital na indústria alimentar moderna e são geralmente utilizados na manutenção da qualidade e das características dos alimentos, promovendo desta forma a segurança alimentar. Para garantir o consumo seguro de alimentos com aditivos, os Estados Membros da União Europeia devem estabelecer um sistema regular de vigilância para monitorização desse consumo. No sentido de obter essa informação, é necessário aplicar métodos de análise robustos de modo a quantificar os níveis dessas substâncias numa larga variedade de matrizes alimentares. O presente trabalho teve como objectivos: a determinação analítica do tipo e do teor de aditivos alimentares nos novos refrigerantes à base de água mineral através de um método de HPLC baseado na norma EN 12856, a validação do método analítico para a quantificação dos edulcorantes (acessulfame K, aspartame e sacarina) e dos conservantes (ácido sórbico e ácido benzóico) e a comparação dos resultados obtidos com os valores máximos permitidos pela legislação portuguesa. Dos refrigerantes à base de água existentes no mercado português, foram analisadas 34 amostras de diferentes marcas, para determinação do tipo e teor de aditivos. Na validação da metodologia foram avaliados os seguintes parâmetros: gama de trabalho, linearidade, sensibilidade, limite de detecção (LD), limite de quantificação (LQ), precisão (repetibilidade e precisão intermédia) e exactidão. Relativamente à análise dos edulcorantes, verificou-se a presença do acessulfame K em 12 refrigerantes numa concentração que oscilou entre 34 e 94 mg/L. O aspartame foi encontrado apenas em 5 amostras num intervalo de concentração de 36 a 159 mg/L e a sacarina não foi detectada. No caso dos conservantes, o ácido sórbico foi encontrado em 19 dos refrigerantes numa gama de concentração entre 109 e 283 mg/L enquanto que o ácido benzóico, presente em 18 amostras, apresentou um teor que variou entre 91 e 143 mg/L. Observou-se ainda que o teor de cada um dos aditivos nos diferentes refrigerantes não excedeu o limite máximo legislado.