998 resultados para Normas urbanísticas
Resumo:
No contexto actual e dado que a engenharia se encontra numa situação de transição entre os actuais regulamentos, normas em vigor e as normas e regulamentos europeus que futuramente vigorarão, surge a necessidade, o interesse e a preocupação em compreender que alterações irão os últimos introduzir no conceito e filosofia do dimensionamento. No presente caso a Norma Portuguesa EN 1997-1:2007 (EC7) conduz a modificações significativas no dimensionamento de fundações superficiais, relativamente aos Métodos Tradicionais. Avaliar as repercussões e o impacto desta transição é o âmbito da dissertação, cujo elemento fulcral é a análise comparativa do preconizado no Eurocódigo e nos Métodos Tradicionais. Nesse sentido o trabalho abrange entre outros os seguintes objectivos: • Compreensão dos conceitos e filosofias dos Métodos Tradicionais; • Compreensão do conceito e filosofia do EC7; • Análise comparativa entre os Métodos Tradicionais e EC7; • Análise crítica e conclusiva sustentada quer pela abordagem teórica quer pela via de aplicações de cálculo de ambos os métodos. Os Capítulos 2 e 3 pretendem, resumidamente, alcançar os dois primeiros objectivos fundamentais acima referidos, para desenvolver e suportar estes objectivos a primeira parte do trabalho centrou-se na pesquisa dos fundamentos teóricos das várias filosofias de dimensionamento, nomeadamente das obras referidas na bibliografia. Do Capítulo 2 destacam-se as teorias de capacidade resistente de Terzaghi, Meyerhof, Prandtl, Rankine, Hansen e Vesic, assim como, respectivas figuras de rotura, expressões de capacidade resistente, coeficientes de capacidade resistente. No que diz respeito aos casos de carga são abordados o carregamento vertical centrado, carregamento inclinado, carregamento excêntrico e a influência da variação do nível freático. Neste capítulo é ainda abordada a verificação de segurança e respectivos coeficientes de segurança globais. A abordagem do EC7 corresponde ao Capítulo 3, de onde se destacam as abordagens de cálculo, a capacidade resistente ao carregamento e os coeficientes de segurança parciais. O ponto seguinte reflecte a transição entre a análise teórica e isolada inicial para uma análise comparativa e de síntese que permite a formulação das expressões de dimensionamento e verificação da segurança, através de duas folhas de cálculo que traduzem os critérios de dimensionamento de fundações superficiais segundo os Métodos Tradicionais e segundo o EC7; No Capítulo 5 são abordados e apresentados os exemplos de cálculo, com verificação segundo a Abordagem Tradicional e o EC7, em condições drenadas e em condições não drenadas para as seguintes situações: • Carregamento vertical centrado; • Carregamento inclinado centrado; • Carregamento vertical excêntrico; • Carregamento inclinado excêntrico; Cada exemplo traduz um valor mínimo de largura de fundação para o qual a segurança se encontra verificada, tendo sido elaborado um quadro resumo e retiradas as respectivas conclusões. Seguidamente no Capítulo 6 são realizadas as considerações finais do trabalho.
Resumo:
A suscetibilidade da linhagem de células Vero ao vírus do sarampo é bem conhecida e sua utilização no controle da potência da vacina contra o sarampo é amplamente difundida. Com o objetivo de comparar a suscetibilidade de células Vero empregadas em titulações, amostras provenientes de dois laboratórios controladores (Vero IB e Vero INCQS), foram testadas frente a três cepas vacinais: Moraten, Schwarz e Biken CAM-70. Foram titulados 72 lotes de vacinas contra o sarampo, sendo 25 produzidos com a cepa Moraten, 24 com a cepa Schwarz e 23 com a cepa Biken CAM-70. A análise estatística dos resultados obtidos nas titulações, feita através dos testes Limites para uma Média e "t" de Student, mostrou que para as cepas Moraten e Biken CAM-70, as diferenças de títulos não foram estatisticamente significantes, o mesmo não ocorrendo com a cepa Schwarz, para a qual as células Vero IB se mostraram mais sensíveis.
Resumo:
O presente relatório de estágio resulta do acompanhamento da ampliação do corpo de um edifício hospitalar, cujo inicio da construção remonta ao ano de 1925, face às normas europeias em vigor. Inicialmente e com o objectivo supra mencionado foi elaborado um Estudo Prévio com base em determinadas características do edificado existente que no entanto não se comprovaram. Face ao sucedido e em resultado do cariz da intervenção prevista foi necessário avaliar as condições de segurança estrutural do edificado existente, sendo que, na indisponibilidade da obtenção do Projecto de Estabilidade do mesmo, foi inevitável proceder à sua reconstituição geométrica, de forma a executar um modelo de análise tridimensional. Analisadas as condições de segurança estrutural do edificado existente proceder-se-ia à caracterização da estrutura de ampliação.
Resumo:
Com a recente entrada em vigor do novo acervo normativo nacional que inclui a normalização europeia e a sujeição ao sistema de atestação da conformidade dos agregados, dos betumes e das misturas betuminosas, permitindo a aposição da marcação «CE» é necessário adaptar os cadernos de encargos para obras de pavimentação aos requisitos da normalização europeia, que passa pelo cumprimento das novas normas de produto e aplicação dos novos métodos de ensaio. Assim, o objectivo deste trabalho é elaborar um caderno de encargos tipo adequado aos principais tipos de misturas utilizadas nas obras de pavimentação da rede viária municipal, com base no novo acervo normativo nacional e no caderno de encargos tipo obra promovido pela administração rodoviária, Estradas de Portugal (EP). Apresenta-se neste documento o enquadramento geral da normalização europeia relativamente aos agregados, ligantes e misturas betuminosas e faz-se a síntese das características dos materiais constituintes das misturas não ligadas e de misturas betuminosas de utilização generalizada nas obras de pavimentação das Autarquias Portuguesas. Descrevem-se ainda as condições de execução das camadas constituintes dos pavimentos e respectivos critérios de aceitação e rejeição, bem como o tipo de ensaios e frequências para o controlo de qualidade das misturas. Finalmente é feita uma caracterização das condicionantes das obras de pavimentação municipais e uma avaliação aos requisitos e ensaios relativos ao controlo de qualidade dos materiais e misturas apresentadas, com vista à sua integração em caderno de encargos tipo municipal.
Resumo:
No presente trabalho simulou-se o comportamento térmico de sistemas solares do tipo pré-fabricado (factory made systems, norma EN 12976-2:2006), utilizando os parâmetros obtidos nos relatórios necessários à sua certificação, com o objectivo de conseguir introduzir estes sistemas na base de dados do programa SolTerm. Estes sistemas podem ser ensaiados segundo dois métodos de ensaio distintos que se encontram descritos nas normas ISO 9459-2:1995 (ensaio CSTG) e na norma ISO 9459-5:2007 (ensaio DST), contudo, devido ao facto do método DST estar baseado num software em código fechado, não é possível fazer a simulação no SolTerm, fazendo com que apenas se possa introduzir sistemas cujo ensaio tenha sido realizado segundo a norma ISO 9459-2 (ensaio CSTG). Este trabalho incidiu neste ponto, tendo sido elaborado um método de cálculo que permite inserir qualquer sistema no SolTerm, independentemente do ensaio que o caracterizou. Para isso foi necessário utilizar o modelo de cálculo do DST (programa em código fechado) simulando a metodologia de ensaio do CSTG, para que se consiga fazer a aproximação entre ambos. Após determinados os coeficientes, é feita uma verificação aos dois cálculoa a fim de corroborar os resultados anteriormente determinados. Desta forma, foi possível criar um algoritmo de cálculo que permite qualquer sistema térmico do tipo pré-fabricado, ser introduzido na base de dados do SolTerm, com um erro associado inferior a 3%.
Resumo:
A acentuada diminuição da área arável per capita nas últimas décadas exige uma maior produtividade para os terrenos agrícolas. O acréscimo na produtividade é em parte conseguido pelo uso de adubos orgânicos e/ou inorgânicos. O consumo e consequente produção de adubos acompanham a tendência ditada pela necessidade de maximizar a produção agrícola. Recentes normas europeias exigem um controlo de qualidade rigoroso para os adubos em geral e em particular para os que tem um elevado teor em azoto. Para o nitrato de cálcio e amónio (NCa), essencial para a cultura de cereais, os teores em azoto nítrico e amoniacal tem de ser rigorosamente controlados dado que o nitrato de amónio pode ser usado na produção de explosivos. Na indústria o controlo de qualidade do NCa é feito por técnicas de análise volumétrica morosas e dispendiosas. Com o objectivo de seleccionar uma técnica mais expedita para o controlo de qualidade do NCa, várias amostras (sólidos granulares) comercializadas em Portugal e algumas de origem nórdica foram caracterizadas por difracção de raios x, espectroscopia do infravermelho por reflectância e termogravimetria. Todas as amostras foram previamente peneiradas de forma a obter a sua distribuição granulométrica. A difracção de raios X confirmou que as amostras eram semi-cristalinas, o que era previsível em face do processo de produção. A baixa cristalinidade não permitiu o cálculo dos parâmetros da rede cristalina que indicariam, ou não, a formação do sal duplo. A espectroscopia do infravermelho permitiu a identificação das bandas correspondentes aos dois nitratos. Os resultados da termogravimetria permitiram identificar os processos de desidratação e de decomposição dos dois nitratos. Numa só análise foi possível quantificar a água de cristalização, o azoto nítrico, o azoto amoniacal e o teor em CaO das amostras. Os resultados obtidos por termogravimetria mostraram elevada coerência com os análogos obtidos pelas técnicas clássicas de análise volumétrica. O teor em água de cristalização, obtido por TG, concorda com a estequiometria prevista para o nitrato duplo de cálcio e amónia (10 moléculas de água de hidratação). As réplicas efectuadas mostraram excelente reprodutibilidade da análise termogravimétrica das amostras de NCa. Não obstante o investimento inicial necessário, a termogravimetria afigura-se uma solução expedita para o controlo de qualidade do NCa na indústria.
Resumo:
A qualidade de vida do ser humano é grandemente influenciada pelo ar que respiram. Grande parte da população passa a maior parte do seu tempo em ambientes interiores, pelo que a qualidade do ar presente nesses ambientes é de extrema importância para a saúde da população. Os elevados níveis de concentração das partículas suspensas em atmosferas interiores constituem um risco na saúde da população exposta. O presente trabalho consistiu em avaliar os níveis de concentração de partículas suspensas em atmosferas interiores, numa escola do ensino básico e num laboratório de ortoprotesia, utilizando o método automático que consiste em medir amostras de ar através do equipamento Handheld 3016 IAQ, obtendo-se directamente os valores de concentração e o número de partículas suspensas no ar interior, e concluir, de acordo com as normas ISO 7730:2005, NP 1796:2007 e com Decreto –Lei nº 79/2006 de 4 de Abril sobre a qualidade do ar presente no interior dos locais analisados. Os resultados obtidos permitiram concluir que os níveis de concentração de partículas suspensas nas atmosferas interiores da escola se encontram dentro dos valores limite estabelecidos pelas normas, e que para o laboratório de ortoprotesia, os níveis de concentração de partículas não se encontram dentro dos valores estabelecidos pelo SCE, embora cumpram os requisitos da norma NP 1796:2007.
Resumo:
Esta Dissertação tem como objectivo proceder à compilação da informação disponibilizada em alguns Países Europeus relativamente à Largura do Separador e Dispositivos de Segurança Associados nas Auto-Estradas, efectuando um resumo e comparação das principais normas, guias e soluções mais relevantes. A Largura do Separador e os Dispositivos de Segurança constituem parte integrante das características dos traçados dos projectos de vias de comunicação, os quais, para além de respeitarem as normas em vigor, necessitam de oferecer níveis de serviço adequados nas suas principais componentes (segurança, velocidade de circulação, tempo de percurso, conforto, entre outros). A definição das características operacionais e geométricas da Rede Nacional de Auto-Estradas deve ter em conta a função que cada tipo de Auto-Estrada desempenha no sistema rodoviário, daí que existam diversas soluções em termos de Largura de Separador e Dispositivos de Segurança. No entanto, a dificuldade reside em conseguir seleccionar-se a solução mais adequada para garantir os níveis de segurança necessários, esperando-se que este pequeno contributo permita facilitar a tomada de decisão. No presente trabalho dá-se especial ênfase à análise das diversas soluções em função da Largura do Separador, com o intuito de também identificar as melhores soluções em situações concretas, pretendendo-se construir um elemento de trabalho adicional para a eventual futura normalização destas matérias.
Resumo:
Este trabalho teve como objectivos estudar a relação entre os teores de aerossóis medidos na cidade de Lisboa e as condições meteorológicas registadas. O período de amostragem decorreu entre 20 de Janeiro e 19 de Fevereiro de 2009, a designada “Campanha de Inverno” do Projecto de Investigação “Contaminação da atmosfera urbana de Lisboa por Hidrocarbonetos Aromáticos Policíclico (PAHLis)”. Foram seleccionados dois locais da cidade de Lisboa com diferentes níveis de poluição: Olivais e Avenida da Liberdade. Nestes locais existem também estações da Rede da Qualidade do Ar cujos dados foram usados para completar e validar os dados por nós recolhidos. O étodo usado para a determinação da concentração de PM foi o método de referência (método gravimétrico) referido pelas normas EN 12341:1998 e EN 14907:2005. Em cada local, foram recolhidas partículas em suspensão no ar através de amostradores Gent e High-Vol. O Gent é um amostrador de baixo volume (cerca de 12 L de ar por minuto) que possui duas unidades de filtros de policarbonato de dois tamanhos de poro sendo assim possível a recolha de partículas PM2.5 e PM10-2.5 separadamente. O High-Vol é um equipamento de amostragem de alto volume (cerca de 1 m3 de ar por minuto) e onde foram usados dois filtros de quartzo em cascata para a recolha de partículas PM2.5 e PM10-2.5. Verificou-se que os amostradores não foram totalmente eficazes na separação das partículas, segundo os diâmetros aerodinâmicos pretendidos. Os dados apresentaram alguma discrepância face aos dados obtidos pelos High-Vol e também face aos dados obtidos pelos medidores das estações. Optou-se assim pela utilização dos dados obtidos com o amostrador High-Vol. Verifica-se que a Avenida da Liberdade é dos locais de estudo o mais poluído e que a concentração da fracção fina é mais elevada. Tal facto deve-se provavelmente à intensa circulação automóvel, principal fonte poluidora no local. Para o período em estudo e neste local, foi obtida uma média de 16.5 µg/m3 de PM 10-2.5 e 21.9 µg/m3 de PM 2.5. No mesmo período registou-se nos Olivais uma média de 9.0 µg/m3 para a fracção grosseira e 12.3 µg/m3 para a fracção fina. Os dados meteorológicos foram fornecidos pelas estações meteorológicas localizadas nas imediações dos locais em estudo: estação MeteoPortela e estação do Instituto Dom Luiz. Foram recolhidos e tratados dados de temperatura, precipitação, humidade, velocidade e direcção do vento. Com recurso à análise de componentes principais (PCA) foi possível verificar a relação e influência das condições meteorológicas sobre os teores de partículas. Foi possível a redução das variáveis iniciais tendo-se concluído que a humidade, a percipitação e a velocidade do vento são as condições que maior influência têm sobre as partículas. Um aumento destas variáveis provoca uma diminuição global do teor das partículas. Para uma clara definição de um modelo PCA para estes dados, os estudos deverão se prolongados no tempo.
Resumo:
Segundo estudos oficiais, a produção de energia eléctrica, principalmente através da queima de combustíveis fósseis, é responsável pelo aumento das emissões de gases de efeito estufa na atmosfera, contribuindo desta forma para o aquecimento global do planeta. Nesse sentido, os governos de diversos países, assumiram vários compromissos a nível internacional, com o propósito de reduzir o impacto ambiental associado à procura global de energia no planeta, assim como a utilização de recursos naturais. Desses compromissos, destaca-se o Protocolo de Quioto, no qual Portugal assumiu o compromisso de não apresentar um aumento de emissões superior a 27% relativamente ao ano de referência de 1990, durante o período de 2008-2012. Nesse sentido, uma das medidas para o controlo dessas emissões, passa pelo uso racional de energia consumida, nomeadamente através do sector doméstico, um dos sectores que registou uma maior subida do consumo de energia eléctrica nos últimos tempos. Uma das formas de o fazer, poderá passar pela escolha racional dos equipamentos que se utilizam hoje em dia no sector doméstico, baseada por sua vez em normas e critérios específicos para o efeito. No presente trabalho, o problema de maximização de eficiência energética é apresentado e formulado como um problema de optimização, sendo a sua resolução suportada em algoritmos evolucionários, nomeadamente algoritmos genéticos como referência o método Simplex para comparação de resultados e posterior validação dos algoritmos genéticos, enquanto método de optimização para a resolução deste tipo de problema. Factores como o ciclo de vida do produto, investimento realizado e despesas no consumo de energia eléctrica, serão tidos em conta, quando existe a necessidade de se obter uma solução ecológica e económica, assegurando ao mesmo tempo a satisfação do consumidor e do meio ambiente. Serão apresentadas ainda, diversas hipóteses de parametrização, tendo em vista os estudos de desempenho dos dois métodos de optimização a serem analisados e será elaborado ainda um estudo, para avaliar o desempenho dos algoritmos genéticos, mediante a variação de parâmetros a ele associados. No final conclui-se que a utilização dos AG’s é adequada ao problema de maximização da eficiência energética providenciando soluções distintas na escolha de equipamentos com valores semelhantes de indicadores económicos.
Resumo:
A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.
Resumo:
Trata-se de estudo observacional, transversal, em população aleatorizada, cujo objetivo foi contribuir para a avaliação da validade dos limites de tolerância biológica (LTB) estabelecidos no Brasil para a plumbemia (Pb-S) e a concentração urinária do ácido delta-aminolevulínico (ALA-U). Para tanto, um grupo de trabalhadores expostos ao chumbo, cujos valores de Pb-S e ALA-U encontravam-se no momento do estudo ¾ bem como nos 2 anos precedentes ¾ abaixo dos LTB brasileiros, foi submetido a exame eletroneurográfico dos nervos mediano direito, ciático-popliteo externo direito, radial direito, radial esquerdo e sural direito. Os resultados foram comparados com os obtidos por intermédio da aplicação do mesmo conjunto de exames em um grupo-controle não exposto ao chumbo. No grupo exposto foram encontrados sinais de comprometimento dos nervos radiais - que diferiam significativamente dos resultados obtidos no grupo-controle (p = 0,0067). Os resultados apontam contra a validação dos LTB estabelecidos no Brasil para a Pb-S e a ALA-U.
Resumo:
Trata-se de um estudo observacional, transversal, com população de estudo aleatorizada, cujo objetivo foi contribuir para a avaliação da validade dos limites de tolerância biológica (LTB) estabelecidos no Brasil para a plumbemia (Pb-S) e a excreção urinária do ácido delta-aminolevulínico (ALA-U). Para tanto, foi aplicada uma variação do WHO Neurobehavioral Core Test Battery a um grupo de trabalhadores expostos ao chumbo, cujos valores de Pb-S e ALA-U encontravam-se no momento bem como nos 2 anos precedentes abaixo dos LTB brasileiros. Os resultados foram comparados aos obtidos por intermédio da aplicação da mesma bateria de testes, em um grupo-controle não exposto ao chumbo. No grupo exposto foram encontrados sinais de comprometimento da memória, humor e coordenação motora fina que diferiam significativamente dos resultados obtidos no grupo-controle (p = 0,02). Os resultados apontam contra a validação dos LTB estabelecidos no Brasil para a Pb-S e a ALA-U.
Resumo:
O presente trabalho tem como objectivo o desenvolvimento da metodologia da aplicação da Norma NP 4457:2007 relativa aos requisitos do Sistema de Gestão da Investigação, Desenvolvimento e Inovação (IDI) com vista à sua verificação no CEEQ - Centro de Estudos de Engenharia Química do ISEL A Norma NP 4457:2007 é um estímulo à inovação empresarial e à dinamização de processos de gestão para um melhor desempenho da Investigação, Desenvolvimento e Inovação (IDI). A certificação pela NP 4457:2007 constitui um acelerador e incentivador adicional ao sucesso da implementação do sistema. Este trabalho visa o desenvolvimento da metodologia de aplicação na Norma NP 4457:2007 relativa aos requisitos do Sistema de Gestão da IDI. Depois de desenvolvida a metodologia, verificar-se -à a sua aplicabilidade no CEEQ - Centro de Estudos de Engenharia Química que tem um papel essencial para a sua optimização e verificação. No sentido de adquirir alicerces para um melhor entendimento do trabalho recorreu-se a um estudo pormenorizado da NP ISSO 9001 e da família das normas IDI. Efectuou-se uma linha de Diagnóstico/Comprovação dos Requisitos do Sistema de Gestão da IDI, que pode ser utilizada por qualquer entidade como diagnóstico ou comprovação no sentido da Certificação pela NP 4457:2007. O investimento em IDI em Portugal e na Europa foi alvo de estudo, já que pode constituir um grande obstáculo à implementação e à certificação.
Resumo:
As ameaças à segurança da informação, (INFOSEC) atentam contra a perda da respectiva confidencialidade, integridade e disponibilidade, pelo que as organizações são impelidas a implementar políticas de segurança, quer ao nível físico quer ao nível lógico, utilizando mecanismos específicos de defesa. O projecto Network Air Gap Controller (NAGC) foi concebido no sentido de contribuir para as questões da segurança, designadamente daquelas que se relacionam directamente com a transferência de informação entre redes de classificação de segurança diferenciadas ou de sensibilidades distintas, sem requisitos de comunicação em tempo real, e que mereçam um maior empenho nas condições de robustez, de disponibilidade e de controlo. Os organismos que, em razão das atribuições e competências cometidas, necessitam de fazer fluir informação entre este tipo de redes, são por vezes obrigados a realizar a transferência de dados com recurso a um processo manual, efectuado pelo homem e não pela máquina, que envolve dispositivos amovivéis, como sejam o CD, DVD, PEN, discos externos ou switches manuais. Neste processo, vulgarmente designado por Network Air Gap (NAG), o responsável pela transferência de dados deverá assumir de forma infalível, como atribuições intrínsecas e inalienáveis da função exercida, as garantias do cumprimento de um vasto conjunto de normas regulamentares. As regras estabelecidas desdobram-se em ferramentas e procedimentos que se destinam, por exemplo, à guarda em arquivo de todas as transferências efectuadas; à utilização de ferramentas de segurança (ex: antivírus) antes da colocação da informação na rede de classificação mais elevada; ao não consentimento de transferência de determinados tipos de ficheiro (ex: executáveis) e à garantia de que, em consonância com a autonomia que normalmente é delegada no elemento responsável pela operação das comunicações, apenas se efectuam transferências de informação no sentido da rede de classificação inferior para a rede de classificação mais elevada. Face ao valor da informação e do impacto na imagem deste tipo de organizações, o operador de comunicações que não cumpra escrupulosamente o determinado é inexoravelmente afastado dessas funções, sendo que o processo de apuramento de responsabilidades nem sempre poderá determinar de forma inequívoca se as razões apontam para um acto deliberado ou para factores não intencionais, como a inépcia, o descuido ou a fadiga. Na realidade, as actividades periódicas e rotineiras, tornam o homem propenso à falha e poderão ser incontornavelmente asseguradas, sem qualquer tipo de constrangimentos ou diminuição de garantias, por soluções tecnológicas, desde que devidamente parametrizadas, adaptadas, testadas e amadurecidas, libertando os recursos humanos para tarefas de manutenção, gestão, controlo e inspecção. Acresce que, para este tipo de organizações, onde se multiplicam o número de redes de entrada de informação, com diferentes classificações e actores distintos, e com destinatários específicos, a utilização deste tipo de mecanismos assume uma importância capital. Devido a este factor multiplicativo, impõe-se que o NAGC represente uma opção válida em termos de oferta tecnológica, designadamente para uma gama de produtos de baixíssimo custo e que possa desenvolver-se por camadas de contributo complementar, em função das reais necessidades de cada cenário.