1000 resultados para Método Eletromagnético Marinho de Fonte Controlada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologias da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenheira e Gestão Industrial

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao longo desta dissertação, é abordada a temática das obras de arte, focando-se um processo construtivo em particular, que é o Método de Lançamento Incremental. Começa-se por um enquadramento geral da temática das obras de arte, sendo feita a sua descrição, e faz-se uma síntese histórica dos materiais utilizados nas mesmas. De seguida, são apresentados os tipos de tabuleiros existentes e as tipologias estruturais das obras de arte. São mencionados ainda os processos e equipamentos construtivos que são utilizados na sua construção. É, de seguida, feita uma abordagem mais profunda ao processo construtivo alvo desta dissertação, nomeadamente questões de índole prática e de dimensionamento. É feita ainda uma aplicação prática, sendo feito um Estudo Prévio de uma solução para uma obra de arte executada com este processo construtivo. Termina-se indicando aspetos importantes na monitorização das obras de arte executadas pelo processo construtivo alvo desta dissertação, sendo ainda apresentadas as conclusões a que se chegou no final da mesma e possíveis desenvolvimentos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os agentes quelantes, como é o caso do EDTA, são utilizados numa ampla variedade de indústrias como a indústria têxtil, da pasta de papel, alimentar, de cosméticos ou de detergentes. Contudo, os agentes complexantes sintéticos, habitualmente usados, não são biodegradáveis, pelo que a sua acumulação no meio ambiente constitui motivo de preocupação. Deste modo, existe um interesse crescente na substituição destes compostos por compostos similares biodegradáveis sendo, deste modo, ambientalmente amigáveis. Alguns microrganismos são capazes de produzir moléculas com capacidade de captar metais. Um desses exemplos são os sideróforos: compostos produzidos por bactérias, fungos e plantas gramíneas, com capacidade de formar quelatos muito estáveis com o ferro. A presente dissertação teve como objetivo estudar o efeito de diferentes condições culturais e nutricionais na produção de sideróforo pela bactéria Bacillus megaterium. A avaliação da produção de sideróforo, utilizando o método colorimétrico Chrome Azurol S (CAS), durante o crescimento da bactéria, em meio de cultura deficiente em ferro, na presença de 5 ou de 20 g/L de glucose, mostrou que o início da sua produção ocorre, durante a fase exponencial de crescimento, não está relacionada com a esporulação e não é afetada pela concentração de glucose. Contudo, o crescimento da bactéria na presença de diferentes fontes de carbono (glicerol, frutose, galactose, glucose, manose, lactose, maltose ou sacarose) evidenciou que a produção de sideróforo é afetada pelo tipo de fonte de carbono. O crescimento na presença de glicerol promoveu a maior produção de sideróforo; efeito inverso foi observado na presença de manose. A bactéria B. megaterium, quando crescida na presença de frutose, galactose, glucose, lactose, maltose ou sacarose, produziu concentrações similares de sideróforo. O aumento da concentração de arginina, no meio de cultura, não aumentou a produção de sideróforo. A agitação apresentou um efeito positivo na produção de sideróforo; o crescimento em condições estáticas atrasou e diminuiu a produção de sideróforo. Em conclusão, o glicerol parece constituir uma fonte de carbono alternativa, aos monossacáridos e dissacáridos, para a produção de sideróforo. A agitação apresenta um efeito positivo na produção de sideróforo pela bactéria B. megaterium ATCC 19213.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O século XX, sobretudo na segunda metade, trouxe para os sistemas de informação empresariais (estes são o suporte de múltiplos modelos ligados à planificação, ao controlo e à tomada de decisões em geral) alterações espectaculares, cujo difícil domínio é o motor de novas propostas e achegas multidisciplinares. Como parte essencial dos referidos sistemas, a Contabilidade de Custos tem perseguido determinar valores unitários de bens ou serviços, de funções ou outros portadores de custos, com diferentes propósitos segundo objectivos, épocas e áreas geográficas concretas. Durante os últimos anos do século passado e no primeiro quartel deste, os cálculos ligaram-se essencialmente ao produto como forma de actuar sobre a eficiência laboral. Os engenheiros industriais (em empresas multinacionais americanas), preocupados em conseguir uma maior racionalidade na utilização dos recursos, estudaram profundamente a normalização e standardização dos materiais e equipamentos, o preestabelecimento de métodos e a medida dos tempos de trabalho. A sua investigação estendeu-se também à forma de organização mais adequada para o desenvolvimento da actividade empresarial; de tal forma que, sob a “batuta” de homens como F. W. Taylor (e o seu método de trabalho para definir tarefas e ferramentas mais adequadas a cada actividade), E. Mayo (e a sua preocupação pelas condições de trabalho em equipa) ou H. Fayol (e a sua procura sistemática das características que devem contribuir para a administração eficiente das organizações), foram-se confirmando os conteúdos actuais dos conceitos de disciplina e ordem, liderança e hierarquia, iniciativa e espírito de superação, etc; assim como novas formas de entender, organizar e realizar o trabalho, que configurarão relações laborais diferentes das herdadas da sociedade pré-industrial. Corolário de tudo foram a especialização e a departamentalização da empresa, bem como o progressivo aparecimento de uma estrutura funcional, com competências pessoais marcadas pela hierarquia. Os engenheiros, com o objectivo de racionalizarem ao máximo as tarefas produtivas, criaram as bases para o desenvolvimento do custo “standard” (padrão) e reuniram o seu estudo com os problemas da direcção geral do negócio: os padrões técnicos serão referência obrigatória para a remuneração do pessoal e a programação de existências e compras, assim como para determinar as actividades dos centros (base do cálculo dos orçamentos); e ainda se revelaram um óptimo instrumento de controlo. Acompanhando este movimento, o cálculo do custo industrial centrar-se-à nos produtos (como portadores finais dos diferentes consumos necessários para a sua obtenção) sobre a base dos padrões técnicos definidos para eles. Não obstante, na primeira metade do nosso século, e sob a pressão de uma procura crescente de informação financeira, iniciou-se a passagem da gestão de custos à contabilidade de custos: os textos de contabilidade dos anos 20 propõem o cálculo do custo de produção com uma orientação clara - valorizar as existências para a informação financeira (Balanço e Resultados no fim do exercício). Só depois da 2ª Guerra Mundial se começa a falar de gestão e, por consequência, de custos para a planificação, controlo e tomada de decisões (Johnson e Kaplan, 1987). Impõe-se uma reflexão sobre os diferentes significados que o custo tem tido ao longo do nosso século (ligando esses significados às circunstâncias que provocaram cada elaboração) para a sua construção futura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para o projeto de qualquer estrutura existente (edifícios, pontes, veículos, máquinas, etc.) é necessário conhecer as condições de carga, geometria e comportamento de todas as suas partes, assim como respeitar as normativas em vigor nos países nos quais a estrutura será aplicada. A primeira parte de qualquer projeto nesta área passa pela fase da análise estrutural, onde são calculadas todas as interações e efeitos de cargas sobre as estruturas físicas e os seus componentes de maneira a verificar a aptidão da estrutura para o seu uso. Inicialmente parte-se de uma estrutura de geometria simplificada, pondo de parte os elementos físicos irrelevantes (elementos de fixação, revestimentos, etc.) de maneira a simplificar o cálculo de estruturas complexas e, em função dos resultados obtidos da análise estrutural, melhorar a estrutura se necessário. A análise por elementos finitos é a ferramenta principal durante esta primeira fase do projeto. E atualmente, devido às exigências do mercado, é imprescindível o suporte computorizado de maneira a agilizar esta fase do projeto. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura em análise. Porém, estes programas demostram uma certa complexidade durante a introdução dos parâmetros, levando muitas vezes a resultados errados. Assim sendo, é essencial para o projetista ter uma ferramenta fiável e simples de usar que possa ser usada para fins de projeto de estruturas e otimização. Sobre esta base nasce este projeto tese onde se elaborou um programa com interface gráfica no ambiente Matlab® para a análise de estruturas por elementos finitos, com elementos do tipo Barra e Viga, quer em 2D ou 3D. Este programa permite definir a estrutura por meio de coordenadas, introdução de forma rápida e clara, propriedades mecânicas dos elementos, condições fronteira e cargas a aplicar. Como resultados devolve ao utilizador as reações, deformações e distribuição de tensões nos elementos quer em forma tabular quer em representação gráfica sobre a estrutura em análise. Existe ainda a possibilidade de importação de dados e exportação dos resultados em ficheiros XLS e XLSX, de maneira a facilitar a gestão de informação. Foram realizados diferentes testes e análises de estruturas de forma a validar os resultados do programa e a sua integridade. Os resultados foram todos satisfatórios e convergem para os resultados de outros programas, publicados em livros, e para cálculo a mão feitos pelo autor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avaliação da variação da temperatura corporal, e a monitorização da mesma é bastante importante na prática clínica sendo, por vezes, a base de muitas decisões clínicas. Atualmente, os termómetros digitais, em particular os timpânicos são amplamente utilizados, em contexto hospitalar e domiciliário. Muitos estudos têm sido efetuados para determinar a validade das medições obtidas através de termómetros timpânicos. Os defensores destes termómetros afirmam que, se forem utilizados de forma adequada e periodicamente calibrados, a avaliação da temperatura corporal com este tipo de termómetros é eficaz, cómoda, rápida, pouco invasiva emais higiénica reduzindo o número de infeções cruzadas (FarnellMaxwell &Tan, Rhodes& Philips, 2005). A Metrologia como a ciência das medições e suas aplicações ((VIM1: 2.2) (INSTITUTO PORTUGUÊS DA QUALIDADE, 2012)), abrange todos os aspetos teóricos e práticos que asseguram a exatidão e precisão exigida num processo, procurando garantir a qualidade de produtos e serviços através da calibração de instrumentos de medição e da realização de ensaios, sendo a base fundamental para a competitividade das empresas. Só após o ano 1990, com a publicação dos resultados doHarvardMedical Practice Study (T A BRENNAN, 2004), sobre adventos adversos na área da saúde, começaram a surgir preocupação com o risco do uso de equipamentos e instrumentos sem a adequada avaliação metrológica. Neste estudo concluiu-se que 3,7 % dos pacientes hospitalizados sofriam eventos adversos devido ao uso inadequado de equipamento médico, sendo que 13,6% destes eram mortais. Pegando nesta realidade e sabendo que o não controlo de Equipamento de Monitorização e Medição é uma das causas de obtenção de 36%de não conformidades - 7.6 (NP EN ISO 9001:2008), em Auditorias da Qualidade em Serviços de Saúde (Luís Marinho – Centro Hospitalar São João), fez todo o sentido o estudo e trabalho desenvolvido. Foi efetuado um estudo, no que se refere a normalização em vigor e verificou-se que a nível metrológico muito trabalho terá que ser realizado no serviço nacional de saúde por forma este fornecer o suporte material fiável ao sistema de medições, essencial aos mais diversos sectores da saúde. Sabendo-se que os ensaios/calibrações são necessários e não são negligenciáveis na estrutura de custos das instituições de saúde, e por isso são vistas como mais uma fonte de despesas, é intenção com a realização deste trabalho, contribuir em parte para superação deste tema. Este trabalho passou pela execução/realização de um procedimento de calibração para termómetros timpânicos, tendo a necessidade de desenvolver/projetar um corpo negro. A amostra em estudo é constituída por cinco termómetros timpânicos hospitalares em uso dos diferentes serviços do CHSJ2, seleccionados completamente ao acaso. Um termómetro clínico no mínimo terá que ser calibrado a temperatura 35 ºC e 42 ºC. A calibração deverá ser realizada anualmente e por entidade acreditada. O erro máximo admissível é de ± 0,2 ºC (nas condições ambientais de funcionamento). Sem a confirmação metrológica, não é possível garantir a qualidade do produto ou serviço. A Metrologia na área da saúde desperta a exigência por produtos e serviços de qualidade. Esta tencionará ser encarada como um pilar de sustentabilidade para a qualidade na saúde, sendo absolutamente necessária a implementação de novos procedimentos e atitudes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Tecnologia e Segurança Alimentar

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescimento populacional esperado para os próximos anos conduzirá à necessidade de aumentar a produção agrícola de modo a satisfazer o aumento da procura. Nos últimos anos tem-se assistido a uma evolução tecnológica nos sistemas de produção que tem permitido aumentar a produtividade agrícola, por vezes à custa de elevados consumos de energia e com práticas nem sempre ambientalmente corretas. Os desafios que se colocam atualmente são no sentido de melhorar a conservação de recursos escassos, como o solo e a água, de aumentar a eficiência de uso de fatores de produção, de encontrar novas culturas, do desenvolvimento da biotecnologia, da diminuição dos consumos energéticos e de melhorar ainda mais as tecnologias associadas à produção. De maneira a responder aos desafios emergentes da procura por alimentos, da escassez de terrenos agrícolas aráveis bem como da existência de pragas de insetos e de ervas daninhas, os pesticidas tem vindo a ser usados com maior frequência, tendo-se assistido a uma contaminação dos solos e águas subterrâneas, causando deste modo um risco para a saúde dos seres vivos. Neste sentido, vários fabricantes de pesticidas estão a desenvolver novas formulações contendo pesticidas encapsulados em nanopartículas como modo de aumentar a sua solubilidade em água, biodisponibilidade, volatilidade, estabilidade e eficácia. tendo por objetivo um desenvolvimento sustentável. Neste trabalho, procedeu-se ao estudo do encapsulamento do herbicida Oxadiargil (5-terc-butil-3-[2,4-dicloro-5-(2-propiniloxi)fenil]-1,3,4-oxadiazol-2(3H)-ona) com a 2-hidroxipropil-β-ciclodextrina (HP-β-CD). O estudo da formação do complexo de inclusão Oxadiargil - HP-β-CD foi realizado em diferentes meios, água desionizada, tampão acetato pH = 3,46 e pH = 5,34 e tampão fosfato pH = 7,45, com o objetivo de determinar e comparar a sua constante de estabilidade. Verificou-se, em qualquer dos casos, a ocorrência de uma relação linear entre o aumento da solubilidade do Oxadiargil e o aumento da concentração de HP-β-CD, com um declive inferior a um, o que indicia a formação de um complexo na proporção estequiométrica de 1:1. Os resultados obtidos permitiram concluir que o processo de complexação Oxadiargil - HP-β-CD não é muito influenciado pela constituição e pelo pH do meio. De facto, as constantes de estabilidade obtidas para a água desionizada e soluções-tampão pH = 3,46, pH = 5,34 e pH = 7,45 foram de 919 ± 25, 685 ± 13, 623 ± 17 e 753 ± 9, respetivamente. A solubilidade do complexo obtido nos estudos realizados, em diferentes meios, é cerca de 23 a 32 vezes superior à observada para o Oxadiargil livre. De forma a caracterizar o complexo Oxadiargil - HP-β-CD procedeu-se à sua síntese utilizando o método de “kneading”. O composto obtido foi caracterizado por Ressonância Magnética Nuclear (RMN) tendo-se confirmado a formação de um complexo de inclusão na proporção estequiométrica de 1:1. O complexo obtido é mais solúvel e porventura mais estável quimicamente. O encapsulamento permite uma redução da aplicação dos pesticidas diminuindo assim os custos e o impacto negativo no ambiente. Com a nanotecnologia é possível a libertação controlada dos pesticidas, aumentando a sua eficácia e fornecendo os meios necessários para um desenvolvimento sustentável.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado Apresentada ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação do Doutor Mário Joel Matos Veiga de Oliveira Queirós.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Civil Perfil de Estruturas e Geotecnia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A manutenção de uma adequada pressão de perfusão cerebral é essencial para a prevenção de isquémia cerebral. Flutuações fisiológicas da pressão arterial a montante são compensadas localmente pela autoregulação cerebral. A reserva vascular cerebral necessária à eficácia desta autoregulação pode ser determinada medindo as modificações no fluxo sanguíneo cerebral em resposta a estímulos vasodilatadores. O Doppler Transcraneano tem sido usado para a determinação da velocidade do fluxo sanguíneo cerebral modificada por esses estímulos. Descrevemos um método de análise da capacidade de reserva da circulação cerebral pelo Doppler Transcraneano sob efeito do CO2. Este método pode ser útil para a caracterização das alterações hemodinâmicas que ocorrem em vários tipos de doença isquémica cerebral.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do grau de Mestre em Engenharia Química e Bioquímica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUCTION: Peripheral embolism is frequently related to a cardiac source of embolism. Transesophageal echocardiography (TEE) is a useful tool for identifying such sources. OBJECTIVES: Our laboratory has gained wide experience in TEE, with a large number of exams performed to search for a cardiac source of embolism. We therefore thought it would be useful to present our experience in the last 12 years following the introduction of the technique. METHODS: This was a retrospective study of 1110 consecutive patients undergoing TEE to search for a cardiac source of embolism, after an embolic event and a transthoracic echocardiogram. RESULTS: The patients' mean age was 53 +/- 14 years, 52% male. There was peripheral embolism in 5% of cases and cerebral embolism in the remainder. The exam identified a potential embolic source in 35.6% of cases, the most frequent diagnoses being intracardiac shunt at the atrial level (9.5%), atrial septal aneurysm (ASA) (6.6%), intracardiac thrombi (6.4%) and atherosclerotic plaques in the thoracic aorta (9.6%). The presence of ASA was frequently associated with patent foramen ovale (27%), which was more frequent in younger patients. Overall, we identified a cardiac source of embolism more often in elderly patients, with a predominance of atherosclerotic plaques in the aorta. ETE was more frequently diagnostic in patients with peripheral embolism, but there were no differences in terms of etiology. CONCLUSIONS: TEE is very useful to search for cardiac sources of embolism, especially in younger patients, in whom causes potentially treatable surgically or percutaneously can be identified. In elderly patients, therapeutic strategy will probably not be changed by the findings (mostly thrombi and atherosclerotic plaques). The presence of ASA and embolic events makes it essential to perform a thorough search by TEE for intracardiac shunts, which are frequently associated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os sistemas de perceção visual são das principais fontes de informação sensorial utilizadas pelos robôs autónomos, para localização e navegação em diferentes meios de operação. O objetivo passa por obter uma grande quantidade de informação sobre o ambiente que a câmara está a visualizar, processar e extrair informação que permita realizar as tarefas de uma forma e ciente. Uma informação em particular que os sistemas de visão podem fornecer, e a informação tridimensional acerca do meio envolvente. Esta informação pode ser adquirida recorrendo a sistemas de visão monoculares ou com múltiplas câmaras. Nestes sistemas a informação tridimensional pode ser obtida recorrendo a técnica de triangulação, tirando partido do conhecimento da posição relativa entre as câmaras. No entanto, para calcular as coordenadas de um ponto tridimensional no referencial da câmara e necessário existir correspondência entre pontos comuns às imagens adquiridas pelo sistema. No caso de más correspondências a informação 3D e obtida de forma incorreta. O problema associado à correspondência de pontos pode ser agravado no caso das câmaras do sistema terem características intrínsecas diferentes nomeadamente: resolução, abertura da lente, distorção. Outros fatores como as orientações e posições das câmaras também podem condicionar a correspondência de pontos. Este trabalho incide sobre problemática de correspondência de pontos existente no processo de cálculo da informação tridimensional. A presente dissertação visa o desenvolvimento de uma abordagem de correspondência de pontos para sistemas de visão no qual é conhecida a posição relativa entre câmaras.