1000 resultados para Método averaging
Resumo:
Trabalho de projeto apresentado ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob a orientação do Mestre Paulino Manuel Leite da Silva
Resumo:
As bactérias patogénicas presentes nos sistemas de processamento de alimentos podem ser potencialmente causadoras de doenças alimentares graves, quando sobrevivem à acção bactericida de desinfectantes. Esta acção depende da eficácia das substâncias activas que fazem parte da formulação do desinfectante e das condições ambientais onde se processa a interacção desinfectante – bactéria, sendo ainda específica para cada estirpe bacteriana. Este trabalho teve, como propósito, a implementação de um método que permita avaliar, in vitro, a eficácia bactericida de desinfectantes comerciais contra estirpes bacterianas que são potencialmente causadores de doenças de origem alimentar. A eficácia do desinfectante foi avaliada seguindo a Norma EN1040 e aplicando o método de diluição-neutralização. Para além das estirpes recomendadas naquele documento normativo, nomeadamente, Pseudomonas aeruginosa e Staphylococcus aureus, foram também utilizadas Escherichia coli, Enterococcus faecalis, Salmonella Typhimurium e Listeria monocytogenes. Os desinfectantes foram seleccionados com base nas suas formulações, tendo sido escolhidos desinfectantes cujos princípios activos são, respectivamente: tensioactivos aniónicos; alcalis inorgânicos; hidrocloreto de biguanida polimérica; álcool etoxilado ou cloreto benzalcónio. Foram seleccionados como neutralizantes: tampão fosfato, tiosulfato de sódio, gema de ovo fresca e polisorbato 80 com histidina. Após cada ensaio, o número de bactérias sobreviventes foi obtido pelo cálculo da redução logarítmica decimal, a partir do número de unidades formadoras de colónia presentes em cada placa. A eficácia do desinfectante, na inactivação de cada estirpe alvo, foi classificada numa escala de redução logarítmica à qual 5 log corresponde a redução mínima aceitável do número de colónias quando o tempo de contacto é de 5 minutos, e a temperatura do ensaio é 20ºC. Conclui-se que o método de diluição-neutralização é sensível para todas as estirpes testadas. A gema de ovo fresca revelou ser o melhor neutralizante para desinfectantes contendo tensioactivos aniónicos, enquanto o tampão fosfato é mais adequado para neutralizar desinfectantes contendo alcalis inorgânicos. Porém, nenhum dos neutralizantes testados mostrou ser adequado para os desinfectantes contendo cloreto de benzalcónio ou hidrocloreto biguanida polimérica ou álcool etoxilado. Conclui-se também que as condições laboratoriais implementadas são as adequadas para testar a acção bactericida de desinfectantes utilizados em sistemas de processamento de alimentos.
Resumo:
Portugal continental apresenta uma vasta área florestal, que representa cerca de 35,4% da ocupação total do solo, com predominância de espécies como o eucalipto (Eucalyptus globulus) e o pinheiro-bravo (Pinus pinaster). Estas espécies apresentam uma elevada importância a nível económico, designadamente devido à sua ampla utilização, nomeadamente na indústria de celulose e papel, gerando elevadas quantidades de resíduos. Este resíduo de biomassa florestal é utilizado, na sua totalidade, para a geração de energia, na forma de eletricidade ou aquecimento. No entanto, existem outras opções viáveis, a nível económico, tais como a valorização destes subprodutos como fonte de compostos polifenólicos tornando-os, assim, um produto de valor acrescentado. A extração de compostos fenólicos de subprodutos florestais, como folhas de eucalipto e agulhas de pinheiros tem vindo a aumentar devido, principalmente, à substituição de antioxidantes sintéticos, contribuindo para a valorização de subprodutos florestais. Contudo, apesar de todas as potenciais aplicações e vantagens, apenas algumas centenas de espécies aromáticas identificadas são utilizadas à escala comercial. Neste trabalho foi avaliada a capacidade antioxidante de subprodutos da floresta, otimizando as condições de extração através do estudo dos fatores: tempo de extração, temperatura e composição de solvente através do método de superfície de resposta. O planeamento experimental utilizado teve como base um planeamento de compósito central e a avaliação do perfil de antioxidantes das matrizes analisadas foi realizada através de métodos de quantificação total, como o teor fenólico total, a atividade anti-radicalar – método do DPPH (radical 2,2-difenil-1-picrilhidrazilo) e o método de FRAP. Estes métodos analíticos convencionais foram modificados e, devidamente validados, para a análise em leitor de microplacas. Verificou-se que os extratos de pinheiro e de eucalipto, tanto as amostras verdes com as amostras, apresentam uma promissora capacidade antioxidante. O planeamento fatorial aplicado permitiu otimizar as condições de extração em relação às matrizes verdes. Contudo, o mesmo não se verificou em relação às matrizes secas. A composição (% de água) é sem dúvida o fator com mais efeito em todas as amostras (coeficientes de primeira e segunda ordem no modelo). Também a temperatura foi identificada como um fator com efeito significativo sobre os sistemas em análise.
Resumo:
A Salmonella é um microrganismo responsável por grande parte das doenças alimentares, podendo por em causa a saúde pública da área contaminada. Uma deteção rápida, eficiente e altamente sensível e extremamente importante, sendo um campo em franco desenvolvimento e alvo de variados e múltiplos estudos na comunidade cientifica atual. Foi desenvolvido um método potenciométrico para a deteção de Salmonellas, com elétrodos seletivos de iões, construídos em laboratório com pontas de micropipetas, fios de prata e sensores com composição otimizada. O elétrodo indicador escolhido foi um ESI seletivo a cadmio, para redução da probabilidade de interferências no método, devido a pouca abundancia do cadmio em amostras alimentares. Elétrodos seletivos a sódio, elétrodos de Ag/AgCl de simples e de dupla juncão foram também construídos e caracterizados para serem aplicados como elétrodos de referência. Adicionalmente otimizaram-se as condições operacionais para a analise potenciométrica, nomeadamente o elétrodo de referencia utilizado, condicionamento dos elétrodos, efeito do pH e volume da solução amostra. A capacidade de realizar leituras em volumes muito pequenos com limites de deteção na ordem dos micromolares por parte dos ESI de membrana polimérica, foi integrada num ensaio com um formato nao competitivo ELISA tipo sanduiche, utilizando um anticorpo primário ligado a nanopartículas de Fe@Au, permitindo a separação dos complexos anticorpo-antigénio formados dos restantes componentes em cada etapa do ensaio, pela simples aplicação de um campo magnético. O anticorpo secundário foi marcado com nanocristais de CdS, que são bastante estáveis e é fácil a transformação em Cd2+ livre, permitindo a leitura potenciométrica. Foram testadas várias concentrações de peroxido de hidrogénio e o efeito da luz para otimizar a dissolução de CdS. O método desenvolvido permitiu traçar curvas de calibração com soluções de Salmonellas incubadas em PBS (pH 4,4) em que o limite de deteção foi de 1100 CFU/mL e de 20 CFU/mL, utilizando volumes de amostra de 10 ƒÊL e 100 ƒÊL, respetivamente para o intervalo de linearidade de 10 a 108 CFU/mL. O método foi aplicado a uma amostra de leite bovino. A taxa de recuperação media obtida foi de 93,7% } 2,8 (media } desvio padrão), tendo em conta dois ensaios de recuperação efetuados (com duas replicas cada), utilizando um volume de amostra de 100 ƒÊL e concentrações de 100 e 1000 CFU/mL de Salmonella incubada.
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Civil
Resumo:
Dissertação para obtenção do Grau de Mestre em Matemática e Aplicações, no ramo Actuariado, Estatística e Investigação Operacional
Resumo:
pp. 121-140
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologias da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenheira e Gestão Industrial
Resumo:
Ao longo desta dissertação, é abordada a temática das obras de arte, focando-se um processo construtivo em particular, que é o Método de Lançamento Incremental. Começa-se por um enquadramento geral da temática das obras de arte, sendo feita a sua descrição, e faz-se uma síntese histórica dos materiais utilizados nas mesmas. De seguida, são apresentados os tipos de tabuleiros existentes e as tipologias estruturais das obras de arte. São mencionados ainda os processos e equipamentos construtivos que são utilizados na sua construção. É, de seguida, feita uma abordagem mais profunda ao processo construtivo alvo desta dissertação, nomeadamente questões de índole prática e de dimensionamento. É feita ainda uma aplicação prática, sendo feito um Estudo Prévio de uma solução para uma obra de arte executada com este processo construtivo. Termina-se indicando aspetos importantes na monitorização das obras de arte executadas pelo processo construtivo alvo desta dissertação, sendo ainda apresentadas as conclusões a que se chegou no final da mesma e possíveis desenvolvimentos futuros.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
O século XX, sobretudo na segunda metade, trouxe para os sistemas de informação empresariais (estes são o suporte de múltiplos modelos ligados à planificação, ao controlo e à tomada de decisões em geral) alterações espectaculares, cujo difícil domínio é o motor de novas propostas e achegas multidisciplinares. Como parte essencial dos referidos sistemas, a Contabilidade de Custos tem perseguido determinar valores unitários de bens ou serviços, de funções ou outros portadores de custos, com diferentes propósitos segundo objectivos, épocas e áreas geográficas concretas. Durante os últimos anos do século passado e no primeiro quartel deste, os cálculos ligaram-se essencialmente ao produto como forma de actuar sobre a eficiência laboral. Os engenheiros industriais (em empresas multinacionais americanas), preocupados em conseguir uma maior racionalidade na utilização dos recursos, estudaram profundamente a normalização e standardização dos materiais e equipamentos, o preestabelecimento de métodos e a medida dos tempos de trabalho. A sua investigação estendeu-se também à forma de organização mais adequada para o desenvolvimento da actividade empresarial; de tal forma que, sob a “batuta” de homens como F. W. Taylor (e o seu método de trabalho para definir tarefas e ferramentas mais adequadas a cada actividade), E. Mayo (e a sua preocupação pelas condições de trabalho em equipa) ou H. Fayol (e a sua procura sistemática das características que devem contribuir para a administração eficiente das organizações), foram-se confirmando os conteúdos actuais dos conceitos de disciplina e ordem, liderança e hierarquia, iniciativa e espírito de superação, etc; assim como novas formas de entender, organizar e realizar o trabalho, que configurarão relações laborais diferentes das herdadas da sociedade pré-industrial. Corolário de tudo foram a especialização e a departamentalização da empresa, bem como o progressivo aparecimento de uma estrutura funcional, com competências pessoais marcadas pela hierarquia. Os engenheiros, com o objectivo de racionalizarem ao máximo as tarefas produtivas, criaram as bases para o desenvolvimento do custo “standard” (padrão) e reuniram o seu estudo com os problemas da direcção geral do negócio: os padrões técnicos serão referência obrigatória para a remuneração do pessoal e a programação de existências e compras, assim como para determinar as actividades dos centros (base do cálculo dos orçamentos); e ainda se revelaram um óptimo instrumento de controlo. Acompanhando este movimento, o cálculo do custo industrial centrar-se-à nos produtos (como portadores finais dos diferentes consumos necessários para a sua obtenção) sobre a base dos padrões técnicos definidos para eles. Não obstante, na primeira metade do nosso século, e sob a pressão de uma procura crescente de informação financeira, iniciou-se a passagem da gestão de custos à contabilidade de custos: os textos de contabilidade dos anos 20 propõem o cálculo do custo de produção com uma orientação clara - valorizar as existências para a informação financeira (Balanço e Resultados no fim do exercício). Só depois da 2ª Guerra Mundial se começa a falar de gestão e, por consequência, de custos para a planificação, controlo e tomada de decisões (Johnson e Kaplan, 1987). Impõe-se uma reflexão sobre os diferentes significados que o custo tem tido ao longo do nosso século (ligando esses significados às circunstâncias que provocaram cada elaboração) para a sua construção futura.
Resumo:
Para o projeto de qualquer estrutura existente (edifícios, pontes, veículos, máquinas, etc.) é necessário conhecer as condições de carga, geometria e comportamento de todas as suas partes, assim como respeitar as normativas em vigor nos países nos quais a estrutura será aplicada. A primeira parte de qualquer projeto nesta área passa pela fase da análise estrutural, onde são calculadas todas as interações e efeitos de cargas sobre as estruturas físicas e os seus componentes de maneira a verificar a aptidão da estrutura para o seu uso. Inicialmente parte-se de uma estrutura de geometria simplificada, pondo de parte os elementos físicos irrelevantes (elementos de fixação, revestimentos, etc.) de maneira a simplificar o cálculo de estruturas complexas e, em função dos resultados obtidos da análise estrutural, melhorar a estrutura se necessário. A análise por elementos finitos é a ferramenta principal durante esta primeira fase do projeto. E atualmente, devido às exigências do mercado, é imprescindível o suporte computorizado de maneira a agilizar esta fase do projeto. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura em análise. Porém, estes programas demostram uma certa complexidade durante a introdução dos parâmetros, levando muitas vezes a resultados errados. Assim sendo, é essencial para o projetista ter uma ferramenta fiável e simples de usar que possa ser usada para fins de projeto de estruturas e otimização. Sobre esta base nasce este projeto tese onde se elaborou um programa com interface gráfica no ambiente Matlab® para a análise de estruturas por elementos finitos, com elementos do tipo Barra e Viga, quer em 2D ou 3D. Este programa permite definir a estrutura por meio de coordenadas, introdução de forma rápida e clara, propriedades mecânicas dos elementos, condições fronteira e cargas a aplicar. Como resultados devolve ao utilizador as reações, deformações e distribuição de tensões nos elementos quer em forma tabular quer em representação gráfica sobre a estrutura em análise. Existe ainda a possibilidade de importação de dados e exportação dos resultados em ficheiros XLS e XLSX, de maneira a facilitar a gestão de informação. Foram realizados diferentes testes e análises de estruturas de forma a validar os resultados do programa e a sua integridade. Os resultados foram todos satisfatórios e convergem para os resultados de outros programas, publicados em livros, e para cálculo a mão feitos pelo autor.
Resumo:
A manutenção de uma adequada pressão de perfusão cerebral é essencial para a prevenção de isquémia cerebral. Flutuações fisiológicas da pressão arterial a montante são compensadas localmente pela autoregulação cerebral. A reserva vascular cerebral necessária à eficácia desta autoregulação pode ser determinada medindo as modificações no fluxo sanguíneo cerebral em resposta a estímulos vasodilatadores. O Doppler Transcraneano tem sido usado para a determinação da velocidade do fluxo sanguíneo cerebral modificada por esses estímulos. Descrevemos um método de análise da capacidade de reserva da circulação cerebral pelo Doppler Transcraneano sob efeito do CO2. Este método pode ser útil para a caracterização das alterações hemodinâmicas que ocorrem em vários tipos de doença isquémica cerebral.
Resumo:
Os sistemas de perceção visual são das principais fontes de informação sensorial utilizadas pelos robôs autónomos, para localização e navegação em diferentes meios de operação. O objetivo passa por obter uma grande quantidade de informação sobre o ambiente que a câmara está a visualizar, processar e extrair informação que permita realizar as tarefas de uma forma e ciente. Uma informação em particular que os sistemas de visão podem fornecer, e a informação tridimensional acerca do meio envolvente. Esta informação pode ser adquirida recorrendo a sistemas de visão monoculares ou com múltiplas câmaras. Nestes sistemas a informação tridimensional pode ser obtida recorrendo a técnica de triangulação, tirando partido do conhecimento da posição relativa entre as câmaras. No entanto, para calcular as coordenadas de um ponto tridimensional no referencial da câmara e necessário existir correspondência entre pontos comuns às imagens adquiridas pelo sistema. No caso de más correspondências a informação 3D e obtida de forma incorreta. O problema associado à correspondência de pontos pode ser agravado no caso das câmaras do sistema terem características intrínsecas diferentes nomeadamente: resolução, abertura da lente, distorção. Outros fatores como as orientações e posições das câmaras também podem condicionar a correspondência de pontos. Este trabalho incide sobre problemática de correspondência de pontos existente no processo de cálculo da informação tridimensional. A presente dissertação visa o desenvolvimento de uma abordagem de correspondência de pontos para sistemas de visão no qual é conhecida a posição relativa entre câmaras.
Resumo:
A fabricação de moldes é uma actividade que se desenvolve em Portugal há várias décadas, com qualidade reconhecida mundialmente. A indústria automóvel é um dos principais destinos de grande parte dos moldes produzidos em Portugal. Algumas das peças produzidas nesses moldes possuem dimensões apreciáveis, tendo em conta o peso e dimensão média das peças injectadas em plástico. São exemplo disso os pára-choques dos automóveis e o tabliê. A produção dos moldes para estas peças é complexa, implicando um longo tempo de maquinagem e a manipulação dos moldes em diferentes fases, com vista ao acesso a todas as faces do molde. A IGM – Indústria Global de Moldes, SA. é a empresa responsável pela produção dos moldes para peças de média dimensão dentro do Grupo SIMOLDES. Atendendo à necessidade permanente de rodar a 90o moldes de grande porte, que podem apresentar pesos na ordem das 10 a 30 toneladas, e não existindo no mercado qualquer solução adaptável a esta necessidade, a empresa entendeu por bem levar a efeito o projecto desse equipamento, atendendo ao compromisso custo-benefício que torne viável a realização prática do mesmo. Após os esboços iniciais e uma discussão interactiva e iterativa com a empresa, foram analisadas as diferentes soluções entendidas como viáveis, tendo sido escolhido um dos anteprojectos realizados. Foram ainda discutidas as diversas alternativas de accionamento. Com base nesse anteprojecto, a estrutura foi optimizada e verificada através do Método de Elementos Finitos, tendo sido elaborado o projecto final, com o grau de detalhe necessário à sua fabricação e implementação na empresa.