28 resultados para prova sperimentalestruttura prefabbricatacollegamento trve-pilastrocemento armato
em Instituto Politécnico do Porto, Portugal
Resumo:
As doenças cardiovasculares (DCV’s) são a maior causa de mortalidade e morbilidade em Portugal. O seu elevado impacto passa pelo desconhecimento, sub-diagnóstico, elevada prevalência e descontrolo dos seus principais factores de risco (clássicos e novos marcadores bioquímicos). Para o diagnóstico de uma das vertentes da doença cardiovascular, a doença cardíaca isquémica, a prova de esforço (PE) é o exame não invasivo, de baixo custo, com reduzida taxa de complicações e de fácil execução, mais usado na clínica. O objectivo deste estudo é averiguar se existe relação entre a prova de esforço, os factores de risco cardiovascular (FR’s) e alguns dos seus marcadores bioquímicos. Com vista a alcançar objectivo realizou-se um estudo prospectivo, longitudinal e descritivo, na Esferasaúde (Maia), entre Janeiro e Maio de 2011. Foram recolhidos dados, por inquérito, referentes a: biografia, antropometria, FR’s, medicação, PE e análises clínicas. Tendo sido incluídos todos os indivíduos (idade ≥ 18 anos) que tenham realizado prova de esforço e análises na unidade citada e com diferença temporal máxima de 2 meses, pelo método de amostragem dirigida e intencional. A dimensão amostral situou-se nos 30 elementos, sendo que 19 eram do género masculino. A média de idade foi 49,43±15,39 anos. Estimou-se a prevalência de FR’s e de indivíduos com valores dos marcadores bioquímicos anormais. Dois dos indivíduos apresentavam história de DCV’s e três deles PE positiva. Foram efectuadas diversas tentativas de associação entre as variáveis integradas no estudo - DCV e FR’s; PE e FR’s; PE e marcadores bioquímicos; capacidade de esforço e FR’s, género e resultado PE. Nenhuma relação se revelou significativa, com excepção para dois casos: relação entre as DCV’s e o aparecimento de alterações na PE (p = 0,002) e associação entre PE e colesterol HDL (p=0,040). Para α de 5%. Conclui-se que não existe relação aparente entre a prova de esforço, a existência de doença cardiovascular, os seus factores de risco e marcadores bioquímicos.
Resumo:
A relação entre consciência fonológica e consciência morfológica e a contribuição independente de cada uma para a aprendizagem da leitura não reúnem ainda consenso na literatura. Alguns autores argumentam que a consciência morfológica não contribui de forma independente da consciência fonológica para a aprendizagem da leitura. No entanto, outros encontraram dados que indicam que a consciência morfológica tem um papel específi co na progressão da aprendizagem da leitura. Todavia, para além da variedade de tarefas usadas não permitir a comparação de resultados, a ausência de estudos prévios sobre a validade e a fi delidade das mesmas conduz a resultados cuja confi abilidade pode ser posta em causa. Este estudo tem como objetivo apresentar uma análise das qualidades psicométricas da PCM - Prova de Consciência Morfológica. A amostra é constituída por 243 crianças do 2.º (n = 79), 3.º (n = 83) e 4.º (n = 81) anos frequentando escolas públicas, urbanas, do distrito do Porto (norte de Portugal). Os resultados revelaram que a PCM possui uma elevada consistência interna (α = .95). Na análise em componentes principais, foi extraído um único fator, com valor próprio igual a 10.88, que explica 54.42% da variância total dos resultados. Os itens são todos saturados no fator, variando as saturações fatoriais entre um mínimo de .42 e o máximo de .91
Resumo:
A definição do ser baseia-se na memória da herança das gerações passadas. Quando se fala de herança cultural de um grupo étnico específico, a tradução do ser pode identificar-se com a continuação de tradições passadas, tendo em vista um futuro melhor. A psicologia da memória coletiva no processo de auto identificação está relacionada com a preservação de características etnológicas, sociológicas e antropológicas que apontam para as tradições do grupo. Baseada na análise da tradução de “O Último Cabalista de Lisboa”, cujo original foi escrito por Richard Zimler que é proposta para esta abordagem, tentar-se-á sublinhar a importância dos estudos da tradução para clarificar a necessidade de auto identificação baseada na memória e na expressão. A metáfora da tradução enquanto porta e do tradutor como uma ponte são conceitos chave no processo de tradução. Ambos podem ser a prova do papel fundamental do tradutor. A (in)visibilidade do tradutor, enquanto autor de uma obra de arte, será focada como uma característica ilustrativa que pode ser (ou não) reveladora da auto identificação, tanto do autor, como do tradutor enquanto autor. Será que o tradutor é a definição da auto identificação do autor? Será que a identificação da obra de arte é pertinente no contexto histórico-literário, na era contemporânea? Será que Richard Zimler é um bom exemplo da identificação de um grupo minoritário? Será que “The Last Cabbalist of Lisbon” é um retrato de tradições étnicas convertido em prosa? Será que a reação do público leitor e dos críticos é responsável pela imagem auto definida/auto definidora da identificação do autor e da obra de arte? Estes e outros aspetos relacionados serão abordados através de uma análise comparativa da tradução com o original, para ilustrar o princípio da necessidade da auto identificação baseada na identificação do grupo.
Resumo:
Prova Para Atribuição do Título de Especialista em Contabilidade – Código n.º 344
Resumo:
OBJECTIVO: Analisar a influência da Idade nos efeitos de um Programa de Reabilitação Cardíaca Fase III, em pacientes coronários, analisando Provas de Esforço. METODOLOGIA: Amostra constituída pelo Grupo Meia-idade, <65 anos, e Grupo Idosos, ≥65 anos, tendo sido recolhidos o Índice de Massa Corporal, Velocidade e Inclinação máximas, Tempo de Prova, VO2 máximo teórico, Tensão Arterial basal, máxima e de recuperação, Frequência Cardíaca máxima, Percentagem da Frequência Cardíaca máxima teórica, Duplo Produto máximo e Tempo de Recuperação. RESULTADOS: Sem diferenças significativas, entre os dois grupos, em nenhum parâmetro. CONCLUSÕES: A Idade não influenciou os efeitos do Programa de Reabilitação Cardíaca.
Resumo:
Prova pública de avaliação de competência pedagógica e técnico Fevereiro de 2013
Resumo:
Introdução: Estudar os factores de risco cardiovasculares (FRCV), permitem tomar medidas preventivas em relação ao estado de saúde, contribuindo para a melhoria da qualidade de vida dos indivíduos e ajudando a prevenir a ocorrência de um evento cardiovascular. Objectivo: O principal objectivo deste estudo é comprovar se o programa de exercício físico supervisionado melhora a condição física e a capacidade funcional. Como objectivo secundário, foi analisada a correlação existente entre as diferentes variáveis, após realização do programa. Métodos: Vinte sujeitos de Arouca, constituíram a amostra do estudo, dividindo-se em grupo de controlo (n=10) e grupo experimental (n=10). Todos os indivíduos receberam informação para controlo e prevenção dos FRCV, através de palestras educacionais. Apenas o grupo experimental participou no programa de exercício, com a duração de 12 semanas / 36 sessões. Foi feito o levantamento e registo dos valores das provas de esforço (Frequência Cardíaca (FC) máxima, equivalente metabólicos (MET´s) máximos e duplo produto (DP) máximo), avaliação antropométrica (índice de massa corporal (IMC), perímetro abdominal, peso, gordura visceral, massa muscular, gordura total), FRCV (Tensão Arterial, colesterol total, colesterol HDL, triglicerídeos, proteína C reactiva) e os níveis de ansiedade e depressão antes e após o programa. Por fim, verificou-se a correlação entre as variáveis. Foi utilizada a estatística inferencial e um nível de significância de 5% (α=0,05). Resultados: Na análise comparativa intergrupo da variável diferença (MII-MI), registaram-se diminuições estatisticamente significativas da variável perímetro abdominal (p=0,02) e aumento estatisticamente significativo da variável MET´s máximo (p=0,01). As principais correlações foram encontradas entre as variáveis antropométricas: peso – gordura visceral (r2=0,824; p<0,001), peso – perímetro abdominal (r2=0,560; p=0,013), peso – IMC (r2=0,527; p=0,017), IMC – peímetro abdominal (r2=0,770; p=0,001). Conclusões: Conclui-se que o programa de exercício parece aumentar a tolerância ao esforço máximo e diminui o perímetro abdominal dos indivíduos em estudo.
Resumo:
Objectivos: Este estudo teve por objectivo verificar a influência de um programa prolongado de exercício físico em parâmetros de aptidão física e cardiovasculares avaliados em prova de esforço máximo, em sujeitos com diagnóstico recente de síndrome coronário agudo. Métodos: A amostra, constituída por 50 sujeitos, foi distribuída por um grupo experimental (n=25) e por um grupo controlo (n=25), tendo o grupo experimental ficado sujeito a um programa de exercício físico regular durante 52 semanas. Todos os indivíduos realizaram duas provas de esforço máximas (PEM) em tapete rolante, uma no início e a outra no final do protocolo experimental, tendo a primeira prova sido realizada 2-3 meses após o evento cardíaco. Nas PEM foram registados parâmetros de aptidão física (velocidade máxima, inclinação máxima do tapete e tempo de prova), dos indicadores metabólicos (METs máximo) e parâmetros cardiovasculares (frequência cardíaca repouso e máxima durante a prova, tensão arterial de repouso e máxima durante a prova e o duplo produto máximo e em repouso). Resultados: Comparativamente à primeira prova, na segunda PEM verificou-se no grupo experimental um aumento significativo (p<0,05) dos valores absolutos dos indicadores de aptidão física, com uma percentagem de variação destes parâmetros significativamente superior à do grupo controlo. No entanto, apesar do melhor desempenho físico evidenciado pelo grupo experimental, não se verificaram diferenças significativas entre os dois grupos no que respeita aos parâmetros cardiovasculares. Conclusão: Os resultados permitem concluir que o programa de exercícios se revelou vantajoso para os indivíduos do grupo experimental, tendo-lhes aumentado a tolerância ao esforço físico máximo sem uma aparente sobrecarga cardiovascular adicional.
Resumo:
Ao longo deste trabalho será apresentada uma solução para sistemas de informação empresarial no domínio da Qualidade. Desenvolvida num ambiente real com recurso a plataforma .NET, a sua eficácia foi posta à prova em várias implementações. Várias organizações necessitam de implementar processos baseados num documento único, que deve conter o registo de toda a informação, mas que exige a intervenção de diferentes colaboradores. Esta necessidade varia muito entre organizações. Para dar resposta a este problema foi desenvolvido um sistema, denominado de Documentos Inteligentes, que, através de várias ferramentas, permite configurar processos, sem recorrer a codificação, baseados no registo de informação, workflow, controlo de acessos e alertas. É justamente a descrição dos vários componentes tecnológicos utilizados para dar resposta aos problemas, que se irá efectuar neste trabalho. Em termos de desenvolvimento de software foram abordados conceitos práticos de engenharia de domínio, RAD, arquitecturas por camadas, abstracção e workflow que possibilitaram uma maior flexibilidade do sistema desenvolvido e que conduz, simultaneamente, a uma rápida implementação de soluções de software baseadas nesta área.
Resumo:
No âmbito da prova para título de especialista em Áudiovisuais e Produção dos Media, à qual me proponho, pretende-se fazer uma reflexão sobre o vídeo musical, desde a sua realização à pós-produção, dentro de um contexto nacional e em como a sua importância pode influenciar o ensino do audiovisual. Um vídeo musical é também uma curta metragem com características peculiares onde o papel da música ganha o primeiro plano. Por esta razão, pretende-se também estabelecer uma relação com a produção cinematográfica. O texto divide-se em cinco partes. Na primeira, contextualiza-se o vídeo musical numa tentativa de definição e enquadramento histórico internacional e nacional. Na segunda e terceiras partes, seguindo uma lógica de separação estrutural definida na obra de Rabiger (2004), dividiu-se as questões relacionadas com a estética das de identidade na autoria da criação de vídeos musicais. Esta separação fundamenta-se na associação da autoria de decisão autónoma, e da influência direta de terceiros no ato de criação. A quarta parte faz uma revisão das metodologias de trabalho para um vídeo musical com breves reflexões à sua relação com as da produção cinematográfica. Na quinta parte, faz-se uma reflexão mais detalhada do filme “Müller no Hotel Hessischer Hof”, a obra que se propõe para estudo e discussão, e que se entende apresentar como exemplo resultante de toda a experiência anterior do seu autor, e que se considera pertinente para abrir a discussão dos aspetos técnicos, das opções de realização e da pós-produção (dando especial importância à montagem). “Müller no Hotel Hessischer Hof” foi uma obra de importância vital para a afirmação do seu autor, uma vez que é a primeira que tem distribuição nacional em edição vídeo comercial. Para além disso, foi o primeiro trabalho de longa duração que realizou, um ano depois de ter recebido um dos prémios mais importantes na área do vídeo musical: o Prémios Blitz. Tratando-se de um filme feito na década de 90, ainda com equipamento de vídeo analógico, pode parecer desatualizado perante os avanços tecnológicos ocorridos nos últimos anos. No entanto deve ser visto como uma obra que resulta de um processo experimental e como tal obedeceu a uma lógica de construção que é herança de experiências adquiridas. Como em qualquer processo de aprendisagem, a experientação deve ser uma prática dominante. Este filme foi a oportunidade de pôr em prática processos e ideias que foram sendo testados em ambiente profissional. Porque se trata de um laboratório vivo, a produção de vídeos musicais permite e promove as ideias. Esse potencial deve ser considerado no universo pedagógico mantendo -o sempre numa relação estreita com o mundo profissional. Defendendo a ideia que a criatividade deve ser estimulada pela imaginação, apresenta-se numa obra que, graças às sua singularidade, foi produzida com recurso a uma grande necessidade laboratorial e que recorreu a soluções que resultaram tanto do exercício como da imaginação, uma alternativa ao modelo convencional. “Müller no Hotel Hessischer Hof” não pretende ser um exemplo perfeito mas pela suas condições de produção deve ser vista como uma obra de liberdade criativa, um bom exemplo para estudo e de entendimento para a relação entre a realização e a pós-produção.
Resumo:
Introdução: As doenças cardiovasculares são a principal causa de morte na Europa e o sedentarismo é um dos seus principais fatores de risco. Os programas de reabilitação cardiovascular (RCV) no domicílio parecem ser eficazes na tolerância ao exercício. No entanto, torna-se difícil reproduzir um protocolo de exercícios no domicílio, por se tratar de estudos pouco específicos. Objetivo: Avaliar os efeitos de um programa de exercícios específico realizado no domicílio, na tolerância ao exercício em pacientes integrados num programa RCV. Metodologia: Estudo quase experimental composto por 20 indivíduos com pelo menos um ano de enfarte agudo do miocárdio, distribuídos aleatoriamente em dois grupos: grupo experimental (GE) e grupo de controlo (GC), ambos com 10 indivíduos. O programa de RCV no domicílio (constituído por 10 exercícios) teve a duração de 8 semanas, com uma frequência de 3 vezes por semana. Avaliou-se a frequência cardíaca (FC), tensão arterial e duplo produto basais e máximos; FC de recuperação; equivalentes metabólicos (METs); velocidade; inclinação; tempo de prova e de recuperação; índice cifótico; equilíbrio; e tempo em atividade moderada a vigorosa. Resultados: Ao fim de 8 semanas de exercício o GE aumentou significativamente os MET’s (p=0,001), tensão arterial sistólica máxima (p<0,001), duplo produto máximo (p<0,001) e tempo de prova (p=0,037) e diminuiu significativamente o tempo de recuperação (p<0,001), quando comparado com o GC. Conclusão: O programa de exercícios no domicílio promoveu uma melhoria na tolerância ao exercício e parece ter melhorado o equilíbrio, para a amostra em estudo.
Resumo:
Neste trabalho serão apresentados e discutidos vários aspectos relacionados com células de combustível, com particular enfoque na modelação de células de combustível de membrana de permuta protónica. Este trabalho está dividido em vários capítulos. No Capítunlo 1 são apresentadas as motivações e os objectivos da tese. No Capítulo 2 serão apresentadas as células de combustível em geral, a sua origem, os diversos tipos, o que as diferencia das restantes tecnologias de geração de energia e as suas vantagens e desvantagens. No Capítulo 3 discute-se a modelação de células de combustível. Serão expostos e explicados os diferentes tipos de modelos, seguindo-se uma apresentação do modelo selecionado para estudo, com referência aos fundamentos teóricos exposição detalhada da fórmulação matemática e os parâmetros que caracterizam o modelo. É também apresentado a implementação do modelo em Matlab/Simulink. No Capítulo 4 será discutida e apresentada a abordagem utilizada para a identificação dos parâmetros do modelo da célula de combustível. Propõe-se e prova-se que uma abordagem baseada num algoritmo de optimização inteligente proporciona um método eficaz e preciso para a identificação dos parâmetros. Esta abordagem requer a existência de alguns dados experimentais que são também apresentados. O algoritmo utilizado designa-se por Optimização por Enxame de Partículas – Particle Swarm Optimization (PSO). São apresentados os seus fundamentos, características, implementação em Matlab/Simulink e a estratégia de optimização, isto é, a configuração do algoritmo, a definição da função objectivo e limites de variação dos parâmetros. São apresentados os resultados do processo de optimização, resultados adicionais de validação do modelo, uma análise de robustez do conjunto óptimo de parâmetros e uma análise de sensibilidade dos mesmos. O trabalho termina apresentando, no último capítulo, algumas conclusões, das quais se destacam: - O bom desempenho do algoritmo PSO para a identificação dos parâmetros do modelo da célula de combsutível; - Uma robustez interessante do algoritmo PSO, no sentido em que, para várias execuções do método resultam valores do parâmetros e da função objectivo com variabilidade bastante reduzidas; - Um bom modelo da célula de combustível, que quando caracterizado pelo conjunto óptimo de parâmetros, apresenta, sistematicamente, erros relativos médios inferiores a 2,5% para um conjunto alargado de condições de funcionamento.
Resumo:
Perante a crescente preocupação dos consumidores, cada vez mais exigentes com os produtos e serviços que lhes são fornecidos, têm-se evidenciado esforços no sentido da aplicação prática e coordenada de uma abordagem global e integrada da segurança alimentar com o objectivo de melhorar as normas da qualidade e reforçar os sistemas de controlo em toda a cadeia alimentar, desde a exploração agrícola até ao consumidor final. Os referenciais normativos de segurança alimentar especificam os requisitos de um Sistema de Gestão da Segurança Alimentar, para organizações da cadeia de fornecimento de produtos alimentares, que pretendam demonstrar a sua aptidão para fornecer produtos seguros e o cumprimento de requisitos legais, regulamentares e de qualidade exigidos. Ao longo dos anos, diversos referenciais normativos, baseados na metodologia HACCP, foram desenvolvidos e publicados, por vários países e determinados sectores da cadeia alimentar. Perante a diversidade de referenciais existentes, cada vez mais, as organizações se questionam sobre qual o referencial de segurança alimentar a implementar. Nesta dissertação, dá-se uma contribuição no sentido da sistematização dos requisitos dos referenciais de segurança alimentar com o objectivo de suportar a respectiva comparação nomeadamente o IFS – Food, o BRC – Food, a FSSC 22000 e, de forma indirecta, a ISO 22000. Tal deve-se à necessidade de identificar o(s) referenciais de segurança alimentar a implementar numa dada organização pertencente a um dado sector de actividade. Finalmente, procede-se à realização de um estudo sobre a representatividade, número de empresas certificadas, dos referenciais em análise no mercado Nacional, Europeu e Internacional. Como conclusão genérica, é possível afirmar que, embora ao nível dos requisitos existam diferenças entre os referenciais em análise, também se verificam muitas semelhanças. Prova disso é o reconhecimento por parte da GFSI de vários destes referenciais Quanto à representatividade, verifica-se uma tendência de predomínio de determinados referenciais nos países onde foram desenvolvidos, e nos países com os quais mantêm relações comerciais mais fortes. Refere-se o Reino Unido para a BRC, e a Alemanha e França para a IFS. De salientar a importante contribuição da GFSI que, através do reconhecimento aos diversos referenciais de segurança alimentar, realizado por uma painel de especialistas e representantes de diversos sectores (industria, distribuição e serviços) está a contribuir para a respectiva harmonização e reconhecimento mundial.
Resumo:
A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).
Resumo:
A necessidade de diminuir os consumos de energia, não só por questões financeiras mas, essencialmente, por questões ambientais fez com que fossem feitos esforços no sentido da implementação de sistemas de energias renováveis ou mesmo com rendimentos o mais elevados possíveis. Surge, então, em alternativa às grandes centrais convencionais e às redes de distribuição em alta tensão, a produção descentralizada de eletricidade, sendo que a cogeração era em finais de 2010 segundo a Galp Energia, responsável pela produção de cerca de 12% de todo o consumo de eletricidade no país e por 34% da produção em regime especial. A cogeração/trigeração surge como uma tecnologia interessante ao garantir economias de energia e competitividade acrescida às empresas e consiste basicamente na produção combinada de energia térmica e elétrica num mesmo equipamento, destinando‐se ambas ao consumo da própria empresa ou de terceiros, evitando ou atenuando a utilização de equipamentos próprios de produção de calor e aquisição de energia elétrica à rede. Neste artigo vamos familiarizar‐nos com esta solução energética, a cogeração/trigeração, que prova ser bastante eficiente, aplicando os princípios da produção combinada de eletricidade, calor e frio.