84 resultados para validação intralaboratorial


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objectivo validar um teste de avaliação da escrita com crianças do 2º ao 4º ano de escolaridade. Estabelecemos como hipóteses que: (1) inicialmente as crianças dominam as regras fonológicas básicas e mais tarde as regras contextuais e as morfológicas, das simples para as complexas, sendo possível criar um teste que avalie esse processo; (2) haverá uma relação entre os itens do teste e dois factores fundamentais: um factor fonológico e um factor morfológico. Foram abrangidas 610 crianças de 13 escolas dos distritos de Lisboa e Évora. As crianças responderam a um teste de escrita e foram classificadas pelos seus professores em função das suas competências. Os resultados do estudo revelam que aos 7 anos as crianças dominam a correspondência som-letra. Até aos 8.5 anos representam palavras de menor complexidade com base numa estratégia fonética. Revelam maior conhecimento das regras morfológicas entre os 9.5 – 10 anos. A análise da validade factorial dos itens do teste confirma que a escrita depende de duas fontes de conhecimento linguístico: a fonologia e a morfologia. Descrevem-se as abordagens desenvolvidas para a validação do teste: a validade de conteúdo, a validade de construção e a validade de critério através da correlação (a) entre os resultados obtidos no teste de escrita e num teste de leitura e (b) entre os resultados obtidos no teste de escrita e a avaliação global das competências ortográficas dos alunos por parte dos professores. Os coeficientes de correlação obtidos sugerem que as capacidades dos alunos na leitura e na escrita foram medidas de forma coerente e que o teste de escrita reflecte as competências ortográficas dos alunos nas actividades escolares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho faz-se uma análise comparativa de duas soluções para um pórtico metálico com travessas inclinadas. Nesta análise estrutural são utilizadas diversas ferramentas informáticas específicas. Com estas ferramentas procede-se à aplicação do método de cálculo por elementos finitos para este caso específico. Uma aplicação teórica do método energético é aplicada, procurando-se assim a validação dos resultados obtidos pelas aplicações informáticas. Com uma introdução teórica à mecânica dos materiais, procura-se a sustentação deste trabalho. A aplicação do Eurocódigo é efectuada em toda a extensão deste trabalho. Uma abordagem sobre este código e a sua aplicação é realizada. Para a definição de cargas a aplicar foi elaborada uma folha de cálculo numa aplicação informática de manipulação simbólica. È realizada uma análise comparativa entre um pórtico realizado com perfis de secção aberta e o mesmo pórtico com perfis de secção fechada. A distribuição de tensões ao longo do elemento estrutural é evidenciada através de diagramas. Os estados limite da estrutura são determinados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A monitorização de processos ambientais conduz à obtenção de resultados cuja aferição da qualidade é um requisito raramente cumprido. No entanto, importantes decisões de gestão ambiental, sociais e políticas com impacto directo nas populações são tomadas suportadas nestes resultados. A validação de uma medição, como suporte à decisão, é impossível sem o conhecimento da incerteza associada ao próprio resultado. É a incerteza que define a qualidade do resultado. Com este trabalho pretendeu-se contribuir para o aperfeiçoamento do Controlo da Poluição na Refinaria da Galp Energia, em Sines, através do estabelecimento de um projecto de cálculo das incertezas associadas aos teores de poluentes medidos. Foram alvo deste estudo os valores medidos de dióxido de enxofre, óxidos de azoto e partículas monitorizadas. O conhecimento do valor de incerteza associada aos resultados permitirá actuar preventivamente e tomar acções correctivas de modo a garantir o cumprimento pleno da licença ambiental. Para avaliar a incerteza usou-se o procedimento preconizado pela norma ISO em que os passos envolvidos são a especificação do processo de medida, identificação das fontes de incerteza, cálculo da incerteza combinada e cálculo da incerteza expandida. Após a caracterização da actividade da empresa, do enquadramento legislativo, do desempenho no triénio 2005-2007 e da caracterização dos aparelhos de medida, foi feito um estudo estatístico aos valores medidos por estes três analisadores durante diversos períodos do ano de 2007 e foi determinado o modelo de cálculo do valor de incerteza associado a cada uma das medidas. Os valores, associados à respectiva incerteza, foram comparados com os limites impostos pela licença ambiental, verificando-se o cumprimento desta. A determinação da incerteza associada aos resultados de monitorização dos efluentes gasosos desta instalação reforça a credibilidade dos valores medidos, o compromisso da melhoria contínua da qualidade dos processos, produtos e serviços, do desempenho ambiental e da segurança das pessoas e bens, como contributo para um desenvolvimento sustentável desta companhia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente artigo procura compreender de que modo os alunos se envolvem em actividades matemáticas de natureza investigativa. Utilizou uma metodologia qualitativa e interpretativa, apresentando os casos de quatro alunos com níveis de desempenho diferenciados, de uma turma do 3º ano de escolaridade, leccionada pela primeira autora deste texto. A recolha de dados foi realizada por observação participante, apoiada em i)gravações áudio e vídeo das aulas, e ii) documentos produzidos pelos alunos. Também as conversas informais com os alunos foram um contributo bastante valioso. Os dados mostram que os alunos, inicialmente, davam por terminada a actividade, assim que obtinham uma resposta e não procuravam encontrar outras possíveis, pedindo a imediata validação do trabalho. No entanto, à medida que o estudo ia progredindo, a maioria dos alunos deixa de ser tão dependente da professora e assume uma atitude mais crítica relativamente ao seu trabalho. Passa a encarar as actividades com mais naturalidade e, progressivamente, vai-se adaptando a este modo de trabalhar. O estudo conclui, que na generalidade, o envolvimento nas actividades matemáticas de natureza investigativa proporcionou momentos de entusiasmo e alegria. Ao serem desafiados, os alunos, mostraram motivação e persistência em encontrar o caminho conducente à sua realização. Tal envolvimento, além de desenvolver capacidades como o raciocínio e a comunicação, permitiu aprofundar conhecimentos anteriormente estudados, assim como, a apropriação de novos conceitos, ao mesmo tempo, que desenvolveu hábitos de trabalho cooperativo, sentido crítico e autonomia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vários estudos demonstraram que os doentes com insuficiência cardíaca congestiva (ICC) têm um compromisso da qualidade de vida relacionada com a saúde (QVRS), tendo esta, nos últimos anos, vindo a tornar-se um endpoint primário quando se analisa o impacto do tratamento de situações crónicas como a ICC. Objectivos: Avaliar as propriedades psicométricas da versão portuguesa de um novo instrumento específico para medir a QVRS na ICC em doentes hospitalizados: o Kansas City Cardiomyopathy Questionnaire (KCCQ). População e Métodos: O KCCQ foi aplicado a uma amostra consecutiva de 193 doentes internados por ICC. Destes, 105 repetiram esta avaliação 3 meses após admissão hospitalar, não havendo eventos ocorridos durante este período de tempo. A idade era 64,4± 12,4 anos (entre 21 e 88), com 72,5% a pertencer ao sexo masculino, sendo a ICC de etiologia isquémica em 42%. Resultados: Esta versão do KCCQ foi sujeita a validação estatística semelhante à americana com a avaliação da fidelidade e validade. A fidelidade foi avaliada pela consistência interna dos domínios e dos somatórios, apresentando valores Alpha de Cronbach idênticos nos vários domínios e somatórios ( =0,50 a =0,94). A validade foi analisada pela convergência, pela sensibilidade às diferenças entre grupos e pela sensibilidade à alteração da condição clínica. Avaliou-se a validade convergente de todos os domínios relacionados com funcionalidade, pela relação verificada entre estes e uma medida de funcionalidade, a classificação da New York Heart Association (NYHA), tendo-se verificado correlações significativas (p<0,01), como medida para avaliar a funcionalidade em doentes com ICC. Efectuou-se uma análise de variância entre o domínio limitação física, os somatórios e as classes da NYHA, tendo-se encontrado diferenças estatisticamente significativas (F=23,4; F=36,4; F=37,4; p=0,0001), na capacidade de descriminação da gravidade da condição clínica. Foi realizada uma segunda avaliação em 105 doentes na consulta do 3º mês após a intervenção clínica, tendo-se observado alterações significativas nas médias dos domínios avaliados entre o internamento e a consulta (diferenças de 14,9 a 30,6 numa escala de 0-100), indicando que os domínios avaliados são sensíveis à mudança da condição clínica. A correlação interdimensões da qualidade de vida que compõe este instrumento é moderada, sugerindo dimensões independentes, apoiando a sua estrutura multifactorial e a adequabilidade desta medida para a sua avaliação. Conclusão: O KCCQ é um instrumento válido, sensível à mudança e específico para medir a QVRS numa população portuguesa com miocardiopatia dilatada e ICC. ABSTRACT - Several studies have shown that patients with congestive heart failure (CHF) have a compromised health-related quality of life (HRQL), and this, in recent years, has become a primary endpoint when considering the impact of treatment of chronic conditions such as CHF. Objectives: To evaluate the psychometric properties of the Portuguese version of a new specific instrument to measure HRQL in patients hospitalized for CHF: the Kansas City Cardiomyopathy Questionnaire (KCCQ). Methods: The KCCQ was applied to a sample of 193 consecutive patients hospitalized for CHF. Of these, 105 repeated the assessment 3 months after admission, with no events during this period. Mean age was 64.4±12.4 years (21-88), and 72.5% were 72.5% male. CHF was of ischemic etiology in 42% of cases. Results: This version of the KCCQ was subjected to statistical validation, with assessment of reliability and validity, similar to the American version. Reliability was assessed by the internal consistency of the domains and summary scores, which showed similar values of Cronbach alpha (0.50-0.94). Validity was assessed by convergence, sensitivity to differences between groups and sensitivity to changes in clinical condition. We evaluated the convergent validity of all domains related to functionality, through the relationship between them and a measure of functionality, the New York Heart Association (NYHA) classification. Significant correlations were found (p<0.01) for this measure of functionality in patients with CHF. Analysis of variance between the physical limitation domain, the summary scores and NYHA class was performed and statistically significant differences were found (F=23.4; F=36.4; F=37.4, p=0.0001) in the ability to discriminate severity of clinical condition. A second evaluation was performed on 105 patients at the 3-month follow-up outpatient appointment, and significant changes were observed in the mean scores of the domains assessed between hospital admission and the clinic appointment (differences from 14.9 to 30.6 on a scale of 0-100), indicating that the domains assessed are sensitive to changes in clinical condition. The correlation between dimensions of quality of life in the KCCQ is moderate, suggesting that the dimensions are independent, supporting the multifactorial nature of HRQL and the suitability of this measure for its evaluation. Conclusion: The KCCQ is a valid instrument, sensitive to change and a specific measure of HRQL in a population with dilated cardiomyopathy and CHF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Segundo estudos oficiais, a produção de energia eléctrica, principalmente através da queima de combustíveis fósseis, é responsável pelo aumento das emissões de gases de efeito estufa na atmosfera, contribuindo desta forma para o aquecimento global do planeta. Nesse sentido, os governos de diversos países, assumiram vários compromissos a nível internacional, com o propósito de reduzir o impacto ambiental associado à procura global de energia no planeta, assim como a utilização de recursos naturais. Desses compromissos, destaca-se o Protocolo de Quioto, no qual Portugal assumiu o compromisso de não apresentar um aumento de emissões superior a 27% relativamente ao ano de referência de 1990, durante o período de 2008-2012. Nesse sentido, uma das medidas para o controlo dessas emissões, passa pelo uso racional de energia consumida, nomeadamente através do sector doméstico, um dos sectores que registou uma maior subida do consumo de energia eléctrica nos últimos tempos. Uma das formas de o fazer, poderá passar pela escolha racional dos equipamentos que se utilizam hoje em dia no sector doméstico, baseada por sua vez em normas e critérios específicos para o efeito. No presente trabalho, o problema de maximização de eficiência energética é apresentado e formulado como um problema de optimização, sendo a sua resolução suportada em algoritmos evolucionários, nomeadamente algoritmos genéticos como referência o método Simplex para comparação de resultados e posterior validação dos algoritmos genéticos, enquanto método de optimização para a resolução deste tipo de problema. Factores como o ciclo de vida do produto, investimento realizado e despesas no consumo de energia eléctrica, serão tidos em conta, quando existe a necessidade de se obter uma solução ecológica e económica, assegurando ao mesmo tempo a satisfação do consumidor e do meio ambiente. Serão apresentadas ainda, diversas hipóteses de parametrização, tendo em vista os estudos de desempenho dos dois métodos de optimização a serem analisados e será elaborado ainda um estudo, para avaliar o desempenho dos algoritmos genéticos, mediante a variação de parâmetros a ele associados. No final conclui-se que a utilização dos AG’s é adequada ao problema de maximização da eficiência energética providenciando soluções distintas na escolha de equipamentos com valores semelhantes de indicadores económicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os aditivos alimentares desempenham um papel vital na indústria alimentar moderna e são geralmente utilizados na manutenção da qualidade e das características dos alimentos, promovendo desta forma a segurança alimentar. Para garantir o consumo seguro de alimentos com aditivos, os Estados Membros da União Europeia devem estabelecer um sistema regular de vigilância para monitorização desse consumo. No sentido de obter essa informação, é necessário aplicar métodos de análise robustos de modo a quantificar os níveis dessas substâncias numa larga variedade de matrizes alimentares. O presente trabalho teve como objectivos: a determinação analítica do tipo e do teor de aditivos alimentares nos novos refrigerantes à base de água mineral através de um método de HPLC baseado na norma EN 12856, a validação do método analítico para a quantificação dos edulcorantes (acessulfame K, aspartame e sacarina) e dos conservantes (ácido sórbico e ácido benzóico) e a comparação dos resultados obtidos com os valores máximos permitidos pela legislação portuguesa. Dos refrigerantes à base de água existentes no mercado português, foram analisadas 34 amostras de diferentes marcas, para determinação do tipo e teor de aditivos. Na validação da metodologia foram avaliados os seguintes parâmetros: gama de trabalho, linearidade, sensibilidade, limite de detecção (LD), limite de quantificação (LQ), precisão (repetibilidade e precisão intermédia) e exactidão. Relativamente à análise dos edulcorantes, verificou-se a presença do acessulfame K em 12 refrigerantes numa concentração que oscilou entre 34 e 94 mg/L. O aspartame foi encontrado apenas em 5 amostras num intervalo de concentração de 36 a 159 mg/L e a sacarina não foi detectada. No caso dos conservantes, o ácido sórbico foi encontrado em 19 dos refrigerantes numa gama de concentração entre 109 e 283 mg/L enquanto que o ácido benzóico, presente em 18 amostras, apresentou um teor que variou entre 91 e 143 mg/L. Observou-se ainda que o teor de cada um dos aditivos nos diferentes refrigerantes não excedeu o limite máximo legislado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Porquê imagem PET em pequeno animal? Estudos longitudinais do mesmo animal; ferramenta de valor inestimável em imagem molecular (estudos biológicos, desenvolvimento de novos fármacos, expressão genética, etc.); ligação entre o modelo animal e o Homem. Porquê simulações Monte Carlo? Desenvolvimento e optimização de métodos de reconstrução; validação de metodologias de correcção; desenvolvimento e optimização do design de novos scanners; ferramenta de análise quantitativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O downpull é uma força gerada pelo efeito do escoamento em comportas planas com estanquidade a jusante e pode condicionar, de forma determinante, o dimensionamento do órgão de manobra e a preponderância de fecho de uma comporta vertical em condições de emergência. Neste trabalho é desenvolvido um modelo de cálculo analítico para a obtenção do downpull e um modelo de simulação numérica com Computational Fluid Dynamics (CFD). O modelo analítico desenvolvido foi exposto numa folha de cálculo e permite a obtenção de resultados em poucos minutos, factor essencial sob o ponto de vista económico. O modelo em CFD tem como principal objectivo a validação do modelo analítico. Sendo um modelo mais complexo e dispendioso em termos de tempo despendido, apenas poderá ser utilizado em situações pontuais que exijam um maior rigor nos resultados obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O sector dos edifícios é responsável por uma percentagem significativa dos consumos de energia primária e de energia eléctrica em Portugal, associada principalmente ao conforto térmico dos seus ocupantes. A União Europeia pretende uma redução de 20%, até 2020, dos consumos de energia e consequentes emissões de CO2 através da melhoria da eficiência energética dos edifícios públicos e residenciais. Em Portugal, o Plano Nacional para a Eficiência Energética (PNAEE) tem por objectivo obter uma poupança anual de energia de pelo menos 1% até ao ano de 2016, tomando como base a média de consumos de energia final, registados entre 2001 e 2005. Neste contexto, os edifícios anteriores a 1990 (primeira versão do RCCTE) podem apresentar um potencial significativo de melhoria da sua eficiência energética com base na sua reabilitação. Os edifícios “Gaioleiros” (1880 – 1930) constituindo uma parte importante do património histórico da cidade de Lisboa, para os quais a informação sobre o seu desempenho térmico é limitada, considerou-se pertinente efectuar um estudo destinado à sua caracterização experimental e numérica, face à especificidade do comportamento térmico das suas paredes caracterizadas pela elevada espessura. No presente trabalho, apresenta-se a metodologia e os resultados experimentais da medição da resistência térmica das paredes e da medição das necessidades térmicas de aquecimento da habitação. Estes resultados experimentais foram utilizados na validação do modelo de simulação térmica da habitação, que posteriormente serviu para avaliar as suas necessidades térmicas de aquecimento (Nic) e de arrefecimento (Nvc), identificar oportunidades de melhoria e avaliar o respectivo potencial de reabilitação. Neste trabalho, como contributos para uma reabilitação sustentável, apresentam-se avaliações de oportunidades de melhoria com base em estratégias de reforço do isolamento térmico. Dos resultados obtidos concluiu-se que melhorando o isolamento térmico das paredes e vãos envidraçados é possível baixar consideravelmente os consumos de energia associados à habitação, cumprindo assim as exigências estabelecidas no RCCTE ao nível dos requisitos de qualidade térmica da envolvente e consumos energéticos para edifícios novos e grandes reabilitações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho que a seguir se apresenta tem como objectivo descrever a criação de um modelo que sirva de suporte a um sistema de apoio à decisão sobre o risco inerente à execução de projectos na área das Tecnologias de Informação (TI) recorrendo a técnicas de mineração de dados. Durante o ciclo de vida de um projecto, existem inúmeros factores que contribuem para o seu sucesso ou insucesso. A responsabilidade de monitorizar, antever e mitigar esses factores recai sobre o Gestor de Projecto. A gestão de projectos é uma tarefa difícil e dispendiosa, consome muitos recursos, depende de numerosas variáveis e, muitas vezes, até da própria experiência do Gestor de Projecto. Ao ser confrontado com as previsões de duração e de esforço para a execução de uma determinada tarefa, o Gestor de Projecto, exceptuando a sua percepção e intuição pessoal, não tem um modo objectivo de medir a plausibilidade dos valores que lhe são apresentados pelo eventual executor da tarefa. As referidas previsões são fundamentais para a organização, pois sobre elas são tomadas as decisões de planeamento global estratégico corporativo, de execução, de adiamento, de cancelamento, de adjudicação, de renegociação de âmbito, de adjudicação externa, entre outros. Esta propensão para o desvio, quando detectada numa fase inicial, pode ajudar a gerir melhor o risco associado à Gestão de Projectos. O sucesso de cada projecto terminado foi qualificado tendo em conta a ponderação de três factores: o desvio ao orçamentado, o desvio ao planeado e o desvio ao especificado. Analisando os projectos decorridos, e correlacionando alguns dos seus atributos com o seu grau de sucesso o modelo classifica, qualitativamente, um novo projecto quanto ao seu risco. Neste contexto o risco representa o grau de afastamento do projecto ao sucesso. Recorrendo a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais, descreve-se o desenvolvimento de um modelo que suporta um sistema de apoio à decisão baseado na classificação de novos projectos. Os modelos são o resultado de um extensivo conjunto de testes de validação onde se procuram e refinam os indicadores que melhor caracterizam os atributos de um projecto e que mais influenciam o risco. Como suporte tecnológico para o desenvolvimento e teste foi utilizada a ferramenta Weka 3. Uma boa utilização do modelo proposto possibilitará a criação de planos de contingência mais detalhados e uma gestão mais próxima para projectos que apresentem uma maior propensão para o risco. Assim, o resultado final pretende constituir mais uma ferramenta à disposição do Gestor de Projecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentação da conferência plenária O processo de demonstrar na aula de matemática: Um olhar sobre a comunicação emergente no “Encontro de Investigação em Educação Matemática 2010 Comunicação no Ensino e na Aprendizagem da Matemática” promovido pela Secção de Educação Matemática da Sociedade Portuguesa de Ciências da Educação, Abril de 2010, Costa da Caparica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo deste trabalho passa pelo desenvolvimento de uma ferramenta de simulação dinâmica de recursos rádio em LTE no sentido descendente, com recurso à Framework OMNeT++. A ferramenta desenvolvida permite realizar o planeamento das estações base, simulação e análise de resultados. São descritos os principais aspectos da tecnologia de acesso rádio, designadamente a arquitectura da rede, a codificação, definição dos recursos rádio, os ritmos de transmissão suportados ao nível de canal e o mecanismo de controlo de admissão. Foi definido o cenário de utilização de recursos rádio que inclui a definição de modelos de tráfego e de serviços orientados a pacotes e circuitos. Foi ainda considerado um cenário de referência para a verificação e validação do modelo de simulação. A simulação efectua-se ao nível de sistema, suportada por um modelo dinâmico, estocástico e orientado por eventos discretos de modo a contemplar os diferentes mecanismos característicos da tecnologia OFDMA. Os resultados obtidos permitem a análise de desempenho dos serviços, estações base e sistema ao nível do throughput médio da rede, throughput médio por eNodeB e throughput médio por móvel para além de permitir analisar o contributo de outros parâmetros designadamente, largura de banda, raio de cobertura, perfil dos serviços, esquema de modulação, entre outros. Dos resultados obtidos foi possível verificar que, considerando um cenário com estações base com raio de cobertura de 100 m obteve-se um throughput ao nível do utilizador final igual a 4.69494 Mbps, ou seja, 7 vezes superior quando comparado a estações base com raios de cobertura de 200m.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoje em dia, há cada vez mais informação audiovisual e as transmissões ou ficheiros multimédia podem ser partilhadas com facilidade e eficiência. No entanto, a adulteração de conteúdos vídeo, como informação financeira, notícias ou sessões de videoconferência utilizadas num tribunal, pode ter graves consequências devido à importância desse tipo de informação. Surge então, a necessidade de assegurar a autenticidade e a integridade da informação audiovisual. Nesta dissertação é proposto um sistema de autenticação de vídeo H.264/Advanced Video Coding (AVC), denominado Autenticação de Fluxos utilizando Projecções Aleatórias (AFPA), cujos procedimentos de autenticação, são realizados ao nível de cada imagem do vídeo. Este esquema permite um tipo de autenticação mais flexível, pois permite definir um limite máximo de modificações entre duas imagens. Para efectuar autenticação é utilizada uma nova técnica de autenticação de imagens, que combina a utilização de projecções aleatórias com um mecanismo de correcção de erros nos dados. Assim é possível autenticar cada imagem do vídeo, com um conjunto reduzido de bits de paridade da respectiva projecção aleatória. Como a informação de vídeo é tipicamente, transportada por protocolos não fiáveis pode sofrer perdas de pacotes. De forma a reduzir o efeito das perdas de pacotes, na qualidade do vídeo e na taxa de autenticação, é utilizada Unequal Error Protection (UEP). Para validação e comparação dos resultados implementou-se um sistema clássico que autentica fluxos de vídeo de forma típica, ou seja, recorrendo a assinaturas digitais e códigos de hash. Ambos os esquemas foram avaliados, relativamente ao overhead introduzido e da taxa de autenticação. Os resultados mostram que o sistema AFPA, utilizando um vídeo com qualidade elevada, reduz o overhead de autenticação em quatro vezes relativamente ao esquema que utiliza assinaturas digitais e códigos de hash.