24 resultados para parâmetros genéticos
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
A exposição a formaldeído (FA), classificado como cancerígeno pela International Agency for Cancer Research (IARC), está epidemiologicamente associada a cancro e a alterações nucleares detectáveis pelo ensaio dos micronúcleos por bloqueio da citocinese (CBMN). Este método permite determinar vários marcadores de genotoxicidade, nomeadamente micronúcleos – biomarcadores de quebra ou perda de cromossomas; pontes nucleoplásmicas – biomarcador de re-arranjo cromossómico, pouca reparação e fusão de telómeros e, protusões nucleares – biomarcador de DNA amplificado. O gene X-ray repair cross-complementing group 3 (XRCC3) está envolvido na reparação de ligações cruzadas na recombinação de homólogos e quebras na cadeia dupla de DNA. Foi reportado pelo menos um polimorfismo no gene, o Thr241Met que tem sido associado a um aumento do dnao no DNA em vários estudos.
Resumo:
O processo de estampagem metálica é dos processos mais utilizados na indústria. Como resultado, qualquer pequeno avanço tecnológico, representa uma enorme melhoria no processo. O processo de estampagem metálica é realizado num curto período de tempo, com forças muito elevadas que promovem deformações elasto-plásticas, endurecimento do material e geração de calor por deformação plástica e também por atrito. Como resultado, muitos problemas podem ocorrer, tais como micro-fissuras, macro-fissuras, engelhamento, defeitos de forma estricções localizadas, fracturas, etc. Quando uma destas falhas ocorre, é importante fazer um diagnóstico das causas do problema. O método de elementos finitos, pode ajudar a fazer uma previsão destes problemas. Os resultados obtidos por este método, são utilizados para se modificarem algumas variáveis do processo, tais como: força do encostador, geometria de punções e matrizes. Neste trabalho foi efectuado um estudo da evolução de uma ferramenta progressiva, recorrendo a um software de elementos finitos (LS-DYNA). O objectivo do estudo da ferramenta progressiva, é o de fazer uma comparação dos resultados obtidos pelo LS-DYNA, com o componente obtido na fase de produção. A ferramenta em estudo passou por três grandes evoluções, tendo sido essencialmente alteradas as geometrias de punções e matrizes. Foi feita uma comparação das espessuras obtidas no processo real, com espessuras obtidas na simulação. Os resultados obtidos na simulação são muito semelhantes ao processo real, com uma margem de erro máximo de 4,08%.
Resumo:
O comportamento humano é assegurado pelo funcionamento dos mecanismos biopsicofisiológicos e pela manutenção das relações entre os mesmos, onde as atitudes, a postura, as características antropométricas e o sangue, com os seus constituintes – figurados e não figurados –, entre outros, desempenham um papel fundamental. Os Fisioterapeutas, por seu lado, para além dos mecanismos atrás assinalados, apresentam um controlo motor – estático e dinâmico – que lhes é inerente, devido ao exercício da sua profissão. Este controlo, ao comprometer a organização dos movimentos destes profissionais, reflecte-se nas estratégias por si adoptadas ao longo de anos de exercício, com início no período relacionado com o próprio ensino/aprendizagem. Tendo em conta que o comportamento, ao longo do tempo, é influenciado por múltiplas variáveis, como as que atrás se mencionaram, pretende este estudo verificar a existência, ou não, de alterações entre os Fisioterapeutas, em dois momentos do seu percurso profissional – no início, com menos de dez anos de exercício profissional e, posteriormente, após esses 10 anos. Estes períodos correspondem, em termos de trabalho, aos primeiros anos de profissão e, depois, ao período de verdadeira maturação, onde se conjuga o saber com a experiência.
Resumo:
Em Portugal não são conhecidos estudos publicados que identifiquem com clareza as distribuições típicas dos valores associados aos parâmetros técnicos de exposição utilizados nos exames radiológicos mais comuns. Este estudo tem como objectivos identificar os parâmetros técnicos utilizados em exames radiológicos convencionais na região de Lisboa e comparar os dados com a referência europeia CEC. Os resultados obtidos evidenciam que nas projecções estudadas existe uma predominância para o uso de termos de exposição acima da recomendação CEC e de valores de potencial da ampola (kV) abaixo da recomendação. Esta investigação sugere a necessidade de fixar os NRD nacionais, e/ou locais, e efectuar as respectivas medições, dado que a optimização da exposição é um mecanismo de controlo fundamental para limitar as exposições desnecessárias dos pacientes às radiações ionizantes. Conclui-se que a nível local (região da Grande Lisboa) existe um desconhecimento da prática radiológica enquadrada nos referenciais europeus de boa prática radiológica. Desconhecendo-se a situação a nível nacional, sugerem-se estudos no sentido de identificar os padrões de prática radiológica a nível do País e de promover a optimização dos procedimentos em radiologia convencional. ABSTRACT - Typical distribution of exposure parameters in plain radiography is unknown in Portugal. This study aims to identify exposure parameters that are being used in plain radiography in Lisbon area and to compare collected data with European references (CEC guidelines). Results show that in the four anatomic regions there is a strong tendency of using exposure times above the European recommendation. We also found that x-ray tube potential values (kV) are below the recommended values from CEC guidelines. This study shows that at a local level (Lisbon region) radiographic practice does not fit with CEC guidelines concerning exposure techniques. We suggest continuing national/local studies with the objective to improve exposure optimization and technical procedures in plain radiography. This study also suggests the need to establish national/local DRL’s and to proceed to effective measurements for exposure optimization.
Resumo:
Segundo estudos oficiais, a produção de energia eléctrica, principalmente através da queima de combustíveis fósseis, é responsável pelo aumento das emissões de gases de efeito estufa na atmosfera, contribuindo desta forma para o aquecimento global do planeta. Nesse sentido, os governos de diversos países, assumiram vários compromissos a nível internacional, com o propósito de reduzir o impacto ambiental associado à procura global de energia no planeta, assim como a utilização de recursos naturais. Desses compromissos, destaca-se o Protocolo de Quioto, no qual Portugal assumiu o compromisso de não apresentar um aumento de emissões superior a 27% relativamente ao ano de referência de 1990, durante o período de 2008-2012. Nesse sentido, uma das medidas para o controlo dessas emissões, passa pelo uso racional de energia consumida, nomeadamente através do sector doméstico, um dos sectores que registou uma maior subida do consumo de energia eléctrica nos últimos tempos. Uma das formas de o fazer, poderá passar pela escolha racional dos equipamentos que se utilizam hoje em dia no sector doméstico, baseada por sua vez em normas e critérios específicos para o efeito. No presente trabalho, o problema de maximização de eficiência energética é apresentado e formulado como um problema de optimização, sendo a sua resolução suportada em algoritmos evolucionários, nomeadamente algoritmos genéticos como referência o método Simplex para comparação de resultados e posterior validação dos algoritmos genéticos, enquanto método de optimização para a resolução deste tipo de problema. Factores como o ciclo de vida do produto, investimento realizado e despesas no consumo de energia eléctrica, serão tidos em conta, quando existe a necessidade de se obter uma solução ecológica e económica, assegurando ao mesmo tempo a satisfação do consumidor e do meio ambiente. Serão apresentadas ainda, diversas hipóteses de parametrização, tendo em vista os estudos de desempenho dos dois métodos de optimização a serem analisados e será elaborado ainda um estudo, para avaliar o desempenho dos algoritmos genéticos, mediante a variação de parâmetros a ele associados. No final conclui-se que a utilização dos AG’s é adequada ao problema de maximização da eficiência energética providenciando soluções distintas na escolha de equipamentos com valores semelhantes de indicadores económicos.
Resumo:
A imagem de perfusão do miocárdio por tomografia computorizada de emissão de fotão único (SPECT, do acrónimo inglês Single Photon Emission Computed Tomography) é um dos exames complementares de diagnóstico mais indicados na cardiologia clínica. Os dois agentes tecneciados mais utilizados são o 99mTc-tetrofosmina e o 99mTc-sestamibi. Estes permitem avaliar a distribuição do fluxo sanguíneo no músculo cardíaco. O mecanismo de fixação é idêntico nos dois radiofármacos (RF’s). São excretados, do organismo, a partir do sistema hepatobiliar para o duodeno e para o intestino. Assim, o RF está presente tanto no coração como nos órgãos adjacentes. O coração encontra-se localizado sobre o diafragma, logo acima do lobo esquerdo do fígado e nas proximidades do estômago. Deste modo, os fotões difusos provenientes desses órgãos podem interferir com a interpretação das imagens SPECT, principalmente na parede inferior do ventrículo esquerdo, traduzindo-se na redução da razão alvo-fundo e na qualidade da imagem. Deste modo, a sensibilidade e a especificidade da Cintigrafia de Perfusão do Miocárdio (CPM) diminuem. Têm sido descritos na literatura vários métodos e técnicas para minimizar o efeito da actividade extra-miocárdica, como: a aquisição de imagens mais tardias, a ingestão de líquidos ou alimentos ricos em lípidos. Outras técnicas apontam para a alteração do posicionamento do paciente durante a aquisição. Assim, o objectivo deste estudo é identificar o protocolo da CPM a nível nacional e avaliar a percentagem de repetições de exames provocadas pela interferência de actividade extra-miocárdica.
Resumo:
Ao me ter sido apresentado o tema focado neste trabalho, a curiosidade apoderou-se de mim para tentar perceber o que eram os algoritmos genéticos, a aprendizagem automática e a aplicação dos algoritmos genéticos sobre este tipo de aprendizagem e onde é que estas técnicas podiam ser aplicadas. Assim, neste trabalho é realizado um estudo destes temas relativamente ao seu funcionamento, aplicabilidade, problemas e soluções existentes, bem como, a comparação entre duas das mais conhecidas abordagens ao nível da aprendizagem automática baseada em algoritmos genéticos. São no fim apresentados programas exemplificativos de implementações de aplicação de algoritmos genéticos a problemas de optimização/descoberta e de aprendizagem automática. Este texto está organizado em cinco capítulos, sendo o primeiro a introdução, o segundo é uma apresentação dos algoritmos genéticos, no terceiro capítulo é apresentada a técnica de aprendizagem automática baseada em algoritmos genéticos, as suas diferentes abordagens e implementações, aplicabilidade e comparação entre abordagens. No quarto capítulo são apresentados alguns exemplos práticos que pretendem demonstrar a forma como se implementam algumas das abordagens referidas nos capítulos anteriores com o intuito de ver o seu funcionamento na prática e comparar diferentes algoritmos no mesmo problema.
Resumo:
A presente dissertação apresenta o desenvolvimento de um medidor de componentes passivos RLC. Este medidor baseia-se num protótipo desenvolvido para possibilitar a medição da impedância de um dispositivo em teste. Tendo uma carta de aquisição de sinal como interface, o protótipo comunica com um computador que controla todo o processo de medição desde a aquisição e processamento de sinais ao cálculo e visualização dos parâmetros. A topologia de medição implementada é a da ponte auto-balanceada e no processamento recorre-se ao método da desmodulação síncrona ou coerente. A sua viabilidade é suportada por um estudo teórico prévio, pela discussão das opções tomadas no projecto e pelos resultados obtidos através do algoritmo desenvolvido utilizando o software LabVIEW de programação gráfica.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.
Resumo:
O presente trabalho teve como objectivos avaliar a influência de diversas grandezas e parâmetros de ensaio no índice de fluidez de termoplásticos e calcular a incerteza associada às determinações. Numa primeira fase, procedeu-se à identificação dos principais parâmetros que influenciam a determinação do índice de fluidez, tendo sido seleccionados a temperatura do plastómetro, o peso de carga, o diâmetro da fieira, o comprimento da medição, o tipo de corte e o número de provetes. Para avaliar a influência destes parâmetros na medição do índice de fluidez, optou-se pela realização de um planeamento de experiências, o qual foi dividido em três etapas. Para o tratamento dos resultados obtidos utilizou-se como ferramenta a análise de variância. Após a completa análise dos desenhos factoriais, verificou-se que os efeitos dos factores temperatura do plastómetro, peso de carga e diâmetro da fieira apresentam um importante significado estatístico na medição do índice de fluidez. Na segunda fase, procedeu-se ao cálculo da incerteza associada às medições. Para tal seleccionou-se um dos métodos mais usuais, referido no Guia para a Expressão da Incerteza da Medição, conhecido como método GUM, e pela utilização da abordagem “passo a passo”. Inicialmente, foi necessária a construção de um modelo matemático para a medição do índice de fluidez que relacionasse os diferentes parâmetros utilizados. Foi estudado o comportamento de cada um dos parâmetros através da utilização de duas funções, recorrendo-se novamente à análise de variância. Através da lei de propagação das incertezas foi possível determinar a incerteza padrão combinada,e após estimativa do número de graus de liberdade, foi possível determinar o valor do coeficiente de expansão. Finalmente determinou-se a incerteza expandida da medição, relativa à determinação do índice de fluidez em volume.
Resumo:
Mestrado em Tecnologia de Diagnóstico e Intervenção Cardiovascular. Área de especialização: Intervenção Cardiovascular.
Resumo:
As doenças cerebrovasculares, nomeadamente os acidentes vasculares cerebrais (AVC), encontram-se entre as principais causas de morbilidade e invalidez nos países da União Europeia, estando na origem de quadros clínicos que implicam limitações consideráveis na capacidade funcional dos indivíduos. As alterações no controlo postural constituem das consequências mais frequentes e devastadoras de um AVC, uma vez que interferem com a funcionalidade e autonomia, repercutindo-se em diversas dimensões da vida das pessoas e contribuindo de forma significativa para a diminuição da sua qualidade de vida. A fisioterapia neurológica desempenha um papel central na recuperação do movimento e da postura nestas situações, no entanto, existe a necessidade de investigar qual a eficácia das técnicas utilizadas pelos fisioterapeutas para resolver estas alterações.
Resumo:
A presente dissertação apresenta um conjunto de algoritmos, cujo objetivo é a determinação da capacidade máxima de energia que é possível integrar numa rede de energia elétrica, seja num único nó ou em vários nós simultaneamente. Deste modo, obtém-se uma indicação dos locais mais adequados à nova instalação de geração e quais os reforços de rede necessários, de forma a permitirem a alocação da nova energia. Foram estudados e identificados os fatores que influenciam o valor da capacidade máxima nodal, assim como as suas consequências no funcionamento da rede, em particular o carácter simultâneo associado às referidas injeções nodais. Nesse sentido, são apresentados e desenvolvidos algoritmos que têm em consideração as características técnicas da geração a ligar e as restrições físicas impostas pela rede elétrica existente. Os algoritmos desenvolvidos apresentados baseiam-se em busca gaussiana, tendo sido igualmente implementada uma heurística que tem em consideração a proximidade de outras injeções em nós adjacentes e finalmente, dada a natureza combinatória do problema, propõe-se a aplicação de algoritmos genéticos especificamente adaptados ao problema Conclui-se que os algoritmos genéticos encerram características que lhes permitem ser aplicados em qualquer topologia com resultados superiores a todos os algoritmos desenvolvidos. Os métodos apresentados foram desenvolvidos e implementados usando a linguagem de programação Python, tendo-se desenvolvido ainda um interface visual ao utilizador, baseado em wxPython, onde estão implementadas diversas ferramentas que possibilitam a execução dos algoritmos, a configuração dos seus parâmetros e ainda o acesso à informação resultante dos algoritmos em formato Excel.
Resumo:
Atualmente, o financiamento disponível para o investimento na realização de grandes obras tende a ser escasso. Por esse motivo, numa altura em que a crise económica parece estar instalada, não só em Portugal, mas também na Europa, a manutenção surge como uma boa alternativa no prolongamento do período de vida útil dos edifícios. Para a realização de um trabalho onde se pretende otimizar a necessidade da realização de intervenções, com os seus custos, é importante definir uma estratégia adequada e eficiente. Para além desse aspeto, deve ser estabelecida a execução de todas as etapas, através de procedimentos adequados e objetivos, que durante a execução de um plano de manutenção definem o sucesso das operações. Ao elaborar um plano de manutenção é importante conhecer os fatores e aspetos que condicionam o seu desenvolvimento. Cada edifício tem caraterísticas e propriedades próprias, definidas pelos materiais e soluções construtivas constituintes que, quando associadas às condições da envolvente e ao tipo de utilizadores, permitem fazer uma correlação a partir da qual é possível determinar as melhores condições sobre as quais deve ser implementado o plano de manutenção. É o conhecimento e análise destes parâmetros que determinam o modo de atuação e a periodicidade das intervenções. Neste âmbito é feita a aplicação dos conhecimentos adquiridos ao longo do desenvolvimento deste trabalho, com a realização de um plano de manutenção de uma cobertura de um edifício.
Resumo:
Mestrado em Tecnologia de Diagnóstico e Intervenção Cardiovascular.