1000 resultados para Algoritmos de computador
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Civil - Perfil Estruturas
Resumo:
As interfaces naturais têm ganho atenção crescente por parte da comunidade científica. Esta interação, nomeadamente baseada em gestos e voz, tem sido progressivamente mais usada para estabelecer a comunicação entre o homem e a máquina de forma natural. Em paralelo, têm surgido no marcado alguns novos dispositivos com o objetivo de suportar estas formas naturais de interface, entre eles, sensores de movimento. Esta dissertação tem como objetivo a proposta de algoritmos projetados para auxiliar o programador no reconhecimento de gestos, especificamente em dispositivos conhecidos como sensores de movimentos. Atualmente o programador tem o trabalho de desenvolver todo o código para adicionar reconhecimento de gestos à sua aplicação. A solução apresentada neste documento propõe um novo conjunto de métodos que visam a criação de uma biblioteca de gestos e a consequente capacidade de reconhecimento de gestos anteriormente armazenados. A validação deste trabalho consistiu na extensão do Software Development Kit (SDK) do dispositivo Kinect, de forma a adicionar ferramentas complementares, que permitam simplificar a definição e reconhecimento de gestos. A primeira parte consiste na captação e armazenamento de gestos, através do mapeamento de pontos, modelando os gestos e armazenando tal modelo. Esta primeira fase permite no desenvolvimento de um sistema a criação de uma biblioteca de gestos pré-definidos, como por exemplo os gestos da Língua Gestual Portuguesa. Numa segunda fase, a extensão do SDK auxilia também as tarefas de reconhecimento de gestos em tempo real, isto é, deteção do gesto que o utilizador de uma aplicação esteja a fazer e procura desse gesto na biblioteca.
Resumo:
A espasticidade é uma alteração motora provocada por uma lesão do Sistema Nervoso Central. Esta alteração evidencia-se quando há um movimento passivo do membro afectado e há uma resistência associada, a contrariar o movimento. Esta resistência deve-se à hiperexcitabilidade do reflexo de estiramento tónico e é tanto maior, quanto maior a velocidade do movimento. Uma vez que tem um grande impacto na qualidade de vida do indivíduo, nomeadamente na sua independência, é imperativo um melhor diagnóstico para maior entendimento desta condição e melhor possibilidade de reabilitação do indivíduo. Para tal é necessário maior objectividade e robustez na quantificação da espasticidade. Actualmente não há consenso quanto à metodologia de avaliação, havendo várias abordagens, destacando-se os métodos clínicos, neurofisiológicos e biomecânicos. Destas abordagens, a mais comum é a utilização de métodos clínicos que se fundamentam na capacidade subjectiva do clínico sentir a resistência ao estiramento passivo do membro afectado. Os métodos neurofisiológicos são de difícil execução, uma vez que se baseiam em dados de electromiografia, não sendo exequível em contexto clínico, com a rapidez necessária. Nos métodos biomecânicos existentes ainda subsiste grande dificuldade em criar instrumentação adequada para aplicação clínica e os resultados obtidos revelam grande dependência humana do executante que efectua o diagnóstico. O protótipo desenvolvido, SpastiMed, tenta quantificar esta disfunção, rectificando esta subjectividade, para um maior rigor e objectividade no seu diagnóstico. Trata-se de um dispositivo motorizado e controlado electronicamente. O objectivo deste projecto é comprovar a fiabilidade do protótipo na detecção e quantificação da espasticidade biomecanicamente. Para tal, foi necessário efectuar alguns melhoramentos na configuração electromecânica, redesenhou-se a interface para ser aplicado em contexto clínico e adquiriu-se dados em indivíduos que não apresentam diagnóstico de espasticidade. Também foram recolhidos alguns dados de indivíduos com esta disfunção, para posterior criação de algoritmos automáticos de avaliação. Agregando estes factores a um instrumento de reduzidas dimensões e fácil aplicação no indivíduo, simplifica-se a sua utilização em ambiente clínico, reduzindo também a dependência humana para avaliação da espasticidade.
Resumo:
O desenvolvimento das tecnologias associadas à Detecção Remota e aos Sistemas de Informação Geográfica encontram-se cada vez mais na ordem do dia. E, graças a este desenvolvimento de métodos para acelerar a produção de informação geográfica, assiste-se a um crescente aumento da resolução geométrica, espectral e radiométrica das imagens, e simultaneamente, ao aparecimento de novas aplicações com o intuito de facilitar o processamento e a análise de imagens através da melhoria de algoritmos para extracção de informação. Resultado disso são as imagens de alta resolução, provenientes do satélite WorldView 2 e o mais recente software Envi 5.0, utilizados neste estudo. O presente trabalho tem como principal objectivo desenvolver um projecto de cartografia de uso do solo para a cidade de Maputo, com recurso ao tratamento e à exploração de uma imagem de alta resolução, comparando as potencialidades e limitações dos resultados extraídos através da classificação “pixel a pixel”, através do algoritmo Máxima Verossimilhança, face às potencialidades e eventuais limitações da classificação orientada por objecto, através dos algoritmos K Nearest Neighbor (KNN) e Support Vector Machine (SVM), na extracção do mesmo número e tipo de classes de ocupação/uso do solo. Na classificação “pixel a pixel”, com a aplicação do algoritmo classificação Máxima Verosimilhança, foram ensaiados dois tipos de amostra: uma primeira constituída por 20 classes de ocupação/uso do solo, e uma segunda por 18 classes. Após a fase de experimentação, os resultados obtidos com a primeira amostra ficaram aquém das espectativas, pois observavam-se muitos erros de classificação. A segunda amostra formulada com base nestes erros de classificação e com o objectivo de os minimizar, permitiu obter um resultado próximo das espectativas idealizadas inicialmente, onde as classes de interesse coincidem com a realidade geográfica da cidade de Maputo. Na classificação orientada por objecto foram 4 as etapas metodológicas utilizadas: a atribuição do valor 5 para a segmentação e 90 para a fusão de segmentos; a selecção de 15 exemplos sobre os segmentos gerados para cada classe de interesse; bandas diferentemente distribuídas para o cálculo dos atributos espectrais e de textura; os atributos de forma Elongation e Form Factor e a aplicação dos algoritmos KNN e SVM. Confrontando as imagens resultantes das duas abordagens aplicadas, verificou-se que a qualidade do mapa produzido pela classificação “pixel a pixel” apresenta um nível de detalhe superior aos mapas resultantes da classificação orientada por objecto. Esta diferença de nível de detalhe é justificada pela unidade mínima do processamento de cada classificador: enquanto que na primeira abordagem a unidade mínima é o pixel, traduzinho uma maior detalhe, a segunda abordagem utiliza um conjunto de pixels, objecto, como unidade mínima despoletando situações de generalização. De um modo geral, a extracção da forma dos elementos e a distribuição das classes de interesse correspondem à realidade geográfica em si e, os resultados são bons face ao que é frequente em processamento semiautomático.
Resumo:
Sistemas de gestão documental e de recuperação de informação são hoje ferramentas essenciais para aceder aos grandes volumes de informação disponíveis. O exemplo mais popular deste cenário é o motor de pesquisa Google, que se estimava possuir cerca de 45 milhares de milhões de páginas Web, em Março de 2013 [14]. Uma vez que a maioria das pessoas, apenas consultam os primeiros dez resultados duma pesquisa, torna-se crucial conseguir uma boa ordenação das respostas, de forma a permitir que o utilizador veja os resultados contendo informação diversificada, de acordo com as suas preferências e indo ao encontro daquilo que escreveu na pesquisa. Além do objetivo de ordenação segundo a query escrita pelo utilizador, também foi tido como objetivo a remoção de documentos similares do topo dos resultados das pesquisas. Nesta tese, pretendemos investigar o uso de algoritmos de aprendizagem de ordenação de resultados, por forma a aumentar a qualidade dos resultados de topo das pesquisas e analisar algumas maneiras para aumentar a diversidade de informação no topo dos resultados das pesquisas. Uma aplicação foi desenvolvida no contexto desta tese e foi aplicada a um sistema de pesquisa que foi desenvolvido em contexto empresarial com a Quidgest S.A, sendo que posteriormente irá ser integrada numa plataforma de desenvolvimento rápido de aplicações.
Resumo:
O objetivo deste estudo é o desenvolvimento e validação de métodos espectroscópicos (espectroscopia NIR) que possam vir a substituir os métodos químicos convencionais, para quantificação de grupos hidróxilo em resinas alquídicas. As resinas alquídicas estudadas neste trabalho são normalmente utilizadas em sistemas de revestimento de dois componentes, em que os seus grupos hidróxilo reagem com pré-polímeros de isocianato para formar revestimentos de alta dureza. Por este motivo e por questões processuais ligadas à estequiometria da reação existente na aplicação referida, é extremamente importante a quantificação destes grupos. O método mais comum de quantificação de grupos hidróxilo é conhecido como método de titulação. Este é um método demorado, pois cada medição implica um procedimento experimental de cerca de duas horas, para além de ser muito dispendioso, a nível económico. Foram estudadas as influências da temperatura, heterogeneidade e nível de enchimento da célula na recolha do espectro. As conclusões dos estudos mencionados levaram à fixação de um tempo ideal de permanência da célula dentro da câmara do espectrofotómetro antes da medição do espectro. Para além disto, conclui-se que para lotes standard, a heterogeneidade não é uma variável significativa. O nível da célula deve ser mantido constante. Os métodos desenvolvidos, baseados na norma de qualidade ISO 15063:2011, foram construídos a partir de algoritmos de Partial Least Squares Regression (PLS), utilizando um equipamento NIRVIS, Büchi©. Foram obtidos bons coeficientes de regressão linear para a Resina A (R2>0,9). Quanto aos restantes resultados, estes indicam a possibilidade de aplicação em resinas do mesmo tipo. Este método proporciona resultados 8 vezes mais rápidos e com custos em material que representam 1% do método standard.
Resumo:
O objetivo deste estudo é o desenvolvimento e validação de métodos espectroscópicos (espectroscopia NIR) que possam vir a substituir os métodos químicos convencionais, para quantificação de grupos hidróxilo em resinas alquídicas. As resinas alquídicas estudadas neste trabalho são normalmente utilizadas em sistemas de revestimento de dois componentes, em que os seus grupos hidróxilo reagem com pré-polímeros de isocianato para formar revestimentos de alta dureza. Por este motivo e por questões processuais ligadas à estequiometria da reação existente na aplicação referida, é extremamente importante a quantificação destes grupos. O método mais comum de quantificação de grupos hidróxilo é conhecido como método de titulação. Este é um método demorado, pois cada medição implica um procedimento experimental de cerca de duas horas, para além de ser muito dispendioso, a nível económico. Foram estudadas as influências da temperatura, heterogeneidade e nível de enchimento da célula na recolha do espectro. As conclusões dos estudos mencionados levaram à fixação de um tempo ideal de permanência da célula dentro da câmara do espectrofotómetro antes da medição do espectro. Para além disto, conclui-se que para lotes standard, a heterogeneidade não é uma variável significativa. O nível da célula deve ser mantido constante. Os métodos desenvolvidos, baseados na norma de qualidade ISO 15063:2011, foram construídos a partir de algoritmos de Partial Least Squares Regression (PLS), utilizando um equipamento NIRVIS, Büchi©. Foram obtidos bons coeficientes de regressão linear para a Resina A (R2>0,9). Quanto aos restantes resultados, estes indicam a possibilidade de aplicação em resinas do mesmo tipo. Este método proporciona resultados 8 vezes mais rápidos e com custos em material que representam 1% do método standard.
Resumo:
O tema “Plataforma smartphone para biossensores de Espectroscopia de Infravermelho Próximo”, surge no âmbito da instrumentação médica, na área das BCI – Brain Computer Interfaces, devido à necessidade de encontrar um dispositivo portátil, de custo acessível e elevada performance que permita obter informação acerca da actividade neuronal do córtex motor no decorrer duma determinada tarefa. O objectivo do trabalho consiste no desenvolvimento duma sonda capaz de detectar as alterações hemodinâmicas que ocorrem no córtex, bem como toda a instrumentação inerente à aquisição do sinal e transmissão dos dados para um computador, a análise dos dados e por fim o desenvolvimento de uma aplicação em Android para visualização dos resultados. Foi desenvolvida uma banda para a cabeça, composta pela sonda NIRS: LEDs (Light-Emiting Diodes) de 940nm e 660nm e os respectivos fototransístores de detecção, bem como toda a electrónica de condicionamento do sinal captado. Num módulo à parte, alimentado por duas baterias de 9V, encontram-se os circuitos electrónicos onde é possível regular ganhos de amplificação e offsets. Os dados foram adquiridos pelo microcontrolador Arduíno Uno, usando uma taxa de amostragem de 50Hz em cada um dos dois canais utilizados. O controlo do Arduíno foi feito utilizando o LabVIEW. Para o processamento dos dados, visualização e cálculo das concentrações de oxi e desoxi-hemoglobina no sangue recorreu-se ao Matlab. O sistema foi calibrado com recurso a um oxímetro de pulso clínico usado em cinco indivíduos saudáveis. Finalmente o sistema foi testado ao colocar-se o sensor NIRS sobre o córtex motor esquerdo de nove indivíduos saudáveis destros, fazendo-se uma aquisição de dados durante dois minutos. Utilizou-se um paradigma de 10s de repouso seguido de 10s a abrir e fechar a mão. O sistema NIRS conseguiu medir as alterações que ocorrem nas concentrações de oxi e desoxi-hemoglobina devido à actividade motora de abrir e fechar a mão. Dado o princípio físico ser o mesmo do dos oxímetros convencionais, conseguiu-se ainda medir com sucesso a frequência cardíaca e a saturação percentual de oxigénio após a calibração do sensor. As medidas podem ser visualizadas numa aplicação desenvolvida para o Android. Os resultados sugerem que com esta abordagem, este tipo de dispositivo pode estar disponível a baixo custo quer para doentes quer para indivíduos saudáveis, por exemplo em aplicações de telemóvel.
Resumo:
A escassez de recursos humanos da saúde é um problema que afecta especialmente os países em desenvolvimento que recorrem frequentemente a programas baseados no trabalho de Agentes de Saúde Comunitária (ASC). Os ASC são pessoas escolhidas dentro das suas comunidades que são treinadas para dar resposta a pequenas enfermidades. Na Guiné-Bissau, as doenças diarreicas na infância são um dos principais problemas de saúde, tendo os ASC um papel fundamental no diagnóstico e tratamento destas doenças nas zonas mais rurais como a Região Sanitária de Bolama (RSB). O presente estudo focou-se especificamente numa população de ASC da RSB, tendo participado 22 dos 28 ASC existentes na Região. Pretendia-se perceber qual o impacto que a formação realizada sobre doenças diarreicas tinha sobre a efectividade do diagnóstico e tratamento deste tipo de doenças realizado pelos ASC em crianças com menos de 5 anos. Para isso, realizou-se um estudo longitudinal tendo sido efectuadas três avaliações em três momentos distintos – uma avaliação antes da realização de uma formação sobre doenças diarreicas, uma avaliação um mês após a formação e uma última avaliação 3 meses após a formação. Foi aplicada uma grelha de observação da consulta do ASC sempre que havia uma suspeita de uma criança com diarreia, em que se avaliou quais os Sinais e Sintomas, o Diagnóstico e os Tratamentos identificados pelo ASC. Uma grelha igual foi entregue ao médico, que funcionou como padrão de verificação externo. Foi aplicado ainda um questionário de identificação de características sócio-demográficas dos ASC em estudo. Os dados recolhidos foram alvo de tratamento estatístico, tendo sido aplicada a análise de Variância de Friedman e o teste Q-Cochran para comparação dos sucessos obtidos pelos ASC na identificação de itens, nos diferentes momentos de avaliação. Foi ainda aplicado um modelo de regressão logística para averiguar a possível influência de algumas características sócio-demográficas dos ASC sobre a efectividade do diagnóstico. Os resultados obtidos revelam que os ASC melhoram significativamente o seu desempenho imediatamente após a formação mas, 3 meses depois, a efectividade de diagnóstico e tratamento de doenças diarreicas diminui também de forma significativa. Não foi encontrada evidência estatística de que haja influência de alguma característica sócio-demografica sobre a melhoria na efectividade do diagnóstico e tratamento de doenças diarreicas. Os resultados obtidos demonstram que a formação feita aos ASC é, de facto, uma mais-valia para o seu desempenho mas, o impacto da formação acaba por se desvanecer 3 meses após a formação. Este facto pode ser justificável pela perda de competências e pela redução da utilização de algoritmos por parte dos ASC ao longo do tempo, e por factores relacionados com o suporte logístico e material que lhes é dado. A falta de acompanhamento, suporte e formação contínua podem ser também uma razão justificativa da diminuição da efectividade três meses após a formação. É fundamental ter sempre em conta que a selecção, o acompanhamento dos ASC, o suporte logístico e material e a formação continua destes Agentes é tão importante para o sucesso dos programas quanto a formação inicial ministrada.
Resumo:
Nesta dissertação pretende-se dar em primeiro lugar uma teoria geral sobre a chamada sincronização generalizada entre osciladores acoplados. Este conceito mais geral de sincronização revela uma estrutura mais complexa da interacção de osciladores acoplados, sendo por esta razão o passo natural a ser dado face ao conceito mais tradicional de sincronização idêntica. A sincronização generalizada tem uma forte componente geométrica através dos trabalhos de Wazewski e de Russel Smith. Esta teoria geral permite estudar de uma forma mais eficiente as condições de sincronização (generalizada) para sistemas com perturbações não-lineares. Neste trabalho vemos que os resultados referentes a sincronização idêntica saem como caso particular do conceito mais geral. Por outro lado, no caso estudado, as perturbações não-lineares ocorrem dentro de domínios bem determinados. Abordamos também a possibilidade de adaptar algoritmos computacionais a estes domínios, de forma a podermos transmitir de uma maneira mais intuitiva as condições mais gerais de sincronização. Por último, e como projecto futuro, apresentamos uma discussão de sincronização idêntica em sistemas de segunda ordem, que pretendem reproduzir a situação original de identificação de sincronização por Huygens.
Resumo:
RESUMO - Introdução: Os problemas do sono, designadamente a insónia, os sintomas de insónia, os padrões de sono inadequados e a sonolência diurna, são frequentes na adolescência. Estes problemas estão frequentemente associados a múltiplos fatores, entre os quais estilos de vida e fatores ambientais, e apresentam consequências significativas na vida do adolescente e posteriormente na idade adulta. O sono e as suas perturbações deveriam constituir uma preocupação para os profissionais da saúde e da educação com o objetivo de tornar os hábitos de sono saudáveis num estilo de vida - com benefícios calculáveis como os associados a outros estilos de vida saudáveis (alimentação e exercício físico). Em Portugal, os estudos sobre problemas do sono em adolescentes são escassos, bem como as intervenções individuais e comunitárias no âmbito da higiene do sono. Os objetivos desta investigação foram estimar a prevalência de insónia e de sintomas de insónia em adolescentes, identificar fatores de risco e protetores dos sintomas de insónia, analisar as repercussões dos sintomas de insónia, caracterizar os padrões de sono dos adolescentes do distrito de Viseu e elaborar uma proposta de intervenção destinada à promoção da higiene do sono adaptada às características dos adolescentes do distrito de Viseu. Métodos: Realizou-se um estudo transversal onde se avaliaram alunos de vinte e seis escolas públicas do terceiro ciclo e secundário do distrito de Viseu, durante ano letivo 2011/2012. A recolha dos dados foi efetuada através de um questionário autoaplicado e respondido pelos alunos em sala de aula. Foram considerados elegíveis para participar no estudo todos os alunos que frequentassem entre o 7.º e o 12.º ano de escolaridade e tivessem idades entre os 12 e os 18 anos. Dos 9237 questionários distribuídos recolheu-se 7581 (82,1%). Foram excluídos da análise os questionários relativos a adolescentes com idade inferior a 12 ou superior a 18 anos e os questionários devolvidos por preencher. A amostra global foi constituída por 6919 adolescentes, sendo 3668 (53,2%) do sexo feminino. A insónia foi definida com base na presença, no mês prévio, dos sintomas de insónia definidos nos critérios do DSM-IV (dificuldade em adormecer, dificuldade em manter o sono, acordar muito cedo e ter dificuldade em voltar a adormecer e sono não reparador) com uma frequência de pelo menos três vezes por semana e associados a consequências no dia-a-dia. A qualidade de vida foi avaliada com recurso à escala de qualidade de vida SF-36; a sintomatologia depressiva através do Inventário de Depressão de Beck para adolescentes (BDI-II) e a sonolência diurna utilizando a Escala de Sonolência de Epworth (ESE). Para responder ao último objetivo foi elaborada uma proposta de intervenção individual e comunitária no âmbito da higiene do sono. A proposta resulta da evidência científica, dos resultados da presente investigação e de reuniões com profissionais da saúde e da educação. Resultados: No total da amostra, a prevalência de insónia foi de 8,3% e de sintomas de insónia foi de 21,4%. A prevalência de insónia foi superior no sexo feminino (10,1% vs. 5,9%; p<0,001) assim como a prevalência de sintomas de insónia (25,6% vs. 15,8%; p<0,001). Individualmente, todos os sintomas foram mais prevalentes no sexo feminino, sendo a diferença estatisticamente significativa (p<0,001). Em média os adolescentes dormiam, durante a semana, 8:04±1:13 horas. A prevalência de sono insuficiente (< 8 horas) foi de 29%. Apenas 6,4% dos adolescentes indicaram que se deitavam todas as noites à mesma hora. A prevalência de sintomatologia depressiva foi de 20,9% (26,0% nas raparigas e 15,1% nos rapazes, p<0,001). A prevalência de sonolência diurna foi de 33,1%, apresentando o sexo feminino um risco superior (OR=1,40; IC95%: 1,27-1,55). A prevalência de sintomatologia depressiva e de sonolência diurna foi superior entre os adolescentes com sintomas de insónia (48,2% vs. 18,8%, p<0,001 e 42,4% vs. 33,0%, p<0,001, respetivamente). Os adolescentes com sintomas de insónia apresentavam igualmente pior qualidade de vida. Em relação a outras repercussões no dia-a-dia, foram os adolescentes com sintomas de insónia que referiam mais vezes sentir dificuldade em levantar-se de manhã, acordar com cefaleias, acordar cansado e recorrer a medicação para dormir. Nos rapazes os sintomas de insónia associaram-se com o IMC. Após o ajustamento para o sexo e idade com recurso à regressão logística verificou-se uma associação entre sintomas de insónia e sexo feminino [OR ajustado(idade)= 1,82; IC95%: 1,56-2,13], idade ≥16 anos [OR ajustado(sexo)= 1,17; IC95%: 1,01-1,35], residência urbana (OR ajustado= 1,30; IC95%: 1,04-1,63), consumo de café (OR ajustado= 1,40; IC95%: 1,20-1,63), consumo de bebidas alcoólicas (OR ajustado= 1,21; IC95%: 1,03-1,41) e sintomatologia depressiva (OR ajustado= 3,59; IC95%: 3,04-4,24). Quanto à escolaridade dos pais, verificou-se uma redução do risco com o aumento da escolaridade dos pais (5º-6º ano OR ajustado= 0,82; IC95%: 0,64- 1,05; 7º-12º ano OR ajustado= 0,77; IC95%: 0,61-0,97; >12º ano OR ajustado= 0,64; IC95%: 0,47-0,87). Após uma análise multivariada, o modelo preditivo para a ocorrência de sintomas de insónia incluiu as variáveis sexo feminino, viver em meio urbano, consumir café e apresentar sintomatologia depressiva. Este modelo apresenta uma especificidade de 84,2% e uma sensibilidade de 63,6%. O sono insuficiente associou-se, após ajuste para o sexo e idade, com o ano de escolaridade, estado civil dos pais, determinados estilos de vida (consumo de café, tabagismo, consumo de álcool, consumo de outras drogas, sair à noite, presença de TV no quarto e número de horas despendido a ver televisão e no computador), latência do sono, sesta > 30 minutos, horários de sono irregulares e com a toma de medicamentos para dormir. Os resultados deste estudo constituem um diagnóstico de situação relativamente aos problemas de sono em adolescentes no distrito de Viseu. Tendo por base os princípios da Carta de Ottawa relativamente à promoção da saúde, a proposta elaborada visa a implementação de estratégias de prevenção agrupadas em intervenções individuais, comunitárias e sobre os planos curriculares. As intervenções baseiam-se na utilização das tecnologias da informação e comunicação, no contexto da nova arquitetura na esfera pública da saúde conducente aos sistemas personalizados de informação em saúde (SPIS). Conclusões: Registou-se uma elevada prevalência de insónia e sintomas de insónia entre os adolescentes do distrito de Viseu, superior no sexo feminino. A presença de sintomas de insónia esteve associada, sobretudo, a determinados estilos de vida e à ausência de higiene do sono. Os problemas de sono em adolescentes, devido à sua frequência e repercussões, devem constituir uma preocupação em termos de saúde pública e constituir uma prioridade nas estratégias de educação para a saúde. Os 9 princípios da intervenção delineada visam uma abordagem preventiva de problemas de sono - através da ação conjunta de profissionais da saúde e da educação, de elementos da comunidade e com o indispensável envolvimento dos adolescentes e da família -, procurando instituir os hábitos de sono saudáveis como um estilo de vida.
Resumo:
RESUMO: O cancro de mama e o mais frequente diagnoticado a indiv duos do sexo feminino. O conhecimento cientifico e a tecnologia tem permitido a cria ção de muitas e diferentes estrat egias para tratar esta patologia. A Radioterapia (RT) est a entre as diretrizes atuais para a maioria dos tratamentos de cancro de mama. No entanto, a radia ção e como uma arma de dois canos: apesar de tratar, pode ser indutora de neoplasias secund arias. A mama contralateral (CLB) e um orgão susceptivel de absorver doses com o tratamento da outra mama, potenciando o risco de desenvolver um tumor secund ario. Nos departamentos de radioterapia tem sido implementadas novas tecnicas relacionadas com a radia ção, com complexas estrat egias de administra ção da dose e resultados promissores. No entanto, algumas questões precisam de ser devidamente colocadas, tais como: E seguro avançar para tecnicas complexas para obter melhores indices de conformidade nos volumes alvo, em radioterapia de mama? O que acontece aos volumes alvo e aos tecidos saudaveis adjacentes? Quão exata e a administração de dose? Quais são as limitações e vantagens das técnicas e algoritmos atualmente usados? A resposta a estas questões e conseguida recorrendo a m etodos de Monte Carlo para modelar com precisão os diferentes componentes do equipamento produtor de radia ção(alvos, ltros, colimadores, etc), a m de obter uma descri cão apropriada dos campos de radia cão usados, bem como uma representa ção geometrica detalhada e a composição dos materiais que constituem os orgãos e os tecidos envolvidos. Este trabalho visa investigar o impacto de tratar cancro de mama esquerda usando diferentes tecnicas de radioterapia f-IMRT (intensidade modulada por planeamento direto), IMRT por planeamento inverso (IMRT2, usando 2 feixes; IMRT5, com 5 feixes) e DCART (arco conformacional dinamico) e os seus impactos em irradia ção da mama e na irradia ção indesejada dos tecidos saud aveis adjacentes. Dois algoritmos do sistema de planeamento iPlan da BrainLAB foram usados: Pencil Beam Convolution (PBC) e Monte Carlo comercial iMC. Foi ainda usado um modelo de Monte Carlo criado para o acelerador usado (Trilogy da VARIAN Medical Systems), no c odigo EGSnrc MC, para determinar as doses depositadas na mama contralateral. Para atingir este objetivo foi necess ario modelar o novo colimador multi-laminas High- De nition que nunca antes havia sido simulado. O modelo desenvolvido est a agora disponí vel no pacote do c odigo EGSnrc MC do National Research Council Canada (NRC). O acelerador simulado foi validado com medidas realizadas em agua e posteriormente com c alculos realizados no sistema de planeamento (TPS).As distribui ções de dose no volume alvo (PTV) e a dose nos orgãos de risco (OAR) foram comparadas atrav es da an alise de histogramas de dose-volume; an alise estati stica complementar foi realizadas usando o software IBM SPSS v20. Para o algoritmo PBC, todas as tecnicas proporcionaram uma cobertura adequada do PTV. No entanto, foram encontradas diferen cas estatisticamente significativas entre as t ecnicas, no PTV, nos OAR e ainda no padrão da distribui ção de dose pelos tecidos sãos. IMRT5 e DCART contribuem para maior dispersão de doses baixas pelos tecidos normais, mama direita, pulmão direito, cora cão e at e pelo pulmão esquerdo, quando comparados com as tecnicas tangenciais (f-IMRT e IMRT2). No entanto, os planos de IMRT5 melhoram a distribuição de dose no PTV apresentando melhor conformidade e homogeneidade no volume alvo e percentagens de dose mais baixas nos orgãos do mesmo lado. A t ecnica de DCART não apresenta vantagens comparativamente com as restantes t ecnicas investigadas. Foram tamb em identi cadas diferen cas entre os algoritmos de c alculos: em geral, o PBC estimou doses mais elevadas para o PTV, pulmão esquerdo e cora ção, do que os algoritmos de MC. Os algoritmos de MC, entre si, apresentaram resultados semelhantes (com dferen cas at e 2%). Considera-se que o PBC não e preciso na determina ção de dose em meios homog eneos e na região de build-up. Nesse sentido, atualmente na cl nica, a equipa da F sica realiza medi ções para adquirir dados para outro algoritmo de c alculo. Apesar de melhor homogeneidade e conformidade no PTV considera-se que h a um aumento de risco de cancro na mama contralateral quando se utilizam t ecnicas não-tangenciais. Os resultados globais dos estudos apresentados confirmam o excelente poder de previsão com precisão na determinação e c alculo das distribui ções de dose nos orgãos e tecidos das tecnicas de simulação de Monte Carlo usados.---------ABSTRACT:Breast cancer is the most frequent in women. Scienti c knowledge and technology have created many and di erent strategies to treat this pathology. Radiotherapy (RT) is in the actual standard guidelines for most of breast cancer treatments. However, radiation is a two-sword weapon: although it may heal cancer, it may also induce secondary cancer. The contralateral breast (CLB) is a susceptible organ to absorb doses with the treatment of the other breast, being at signi cant risk to develop a secondary tumor. New radiation related techniques, with more complex delivery strategies and promising results are being implemented and used in radiotherapy departments. However some questions have to be properly addressed, such as: Is it safe to move to complex techniques to achieve better conformation in the target volumes, in breast radiotherapy? What happens to the target volumes and surrounding healthy tissues? How accurate is dose delivery? What are the shortcomings and limitations of currently used treatment planning systems (TPS)? The answers to these questions largely rely in the use of Monte Carlo (MC) simulations using state-of-the-art computer programs to accurately model the di erent components of the equipment (target, lters, collimators, etc.) and obtain an adequate description of the radiation elds used, as well as the detailed geometric representation and material composition of organs and tissues. This work aims at investigating the impact of treating left breast cancer using di erent radiation therapy (RT) techniques f-IMRT (forwardly-planned intensity-modulated), inversely-planned IMRT (IMRT2, using 2 beams; IMRT5, using 5 beams) and dynamic conformal arc (DCART) RT and their e ects on the whole-breast irradiation and in the undesirable irradiation of the surrounding healthy tissues. Two algorithms of iPlan BrainLAB TPS were used: Pencil Beam Convolution (PBC)and commercial Monte Carlo (iMC). Furthermore, an accurate Monte Carlo (MC) model of the linear accelerator used (a Trilogy R VARIANR) was done with the EGSnrc MC code, to accurately determine the doses that reach the CLB. For this purpose it was necessary to model the new High De nition multileaf collimator that had never before been simulated. The model developed was then included on the EGSnrc MC package of National Research Council Canada (NRC). The linac was benchmarked with water measurements and later on validated against the TPS calculations. The dose distributions in the planning target volume (PTV) and the dose to the organs at risk (OAR) were compared analyzing dose-volume histograms; further statistical analysis was performed using IBM SPSS v20 software. For PBC, all the techniques provided adequate coverage of the PTV. However, statistically significant dose di erences were observed between the techniques, in the PTV, OAR and also in the pattern of dose distribution spreading into normal tissues. IMRT5 and DCART spread low doses into greater volumes of normal tissue, right breast, right lung, heart and even the left lung than tangential techniques (f-IMRT and IMRT2). However,IMRT5 plans improved distributions for the PTV, exhibiting better conformity and homogeneity in target and reduced high dose percentages in ipsilateral OAR. DCART did not present advantages over any of the techniques investigated. Di erences were also found comparing the calculation algorithms: PBC estimated higher doses for the PTV, ipsilateral lung and heart than the MC algorithms predicted. The MC algorithms presented similar results (within 2% di erences). The PBC algorithm was considered not accurate in determining the dose in heterogeneous media and in build-up regions. Therefore, a major e ort is being done at the clinic to acquire data to move from PBC to another calculation algorithm. Despite better PTV homogeneity and conformity there is an increased risk of CLB cancer development, when using non-tangential techniques. The overall results of the studies performed con rm the outstanding predictive power and accuracy in the assessment and calculation of dose distributions in organs and tissues rendered possible by the utilization and implementation of MC simulation techniques in RT TPS.
Resumo:
Devido à crescente popularização dos computadores pessoais, estes encontram-se fortemente enraizados na nossa vida quotidiana. Para muitas pessoas, em particular as mais jovens, o computador já se tornou uma ferramenta de trabalho, uma fonte de informação ou até uma forma de entretenimento indispensável ao seu dia-a-dia. Por estas razões os computadores oferecem-nos boas oportunidades de expansão em diversos contextos, nomeadamente no ensino escolar e na inclusão social. Vários estudos afirmam que o uso de vídeo jogos na educação traria muitos benefícios ao processo de aprendizagem, pois permitiriam formas de ensino mais motivadoras e adaptáveis aos comportamentos sociais das crianças e jovens de hoje. No entanto há que ter diversos cuidados, caso contrário, corre-se o sério risco de tornar o jogo um motivo de desconcentração e não numa ferramenta de estudo. Para tal é importante encontrar métodos que façam a distinção entre os alunos que decoraram as soluções do jogo por jogarem frequentemente, dos que arriscam nas respostas sempre que jogam e dos alunos que vão adquirindo conhecimentos de cada vez que jogam, premiando estes últimos em detrimento dos dois primeiros. A forte presença do computador no dia-a-dia torna-o também um importante veículo para a inclusão de pessoas com deficiências visuais. No entanto como a interacção com o computador é normalmente muito exigente a nível visual, se as aplicações não forem bem desenhadas podem aumentar a disparidade entre os utilizadores visuais e os utilizadores invisuais. Assim é fundamental perceber o impacto das diferenças individuais e a sua relação com as exigências das interfaces, sobretudo nos vídeo jogos onde a principal forma de output é visual. Isto permitirá o desenvolvimento de soluções de interacção adequadas aos utilizadores invisuais, conferindo-lhes assim uma melhor forma de inclusão. Nesta dissertação desenvolveu-se um vídeo jogo educativo para a aprendizagem de matemática, adaptado para ser jogado por alunos cegos e amblíopes do 9º ano de escolaridade. O jogo reúne elementos apropriados para a idade dos jogadores, tal como a história de aventura/caça ao tesouro e personagens com quem se podem identificar, contribuindo para uma maior motivação dos alunos ao jogarem “O Código Pitágoras”. Apesar de se tratar de um jogo acessível para jovens invisuais, este também pode ser jogado por alunos normovisuais devido à sua componente gráfica. Desta forma contribui-se para uma maior integração dos alunos cegos e amblíopes nas suas turmas e na sociedade em geral, permitindo-lhes em simultâneo acesso às mesmas oportunidades que os colegas normovisuais. Os principais objectivos a atingir são: que o jogo seja de facto uma ferramenta útil ao ensino; que todos os seus conteúdos jogáveis possam ser acedidos por crianças com deficiência visual e que o mesmo seja considerado pelos seus utilizadores como um vídeo jogo normal.
Resumo:
Nos dias de hoje, com a evolução da tecnologia, mais propriamente com a expansão da acessibilidade à internet, os serviços online estão disponíveis em todo o lado e em várias plataformas (telemóvel, tablet, computador, televisão). Contudo as empresas e marcas têm dificuldade em manter os utilizadores/consumidores cativados e leais aos seus serviços online. Estes serviços, são claramente o futuro de todo o conteúdo que consumimos e o futuro de todos os serviços que usamos. Com tanta diversidade é necessário criar alguma forma de levar os utilizadores a querer voltar à marca uma e outra vez, de forma contínua. Foi assim, que surgiu a plataforma Kaptivate. O Kaptivate é composto por uma série de cloud services numa única plataforma de fácil integração, para os proprietários dos serviços online, com o objectivo de maximizar o envolvimento do consumidor. Para tal, é utilizado o conceito gamification, que pela sua definição, consiste na transferência de elementos de videojogos para outros contextos de forma a aumentar o envolvimento dos utilizadores. Na última década, gamification e o desenho centrado em incentivos têm sido temas bastante abordados e mais recentemente, estas técnicas começaram a ser aplicadas em diferentes áreas. A plataforma Kaptivate usa essas mecânicas e pensamentos orientados a jogos para o seu objecto, de cativar os utilizadores. Para apelar melhor e mais facilmente ao público actual, o Kaptivate incorpora também mecanismos sociais e tecnológicos da rede social Facebook. As redes sociais persuadem diariamente milhões de utilizadores a adotarem rotinas específicas, por isso, é de prever que o Kaptivate se torne numa ferramenta acessível, apelativa, familiar, persuasiva e tal como pretendido, cativadora. O propósito desta dissertação passa por apresentar o Kaptivate e mostrar uma prova conceito desta plataforma, com um caso criado para esse propósito e mencionar o caso de aplicação real.