965 resultados para Algoritmo Boosting
Resumo:
A dactilografia profissional causa problemas a nível das articulações dos dedos, mãos, pulsos, braços e até mesmo ombros, a quem a exerce. Um deles, o Síndrome do Túnel Cárpico, considera-se ser a maior doença ocupacional nos Estados Unidos, responsável por avultados gastos médicos ano após ano. Até à data, o estudo de causas e consequências apresentou-se difícil, não havendo uma forma prática e fiável de registar os movimentos do(a) dactilógrafo(a). O presente trabalho pretendeu desenvolver uma solução para a detecção e cálculo de estatísticas referentes às taxas de utilização de dedos em dactilografia profissional, com vista a estudos de terapias adequadas. Optou-se pela captação de imagens através de uma câmara USB, usando iluminação dedicada para garantir uma intensidade de luz constante e uniforme. Usando esta configuração, são capturadas imagens do teclado no instante em que uma tecla é premida. Após a captura, efectua-se o processamento da imagem para detecção dos dedos. Nos dedos do(a) dactilógrafo(a) colocaram-se autocolantes de várias cores para identificação. Para a identificação do dedo usou-se um algoritmo de lógica difusa para, através dos canais R, G e B da imagem, avaliar qual a cor observada na zona de interesse (tecla premida). Conseguiu-se assim uma eficácia de 91% em modo automático, podendo este valor chegar aos 100% no modo avançado, que permite a confirmação do utilizador. Existe ainda margem para evolução com a introdução de uma segunda câmara com um diferente posicionamento para obter outra perspectiva da zona de interesse, aumentando assim as hipóteses de correcta identificação.
Resumo:
RESUMO: O cancro de mama e o mais frequente diagnoticado a indiv duos do sexo feminino. O conhecimento cientifico e a tecnologia tem permitido a cria ção de muitas e diferentes estrat egias para tratar esta patologia. A Radioterapia (RT) est a entre as diretrizes atuais para a maioria dos tratamentos de cancro de mama. No entanto, a radia ção e como uma arma de dois canos: apesar de tratar, pode ser indutora de neoplasias secund arias. A mama contralateral (CLB) e um orgão susceptivel de absorver doses com o tratamento da outra mama, potenciando o risco de desenvolver um tumor secund ario. Nos departamentos de radioterapia tem sido implementadas novas tecnicas relacionadas com a radia ção, com complexas estrat egias de administra ção da dose e resultados promissores. No entanto, algumas questões precisam de ser devidamente colocadas, tais como: E seguro avançar para tecnicas complexas para obter melhores indices de conformidade nos volumes alvo, em radioterapia de mama? O que acontece aos volumes alvo e aos tecidos saudaveis adjacentes? Quão exata e a administração de dose? Quais são as limitações e vantagens das técnicas e algoritmos atualmente usados? A resposta a estas questões e conseguida recorrendo a m etodos de Monte Carlo para modelar com precisão os diferentes componentes do equipamento produtor de radia ção(alvos, ltros, colimadores, etc), a m de obter uma descri cão apropriada dos campos de radia cão usados, bem como uma representa ção geometrica detalhada e a composição dos materiais que constituem os orgãos e os tecidos envolvidos. Este trabalho visa investigar o impacto de tratar cancro de mama esquerda usando diferentes tecnicas de radioterapia f-IMRT (intensidade modulada por planeamento direto), IMRT por planeamento inverso (IMRT2, usando 2 feixes; IMRT5, com 5 feixes) e DCART (arco conformacional dinamico) e os seus impactos em irradia ção da mama e na irradia ção indesejada dos tecidos saud aveis adjacentes. Dois algoritmos do sistema de planeamento iPlan da BrainLAB foram usados: Pencil Beam Convolution (PBC) e Monte Carlo comercial iMC. Foi ainda usado um modelo de Monte Carlo criado para o acelerador usado (Trilogy da VARIAN Medical Systems), no c odigo EGSnrc MC, para determinar as doses depositadas na mama contralateral. Para atingir este objetivo foi necess ario modelar o novo colimador multi-laminas High- De nition que nunca antes havia sido simulado. O modelo desenvolvido est a agora disponí vel no pacote do c odigo EGSnrc MC do National Research Council Canada (NRC). O acelerador simulado foi validado com medidas realizadas em agua e posteriormente com c alculos realizados no sistema de planeamento (TPS).As distribui ções de dose no volume alvo (PTV) e a dose nos orgãos de risco (OAR) foram comparadas atrav es da an alise de histogramas de dose-volume; an alise estati stica complementar foi realizadas usando o software IBM SPSS v20. Para o algoritmo PBC, todas as tecnicas proporcionaram uma cobertura adequada do PTV. No entanto, foram encontradas diferen cas estatisticamente significativas entre as t ecnicas, no PTV, nos OAR e ainda no padrão da distribui ção de dose pelos tecidos sãos. IMRT5 e DCART contribuem para maior dispersão de doses baixas pelos tecidos normais, mama direita, pulmão direito, cora cão e at e pelo pulmão esquerdo, quando comparados com as tecnicas tangenciais (f-IMRT e IMRT2). No entanto, os planos de IMRT5 melhoram a distribuição de dose no PTV apresentando melhor conformidade e homogeneidade no volume alvo e percentagens de dose mais baixas nos orgãos do mesmo lado. A t ecnica de DCART não apresenta vantagens comparativamente com as restantes t ecnicas investigadas. Foram tamb em identi cadas diferen cas entre os algoritmos de c alculos: em geral, o PBC estimou doses mais elevadas para o PTV, pulmão esquerdo e cora ção, do que os algoritmos de MC. Os algoritmos de MC, entre si, apresentaram resultados semelhantes (com dferen cas at e 2%). Considera-se que o PBC não e preciso na determina ção de dose em meios homog eneos e na região de build-up. Nesse sentido, atualmente na cl nica, a equipa da F sica realiza medi ções para adquirir dados para outro algoritmo de c alculo. Apesar de melhor homogeneidade e conformidade no PTV considera-se que h a um aumento de risco de cancro na mama contralateral quando se utilizam t ecnicas não-tangenciais. Os resultados globais dos estudos apresentados confirmam o excelente poder de previsão com precisão na determinação e c alculo das distribui ções de dose nos orgãos e tecidos das tecnicas de simulação de Monte Carlo usados.---------ABSTRACT:Breast cancer is the most frequent in women. Scienti c knowledge and technology have created many and di erent strategies to treat this pathology. Radiotherapy (RT) is in the actual standard guidelines for most of breast cancer treatments. However, radiation is a two-sword weapon: although it may heal cancer, it may also induce secondary cancer. The contralateral breast (CLB) is a susceptible organ to absorb doses with the treatment of the other breast, being at signi cant risk to develop a secondary tumor. New radiation related techniques, with more complex delivery strategies and promising results are being implemented and used in radiotherapy departments. However some questions have to be properly addressed, such as: Is it safe to move to complex techniques to achieve better conformation in the target volumes, in breast radiotherapy? What happens to the target volumes and surrounding healthy tissues? How accurate is dose delivery? What are the shortcomings and limitations of currently used treatment planning systems (TPS)? The answers to these questions largely rely in the use of Monte Carlo (MC) simulations using state-of-the-art computer programs to accurately model the di erent components of the equipment (target, lters, collimators, etc.) and obtain an adequate description of the radiation elds used, as well as the detailed geometric representation and material composition of organs and tissues. This work aims at investigating the impact of treating left breast cancer using di erent radiation therapy (RT) techniques f-IMRT (forwardly-planned intensity-modulated), inversely-planned IMRT (IMRT2, using 2 beams; IMRT5, using 5 beams) and dynamic conformal arc (DCART) RT and their e ects on the whole-breast irradiation and in the undesirable irradiation of the surrounding healthy tissues. Two algorithms of iPlan BrainLAB TPS were used: Pencil Beam Convolution (PBC)and commercial Monte Carlo (iMC). Furthermore, an accurate Monte Carlo (MC) model of the linear accelerator used (a Trilogy R VARIANR) was done with the EGSnrc MC code, to accurately determine the doses that reach the CLB. For this purpose it was necessary to model the new High De nition multileaf collimator that had never before been simulated. The model developed was then included on the EGSnrc MC package of National Research Council Canada (NRC). The linac was benchmarked with water measurements and later on validated against the TPS calculations. The dose distributions in the planning target volume (PTV) and the dose to the organs at risk (OAR) were compared analyzing dose-volume histograms; further statistical analysis was performed using IBM SPSS v20 software. For PBC, all the techniques provided adequate coverage of the PTV. However, statistically significant dose di erences were observed between the techniques, in the PTV, OAR and also in the pattern of dose distribution spreading into normal tissues. IMRT5 and DCART spread low doses into greater volumes of normal tissue, right breast, right lung, heart and even the left lung than tangential techniques (f-IMRT and IMRT2). However,IMRT5 plans improved distributions for the PTV, exhibiting better conformity and homogeneity in target and reduced high dose percentages in ipsilateral OAR. DCART did not present advantages over any of the techniques investigated. Di erences were also found comparing the calculation algorithms: PBC estimated higher doses for the PTV, ipsilateral lung and heart than the MC algorithms predicted. The MC algorithms presented similar results (within 2% di erences). The PBC algorithm was considered not accurate in determining the dose in heterogeneous media and in build-up regions. Therefore, a major e ort is being done at the clinic to acquire data to move from PBC to another calculation algorithm. Despite better PTV homogeneity and conformity there is an increased risk of CLB cancer development, when using non-tangential techniques. The overall results of the studies performed con rm the outstanding predictive power and accuracy in the assessment and calculation of dose distributions in organs and tissues rendered possible by the utilization and implementation of MC simulation techniques in RT TPS.
Resumo:
As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.
Resumo:
A optimização com constrangimentos de fiabilidade (RBDO) procura obter sistemas estruturais seguros e optimizados, considerando a variabilidade dos parâmetros relacionados com propriedades do material, cargas aplicadas e geometria. A optimização robusta (RDO) tenta encontrar esses sistemas que, para além disso, apresentam menor variabilidade da resposta estrutural. O objectivo desta dissertação é estudar problemas de RBDO e de RDO, aplicando novas formulações para estes últimos. Também se pretende criar uma plataforma básica para ser usada e desenvolvida por estudantes de engenharia estrutural e por investigadores, a fim de promover a aplicação destas técnicas de optimização. Esta plataforma é constituída por um conjunto de programas, escritos em MATLAB, capazes de resolver estes dois tipos de problemas. É composta por, um programa de análise estrutural capaz de calcular sensibilidades utilizando o método contínuo, um programa de análise de fiabilidade que utiliza o método FORM e um algoritmo de optimização (SQP) que está implementado na optimtool do MATLAB. A eficiência do sistema proposto é demonstrada através da resolução de problemas RBDO e RDO; para isso são apresentados quatro exemplos onde são utilizadas todas as funcionalidades dos programas desenvolvidos
Resumo:
A fraude nos seguros de saúde é uma realidade que causa perdas bastante significativas às empresas do setor. A presente dissertação tem como objetivo fornecer uma perspectiva das técnicas já utilizadas para detetar fraude e apresentar as potenciais vantagens da utilização de redes para a deteção e consequente prevenção deste tipo de comportamentos. A metodologia de investigação baseia-se na revisão da bibliografia bem como no estudo e aplicação prática de um algoritmo de redes aos dados de uma seguradora da área da saúde. A escolha da área da saúde teve por base o facto desta ser uma área onde a fraude tem um impacto bastante elevado e onde os esquemas fraudulentos se desenvolveram muito nos últimos anos. Com base nos requisitos identificados foi possível avaliar as vantagens da utilização de redes para deteção de fraude bem como descrever o processo de como as redes podem responder às necessidades atuais e futuras das empresas seguradoras no que respeita ao combate à fraude.
Resumo:
In the last few years, we have observed an exponential increasing of the information systems, and parking information is one more example of them. The needs of obtaining reliable and updated information of parking slots availability are very important in the goal of traffic reduction. Also parking slot prediction is a new topic that has already started to be applied. San Francisco in America and Santander in Spain are examples of such projects carried out to obtain this kind of information. The aim of this thesis is the study and evaluation of methodologies for parking slot prediction and the integration in a web application, where all kind of users will be able to know the current parking status and also future status according to parking model predictions. The source of the data is ancillary in this work but it needs to be understood anyway to understand the parking behaviour. Actually, there are many modelling techniques used for this purpose such as time series analysis, decision trees, neural networks and clustering. In this work, the author explains the best techniques at this work, analyzes the result and points out the advantages and disadvantages of each one. The model will learn the periodic and seasonal patterns of the parking status behaviour, and with this knowledge it can predict future status values given a date. The data used comes from the Smart Park Ontinyent and it is about parking occupancy status together with timestamps and it is stored in a database. After data acquisition, data analysis and pre-processing was needed for model implementations. The first test done was with the boosting ensemble classifier, employed over a set of decision trees, created with C5.0 algorithm from a set of training samples, to assign a prediction value to each object. In addition to the predictions, this work has got measurements error that indicates the reliability of the outcome predictions being correct. The second test was done using the function fitting seasonal exponential smoothing tbats model. Finally as the last test, it has been tried a model that is actually a combination of the previous two models, just to see the result of this combination. The results were quite good for all of them, having error averages of 6.2, 6.6 and 5.4 in vacancies predictions for the three models respectively. This means from a parking of 47 places a 10% average error in parking slot predictions. This result could be even better with longer data available. In order to make this kind of information visible and reachable from everyone having a device with internet connection, a web application was made for this purpose. Beside the data displaying, this application also offers different functions to improve the task of searching for parking. The new functions, apart from parking prediction, were: - Park distances from user location. It provides all the distances to user current location to the different parks in the city. - Geocoding. The service for matching a literal description or an address to a concrete location. - Geolocation. The service for positioning the user. - Parking list panel. This is not a service neither a function, is just a better visualization and better handling of the information.
Resumo:
Neste trabalho apresenta-se uma metodologia destinada a simular a morfologia e a porosidade de canais de areia em reservatórios fluviais. Como informação de partida utilizam-se um ou vários canais de areia de treino, em estrutura vectorial, que sejam representativos do reservatório, e leis de distribuição das dimensões largura e profundidade dos canais. Para a simulação da morfologia dos canais de areia, são calculados os ângulos azimutais de todos os segmentos de recta das linhas poligonais que constituem os canais de treino, a que se segue a codificação em classes de azimute e a determinação de estatísticas multiponto destas classes. Seguidamente, faz-se a simulação estocástica dos novos canais no volume do reservatório, ou seja, são geradas novas linhas poligonais condicionadas às estatísticas multiponto, a que se associam as dimensões largura e profundidade. Este algoritmo multiponto é muito eficiente, porque é a 1D, e contorna a problemática da variável azimute ser do tipo circular. A avaliação da porosidade é feita em simultâneo na conversão do modelo vectorial da morfologia dos canais de areia para o modelo matricial da malha de blocos do reservatório. Para cada bloco reservatório é contabilizada a proporção de não canal / canal e das fácies conforme um modelo conceptual de zonamento na secção do canal. A estimativa da porosidade média de cada bloco do reservatório é obtida pela soma do produto da proporção de cada fácies pela respectiva porosidade de referência. Para ilustrar as potencialidades da metodologia proposta apresenta-se um caso de estudo com dados sintéticos. De acordo com critérios geológicos e estratigráficos, consideraram-se quatro fácies na secção do canal que são discriminadas lateralmente e em profundidade por valores de referência de porosidade. O algoritmo de simulação morfológica capturou adequadamente a morfologia das imagens de treino e gerou várias imagens equiprováveis que depois foram convertidas em porosidade.
Resumo:
This study analyses the access and use of financial services by small business owners in the cities of Mozambique, as an important tool for boosting economic growth and diminishing inequality. It correlates owners’ and business characteristics with the probability of adopting Points-of-Sale (POS), Mobile Banking and Mobile Money in everyday transactions. The main findings highlight that what mostly affects the use of POS is the size of business and the volume of transactions (positively correlated with POS adoption), while using mobile phone technologies for payments predominantly depends on the owner’s age and whether he/she is a frequent cellphone user. Moreover, to increase the use of electronic means of payment it is necessary to increase financial literacy and improve the banking services.
Resumo:
O paradigma de avaliação do ensino superior foi alterado em 2005 para ter em conta, para além do número de entradas, o número de alunos diplomados. Esta alteração pressiona as instituições académicas a melhorar o desempenho dos alunos. Um fenómeno perceptível ao analisar esse desempenho é que a performance registada não é nem uniforme nem constante ao longo da estadia do aluno no curso. Estas variações não estão a ser consideradas no esforço de melhorar o desempenho académico e surge motivação para detectar os diferentes perfis de desempenho e utilizar esse conhecimento para melhorar a o desempenho das instituições académicas. Este documento descreve o trabalho realizado no sentido de propor uma metodologia para detectar padrões de desempenho académico, num curso do ensino superior. Como ferramenta de análise são usadas técnicas de data mining, mais precisamente algoritmos de agrupamento. O caso de estudo para este trabalho é a população estudantil da licenciatura em Eng. Informática da FCT-UNL. Propõe-se dois modelos para o aluno, que servem de base para a análise. Um modelo analisa os alunos tendo em conta a sua performance num ano lectivo e o segundo analisa os alunos tendo em conta o seu percurso académico pelo curso, desde que entrou até se diplomar, transferir ou desistir. Esta análise é realizada recorrendo aos algoritmos de agrupamento: algoritmo aglomerativo hierárquico, k-means, SOM e SNN, entre outros.
Resumo:
This research provides an insight into income taxes reporting in Angola, based on hand collected data from the annual reports of banks. Empirical studies on Angolan companies are scarce, in part due to the limited access to data. The results show that income taxes’ reporting has improved over the years 2010-2013, becoming more reliable and understandable. The Angolan Government is boosting the economic growth through tax benefits in the investment in public debt, which cause a reduction in the banks’ effective tax rate. The new income tax law will reduce the statutory tax rate from 2015 onwards and change the taxable income, resulting in shifting the focus to promoting private investment.
Resumo:
A presente dissertação tem como objetivo principal a implementação de uma arquitetura baseada em algoritmos evolutivos para a sintonização dos parâmetros do controlador PID (Proporcional-Integral-Derivativo) difuso, sendo o conceito de desempenho em malha fechada explicitamente tido em conta. A sintonização dos parâmetros do controlador difuso é realizada tendo em conta um problema de otimização com restrições, em que a função de custo a ser minimizada é descrita em termos do desempenho em malha fechada, com a dinâmica do sistema a ser aproximada por um modelo não linear. Como nas metodologias de otimização existentes, a incorporação de mecanismos de adaptação referentes às funções de pertença não é comum, na presente dissertação é tido em conta, para além da usual sintonização dos fatores de escala, a sintonização dos fatores de escala e funções de pertença em simultâneo. Os resultados experimentais realizados num sistema de referência, visam demonstrar os benefícios de incorporar as funções de pertença no processo de otimização em diferido. É também utilizado um método analítico de segunda ordem como referência, por forma a comparar o desempenho de uma abordagem de otimização global contra uma de otimização local. Finalmente é implementada uma abordagem em-linha, usando o método analítico de segunda ordem, na otimização dos fatores de escala e funções de pertença.
Resumo:
A presente dissertação tem como principais objetivos a otimização topológica de materiais compósitos de microestrutura periódica e a análise de efeitos de escala na caracterização das propriedades elásticas dos mesmos. No desenvolvimento deste trabalho, é abordada a teoria da homogeneização que é usualmente utilizada para estimar as propriedades elásticas de materiais compósitos periódicos de modo a tratar um meio heterogéneo como um meio homogéneo com propriedades mecânicas equivalentes. É realizada uma verificação e validação das hipóteses utilizadas por esta teoria, com o fim de determinar em que condições os resultados homogeneizados são credíveis e qual a margem de erro associada a esses mesmos resultados. O modelo de material aqui utilizado é obtido pela repetição de uma célula de base unitária (microestrutura representativa) em todas as direções espaciais. Trata-se de um modelo de material tridimensional de duas fases, sólido e vazio (material poroso). São estudadas diferentes topologias de microestruturas, obtidas através de um algoritmo de otimização topológica utilizando o método da homogeneização inversa. Para que fosse utilizada uma amostra suficientemente representativa de diferentes casos de anisotropia de material, foi utilizado um gerador de números aleatórios para reproduzir os estados de tensão ou deformação a serem utilizados no processo de otimização das microestruturas. Desta forma, é realizado um estudo quanto à anisotropia de material e a sua influência nas propriedades elásticas do material. O estudo de efeitos de escala toma uma grande importância neste trabalho, sendo estimados numericamente os tensores elásticos que caracterizam o material e estudada a sua convergência em relação aos tensores obtidos pelo método da homogeneização. Da mesma forma, é realizado um estudo numérico de convergência da densidade de energia de deformação e de tensão para diferentes condições de ensaios mecânicos. Os resultados indicam que um baixo fator de escala é suficiente para substituir um compósito heterogéneo por um material homogéneo com propriedades elásticas calculadas pela teoria da homogeneização.
Resumo:
Um dos maiores desafios da neurofisiologia é o de compreender a forma como a informação é transmitida através do sistema nervoso. O estudo do sistema nervoso tem várias aplicações, tanto na neurologia, permitindo avanços ao nível clínico, como noutras áreas, e.g., nos sistemas de processamento de informação baseados em redes neuronais. A transmissão de informação entre neurónios é feita por via de sinais elétricos. A compreensão deste fenómeno é ainda incompleta e há projectos a nível europeu e mundial com o objetivo de modular o sistema nervoso no seu todo de forma a melhor o compreender. Uma das teses que se desenvolve hoje em dia é a de que a transmissão de sinais elétricos no sistema nervoso é influenciada por fenómenos de sincronia. O objetivo desta dissertação é o de otimizar um protocolo de aquisição e análise de dados reais de eletroencefalograma e eletromiograma com o propósito de observar fenómenos de sincronia, baseando-se num algoritmo (análise por referência de fase, ou RPA, do inglês reference phase analysis) que deteta sincronias de fase entre os sinais de eletroencefalograma (EEG) e um sinal de referência, que é, no caso presente, o eletromiograma (EMG). A otimização deste protocolo e sua validação indicaram a existência de fenómenos significativos de sincronia no sinal elétrico, transmitido entre os músculos da mão e o córtex motor, no decorrer da ação motora.
Resumo:
Dados atuais da Organização Mundial da Saúde (OMS) sobre a prevalência global da perda auditiva, indicam que mais de 360 milhões de pessoas no mundo sofrem de perda auditiva incapacitante. Sendo esta uma deficiência sensorial que afeta a comunicação e o inter-relacionamento das pessoas é particularmente limitante na população idosa e nos primeiros anos de vida. Atualmente a ciência e a tecnologia permitem a reabilitação auditiva de forma muito aceitável. No entanto, quando se trata de crianças com surdez congénita, a re(h)abilitação tem que ser eficaz, sendo importante avaliar a perceção auditiva (se ouve, o que ouve, como ouve). Considerando que a re(h)abilitação deve iniciar-se o mais cedo possível, é importante ter instrumentos que permitam perceber realmente não só se ouve, o que se ouve, mas também como se ouve, ajustando os equipamentos a cada caso. A presente tese apresenta um estudo onde se utilizou o Eletroencefalograma (EEG) como instrumento de avaliação do efeito das próteses auditivas, em crianças com surdez congénita adaptadas proteticamente, numa perspetiva de Avaliação de Tecnologia. A utilização nos casos do estudo pretendeu comparar a variação dos sinais cerebrais obtidos no EEG efetuado quando a criança com e sem as próteses auditivas foi submetida a um estímulo sonoro, dando ideia sobre a funcionalidade das mesmas. A validação do EEG neste contexto, teria o potencial de ser associado à re(h)abilitação auditiva como rotina, contribuindo para a otimização da funcionalidade das próteses auditivas desde o primeiro momento da adaptação. Esta utilização seria útil não só nas crianças mas também noutras situações, nomeadamente em indivíduos impedidos de verbalizar as suas queixas (que sofreram AVC, com atraso cognitivo, demência, entre outros). A análise e interpretação dos sinais de EEG mostrou-se inesperadamente complexa, possivelmente devido a interferências de estímulos visuais e outras fontes de distração presentes no momento em que o EEG foi realizado, levando apenas a uma análise qualitativa do resultado: Verificou-se que o EEG pode ser utilizado mesmo nas pessoas que têm próteses auditivas; o sinal de EEG apresenta variação quando a criança tem ou não as próteses auditivas colocadas; mas não foi possível correlacionar a variação do sinal de EEG com o som produzido ou a capacidade de escutar através de um algoritmo de MATLAB (ou EEGLAB), simples e reprodutível. A perspetiva da Avaliação de Tecnologia acompanhou este estudo desde o início, orientando a identificação do problema e a pesquisa bibliográfica inicial, e prosseguindo ao longo de toda a tese, levando ao aprofundamento de cada tema e subtema pensado ou relacionado com o assunto em estudo. Mais do que avaliar, esta metodologia de Avaliação de Tecnologia permitiu construir um enquadramento científico, político e de saúde sobre a surdez congénita, quando estudada nos mais novos adaptados proteticamente, resultando numa sequência de secções e subsecções teóricas que constituem o state of the art atual e completo. Foi também a Avaliação de Tecnologia que evidenciou a importância que a avaliação do efeito das próteses auditivas possa ter na re(h)abilitação auditiva, apresentando pistas que poderão ser úteis na tomada de decisão sobre o tipo de próteses, sobre a forma mais eficaz de as adequar às necessidades do défice da criança com surdez congénita, realçando a atualidade e interesse crescente que a metodologia aqui apresentada vem suscitando entre investigadores, engenheiros, profissionais de saúde e cuidadores, em todo o mundo.
Resumo:
A imagem por tensor difusão (DTI) é uma extensão da imagem por ressonância magnética que permite a caraterização microestrutural dos tecidos, sendo um destes, os músculos esqueléticos. No entanto, dadas as grandes dimensões dos mesmos, a aquisição de volumes DTI deste tipo de tecidos é comumente realizada em mais que uma sessão. A não linearidade dos gradientes de codificação espacial e a presença de magnetizações parasitas levam a que ocorram distorções que impossibilitam, quando unidos, a continuação de volumes na sua transição. No mercado já existem sotwares que permitem estas correções, no entanto, o seu objetivo tem como fim estudos populacionais aplicados na neurologia, não estando preparados para o alinhamento e união de volumes contíguos. Ao recorrer a algoritmos aplicados nestes softwares, com a devida preparação, é possível garantir a continuidade de volumes. Um desses algoritmos, demons, foi aplicado em pontos de sobreposição de imagens de volumes contíguos. A transformada resultante deste algoritmo foi aplicado ao volume considerado a transformar e unido ao volume de referência. Mostra-se ser possível a aplicação destes algoritmos para a continuação de volumes, sendo observada a preservação da coerência anatómica das fibras quando comparadas aos grupos de controlo. Numa versão futura, recomenda-se a utilização de algoritmos mais robustos, que tomam partido da informação direcional que a imagem por tensor de difusão fornece.