1000 resultados para algoritmo calcolo taglie pazienti traiettorie Scout validazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma metodologia destinada a simular a morfologia e a porosidade de canais de areia em reservatórios fluviais. Como informação de partida utilizam-se um ou vários canais de areia de treino, em estrutura vectorial, que sejam representativos do reservatório, e leis de distribuição das dimensões largura e profundidade dos canais. Para a simulação da morfologia dos canais de areia, são calculados os ângulos azimutais de todos os segmentos de recta das linhas poligonais que constituem os canais de treino, a que se segue a codificação em classes de azimute e a determinação de estatísticas multiponto destas classes. Seguidamente, faz-se a simulação estocástica dos novos canais no volume do reservatório, ou seja, são geradas novas linhas poligonais condicionadas às estatísticas multiponto, a que se associam as dimensões largura e profundidade. Este algoritmo multiponto é muito eficiente, porque é a 1D, e contorna a problemática da variável azimute ser do tipo circular. A avaliação da porosidade é feita em simultâneo na conversão do modelo vectorial da morfologia dos canais de areia para o modelo matricial da malha de blocos do reservatório. Para cada bloco reservatório é contabilizada a proporção de não canal / canal e das fácies conforme um modelo conceptual de zonamento na secção do canal. A estimativa da porosidade média de cada bloco do reservatório é obtida pela soma do produto da proporção de cada fácies pela respectiva porosidade de referência. Para ilustrar as potencialidades da metodologia proposta apresenta-se um caso de estudo com dados sintéticos. De acordo com critérios geológicos e estratigráficos, consideraram-se quatro fácies na secção do canal que são discriminadas lateralmente e em profundidade por valores de referência de porosidade. O algoritmo de simulação morfológica capturou adequadamente a morfologia das imagens de treino e gerou várias imagens equiprováveis que depois foram convertidas em porosidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O paradigma de avaliação do ensino superior foi alterado em 2005 para ter em conta, para além do número de entradas, o número de alunos diplomados. Esta alteração pressiona as instituições académicas a melhorar o desempenho dos alunos. Um fenómeno perceptível ao analisar esse desempenho é que a performance registada não é nem uniforme nem constante ao longo da estadia do aluno no curso. Estas variações não estão a ser consideradas no esforço de melhorar o desempenho académico e surge motivação para detectar os diferentes perfis de desempenho e utilizar esse conhecimento para melhorar a o desempenho das instituições académicas. Este documento descreve o trabalho realizado no sentido de propor uma metodologia para detectar padrões de desempenho académico, num curso do ensino superior. Como ferramenta de análise são usadas técnicas de data mining, mais precisamente algoritmos de agrupamento. O caso de estudo para este trabalho é a população estudantil da licenciatura em Eng. Informática da FCT-UNL. Propõe-se dois modelos para o aluno, que servem de base para a análise. Um modelo analisa os alunos tendo em conta a sua performance num ano lectivo e o segundo analisa os alunos tendo em conta o seu percurso académico pelo curso, desde que entrou até se diplomar, transferir ou desistir. Esta análise é realizada recorrendo aos algoritmos de agrupamento: algoritmo aglomerativo hierárquico, k-means, SOM e SNN, entre outros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo principal a implementação de uma arquitetura baseada em algoritmos evolutivos para a sintonização dos parâmetros do controlador PID (Proporcional-Integral-Derivativo) difuso, sendo o conceito de desempenho em malha fechada explicitamente tido em conta. A sintonização dos parâmetros do controlador difuso é realizada tendo em conta um problema de otimização com restrições, em que a função de custo a ser minimizada é descrita em termos do desempenho em malha fechada, com a dinâmica do sistema a ser aproximada por um modelo não linear. Como nas metodologias de otimização existentes, a incorporação de mecanismos de adaptação referentes às funções de pertença não é comum, na presente dissertação é tido em conta, para além da usual sintonização dos fatores de escala, a sintonização dos fatores de escala e funções de pertença em simultâneo. Os resultados experimentais realizados num sistema de referência, visam demonstrar os benefícios de incorporar as funções de pertença no processo de otimização em diferido. É também utilizado um método analítico de segunda ordem como referência, por forma a comparar o desempenho de uma abordagem de otimização global contra uma de otimização local. Finalmente é implementada uma abordagem em-linha, usando o método analítico de segunda ordem, na otimização dos fatores de escala e funções de pertença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como principais objetivos a otimização topológica de materiais compósitos de microestrutura periódica e a análise de efeitos de escala na caracterização das propriedades elásticas dos mesmos. No desenvolvimento deste trabalho, é abordada a teoria da homogeneização que é usualmente utilizada para estimar as propriedades elásticas de materiais compósitos periódicos de modo a tratar um meio heterogéneo como um meio homogéneo com propriedades mecânicas equivalentes. É realizada uma verificação e validação das hipóteses utilizadas por esta teoria, com o fim de determinar em que condições os resultados homogeneizados são credíveis e qual a margem de erro associada a esses mesmos resultados. O modelo de material aqui utilizado é obtido pela repetição de uma célula de base unitária (microestrutura representativa) em todas as direções espaciais. Trata-se de um modelo de material tridimensional de duas fases, sólido e vazio (material poroso). São estudadas diferentes topologias de microestruturas, obtidas através de um algoritmo de otimização topológica utilizando o método da homogeneização inversa. Para que fosse utilizada uma amostra suficientemente representativa de diferentes casos de anisotropia de material, foi utilizado um gerador de números aleatórios para reproduzir os estados de tensão ou deformação a serem utilizados no processo de otimização das microestruturas. Desta forma, é realizado um estudo quanto à anisotropia de material e a sua influência nas propriedades elásticas do material. O estudo de efeitos de escala toma uma grande importância neste trabalho, sendo estimados numericamente os tensores elásticos que caracterizam o material e estudada a sua convergência em relação aos tensores obtidos pelo método da homogeneização. Da mesma forma, é realizado um estudo numérico de convergência da densidade de energia de deformação e de tensão para diferentes condições de ensaios mecânicos. Os resultados indicam que um baixo fator de escala é suficiente para substituir um compósito heterogéneo por um material homogéneo com propriedades elásticas calculadas pela teoria da homogeneização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos maiores desafios da neurofisiologia é o de compreender a forma como a informação é transmitida através do sistema nervoso. O estudo do sistema nervoso tem várias aplicações, tanto na neurologia, permitindo avanços ao nível clínico, como noutras áreas, e.g., nos sistemas de processamento de informação baseados em redes neuronais. A transmissão de informação entre neurónios é feita por via de sinais elétricos. A compreensão deste fenómeno é ainda incompleta e há projectos a nível europeu e mundial com o objetivo de modular o sistema nervoso no seu todo de forma a melhor o compreender. Uma das teses que se desenvolve hoje em dia é a de que a transmissão de sinais elétricos no sistema nervoso é influenciada por fenómenos de sincronia. O objetivo desta dissertação é o de otimizar um protocolo de aquisição e análise de dados reais de eletroencefalograma e eletromiograma com o propósito de observar fenómenos de sincronia, baseando-se num algoritmo (análise por referência de fase, ou RPA, do inglês reference phase analysis) que deteta sincronias de fase entre os sinais de eletroencefalograma (EEG) e um sinal de referência, que é, no caso presente, o eletromiograma (EMG). A otimização deste protocolo e sua validação indicaram a existência de fenómenos significativos de sincronia no sinal elétrico, transmitido entre os músculos da mão e o córtex motor, no decorrer da ação motora.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados atuais da Organização Mundial da Saúde (OMS) sobre a prevalência global da perda auditiva, indicam que mais de 360 milhões de pessoas no mundo sofrem de perda auditiva incapacitante. Sendo esta uma deficiência sensorial que afeta a comunicação e o inter-relacionamento das pessoas é particularmente limitante na população idosa e nos primeiros anos de vida. Atualmente a ciência e a tecnologia permitem a reabilitação auditiva de forma muito aceitável. No entanto, quando se trata de crianças com surdez congénita, a re(h)abilitação tem que ser eficaz, sendo importante avaliar a perceção auditiva (se ouve, o que ouve, como ouve). Considerando que a re(h)abilitação deve iniciar-se o mais cedo possível, é importante ter instrumentos que permitam perceber realmente não só se ouve, o que se ouve, mas também como se ouve, ajustando os equipamentos a cada caso. A presente tese apresenta um estudo onde se utilizou o Eletroencefalograma (EEG) como instrumento de avaliação do efeito das próteses auditivas, em crianças com surdez congénita adaptadas proteticamente, numa perspetiva de Avaliação de Tecnologia. A utilização nos casos do estudo pretendeu comparar a variação dos sinais cerebrais obtidos no EEG efetuado quando a criança com e sem as próteses auditivas foi submetida a um estímulo sonoro, dando ideia sobre a funcionalidade das mesmas. A validação do EEG neste contexto, teria o potencial de ser associado à re(h)abilitação auditiva como rotina, contribuindo para a otimização da funcionalidade das próteses auditivas desde o primeiro momento da adaptação. Esta utilização seria útil não só nas crianças mas também noutras situações, nomeadamente em indivíduos impedidos de verbalizar as suas queixas (que sofreram AVC, com atraso cognitivo, demência, entre outros). A análise e interpretação dos sinais de EEG mostrou-se inesperadamente complexa, possivelmente devido a interferências de estímulos visuais e outras fontes de distração presentes no momento em que o EEG foi realizado, levando apenas a uma análise qualitativa do resultado: Verificou-se que o EEG pode ser utilizado mesmo nas pessoas que têm próteses auditivas; o sinal de EEG apresenta variação quando a criança tem ou não as próteses auditivas colocadas; mas não foi possível correlacionar a variação do sinal de EEG com o som produzido ou a capacidade de escutar através de um algoritmo de MATLAB (ou EEGLAB), simples e reprodutível. A perspetiva da Avaliação de Tecnologia acompanhou este estudo desde o início, orientando a identificação do problema e a pesquisa bibliográfica inicial, e prosseguindo ao longo de toda a tese, levando ao aprofundamento de cada tema e subtema pensado ou relacionado com o assunto em estudo. Mais do que avaliar, esta metodologia de Avaliação de Tecnologia permitiu construir um enquadramento científico, político e de saúde sobre a surdez congénita, quando estudada nos mais novos adaptados proteticamente, resultando numa sequência de secções e subsecções teóricas que constituem o state of the art atual e completo. Foi também a Avaliação de Tecnologia que evidenciou a importância que a avaliação do efeito das próteses auditivas possa ter na re(h)abilitação auditiva, apresentando pistas que poderão ser úteis na tomada de decisão sobre o tipo de próteses, sobre a forma mais eficaz de as adequar às necessidades do défice da criança com surdez congénita, realçando a atualidade e interesse crescente que a metodologia aqui apresentada vem suscitando entre investigadores, engenheiros, profissionais de saúde e cuidadores, em todo o mundo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A imagem por tensor difusão (DTI) é uma extensão da imagem por ressonância magnética que permite a caraterização microestrutural dos tecidos, sendo um destes, os músculos esqueléticos. No entanto, dadas as grandes dimensões dos mesmos, a aquisição de volumes DTI deste tipo de tecidos é comumente realizada em mais que uma sessão. A não linearidade dos gradientes de codificação espacial e a presença de magnetizações parasitas levam a que ocorram distorções que impossibilitam, quando unidos, a continuação de volumes na sua transição. No mercado já existem sotwares que permitem estas correções, no entanto, o seu objetivo tem como fim estudos populacionais aplicados na neurologia, não estando preparados para o alinhamento e união de volumes contíguos. Ao recorrer a algoritmos aplicados nestes softwares, com a devida preparação, é possível garantir a continuidade de volumes. Um desses algoritmos, demons, foi aplicado em pontos de sobreposição de imagens de volumes contíguos. A transformada resultante deste algoritmo foi aplicado ao volume considerado a transformar e unido ao volume de referência. Mostra-se ser possível a aplicação destes algoritmos para a continuação de volumes, sendo observada a preservação da coerência anatómica das fibras quando comparadas aos grupos de controlo. Numa versão futura, recomenda-se a utilização de algoritmos mais robustos, que tomam partido da informação direcional que a imagem por tensor de difusão fornece.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A espectroscopia de fotoelectrões de raios-X (XPS - X-ray Photoelectron Spectroscopy)é uma das técnicas de análise de superfícies mais importantes e mais usadas em diversasáreas científico-tecnológicas e industriais. Com ela é possível determinar quantitativa equalitativamente a composição elementar e a composição química aproximada, respectivamente,e estrutura electrónica dos elementos presentes para diferentes tipos de materiais. O laboratório de ciência de superfícies do Departamento de Física da FCT-UNL encontra-se equipado com um sistema de ultra-alto vácuo Kratos XSAM 800 contendo a instrumentação necessária para se realizar XPS. No entanto, o equipamento precisava de uma requalificação. O controlo e aquisição de dados do espectrómetro era feito por um computador PDP11 de 16-bits que actualmente não é comercializado e não tem qualquer suporte técnico por parte do fabricante. Foi substituído por um computador moderno e por uma placa genérica de aquisição de dados. Para que a análise quantitativa pela técnica de XPS seja precisa, é necesssário fazer a caracterização do sistema. Isso implica o conhecimento de parâmetros como a função de transmissão do espectrómetro e a linearidade da resposta do sistema de detecção. Foi feito um estudo da linearidade da resposta do sistema de detecção e determinou-se experimentalmente a função de transmissão do espectrómetro. Os resultados obtidos para a função de transmissão mostraram estar qualitativamente de acordo com os resultados obtidos por outros na literatura. A transmissão da coluna óptica do analisador de energia de electrões foi posteriormente submetida a um processo de optimização, através da implementação de um algoritmo evolutivo diferencial para optimização de funções, recorrendo a linguagem de programação gráfica LabVIEWTM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO - Introdução: Os modelos organizacionais de saúde baseados na gestão integrada de cuidados têm permitido melhorar os resultados em saúde. A taxa de readmissão hospitalar (um indicador de resultados) tem diminuído nas instituições que adotaram aquele modelo de gestão. Em Portugal, a criação das Unidades Locais de Saúde, representa a adoção de um modelo baseado na gestão integrada entre os cuidados de saúde hospitalares, primários e continuados, pelo que importa comparar a taxa de readmissões hospitalares entre os hospitais com esse modelo e os restantes Hospitais. Metodologia: Determinaram-se as readmissões não planeadas a 30 dias nos hospitais públicos portugueses do Continente durante 2013, segundo a metodologia do Centers for Medicare and Medicaid Service, que usa um algoritmo que identifica as readmissões que são habitualmente planeadas e podem ocorrer no prazo de 30 dias após a alta hospitalar. Foi calculada a taxa anual de readmissão por tipo de hospital e a sua frequência por género, faixa etária e para indivíduos com insuficiência cardíaca, doença pulmonar obstrutiva crónica, diabetes mellitus e hipertensão arterial. Resultados: Dos 692.211 episódios de internamento de 2013, 6,0% corresponderam a readmissões hospitalares não planeadas a 30 dias. Os episódios de internamento nas Unidades Locais de Saúde foram 72.725, sendo 6,6% readmitidos. Nos restantes Hospitais foram 619.486, sendo 6,0% readmitidos. A taxa de readmissão registada nos indivíduos do sexo masculino foi superior à do sexo feminino nas Unidades Locais de Saúde (7,6% vs. 6,0%) e nos restantes Hospitais (6,7% vs. 5,4%), não sendo esta diferença estatisticamente significativa (p> 0,05). Foram identificadas diferenças estatisticamente significativas (p <0,05) nas taxas de readmissão por faixa etária, sendo as pessoas com 65 anos ou mais as que apresentaram a maior taxa de readmissão nas Unidades Locais de Saúde (10,3%) e nos restantes Hospitais (10,0%). Quando analisadas as readmissões por patologia, nas Unidades Locais de Saúde os doentes com doença pulmonar obstrutiva crónica foram os que apresentaram a maior taxa de readmissão (17,5%) e os doentes com insuficiência cardíaca os que apresentaram a maior taxa de readmissão para os restantes Hospitais (16,4%). Conclusão: Em termos gerais, a frequência das readmissões nas Unidades Locais de Saúde é superior à dos restantes Hospitais. Os resultados obtidos podem indicar dificuldades na operacionalização do modelo de gestão adotado pelas Unidades Locais de Saúde, nomeadamente falhas na coordenação dos cuidados entre os diferentes níveis de prestação de cuidados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: A infeção é frequente durante a doença crítica, quer como causa da doença crítica quer como complicação da sua evolução. Paradoxalmente, os avanços da medicina moderna aumentaram eles próprios o risco de infeção, ao permitir a sobrevida até idades avançadas, ao criar um novo grupo de doentes imunodeprimidos, nomeadamente doentes tratados com fármacos que interferem com as suas defesas naturais (corticóides, citostáticos), ao aumentar o tempo de vida de hospedeiros com comorbilidades debilitantes. Os antibióticos são um dos elos essenciais no tratamento da infeção. Contudo o seu uso também promove a seleção e crescimento de bactérias resistentes. Para além disso as doses convencionais de antibióticos foram selecionadas numa altura em que a resistência era um fenómeno raro e podem não ser atualmente as mais adequadas. Existe hoje muita evidência acumulada que os doentes críticos sofrem alterações da sua farmacocinética (PK) que podem facilitar a ocorrência de falência terapêutica ou de toxicidade tanto por sub como por sobredosagem de antibióticos. Essas alterações são complexas e difíceis de estudar. Finalmente, também a farmacodinâmica (PD) dos antibióticos pode estar alterada nesta população, podendo haver necessidade de ajustar os alvos terapêuticos de forma individual. O objetivo deste trabalho foi investigar a relação entre a terapêutica antibiótica, as suas características PK e PD, a carga bacteriana e o prognóstico dos doentes críticos. O plano de investigação incluiu: 1. Dados da epidemiologia portuguesa de doentes críticos com infeção; 2. Avaliação da relação entre a carga bacteriana, o tempo até ao início do tratamento antibiótico e o prognóstico dos doentes críticos; 3. Avaliação da evolução da PK durante o tratamento da infeção; 4. Um estudo multicêntrico para avaliação da eficácia da terapêutica com um β- lactâmico doseado de acordo com a relação PK/PD. Na introdução é descrita a importância dos antibióticos, a sua origem e o problema crescente das resistências bacterianas relacionadas com o seu emprego e abuso. É salientada a importância de racionalizar a posologia, de acordo com os conceitos de PK e de PD. No Capítulo 1 são apresentados dados de epidemiologia portuguesa de infeção em doentes críticos, sobretudo retirados de dois estudos prospetivos, observacionais, os quais incluíram mais de 50% da capacidade de internamento em cuidados intensivos existente em Portugal. No Capítulo 2 são descritos os conceitos de PK e as suas alterações nos doentes críticos. De seguida são revistos os conceitos de PD de antibióticos e a sua aplicação a esta população, em particular durante as infeções graves (Capítulo 3). Nos capítulos seguintes são aprofundadas estas alterações da PK nos doentes críticos e as suas causas, de forma a destacar a importância da monitorização da concentração dos antibióticos. São apresentados os dados duma revisão sistemática de PK de antibóticos nesta população (Capítulo 4), pormenorizadas as alterações da PD que comprometem a eficácia da terapêutica antibiótica, facilitam o desenvolvimento de resistências e podem levar a falência terapêutica (Capítulo 5). Consequentemente a compreensão global destas alterações, da sua relevância clínica e a revisão da evidência disponível facilitou o desenvolvimento do próprio plano global de investigação (Capítulos 6 e 7). No Capítulo 6.1 são descritos os antibióticos tempo-dependente e a importância de aumentar o seu tempo de perfusão. Foi desenhado um estudo multicêntrico para comparar a eficácia e segurança da perfusão contínua da piperacilina tazobactam (um antibiótico β-lactâmico associado a um inibidor de β-lactamases) com a mesma dose do antibiótico, administrado em dose convencional, intermitente. A importância de dosear corretamente os antibióticos concentração-dependente foi também avaliada num estudo a primeira dose dos aminoglicosídeos (Capítulo 6.2). Outras estratégias para melhorar os resultados assistenciais dos doentes infetados são abordadas no Capítulo 7, em particular a importância da terapêutica antibiótica precoce, a avaliação da carga bacteriana e a compreensão da variação da PK ao longo do tratamento da infeção. Foi desenvolvido um algoritmo de abordagem terapêutica que incluiu estas alterações da PK e da PD nos doentes críticos. Finalmente no Capítulo 8 são descritos mecanismos de desenvolvimento das resistências bacterianas bem como estratégias para a sua abordagem. O Capítulo final (Capítulo 9) aponta um plano para futuras áreas de trabalho. O elemento chave identificado neste trabalho de investigação é o reconhecimento da variabilidade significativa da PK dos antibióticos durante a doença crítica, a qual condiciona a sua posologia. Estas alterações estão relacionadas com a própria gravidade da doença e tendem a diminuir ao longo do seu tratamento. No entanto nem a gravidade da doença nem as características individuais as permitem prever de forma aceitável pelo que a utilização duma posologia universal, independente da situação clínica concreta, pode ser inadequada. As estratégias para melhorar os resultados assistenciais dos doentes críticos infetados devem ser baseadas na individualização da posologia antibiótica de acordo com os princípios da PK e da PD, preferencialmente apoiadas em doseamentos da sua concentração. ------------------------------------ ABSTRACT: Infection commonly occurred during critical illness, either as a cause or complicating the course of the disease. Advances in medicine had paradoxically increase the risk of infection, both by improving survival to older ages and by introducing a new group of immunosuppressed patients, those who are treated with drugs that interfere with their natural defenses (corticosteroids, cytostatics) and those who survived longer with aggressive diseases. Antibiotics are of paramount importance for treating infection. However the use of these drugs also promote the selection and growth of resistant bacteria. Furthermore conventional antibiotic doses were calculated for less severe patients during a time when resistance was rare. Nowadays there is increasing evidence that critically ill patients experiment altered pharmacokinetics (PK) that may lead to therapeutic failure and/or drug toxicity. Equally, such PK alterations are complex and challenging to investigate. Finally pharmacodynamics (PD) may also be different in this population and antibiotic targets may need to be tailored to the individual patient. The aim of this research was to investigate the relationship between antibiotic therapy, its PK and PD, bacterial burden and critically ill patients outcomes. The research plan comprised of: 1. Epidemiological portuguese data of critically ill infected patients; 2. Relationship between burden of bacteria, time until the start of antibiotics and patient outcomes; 3. Evaluation of PK during treatment of infection; 4. A multicentre study evaluating PK guided β-lactam therapy. The introductory chapter outlines the importance of antibiotics, its origins, the problem of increasing bacteria resistance, related to its use and overuse and the importance of rational drug dosing using PK and PD concepts. In Chapter 1 portuguese epidemiological data of infections in critically ill patients is presented, mostly coming from two prospective observational studies, encompassing more than 50% of critically ill beds available in Portugal. Chapter 2 describes the concepts of PK and the changes occurring in critically ill patients. This is followed by a review of the concepts of PD of antibiotics and its application to this population, especially during severe infections (Chapter 3). In the following chapter these changes in antibiotics PK in critical illness are and its causes are detailed, to outline the importance of therapeutic drug monitoring. Data on a systematic review of antibiotics PK in those patients is provided (Chapter 4). The following chapter (Chapter 5) elucidates important changes in PD, that compromises antibiotic therapy, facilitate the occurrence of resistance and may lead to therapeutic failure. Thus, an understanding of the clinical problem and available evidence facilitated the development of a comprehensive research plan (Chapter 6 and Chapter 7). Chapter 6.1 describes time-dependent antibiotics and the importance of extending its perfusion time. A multicenter study was designed to compare the continuous infusion of piperacillin tazobactam (a β-lactam antibiotic) with the same daily dose, prescribed in a conventional, intermittent dose. The importance of correct dosing of antibiotics was also assessed through a study addressing aminoglycoside (a concentration-dependent antibiotic) therapy (Chapter 6.2), focusing on its first dose. Strategies to improve severe infected patients outcomes were addressed in Chapter 7, namely the importance of early antibiotic therapy, assessing the burden of bacteria and understanding changes in antibiotic concentration during the course of infection. An algorithm to include all the described changes in both PK and PD of critically ill patients was developed. Finally in Chapter 8 mechanisms of the increasing resistance of bacteria are described and strategies to address that problem are proposed. The closing chapter (Chapter 9) lays a roadmap for future work. The key finding of this research is the significant variability of the antibiotics PK during critical illness, which makes dosing a challenging issue. These changes are related to the severity of the infection itself and improve through the course of the disease. However neither disease severity nor individual characteristics are useful to predict PK changes. Therefore, the use of a universal dose approach, regardless of the individual patient, may not be the best approach. Strategies to improve patients’ outcomes should be based on tailoring antibiotics to the individual patient, according to PK and PD principles, preferentially supported by therapeutic drug monitoring.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cada vez mais a preocupação ambiental tem ditado o rumo das abordagens escolhidas nas mais variadas áreas, quer pela redução de desperdícios, quer pelo aumento da eficiência dos mais diversos processos. Quando olhamos para os consumos energéticos a nível mundial os edifícios são responsáveis por uma grande fatia destes consumos fazendo deles um dos grande ponto de interesse para implementação de sistemas que visem diminuir os consumos, permitindo assim tentar alcançar um equilíbrio sustentável entre o meio ambiente e o nosso conforto. A variável humana tem-se mostrado cada vez mais importante no desenvolvimento de ferramentas que venham permitir alcançar este objetivo, quer por via de reduções nos consumos através da remoção dos fatores de desperdício de energia, quer pelo aumento de eficiência dos sistemas utilizados nas habitações, desde a iluminação à climatização. É então importante poder ter formas de conhecer qual o comportamento humano no edifício para que possam ser criadas abordagens cada vez mais eficientes e que possam contar com melhores variáveis de entrada aumentado assim, ainda mais o seu desempenho. Na presente dissertação será feito o estudo da validade do uso do dióxido de carbono como variável de inferência para o nível de ocupação das várias divisões de um edifício de habitação. Para tal implementou-se um sistema de análise dos valores de dióxido de carbono da habitação através de módulos sem fios colocados em locais estratégicos que fornecerão informação ao algoritmo para que possa ser criado um mapa de ocupação. O dióxido de carbono mostrou-se capaz de fornecer informação da ocupação no entanto apresentando uma incerteza moderada devido a fatores como os deslocamentos de ar na habitação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta uma metodologia original para simular a morfologia e as propriedades petrofísicas de reservatórios de hidrocarbonetos em sistemas de canais turbidíticos. Estes sistemas são constituídos por complexos, ou seja, conjuntos de canais de arquitetura meandriforme, e são considerados importantes alvos para a indústria petrolífera. A simulação da morfologia divide-se em duas partes, primeiramente é simulada a trajetória do complexo e depois são simuladas as trajetórias dos canais propriamente ditos condicionadas à trajetória do complexo. O algoritmo de simulação utiliza as classes de ângulos azimutais de linhas poligonais de treino como uma variável aleatória. As trajetórias são simuladas também como linhas poligonais, condicionais a estatísticas multiponto das trajetórias de treino e a pontos de controlo. As estatísticas multiponto são organizadas em árvore, que guarda sequências de classes de orientação que ocorrem na trajetória de treino e as respetivas probabilidades de ocorrência. Para avaliar as propriedades petrofísicas, o modelo morfológico das trajetórias é convertido para uma malha de blocos de alta resolução, identificando-se, em cada bloco, a fácies preponderante de acordo com um modelo conceptual de zonamento da secção dos canais. A conversão prioriza os canais mais recentes (do topo) sobre os mais antigos (da base). A cada fácies é associada uma lei de distribuição da porosidade e permeabilidade, assim são geradas imagens destas propriedades petrofísicas por Simulação Sequencial Direta com histogramas locais. Finalmente, o número de blocos da malha é reduzido por upscaling e as simulações são ordenadas para poderem ser utilizadas nos simuladores de fluxo. Para ilustrar a metodologia, utilizaram-se imagens de sísmica 3D de um reservatório turbidítico na Bacia do Baixo Congo para extrair leis de distribuição das dimensões dos canais e trajetórias de treino. Os resultados representam corretamente a arquitetura complexa destes sistemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, com a massificação da utilização das redes sociais, as empresas passam a sua mensagem nos seus canais de comunicação, mas os consumidores dão a sua opinião sobre ela. Argumentam, opinam, criticam (Nardi, Schiano, Gumbrecht, & Swartz, 2004). Positiva ou negativamente. Neste contexto o Text Mining surge como uma abordagem interessante para a resposta à necessidade de obter conhecimento a partir dos dados existentes. Neste trabalho utilizámos um algoritmo de Clustering hierárquico com o objectivo de descobrir temas distintos num conjunto de tweets obtidos ao longo de um determinado período de tempo para as empresas Burger King e McDonald’s. Com o intuito de compreender o sentimento associado a estes temas foi feita uma análise de sentimentos a cada tema encontrado, utilizando um algoritmo Bag-of-Words. Concluiu-se que o algoritmo de Clustering foi capaz de encontrar temas através do tweets obtidos, essencialmente ligados a produtos e serviços comercializados pelas empresas. O algoritmo de Sentiment Analysis atribuiu um sentimento a esses temas, permitindo compreender de entre os produtos/serviços identificados quais os que obtiveram uma polaridade positiva ou negativa, e deste modo sinalizar potencias situações problemáticas na estratégia das empresas, e situações positivas passíveis de identificação de decisões operacionais bem-sucedidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recaí sob a responsabilidade da Marinha Portuguesa a gestão da Zona Económica Exclusiva de Portugal, assegurando a sua segurança da mesma face a atividades criminosas. Para auxiliar a tarefa, é utilizado o sistema Oversee, utilizado para monitorizar a posição de todas as embarcações presentes na área afeta, permitindo a rápida intervenção da Marinha Portuguesa quando e onde necessário. No entanto, o sistema necessita de transmissões periódicas constantes originadas nas embarcações para operar corretamente – casos as transmissões sejam interrompidas, deliberada ou acidentalmente, o sistema deixa de conseguir localizar embarcações, dificultando a intervenção da Marinha. A fim de colmatar esta falha, é proposto adicionar ao sistema Oversee a capacidade de prever as posições futuras de uma embarcação com base no seu trajeto até à cessação das transmissões. Tendo em conta os grandes volumes de dados gerados pelo sistema (históricos de posições), a área de Inteligência Artificial apresenta uma possível solução para este problema. Atendendo às necessidades de resposta rápida do problema abordado, o algoritmo de Geometric Semantic Genetic Programming baseado em referências de Vanneschi et al. apresenta-se como uma possível solução, tendo já produzido bons resultados em problemas semelhantes. O presente trabalho de tese pretende integrar o algoritmo de Geometric Semantic Genetic Programming desenvolvido com o sistema Oversee, a fim de lhe conceder capacidades preditivas. Adicionalmente, será realizado um processo de análise de desempenho a fim de determinar qual a ideal parametrização do algoritmo. Pretende-se com esta tese fornecer à Marinha Portuguesa uma ferramenta capaz de auxiliar o controlo da Zona Económica Exclusiva Portuguesa, permitindo a correta intervenção da Marinha em casos onde o atual sistema não conseguiria determinar a correta posição da embarcação em questão.