1000 resultados para Atributos intrínsecos
Resumo:
Atualmente, são geradas enormes quantidades de dados que, na maior parte das vezes, não são devidamente analisados. Como tal, existe um fosso cada vez mais significativo entre os dados existentes e a quantidade de dados que é realmente analisada. Esta situação verifica-se com grande frequência na área da saúde. De forma a combater este problema foram criadas técnicas que permitem efetuar uma análise de grandes massas de dados, retirando padrões e conhecimento intrínseco dos dados. A área da saúde é um exemplo de uma área que cria enormes quantidades de dados diariamente, mas que na maior parte das vezes não é retirado conhecimento proveitoso dos mesmos. Este novo conhecimento poderia ajudar os profissionais de saúde a obter resposta para vários problemas. Esta dissertação pretende apresentar todo o processo de descoberta de conhecimento: análise dos dados, preparação dos dados, escolha dos atributos e dos algoritmos, aplicação de técnicas de mineração de dados (classificação, segmentação e regras de associação), escolha dos algoritmos (C5.0, CHAID, Kohonen, TwoSteps, K-means, Apriori) e avaliação dos modelos criados. O projeto baseia-se na metodologia CRISP-DM e foi desenvolvido com a ferramenta Clementine 12.0. O principal intuito deste projeto é retirar padrões e perfis de dadores que possam vir a contrair determinadas doenças (anemia, doenças renais, hepatite, entre outras) ou quais as doenças ou valores anormais de componentes sanguíneos que podem ser comuns entre os dadores.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
O ensino à distância cresceu consideravelmente nos últimos anos e a tendência é para que continue a crescer em anos vindouros. No entanto, enquanto que a maioria das plataformas de ensino à distância utilizam a mesma abordagem de ensino para todos os utilizadores, os estudantes que as usam são na realidade pessoas de diferentes culturas, locais, idades e géneros, e que possuem diferentes níveis de educação. Ao contrário do ensino à distância tradicional, os sistemas de hipermédia adaptativa educacional adaptam interface, apresentação de conteúdos e navegação, entre outros, às características, necessidades e interesses específicos de diferentes utilizadores. Apesar da investigação na área de sistemas de hipermédia adaptativa já estar bastante desenvolvida, é necessário efetuar mais desenvolvimento e experimentação de modo a determinar quais são os aspetos mais eficazes destes sistemas e avaliar o seu sucesso. A Plataforma de Aprendizagem Colaborativa da Matemática (PCMAT) é um sistema de hipermédia adaptativa educacional com uma abordagem construtivista, que foi desenvolvido com o objetivo de contribuir para a investigação na área de sistemas de hipermédia adaptativa. A plataforma avalia o conhecimento do utilizador e apresenta conteúdos e atividades adaptadas às características e estilo de aprendizagem dominante de estudantes de matemática do segundo ciclo. O desenvolvimento do PCMAT tem também o propósito de auxiliar os alunos Portugueses com a aprendizagem da matemática. De acordo com o estudo PISA 2012 da OCDE [OECD, 2014], o desempenho dos alunos Portugueses na área da matemática melhorou em relação à edição anterior do estudo, mas os resultados obtidos permanecem abaixo da média da OCDE. Por este motivo, uma das finalidades deste projeto é desenvolver um sistema de hipermédia adaptativa que, ao adequar o ensino da matemática às necessidades específicas de cada aluno, os assista com a aquisição de conhecimento. A adaptação é efetuada pelo sistema usando a informação constante no modelo do utilizador para definir um grafo de conceitos do domínio específico. Este grafo é adaptado do modelo do domínio e utilizado para dar resposta às necessidades particulares de cada aluno. Embora a trajetória inicial seja definida pelo professor, o percurso percorrido no grafo por cada aluno é determinado pela sua interação com o sistema, usando para o efeito a representação do conhecimento do aluno e outras características disponíveis no modelo do utilizador, assim como avaliação progressiva. A adaptação é conseguida através de alterações na apresentação de conteúdos e na estrutura e anotações das hiperligações. A apresentação de conteúdos é alterada mostrando ou ocultando cada um dos vários fragmentos que compõe as páginas dum curso. Estes fragmentos são compostos por diferentes objetos de aprendizagem, tais como exercícios, figuras, diagramas, etc. As mudanças efetuadas na estrutura e anotações das hiperligações têm o objetivo de guiar o estudante, apontando-o na direção do conhecimento mais relevante e mantendo-o afastado de informação inadequada. A escolha de objectos de aprendizagem adequados às características particulares de cada aluno é um aspecto essencial do modelo de adaptação do PCMAT. A plataforma inclui para esse propósito um módulo responsável pela recomendação de objectos de aprendizagem, e um módulo para a pesquisa e recuperação dos mesmos. O módulo de recomendação utiliza lógica Fuzzy para converter determinados atributos do aluno num conjunto de parâmetros que caracterizam o objecto de aprendizagem que idealmente deveria ser apresentado ao aluno. Uma vez que o objecto “ideal” poderá não existir no repositório de objectos de aprendizagem do sistema, esses parâmetros são utilizados pelo módulo de pesquisa e recuperação para procurar e devolver ao módulo de recomendação uma lista com os objectos que mais se assemelham ao objecto “ideal”. A pesquisa é feita numa árvore k-d usando o algoritmo k-vizinhos mais próximos. O modelo de recomendação utiliza a lista devolvida pelo módulo de pesquisa e recuperação para seleccionar o objecto de aprendizagem mais apropriado para o aluno e processa-o para inclusão numa das páginas Web do curso. O presente documento descreve o trabalho desenvolvido no âmbito do projeto PCMAT (PTDS/CED/108339/2008), dando relevância à adaptação de conteúdos.
Resumo:
Relatório de Estágio (Prática de Ensino Supervisionada) apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ensino de Filosofia no Ensino Secundário
Resumo:
Foram reunidos resultados de testes de precipitina feitos com o conteúdo do tubo digestivo de triatomineos. €ssas informações foram discutidas com base nas proporções de sangue de mamíferos e de ave, encontradas e em diversas observações relativas às espécies de vertebrados a que os triatomíneos estão associados na natureza. O estudo englobou as seguintes espécies: Belminus peruvianus, Panstrongylus geniculatus, Panstrongilus herreri, Panstrongylus megistus, Psammolestes tertius, Rhodnius neglectus, Rhodnius prolixus,Triatoma arthurneivai, Triatoma dimidiata,Triatoma infestans, Triatoma protracta, Triatoma rubrovaria e Triatoma sórdida. As seguintes conclusões puderam ser obtidas: 1 - As espécies que, nos biótopos artificiais, se alimentam principalmente de sangue humano, na natureza, são as mais ecléticas. Sugam mamífero, ave e animais de sangue-frio, mas apresentam marcada preferência por sangue de mamífero. 2 - As espécies que, nos biótopos artificiais, são encontradas com maior freqüência associadas a aves, na natureza ou preferem sangue de ave ou não tem predileção nítida por ave ou mamífero. 3 - As espécies associadas a animais de sangue frio ou restritas a um único grupo de mamíferos, podem colonizar nos domicílios desde que eles sejam previamente colonizados pelo hospedeiro. 4 - Não foram encontrados indícios de que alguma espécie esteja se adaptando aos domicílios. Todos os triatomineos ditos domiciliários já possuíam, na natureza, atributos que permitiam a vida em novos biótopos, habitados ou pelo homem ou por animais domésticos.
Resumo:
RESUMO - Contexto: O estudo da relação entre eficiência e efectividade é relevante na investigação dos serviços de saúde, pois pretende-se conhecer os mecanismos que ligam os recursos investidos na prestação aos resultados em saúde experienciados pelos doentes e decorrentes desses mesmos cuidados. Os objectivos definidos para este trabalho consistiram, genericamente, no estudo da efectividade e da eficiência dos cuidados prestados em internamento a uma doença em particular – a doença cerebrovascular – e da relação entre ambas, tanto ao nível do episódio como do hospital. Pretendia-se ainda conhecer a consistência destes resultados, nomeadamente de que forma a relação entre efectividade e eficiência era influenciada pelas características dos hospitais. Metodologia: Foram seguidas duas abordagens: (1) conhecer o impacte dos diferentes níveis de recursos investidos no tratamento (eficiência medida pelos custos) sobre os resultados ao nível da mortalidade; (2) estimar o montante de recursos (medidos pelos custos) associados ao tratamento das complicações potencialmente evitáveis. A análise foi realizada para os episódios de internamento de doença cerebrovascular com alta no período 2005/07. Usou-se a informação da base de dados dos resumos de alta, da contabilidade analítica e da Matriz de Maryland. O estudo considerou medidas de resultados – mortalidade, complicações e custos – e o desempenho foi avaliado a partir da comparação entre os valores observados e esperados. Para o ajustamento pelo risco recorreu-se ao Disease Staging recalibrado aos dados em estudo. Na primeira abordagem usou-se a regressão logística: a mortalidade medida pela efectividade constituiu a variável dependente; a eficiência medida pelos custos, os atributos do hospital e o ano as independentes. O modelo foi também testado em subconjuntos da população. Ao nível do hospital, foram definidos quartis de desempenho na efectividade medida pela mortalidade, analisando-se o comportamento da eficiência medida pelos custos em cada um deles. Estudou-se ainda a análise da correlação entre medidas e os hospitais nos extremos do desempenho. Na segunda abordagem, procedeu-se à comparação entre os custos dos doentes com complicações e sem complicações em doentes de gravidade semelhante. A análise foi realizada para o conjunto de todas as complicações, por tipo de complicação e por hospital. Resultados: Os principais resultados encontrados quanto ao impacte dos diferentes níveis de recursos investidos no tratamento (eficiência medida pelos custos) sobre os resultados ao nível da mortalidade indicaram que, ao nível do episódio, não existia uma relação geral entre eficiência e efectividade, pois o uso de mais recursos traduzia-se quer em melhores quer em piores resultados na mortalidade, quer na ausência de efeito sobre os mesmos, com resultados consistentes ao longo dos anos em estudo. Ao nível do hospital, as conclusões foram consistentes com o encontrado ao nível do episódio – o comportamento dos prestadores na eficiência foi distinto e não acompanhou o que apresentaram na efectividade. Relativamente à estimativa dos custos adicionais decorrentes de complicações dos cuidados, o custo de tratamento dos doentes com complicações foi entre 2,2 a 2,8 vezes o valor dos doentes sem complicações. Estes resultados foram consistentes com a análise por tipo de complicação e por hospital. Foi ainda de assinalar a grande disparidade na frequência de complicações entre hospitais. Conclusão: Os resultados encontrados mostram a importância de uma gestão criteriosa dos recursos actuais e adicionais dedicados à prestação de cuidados de saúde, uma vez que em algumas situações se verifica que o seu acréscimo não se traduz numa melhoria dos resultados em saúde estudados. Sugerem ainda um conjunto de matérias que deverão ser alvo de investigação futura, para conhecer em maior profundidade os mecanismos da relação entre eficiência e efectividade e identificar as circunstâncias em que é possível prosseguir na melhoria quer da eficiência quer da efectividade.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia de Materiais
Resumo:
Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Doutor em Qualidade Alimentar
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Gestão de Sistemas de E-Learning
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Estudos Sobre as Mulheres
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do grau de Mestre em Engenharia e Gestão Industrial
Resumo:
Dissertação para obtenção do Grau de Mestre em Tecnologia e Segurança Alimentar
Resumo:
RESUMO - Medidas efetivas de prevenção e controlo de infeção, assim como a sua aplicação diária e consistente, devem fazer parte da cultura de segurança dos profissionais de saúde para promover a excelência da prestação de cuidados. Também a identificação dos fatores de riscos individuais de infeção é crucial e indispensável para a adoção de medidas para a gestão desses mesmos riscos. A avaliação do risco pretende determinar a probabilidade que um doente tem de adquirir ou disseminar uma infeção hospitalar (IH) (WIRRAL, 2008) nas unidades de saúde. A avaliação deve ser efetuada na admissão do doente e, de forma periódica durante o internamento, usando uma grelha de avaliação, integrada no processo global de cuidados do doente. Efetuada a avaliação de risco individual, que pressupõe a identificação dos fatores de risco do doente (fatores de risco intrínsecos e extrínsecos) pode ser implementado um plano de cuidados individualizado para os gerir. Pretendeu-se com este estudo identificar os fatores de risco de infeção hospitalar do doente que estão presentes na admissão e/ou que podem surgir durante o seu internamento, para que posteriormente seja possível determinar as medidas de prevenção (gestão do risco) a aplicar individualmente. Foi realizado um estudo de caso-controlo com os doentes internados no Hospital dos Lusíadas em 2011 com o objetivo de, por um lado, determinar os fatores de risco individuais que contribuem para a aquisição da IH e, por outro, caraterizar os fatores de risco para uma futura identificação de possíveis medidas de prevenção e controlo da aquisição e transmissão cruzada da infeção hospitalar. A população em estudo foi constituída pelos doentes que foram internados, entre 1 de Janeiro e 31 de Dezembro de 2011 sendo os casos os doentes em que foi identificada a presença de infeção hospitalar através do programa institucional de vigilância epidemiológica das infeções, tendo os controlos sido selecionados numa razão de 3:1 caso. Foi utilizado um suporte estruturado para a colheita de dados, com a listagem de fatores de risco identificados na revisão bibliográfica e de todos os fatores de risco apresentados pelos doentes em estudo. Os fatores de risco identificados que apresentaram um maior significado estatístico foram: a idade acima dos 50 anos, o género masculino, a administração de antimicrobianos nas três semanas anteriores ao internamento, a colocação de cateter venoso central, a algaliação e, no caso dos doentes cirúrgicos, a cirurgia de urgência e a classificação ASA 3. Após a identificação dos fatores de risco da população estudada neste hospital, é agora possível utilizar a informação obtida e delinear investigações adicionais, objetivando a construção de instrumentos para a identificação de doentes com risco aumentado de infeção.
Resumo:
A avaliação de terras é o processo que permite estimar o uso potencial da terra com base em seus atributos. Grande variedade de modelos analíticos pode ser usada neste processo. No Brasil, os dois sistemas de avaliação das terras mais utilizados são o Sistema de Classificação da Capacidade de Uso da Terra e o Sistema FAO/Brasileiro de Aptidão Agrícola das Terras. Embora difiram em vários aspectos, ambos exigem o cruzamento de inúmeras variáveis ambientais. O ALES (Automated Land Evaluation System) é um programa de computador que permite construir sistemas especialistas para avaliação de terras. As entidades avaliadas pelo ALES são as unidades de mapeamento, as quais podem ser de caráter generalizado ou detalhado. A área objeto desta avaliação é composta pelas microrregiões de Chapecó e Xanxerê, no Oeste catarinense, e engloba 54 municípios. Os dados sobre os solos e sobre as características da paisagem foram obtidos no levantamento de reconhecimento dos solos do Estado, na escala de 1:250.000. O presente estudo desenvolveu o sistema especialista ATOSC (Avaliação das Terras do Oeste de Santa Catarina) e, na sua construção, incluiu-se a definição dos requerimentos dos tipos de utilização da terra, bem como foi feita a subsequente comparação destes com os atributos de cada unidade de mapeamento. Os tipos de utilização da terra considerados foram: feijão, milho, soja e trigo, em cultivos solteiros, sob condições de sequeiro e de manejo característicos destas culturas no Estado. As informações sobre os recursos naturais compreendem os atributos climáticos, de solos e das condições da paisagem que interferem na produção destas culturas. Para cada tipo de utilização da terra foram especificados, no ATOSC, o código, o nome e seus respectivos requerimentos de uso da terra. Os requerimentos de cada cultura foram definidos por uma combinação específica das características das terras selecionadas, que determina o nível de severidade de cada um deles em relação à cultura. Estabeleceram-se quatro níveis de severidade que indicam aumento do grau de limitação ou diminuição do potencial para determinado tipo de uso da terra, a saber: limitação nula ou ligeira (favorável); limitação moderada (moderadamente favorável), limitação forte (pouco favorável); e limitação muito forte (desfavorável). Na árvore de decisão, componente básico do sistema especialista, são implementadas as regras que permitirão o enquadramento das terras em classes de adequação definidas, baseado na qualidade dos requerimentos de acordo com o tipo de uso. O ATOSC facilitou o processo de comparação entre as características das terras das microrregiões de Chapecó e Xanxerê e os requerimentos de uso considerados, por permitir efetuar automaticamente a avaliação das terras, reduzindo, assim, o tempo gasto neste processo. As terras das microrregiões de Chapecó e Xanxerê foram enquadradas, em sua maior parte, nas classes de adequação pouco favorável (3) e desfavorável (4) para os cultivos considerados. Os principais fatores limitantes identificados nestas microrregiões foram a fertilidade natural e o risco de erosão, para o feijão e o milho, e condições de mecanização e risco de erosão, para a soja e o trigo.