1000 resultados para Modelos bayesianos hierárquicos espaço-temporais
Resumo:
A instalação de sistemas de videovigilância, no interior ou exterior, em locais como aeroportos, centros comerciais, escritórios, edifícios estatais, bases militares ou casas privadas tem o intuito de auxiliar na tarefa de monitorização do local contra eventuais intrusos. Com estes sistemas é possível realizar a detecção e o seguimento das pessoas que se encontram no ambiente local, tornando a monitorização mais eficiente. Neste contexto, as imagens típicas (imagem natural e imagem infravermelha) são utilizadas para extrair informação dos objectos detectados e que irão ser seguidos. Contudo, as imagens convencionais são afectadas por condições ambientais adversas como o nível de luminosidade existente no local (luzes muito fortes ou escuridão total), a presença de chuva, de nevoeiro ou de fumo que dificultam a tarefa de monitorização das pessoas. Deste modo, tornou‐se necessário realizar estudos e apresentar soluções que aumentem a eficácia dos sistemas de videovigilância quando sujeitos a condições ambientais adversas, ou seja, em ambientes não controlados, sendo uma das soluções a utilização de imagens termográficas nos sistemas de videovigilância. Neste documento são apresentadas algumas das características das câmaras e imagens termográficas, assim como uma caracterização de cenários de vigilância. Em seguida, são apresentados resultados provenientes de um algoritmo que permite realizar a segmentação de pessoas utilizando imagens termográficas. O maior foco desta dissertação foi na análise dos modelos de descrição (Histograma de Cor, HOG, SIFT, SURF) para determinar o desempenho dos modelos em três casos: distinguir entre uma pessoa e um carro; distinguir entre duas pessoas distintas e determinar que é a mesma pessoa ao longo de uma sequência. De uma forma sucinta pretendeu‐se, com este estudo, contribuir para uma melhoria dos algoritmos de detecção e seguimento de objectos em sequências de vídeo de imagens termográficas. No final, através de uma análise dos resultados provenientes dos modelos de descrição, serão retiradas conclusões que servirão de indicação sobre qual o modelo que melhor permite discriminar entre objectos nas imagens termográficas.
Resumo:
Fórum Internacional de Pedagogia (FIPED V): "À Descoberta da Investigação", Angra do Heroísmo, Universidade dos Açores, 17 e 18 de abril de 2015.
Resumo:
Mestrado em Controlo e Gestão e dos Negócios
Resumo:
Dissertação de Mestrado, Gestão de Empresas (MBA), 19 de Fevereiro de 2016, Universidade dos Açores.
Resumo:
Dissertação de Mestrado, Gestão de Empresas (MBA), 19 de Fevereiro de 2016, Universidade dos Açores.
Resumo:
Mestrado em Contabilidade Internacional
Resumo:
A educação é uma área bastante importante no desenvolvimento humano e tem vindo a adaptar-se às novas tecnologias. Tentam-se encontrar novas maneiras de ensinar de modo a obter um rendimento cada vez maior na aprendizagem das pessoas. Com o aparecimento de novas tecnologias como os computadores e a Internet, a concepção de aplicações digitais educativas cresceu e a necessidade de instruir cada vez melhor os alunos leva a que estas aplicações precisem de um interface que consiga leccionar de uma maneira rápida e eficiente. A combinação entre o ensino com o auxílio dessas novas tecnologias e a educação à distância deu origem ao e-Learning (ensino à distância). Através do ensino à distância, as possibilidades de aumento de conhecimento dos alunos aumentaram e a informação necessária tornou-se disponível a qualquer hora em qualquer lugar com acesso à Internet. Mas os cursos criados online tinham custos altos e levavam muito tempo a preparar o que gerou um problema para quem os criava. Para recuperar o investimento realizado decidiu-se dividir os conteúdos em módulos capazes de serem reaproveitados em diferentes contextos e diferentes tipos de utilizadores. Estes conteúdos modulares foram denominados Objectos de Aprendizagem. Nesta tese, é abordado o estudo dos Objectos de Aprendizagem e a sua evolução ao longo dos tempos em termos de interface com o utilizador. A concepção de um interface que seja natural e simples de utilizar nem sempre é fácil e independentemente do contexto em que se insere, requer algum conhecimento de regras que façam com que o utilizador que use determinada aplicação consiga trabalhar com um mínimo de desempenho. Na concepção de Objectos de Aprendizagem, áreas de complexidade elevada como a Medicina levam a que professores ou doutores sintam alguma dificuldade em criar um interface com conteúdos educativos capaz de ensinar com eficiência os alunos, devido ao facto de grande parte deles desconhecerem as técnicas e regras que levam ao desenvolvimento de um interface de uma aplicação. Através do estudo dessas regras e estilos de interacção torna-se mais fácil a criação de um bom interface e ao longo desta tese será estudado e proposto uma ferramenta que ajude tanto na criação de Objectos de Aprendizagem como na concepção do respectivo interface.
Resumo:
Este trabalho baseia-se num caso de estudo real de planeamento de operações de armazenagem num silo rural de cereais, e enquadra-se nos problemas de planeamento e programação de armazéns. Os programadores deparam-se diariamente com o problema de arranjar a melhor solução de transferência entre células de armazenagem, tentando maximizar o número de células vazias, por forma a ter maior capacidade para receber novos lotes, respeitando as restrições de receção e expedição, e as restrições de capacidade das linhas de transporte. Foi desenvolvido um modelo matemático de programação linear inteira mista e uma aplicação em Excel, com recurso ao VBA, para a sua implementação. Esta implementação abrangeu todo o processo relativo à atividade em causa, isto é, vai desde a recolha de dados, seu tratamento e análise, até à solução final de distribuição dos vários produtos pelas várias células. Os resultados obtidos mostram que o modelo otimiza o número de células vazias, tendo em conta os produtos que estão armazenados mais os que estão para ser rececionados e expedidos, em tempo computacional inferior a 60 segundos, constituindo, assim, uma importante mais valia para a empresa em causa.
Resumo:
Nos tempos que correm assistimos a alguma volatilidade e incerteza quanto à evolução das taxas de juro. As alterações nas taxas de juro podem afectar o resultado e a situação líquida das empresas. O risco da taxa de juro pode ser controlado através de diversos modelos. Os modelos mais usuais de gestão do risco baseiam-se nos diferenciais de fundos (GAP), diferenciais de duração, valor em risco (VaR) e simulação estática e dinâmica que são apresentados de forma sequencial nesta obra. Modelos para a Determinação do Risco da Taxa de Juro é uma obra de grande utilidade para os profissionais e técnicos das instituições de crédito e sociedades financeiras para além dos gestores de empresa responsáveis pelos departamentos financeiros, consultores financeiros e para todos aqueles que se interessam por temas relacionados com teoria financeira. O autor, Eduardo Manuel Lopes de Sá e Silva é doutorado em Ciências Económicas e Empresariais, pela Universidade da Corunha, Espanha, licenciado e mestre em Economia pela Faculdade de Economia da Universidade do Porto. Exerce funções de docente no Instituto Superior de Contabilidade e Administração do Porto e é coordenador do Curso de Especialização em Contabilidade e Fiscalidade que conta com o apoio da Câmara dos Técnicos Oficiais de Contas. Igualmente exerce as funções de técnico oficial de contas, revisor oficial de contas e consultor financeiro numa Instituição de Crédito.
Resumo:
O presente estudo tem como objetivo comparar experimentalmente duas crianças praticantes de Hóquei em Patins, uma normal e uma com a patologia dos joelhos valgos, avaliando qualitativamente as diferenças posturais, estáticas e dinâmicas, decorrentes da utilização dos patins específicos desta modalidade, através do sistema de análise da Força de Reação do Solo (FRS), de Eletromiografia (EMG), de captura de movimento, e de modelação e simulação. Para atingir o objetivo definiu-se um protocolo de ensaios com as seguintes tarefas: repouso com e sem patins, marcha, corrida, deslizar com os dois pés apoiados e deslizar com o pé esquerdo levantado. No repouso avaliou-se a variação do ponto de aplicação da FRS da criança normal e patológica, com e sem patins. Ainda na tarefa de repouso avaliou-se também as componentes médio-lateral, antero-posterior individualmente e a componente vertical da FRS, juntamente com a atividade muscular dos músculos Gastrocnémio Medial (GM), Recto Femoral (RF), Vasto Medial (VM), Vasto Lateral (VL), Bicípete Femoral (BF), Semitendinoso (ST), Tensor da Fascia Lata (TFL), Gastrocnémio Lateral (GL), de forma a comparar os valores de intensidade de FRS e da atividade muscular dos diferentes instantes de tempo desta tarefa. Para as restantes tarefas apenas se avaliou individualmente as componentes médio-lateral e antero-posterior da FRS e a componente vertical da FRS juntamente com a atividade muscular dos referidos músculos, salientando as diferenças evidentes entre as curvas da criança normal e as curvas da criança patológica durante os diferentes instantes do movimento. Todas as tarefas referidas, exceto a tarefa de repouso com patins, foram ainda simuladas recorrendo a modelos músculo-esqueléticos. A partir destas simulações do movimento obtiveram-se os ângulos articulares e efetuou-se a respetiva análise. No final dos resultados obtidos apresentou-se uma tabela de resumo com o cálculo dos coeficientes de variação de cada grandeza, exceto nos gráficos da posição no espaço da FRS, onde se constatou que existe uma grande variabilidade inter-individuo em cada tarefa. A análise dos resultados de cada tarefa permite concluir que a utilização de patins pode trazer uma maior ativação muscular para a criança patológica, embora se verifique instabilidade articular. Apesar dessa instabilidade pode-se inferir que, uma maior ativação muscular decorrente da utilização de patins, tal como acontece na prática do hóquei em patins, pode trazer uma melhoria, a longo prazo, na estabilidade da articulação do joelho e na sustentação corporal, proporcionada pelo fortalecimento muscular.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
OBJETIVO: Analisar a tendência das internações e da mortalidade por diarréia em crianças menores de um ano. MÉTODOS: Foi realizado um estudo ecológico de séries temporais entre 1995 e 2005, para o Brasil e para as capitais dos estados. Foram utilizados dados secundários do Ministério da Saúde, obtidos do Sistema de Informação Hospitalar e do Sistema de Informação sobre Mortalidade. Durante o período de estudo foram registradas 1.505.800 internações e 39.421 mortes por diarréia de crianças menores de um ano de idade. Para as análises das tendências da taxa de internação e de mortalidade foram utilizados modelos de regressão polinomial. RESULTADOS: Houve redução tanto nas internações por diarréia quanto na mortalidade infantil por diarréia no País e em 13 capitais. Oito capitais tiveram queda somente na mortalidade por diarréia, enquanto três apresentaram decréscimo somente nas taxas de internação por diarréia. Na análise conjunta dos indicadores de diarréia e dos indicadores gerais, observou-se que houve decréscimo em todas as séries históricas somente no Brasil e em quatro capitais. CONCLUSÕES: A redução nas taxas de internações e mortalidade por diarréia observada pelas séries temporais podem ser resultado das medidas de prevenção e controle empregadas.
Resumo:
O entendimento da produção da fala tem sido ampla mente procurado, recorrendo à imagem por ressonância magnética (IRM), mas não é totalmente conhecido, particularmente no que diz respeito aos sons do Português Europeu (PE). O principal objectivo deste estudo foi a caracterização das vogais do PE. Com base na IRM recolheram-se conjuntos de imagens bidimensionais, em cinco posições articulatórias distintas, durante a produção sustentada do som. Após extracção de contornos do tracto vocal procedeu-se à reconstrução tridimensional, constatando-se que a IRM fornece in formação morfológica útil e com considerável precisão acerca da posição e forma dos diferentes articuladores da fala.
Resumo:
OBJETIVO: Analisar as tendências temporais de duração do aleitamento materno exclusivo e os fatores de proteção. MÉTODOS: Foram analisadas as prevalências de amamentação total e o aleitamento materno exclusivo de lactentes aos quatro meses de idade. Os dados foram obtidos de inquéritos populacionais realizados em 1991, 1997 e 2006, com 935, 2.081 e 1.568 crianças, respectivamente. Os dados foram coletados por entrevista realizada com o responsável pela criança. As prevalências foram analisadas por regressão de Poisson em relação a: condições ambientais, comportamentais e socioeconômicas, variáveis maternas e fatores biológicos da criança. RESULTADOS: A duração mediana do aleitamento total elevou-se de 89 dias (1991) para 106 dias (1997) e, finalmente, 183 dias (2006). A mediana do aleitamento materno exclusivo manteve-se estacionária em torno de 30 dias entre 1997 e 2006. Na análise multivariada, das dez variáveis analisadas, apenas a escolaridade e idade maternas, situação do domicílio e a criança ser do sexo feminino se mantiveram no modelo explicativo final. CONCLUSÕES: Apesar do aleitamento total ter tido importante aumento de duração, o mesmo não ocorreu com a duração do aleitamento materno exclusivo.
Resumo:
OBJETIVO: Avaliar o uso de medidas de comorbidade para predizer o risco de óbito em pacientes brasileiros. MÉTODOS: Foram utilizados dados de internações obtidos do Sistema de Informações Hospitalares do Sistema Único de Saúde, que permite o registro de somente um diagnóstico secundário. Foram selecionadas 1.607.697 internações ocorridas no Brasil em 2003 e 2004, cujos diagnósticos principais foram doença isquêmica do coração, insuficiência cardíaca congestiva, doenças cérebro-vasculares e pneumonia. O Índice de Charlson e as comorbidades de Elixhauser foram as medidas de comorbidade utilizadas; o simples registro de algum diagnóstico secundário foi também empregado. A regressão logística foi aplicada para avaliar o impacto das medidas de comorbidade na estimava da chance de óbito. O modelo de base incluiu as seguintes variáveis: idade, sexo e diagnóstico principal. Os modelos de predição de óbitos foram avaliados com base na estatística C e no teste de Hosmer-Lemeshow. RESULTADOS: A taxa de mortalidade hospitalar foi 10,4% e o tempo médio de permanência foi 5,7 dias. A maioria (52%) das internações ocorreu em homens e a idade média foi 62,6 anos. Do total de internações, 5,4% apresentava um diagnóstico secundário registrado, mas o odds ratio entre óbito e presença de comorbidade foi de 1,93. O modelo de base apresentou uma capacidade de discriminação (estatística C) de 0,685. A melhoria nos modelos atribuída à introdução dos índices de comorbidade foi fraca - equivaleu a zero quando se considerou a estatística C com somente dois dígitos. CONCLUSÕES: Embora a introdução das três medidas de comorbidade nos distintos modelos de predição de óbito tenha melhorado a capacidade preditiva do modelo de base, os valores obtidos ainda são considerados insuficientes. A precisão desse tipo de medida é influenciada pela completitude da fonte de informação. Nesse sentido, o alto sub-registro de diagnóstico secundário, aliado à conhecida insuficiência de espaço para anotação desse tipo de informação no Sistema de Informações Hospitalares, são os principais elementos explicativos dos resultados encontrados.