1000 resultados para Taxonomia (computação)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Civil

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos factores mais determinantes para o sucesso de uma organização é a qualidade das decisões tomadas. Para que as decisões tomadas sejam melhores e potenciem a competitividade das organizações, sistemas como os Sistemas de Apoio à Tomada de Decisão em Grupo (SADG) têm sido fortemente desenvolvidos e estudados nas últimas décadas. Cada vez mais, estes sistemas são populados com um maior número de dados, com o objectivo de serem mais assertivos. Considera-se que com determinados dados seja possível que o sistema possa aferir a satisfação dos participantes com as decisões tomadas, tendencialmente de forma automática. Hoje em dia, as análises de satisfação com as decisões não contemplam na sua maioria factores imprescindíveis, como os emocionais e de personalidade, sendo que os modelos existentes tendem a ser incompletos. Nesta dissertação propõe-se uma metodologia que permite a um SADG aferir a satisfação do participante com a decisão, considerando aspectos como a personalidade, as emoções e as expectativas. A metodologia desenvolvida foi implementada num SADG (ArgEmotionsAgents) com uma arquitectura multiagente, composto por agentes que reflectem participantes reais e que estão modelados com a sua personalidade. De acordo com a sua personalidade, esses agentes trocam argumentos persuasivos de forma a obterem uma decisão consensual. No processo de troca de argumentos os agentes geram emoções que afectam o seu humor. A implementação da metodologia no ArgEmotionsAgents permite que, no final de uma reunião, seja possível aferir a satisfação dos agentes participantes com a decisão final e com o processo que levou à tomada de decisão. De forma a validar a metodologia proposta bem como a implementação que foi desenvolvida, foram realizadas quatro experiências em diferentes cenários. Numa primeira experiência, foi aferida a satisfação dos quatro agentes participantes. Nas experiências seguintes, um dos agentes participantes foi usado como referência e foram alteradas configurações (expectativas, personalidade e reavaliação das alternativas) para perceber de que forma os vários factores afectam a satisfação. Com o estudo concluiu-se que todos os factores considerados no modelo afectam a satisfação. A forma como a satisfação é afectada por cada um dos factores vai ao encontro da lógica apresentada no estado da arte. Os resultados de satisfação aferidos pelo modelo são congruentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O contributo da área de investigação Interacção Humano-Computador (HCI) está patente não só na qualidade da interacção, mas também na diversificação das formas de interacção. A HCI define-se como sendo uma disciplina que se dedica ao desenho, desenvolvimento e implementação de sistemas de computação interactivos para uso humano e estudo dos fenómenos relevantes que os rodeiam. Pretende-se, no âmbito desta tese de mestrado, o desenvolvimento de um Editor Gráfico de Layout Fabril a integrar num SAD para suporte ao Planeamento e Controlo da Produção. O sistema deve ser capaz de gerar um layout fabril do qual constam, entre outros objectos, as representações gráficas e as respectivas características/atributos do conjunto de recursos (máquinas/processadores) existentes no sistema de produção a modelar. O módulo desenvolvido será integrado no projecto de I&D ADSyS (Adaptative Decision Support System for Interactive Scheduling with MetaCognition and User Modeling Experience), melhorando aspectos de interacção referentes ao sistema AutoDynAgents, um dedicado ao escalonamento, planeamento e controlo de produção. Foi realizada a análise de usabilidade a este módulo com a qual se pretendeu realizar a respectiva avaliação, através da realização de um teste de eficiência e do preenchimento de um inquérito, da qual se identificaram um conjunto de melhorias e sugestões a serem consideradas no refinamento deste módulo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The constant evolution of the Internet and its increasing use and subsequent entailing to private and public activities, resulting in a strong impact on their survival, originates an emerging technology. Through cloud computing, it is possible to abstract users from the lower layers to the business, focusing only on what is most important to manage and with the advantage of being able to grow (or degrades) resources as needed. The paradigm of cloud arises from the necessity of optimization of IT resources evolving in an emergent and rapidly expanding and technology. In this regard, after a study of the most common cloud platforms and the tactic of the current implementation of the technologies applied at the Institute of Biomedical Sciences of Abel Salazar and Faculty of Pharmacy of Oporto University a proposed evolution is suggested in order adorn certain requirements in the context of cloud computing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Descrever um sistema gestor de regulação médica em emergência baseado na rede mundial de computadores. MÉTODOS: O Sistema de Regulação de Urgências e Emergências foi desenvolvido segundo modelo evolutivo de software de prototipação. A comunicação entre os usuários e o sistema foi implementada utilizando tecnologias web; o sistema foi desenvolvido em personal home page (PHP) e o banco de dados, em MySQL. O protótipo foi baseado no processo de regulação médica da Divisão Regional de Saúde XIII do Estado de São Paulo e aplicado a 26 municípios dessa regional durante quatro semanas consecutivas em setembro de 2009. O sistema possibilitou a documentação das solicitações em ordem cronológica, sem permitir edição de dados já inseridos e garantindo o acesso hierarquizado e sigiloso às informações para cada participante do sistema. RESULTADOS: O sistema apresentou 100% de disponibilidade, confiabilidade e integridade da informação. Foram realizadas 1.046 solicitações ao sistema, das quais 703 (68%) foram completadas. Os solicitantes apresentaram 98% de adesão ao sistema na primeira semana de aplicação, e a adesão dos prestadores de serviço foi gradativa (37% na quarta semana). Os municípios mais próximos de Ribeirão Preto que não possuem prestadores de alta complexidade foram os que mais utilizaram o sistema. CONCLUSÕES: A regulação médica de solicitações de emergência pela rede mundial de computadores mostrou-se exeqüível e confiável, possibilitando a transparência do processo e acesso direto às informações por parte dos gestores. Possibilitou a construção de indicadores para monitorizar e aprimorar o processo, na perspectiva da criação de uma regulação semi-automatizada e de avanços na organização do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização massiva da internet e dos serviços que oferece por parte do utilizador final potencia a evolução dos mesmos, motivando as empresas a apostarem no desenvolvimento deste tipo de soluções. Requisitos como o poder de computação, flexibilidade e escalabilidade tornam-se cada vez mais indissociáveis do desenvolvimento aplicacional, o que leva ao surgimento de paradigmas como o de Cloud Computing. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar o paradigma de Cloud Computing inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, a sua evolução histórica e comparados os diferentes tipos de implementações que suporta. O estudo detalha posteriormente a plataforma Azure, sendo analisada a sua topologia e arquitetura, detalhando-se os seus componentes e a forma como esta mitiga alguns dos problemas mencionados. Com o conhecimento teórico é desenvolvido um protótipo prático sobre esta plataforma, em que se exploram algumas das particularidades da topologia e se interage com as principais redes sociais. O estudo culmina com uma análise sobre os benefícios e desvantagens do Azure e através de um levantamento das necessidades da empresa, determinam-se as oportunidades que a utilização da plataforma poderá proporcionar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a evolução da tecnologia, os UAVs (unmanned aerial vehicles) são cada vez mais utilizados, não só em missões de risco para o ser Humano, mas também noutro tipo de missões, como é o caso de missões de inspeção, vigilância, busca e salvamento. Isto devese ao baixo custo das plataformas assim como à sua enorme fiabilidade e facilidade de operação. Esta dissertação surge da necessidade de aumentar a autonomia dos UAVs do projeto PITVANT (Projeto de Investigação e Tecnologia em Veículos Aéreos Não Tripulados), projeto de investigação colaborativa entre a AFA (Academia da Força Aérea) e a FEUP (Faculdade de Engenharia da Universidade do Porto), relativamente ao planeamento de trajetórias entre dois pontos no espaço, evitando os obstáculos que intersetem o caminho. Para executar o planeamento da trajetória mais curta entre dois pontos, foi implementado o algoritmo de pesquisa A*, por ser um algoritmo de pesquisa de soluções ótimas. A área de pesquisa é decomposta em células regulares e o centro das células são os nós de pesquisa do A*. O tamanho de cada célula é dependente da dinâmica de cada aeronave. Para que as aeronaves não colidam com os obstáculos, foi desenvolvido um método numérico baseado em relações trigonométricas para criar uma margem de segurança em torno de cada obstáculo. Estas margens de segurança são configuráveis, sendo o seu valor por defeito igual ao raio mínimo de curvatura da aeronave à velocidade de cruzeiro. De forma a avaliar a sua escalabilidade, o algoritmo foi avaliado com diferentes números de obstáculos. As métricas utilizadas para avaliação do algoritmo foram o tempo de computação do mesmo e o comprimento do trajeto obtido. Foi ainda comparado o desempenho do algoritmo desenvolvido com um algoritmo já implementado, do tipo fast marching.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho, realizado no âmbito da unidade curricular de Tese/Dissertação, procura mostrar de que forma a Computação Evolucionária se pode aplicar no mundo da Música. Este é, de resto, um tema sobejamente aliciante dentro da área da Inteligência Artificial. Começa-se por apresentar o mundo da Música com uma perspetiva cronológica da sua história, dando especial relevo ao estilo musical do Fado de Coimbra. Abordam-se também os conceitos fundamentais da teoria musical. Relativamente à Computação Evolucionária, expõem-se os elementos associados aos Algoritmos Evolucionários e apresentam-se os principais modelos, nomeadamente os Algoritmos Genéticos. Ainda no âmbito da Computação Evolucionária, foi elaborado um pequeno estudo do “estado da arte” da aplicação da Computação Evolucionária na Música. A implementação prática deste trabalho baseia-se numa aplicação – AG Fado – que compõe melodias de Fado de Coimbra, utilizando Algoritmos Genéticos. O trabalho foi dividido em duas partes principais: a primeira parte consiste na recolha de informações e posterior levantamento de dados estatísticos sobre o género musical escolhido, nomeadamente fados em tonalidade maior e fados em tonalidade menor; a segunda parte consiste no desenvolvimento da aplicação, com a conceção do respetivo algoritmo genético para composição de melodias. As melodias obtidas através da aplicação desenvolvida são bastante audíveis e boas melodicamente. No entanto, destaca-se o facto de a avaliação ser efetuada por seres humanos o que implica sensibilidades musicais distintas levando a resultados igualmente distintos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito dos artigos 11º e 14º do Regulamento de Prestação de Serviço Docente do ISCAL

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito dos artigos 11º e 14º do Regulamento de Prestação de Serviço Docente do ISCAL

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Descrever métodos e estimativas de mortalidade proporcional por mortes evitáveis e tipos de não conformidades do atendimento relacionadas a esses eventos. MÉTODOS: Revisão sistemática de publicações sobre mortes evitáveis em vítimas com traumatismos entre 2000 e 2009. Foi realizada pesquisa nas bases de dados Lilacs, SciELO e Medline utilizando-se a estratégia de busca com as palavras-chave "trauma", "avoidable", "preventable", "interventions" e "complications", e os descritores em ciências da saúde "death", "cause of death" e "hospitals". RESULTADOS: Identificaram-se 29 artigos publicados no período, com predomínio de estudos retrospectivos (96,5%). Os métodos mais comumente utilizados para definir a evitabilidade do óbito foram painel de especialistas ou pontuação de índices de gravidade, tendo sido empregadas as seguintes categorias: evitável, potencialmente evitável e não evitável. A média da mortalidade proporcional por mortes evitáveis dos estudos foi de 10,7% (dp 11,5%). As não conformidades mais comumente relatadas nas publicações foram sistema inadequado de atendimento ao traumatizado e erro na avaliação e tratamento. CONCLUSÕES: Observaram-se falhas na uniformização dos termos empregados para categorizar as mortes e as não conformidadades encontradas. Portanto, sugere-se a padronização da taxonomia da classificação das mortes e dos tipos de não conformidades observadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETIVO: Descrever a construção de fator de alocação de recursos financeiros com base na necessidade em saúde da população. MÉTODOS: Estudo quantitativo, com dados coletados em bases de domínio público, referentes ao estado de Pernambuco nos anos entre 2000 e 2010. Foram selecionadas variáveis que refletissem os indicadores epidemiológicos, demográficos, socioeconômicos e educacionais para compor um fator de alocação que apontasse as necessidades de saúde da população. As fontes pesquisadas foram: Departamento de Informática do Sistema Único de Saúde, Atlas do Desenvolvimento Humano no Brasil, Instituto Brasileiro de Geografia e Estatística, Sistema de Informações sobre Orçamentos Públicos em Saúde, Tesouro Nacional e dados da Secretaria Estadual de Saúde de Pernambuco de 2000 a 2010, de acordo com a disponibilidade da informação mais recente. Foi realizada a correlação linear de Pearson e, para o cálculo do fator de alocação, a análise pelas Redes Neurais Artificiais. Os quartis dos municípios foram definidos segundo as necessidades em saúde. RESULTADOS: A distribuição apresentada aponta a Região Litorânea e boa parte da Região da Mata Norte e Sul e do Agreste Setentrional e Central situados no Quartil 1, este com o maior número de municípios. O Agreste Meridional teve municípios em todos os quartis. Na Região do Pajeú/Moxotó, grande parte dos municípios esteve no Quartil 1. Semelhante distribuição foi verificada no Sertão Central. No Araripe, a maioria dos municípios esteve nos Quartis 3 ou 4 e a Região do São Francisco ficou dividida entre os Quartis 1, 2 e 3. CONCLUSÕES: O fator de alocação agregou os municípios pernambucanos, por agrupar variáveis que são relacionadas com as necessidades em saúde da população, e separou os que possuem extremas necessidades de maior aporte financeiro daqueles que precisam com menor intensidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de mestrado em Ciências da Educação: área de Educação e Desenvolvimento