998 resultados para Manipulação da informação contábil
Resumo:
Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.
Resumo:
Tecnologias da Web Semântica como RDF, OWL e SPARQL sofreram nos últimos anos um forte crescimento e aceitação. Projectos como a DBPedia e Open Street Map começam a evidenciar o verdadeiro potencial da Linked Open Data. No entanto os motores de pesquisa semânticos ainda estão atrasados neste crescendo de tecnologias semânticas. As soluções disponíveis baseiam-se mais em recursos de processamento de linguagem natural. Ferramentas poderosas da Web Semântica como ontologias, motores de inferência e linguagens de pesquisa semântica não são ainda comuns. Adicionalmente a esta realidade, existem certas dificuldades na implementação de um Motor de Pesquisa Semântico. Conforme demonstrado nesta dissertação, é necessária uma arquitectura federada de forma a aproveitar todo o potencial da Linked Open Data. No entanto um sistema federado nesse ambiente apresenta problemas de performance que devem ser resolvidos através de cooperação entre fontes de dados. O standard actual de linguagem de pesquisa na Web Semântica, o SPARQL, não oferece um mecanismo para cooperação entre fontes de dados. Esta dissertação propõe uma arquitectura federada que contém mecanismos que permitem cooperação entre fontes de dados. Aborda o problema da performance propondo um índice gerido de forma centralizada assim como mapeamentos entre os modelos de dados de cada fonte de dados. A arquitectura proposta é modular, permitindo um crescimento de repositórios e funcionalidades simples e de forma descentralizada, à semelhança da Linked Open Data e da própria World Wide Web. Esta arquitectura trabalha com pesquisas por termos em linguagem natural e também com inquéritos formais em linguagem SPARQL. No entanto os repositórios considerados contêm apenas dados em formato RDF. Esta dissertação baseia-se em múltiplas ontologias partilhadas e interligadas.
Resumo:
Mestrado em Auditoria
Resumo:
Mestrado em Auditoria
Resumo:
Relatório de investigação apresentado à Escola Superior de Educação de Lisboa para obtenção de grau de mestre no Mestrado em Ensino do 1.º e 2.º Ciclo do Ensino Básico
Resumo:
Relatório apresentado à Escola Superior de Educação de Lisboa para obtenção do grau de mestre em Ensino do 1.º e do 2.º Ciclo do Ensino Básico
Resumo:
OBJETIVO: Propor estratégia de vigilância de óbitos relacionados à tuberculose com base no Sistema de Informação de Mortalidade. MÉTODOS: Dados sobre os 55 óbitos relacionados à tuberculose, ocorridos em dois hospitais de grande porte do Rio de Janeiro entre setembro de 2005 e agosto de 2006, foram obtidos no Sistema de Informação de Mortalidade. Esses casos foram confrontados com os registros no Sistema de Informação de Agravos de Notificação (Sinan). O incremento no número de notificações e na completitude dos dados foi avaliado, bem como o tipo de entrada e desfecho no Sinan. RESULTADOS: Dos 55 óbitos, 28 estavam notificados no Sinan. O relacionamento dos sistemas possibilitou as seguintes correções: 27 casos novos notificados, 14 novas notificações realizadas pela unidade em que ocorreu o óbito e o encerramento de dez notificações. Isso representou incremento de 41 (28%) notificações às 144 realizadas pelos dois hospitais em 2006. Nove casos foram reclassificados da condição de tuberculose sem confirmação para tuberculose com confirmação diagnóstica, e cinco casos foram reclassificados de tuberculose para Aids como causa básica de morte. CONCLUSÕES: A vigilância de óbitos por tuberculose proposta permitiu aumentar a completitude dos sistemas de informação, diminuir a subnotificação e o número de casos não encerrados, supervisionar a vigilância epidemiológica das unidades e a qualidade do preenchimento das declarações de óbito, além de buscar contatos não avaliados pela equipe de saúde.
Resumo:
Mestrado em Auditoria
Resumo:
OBJETIVO: Descrever o uso dos sistemas de informação em saúde em cidades com menos de 10 mil habitantes. MÉTODOS: Estudo realizado no estado do Rio de Grande do Sul, entre 2003 e 2004. Foi enviado um questionário auto-aplicável a gestores dos municípios, contendo 11 questões de escolha simples, três de escolha múltipla e três abertas, sobre a estrutura disponível, utilização das informações, indicadores valorizados e satisfação com os sistemas. O questionário foi respondido por gestores de 127 (37,7%) dos municípios gaúchos com menos de 10 mil habitantes. As respostas foram tabuladas em planilha eletrônica e a diferença entre municípios respondentes e não-respondentes foi avaliada pelo teste qui-quadrado, considerando-se significativo p < 0,05. RESULTADOS: Todos os municípios dispunham de computadores (média de três por município) e 94% tinham acesso à Internet. Os responsáveis pela alimentação e análise dos sistemas de informação eram funcionários estatutários (59%) que acumulavam outras tarefas. Os sistemas mais utilizados relacionavam-se a controle orçamentário e repasse de verbas. Em 59,1% dos municípios havia análise dos dados e geração de informações utilizadas no planejamento local. Os indicadores citados como importantes para o planejamento local foram os mesmos utilizados na pactuação com o Estado, mas houve dificuldade de compreensão dos termos "indicadores" e "dados estatísticos". Apenas 4,7% estavam plenamente satisfeitos com as informações obtidas dos sistemas de informação em saúde. CONCLUSÕES: Duas realidades coexistem: municípios que percebem a alimentação dos sistemas de informação em saúde como tarefa a ser cumprida por ordem dos níveis centrais, em contraposição a municípios que visualizam o potencial desses sistemas, mas têm dificuldades em sua utilização.
Resumo:
A extração de informação a partir de descrições textuais para a modelação procedimental de ambientes urbanos é apresentada com solução para os edifícios antigos. No entanto, este tipo de edifício carece de maior cuidado com os detalhes de alto nível. Este artigo descreve uma plataforma para a geração expedita de modelos 3D de edifícios monumentais, cuja arquitetura é modular. O primeiro módulo permite a extração de informação a partir de textos formais, pela integração do NooJ num Web Service. No segundo módulo, toda a informação extraída é mapeada para uma ontologia que define os objetos a contemplar na modelação procedimental, processo esse realizado pelo módulo final que gera os modelos 3D em CityGML, também como um Web Service. A partir desta plataforma, desenvolveu-se um protótipo Web para o caso de estudo da modelação das igrejas da cidade do Porto. Os resultados obtidos deram indicações positivas sobre o modelo de dados definidos e a flexibilidade de representação de estruturas diversificadas, como portas, janelas e outras características de igrejas.
Resumo:
O carácter federal da União Europeia pressupõe que para o seu funcionamento concorram as autoridades nacionais e subnacionais e, bem assim, todos os interessados. Estes podem beneficiar de representação institucional (tal como acontece no Comité Económico e Social), podem intervir a título de representação pontual (nomeadamente em sede de comitologia) e podem ainda participar de moro próprio, em termos agregados (lobbying) ou individuais. Toda essa intervenção pressupõe o acesso à informação, cujo regime nem sempre é compreendido. De facto, nos nossos dias, passamos rapidamente de uma sistemática falta de informação para um excesso de informação (em especial graças à internet), cujos efeitos acabam por convergir. Neste enquadramento procuramos expor, no presente trabalho, de forma estruturada, os regimes e mecanismos de acesso à informação relativa ao funcionamento da União Europeia (informação essa que é também muito útil em sede de interpretação e aplicação dos diferentes regimes jurídicos) tendo em vista apoiar todos aqueles que de uma ou outra forma, por motivos profissionais, dela têm necessidade.
Resumo:
Ao contrário do que sucede na maioria dos países que integram a terceira vaga de transições para a democracia, a mudança politica em Portugal opera-se pela via revolucionaria. As marcas de originalidade da transição portuguesa são múltiplas, destacando-se, desde logo, o papel nela desempenhado pelas Forças Armadas, actor central do processo político de 1974-1975.
Resumo:
Orientadora: Doutora Anabela Mesquita Teixeira Sarmento
Resumo:
A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).