856 resultados para Industria farmacêutica - Sistemas de recuperação da informação


Relevância:

100.00% 100.00%

Publicador:

Resumo:

SANTOS, Raimunda Fernanda dos; SILVA, Eliane Ferreira da. A importância da Arquitetura da Informação no planejamento de ambientes digitais inclusivos.In: SEMINÁRIO DE PESQUISA DO CENTRO DE CIÊNCIAS SOCIAIS APLICADAS,17.,2012,Natal/RN. Anais... Natal/RN: Centro de Ciências Sociais Aplicadas, 2012. Trabalho oral.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

SANTOS, Raimunda Fernanda dos; SILVA, Eliane Ferreira da. A importância da Arquitetura da Informação no planejamento de ambientes digitais inclusivos.In: SEMINÁRIO DE PESQUISA DO CENTRO DE CIÊNCIAS SOCIAIS APLICADAS,17.,2012,Natal/RN. Anais... Natal/RN: Centro de Ciências Sociais Aplicadas, 2012. Trabalho oral.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La economía salvadoreña está inserta en un proceso de globalización del cual la industria farmacéutica no puede sustraerse, sino innovar los mercados y competir eficientemente para el logro de los objetivos en este sistema mundial, dentro de esta panorámica la asignación de costos es fundamental y los sistemas tradicionales, que se aplican actualmente, no dan respuestas optimas a la realidad actual; es por ello que se propone en este trabajo la aplicación del sistema de Costos Basados en Actividades (ABC, por sus iniciales en inglés), como una respuesta a la problemática de la asignación de costos de indirectos de fábrica. En la investigación se estudió una muestra de 14 empresas farmacéuticas ubicadas dentro de San Salvador y ciudades circunvecinas, lugares que reúnen el mayor número de éste tipo de empresas, las que son de tipo industrial y por su producción se clasifican entre medianas y grandes, implicando con esto que poseen una alta tecnificación en recursos humanos y maquinaria industrial. Según esta investigación las empresas que se dedican a la elaboración de productos farmacéuticos, están inconformes con los resultados actuales en cuanto a la asignación de costos ya que aplican sistemas de costeo que no muestran con precisión los costos reales de producir, ya que los métodos que actualmente utilizan, se basan en los volúmenes por lo tanto no proporcionan una base razonable para la determinación de los costos, sobre todo en la aplicación de costos indirectos de fábrica. La aplicación de los costos ABC, por asignar los gastos de fabricación a los productos sobre la base de las actividades que se desarrollan para producir, permite obtener una asignación más razonable de los costos indirectos de fábrica, ya que las formas de producir actualmente han variado así como el número de líneas de producto. Además la mayoría de empresas consultadas están expandiendo su mercado y exigen tomar decisiones eficaces y sobre bases sólidas que les hagan ser competitivas en estos mercados globalizados, todo ello exige además el cumplimiento de leyes y normativas establecidas por el Estado, el sistema de costos ABC cumple con estas exigencias. El desarrollo de la aplicación de costos ABC, para la industria farmacéutica, se presenta a través de un caso práctico realizado en una empresa de ésta industria, quien facilito la información necesaria, lo que hace que el presente trabajo represente un modelo para las empresas en cuanto a la aplicación de costos ABC, así como es una base teórica y práctica para todo tipo de negocio puesto que los ABC, tienen aplicación dentro del sector servicios, comercial, agrícola, etc. y para su aplicación no es necesario cambiar el sistema de costos que se utiliza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Relato da experiência da Coordenação de Estudos Legislativos da Câmara dos Deputados no processo de organização e recuperação da informação legislativa produzida pelo Poder Legislativo Brasileiro. O Sistema de Legislação Informatizada (LEGIN) foi criado em 2001 com a finalidade de ser a aplicação responsável pelo gerenciamento e recuperação das normas federais e internas da Câmara dos Deputados produzidas desde o período do Império.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O AINFO é um sistema para automação de bibliotecas e recuperação de informação, desenvolvimento em padrão Windows, com arquitetura cliente/servidor baseada no sistema gerenciador de banco de dados relacional Firebird. Pemite o gerenciamento de informação técnico-científica, integrando bases de dados documentais, cadastrais e processos bibliográficos através do armazenamento, atualização, indexação e recuperação de informação de forma simples e rápida, utilizando não apenas recursos de um istema gerenciador de banco de dados, como controle de concorrência e manutenção de integridade das bases de dados, mas também oferecendo facilidades de recuperação de informação textual não disponíveis nesses sistemas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação, Mestrado, Sistemas de Informação de Gestão, Instituto Politécnico de Santarém, Escola Superior de Gestão e Tecnologia, 2013

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The electronic storage of medical patient data is becoming a daily experience in most of the practices and hospitals worldwide. However, much of the data available is in free-form text, a convenient way of expressing concepts and events, but especially challenging if one wants to perform automatic searches, summarization or statistical analysis. Information Extraction can relieve some of these problems by offering a semantically informed interpretation and abstraction of the texts. MedInX, the Medical Information eXtraction system presented in this document, is the first information extraction system developed to process textual clinical discharge records written in Portuguese. The main goal of the system is to improve access to the information locked up in unstructured text, and, consequently, the efficiency of the health care process, by allowing faster and reliable access to quality information on health, for both patient and health professionals. MedInX components are based on Natural Language Processing principles, and provide several mechanisms to read, process and utilize external resources, such as terminologies and ontologies, in the process of automatic mapping of free text reports onto a structured representation. However, the flexible and scalable architecture of the system, also allowed its application to the task of Named Entity Recognition on a shared evaluation contest focused on Portuguese general domain free-form texts. The evaluation of the system on a set of authentic hospital discharge letters indicates that the system performs with 95% F-measure, on the task of entity recognition, and 95% precision on the task of relation extraction. Example applications, demonstrating the use of MedInX capabilities in real applications in the hospital setting, are also presented in this document. These applications were designed to answer common clinical problems related with the automatic coding of diagnoses and other health-related conditions described in the documents, according to the international classification systems ICD-9-CM and ICF. The automatic review of the content and completeness of the documents is an example of another developed application, denominated MedInX Clinical Audit system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A informação digitalizada e nado digital, fruto do avanço tecnológico proporcionado pelas Tecnologias da Informação e Comunicação (TIC), bem como da filosofia participativa da Web 2.0, conduziu à necessidade de reflexão sobre a capacidade de os modelos atuais, para a organização e representação da informação, de responder às necessidades info-comunicacionais assim como o acesso à informação eletrónica pelos utilizadores em Instituições de Memória. O presente trabalho de investigação tem como objetivo a conceção e avaliação de um modelo genérico normativo e harmonizador para a organização e representação da informação eletrónica, num sistema de informação para o uso de utilizadores e profissionais da informação, no contexto atual colaborativo e participativo. A definição dos objetivos propostos teve por base o estudo e análise qualitativa das normas adotadas pelas instituições de memória, para os registos de autoridade, bibliográfico e formatos de representação. Após a concetualização, foi desenvolvido e avaliado o protótipo, essencialmente, pela análise qualitativa dos dados obtidos a partir de testes à recuperação da informação. A experiência decorreu num ambiente laboratorial onde foram realizados testes, entrevistas e inquéritos por questionário. A análise cruzada dos resultados, obtida pela triangulação dos dados recolhidos através das várias fontes, permitiu concluir que tanto os utilizadores como os profissionais da informação consideraram muito interessante a integração da harmonização normativa refletida nos vários módulos, a integração de serviços/ferramentas comunicacionais e a utilização da componente participativa/colaborativa da plataforma privilegiando a Wiki, seguida dos Comentários, Tags, Forum de discussão e E-mail.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

For the actual existence of e-government it is necessary and crucial to provide public information and documentation, making its access simple to citizens. A portion, not necessarily small, of these documents is in an unstructured form and in natural language, and consequently outside of which the current search systems are generally able to cope and effectively handle. Thus, in thesis, it is possible to improve access to these contents using systems that process natural language and create structured information, particularly if supported in semantics. In order to put this thesis to test, this work was developed in three major phases: (1) design of a conceptual model integrating the creation of structured information and making it available to various actors, in line with the vision of e-government 2.0; (2) definition and development of a prototype instantiating the key modules of this conceptual model, including ontology based information extraction supported by examples of relevant information, knowledge management and access based on natural language; (3) assessment of the usability and acceptability of querying information as made possible by the prototype - and in consequence of the conceptual model - by users in a realistic scenario, that included comparison with existing forms of access. In addition to this evaluation, at another level more related to technology assessment and not to the model, evaluations were made on the performance of the subsystem responsible for information extraction. The evaluation results show that the proposed model was perceived as more effective and useful than the alternatives. Associated with the performance of the prototype to extract information from documents, comparable to the state of the art, results demonstrate the feasibility and advantages, with current technology, of using natural language processing and integration of semantic information to improve access to unstructured contents in natural language. The conceptual model and the prototype demonstrator intend to contribute to the future existence of more sophisticated search systems that are also more suitable for e-government. To have transparency in governance, active citizenship, greater agility in the interaction with the public administration, among others, it is necessary that citizens and businesses have quick and easy access to official information, even if it was originally created in natural language.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tese de doutoramento, Informática (Ciências da Computação), Universidade de Lisboa, Faculdade de Ciências, 2015

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Projecto Final de Mestrado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ciências da Informação e Documentação, Área de Especialização em Biblioteconomia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A presente dissertação trata do tema do multilinguismo em bibliotecas digitais, destacando a importância da temática no âmbito do acesso e da RI (Recuperação da Informação). O objetivo é a consideração e elaboração de uma forma de análise das funcionalidades multilingues disponibilizadas, aplicável a estudos de caso. Este estudo é iniciado por uma exposição genérica da temática das bibliotecas digitais e do multilinguismo, com a explicitação de conceitos considerados relevantes e determinantes para este campo de estudo. De seguida, são consideradas algumas problemáticas atuais e soluções relacionadas com o tema: a relação desta área com o campo da terminologia e alguns pontos fulcrais no que toca à avaliação no acesso e na recuperação da informação multilingue. Após esta exposição teórica e a observação exploratória dos estudos de caso selecionados pretende-se, então, criar critérios de análise destinados à avaliação e à comparação de bibliotecas digitais multilingues. Por último, após a aplicação dos critérios, serão pormenorizadamente apresentados e comparados os três estudos de caso selecionados de bibliotecas digitais multilingues apresentando, simultaneamente, os resultados obtidos. Pretende-se desta forma desenvolver um sumário de boas práticas através do estudo efetuado. Estas boas práticas destinam-se à identificação de incoerências, apresentando igualmente áreas de melhoria. Em todo este estudo o utilizador é o ponto fulcral, uma vez que a análise aqui efectuada centra-se no acesso à informação multilingue através da perspetiva do público da biblioteca digital.