885 resultados para Codigos de controle de erros (Teoria da informação)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Matemática Universitária - IGCE
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Neste livro, Rodolfo Augusto Daniel Vaz Valente debruça-se sobre a obra do compositor belga Henri Pousseur (1929-2009), um dos principais expoentes da música contemporânea ao lado de Luciano Berio, Karlheinz Stockhausen e Pierre Boulez. Valente discute, principalmente, a contribuição de Pousseur para a revisão teórica do serialismo, já que este recupera, no âmbito da música serial, a noção de periodicidade (ou fraseologia regular), que havia sido banida das experiências iniciais do serialismo em nome do princípio basilar da não repetição. Pousseur estava convencido de que era necessário retomar em alguma medida a periodicidade das estruturas. Chegou mesmo a experimentar a sua teoria na música eletrônica e a recorrer à teoria ondulatória proveniente da Acústica para repensar o discurso musical, especialmente no terreno da organização das durações. Valente também aborda a periodicidade conforme os preceitos de Abraham Moles, um dos principais teóricos da Teoria da Informação e que teve grande influência sobre o trabalho de Pousseur. Analisa ainda a obra Apostrophe et six réflexions, escrita pelo compositor na época em este que formulou o conceito de periodicidade generalizada, como chamou a fraseologia do serialismo revisado que já não recorria às estruturas musicais essencialmente não periódicas.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Introduction: Authority records interchange requires establishing and using metadata standards, such as MARC 21 Format for Authority Data, format used by several cataloging agencies, and Metadata Authority Description Schema (MADS), that has received little attention and it is a little widespread standard among agencies. Purpose: Presenting an introductory study about Metadata Authority Description Schema (MADS). Methodology: Descriptive and exploratory bibliographic research. Results: The paper address the MADS creation context, its goals and its structure and key issues related to conversion of records from MARC 21 to MADS. Conclusions: The study concludes that, despite its limitations, MADS might be used to create simple authority records in Web environment and beyond libraries context.
Resumo:
This work was developed in order to reduce the discrepancy found between the stock data of an item in the system and the amount found physically in stock in the company presented on this study case. Therefore, this paper makes a study on system of information that can assist in the collection, control and manipulation of data regarding the company's stock. It is very important to do the inventory management, so we can control the level of this sub-product to meet sales orders and production. In the study discussed below, we used the Six Sigma methodology to identify points that had flaws in the process and thus improve their work where the results show grater process control and provide a reliable database to the point where no further problems of lack of components in stock
Resumo:
Pós-graduação em Ciências Biológicas (Zoologia) - IBRC
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Aiming to evaluate the methodologies of surveys related with the specifications of Geo-referencing Rural Parcels in Brazil, established by INCRA (National Institute of Colonization and Agrarian Reform), in attendance to the Law 10.267/01, and considering aspects of precision and accuracy, a test area was set up in the Assentamento Florestan Fernandes, in the county of Presidente Bernardes, SP. This area was subdivided in three sub-areas in order to simulate the existence of three contiguous rural parcels. The first stage of work consisted in the implantation and determination of the control points coordinates in their respective areas. These control points were determined by the process of direct transport, using dual frequency (L1/L2) GPS receivers and through the process of traverse with baselines of up to 20 km, using single frequency receivers (L1). The coordinates of the points of the perimeter of the three sub-areas were determined using single frequency GPS receivers, from two survey methods, both using static relative positioning. The first one, so called traverse, each point that delimits the property was occupied successively, starting from the control point and closing at another. In other, denominated double irradiation, each point of the property was irradiated from two control points. These procedures were accomplished with the intention to define and to implement a mistake control strategy, to realize redundancy measurements and to use an adjustment method correctly, to obtain trustworthily values in the patterns demanded in each kind of survey. With the data collected and processed some analyses could be accomplished from the discrepancies between the coordinates obtained by different methodologies. The results show that this test area may be used to validate other methodologies and equipments. The results were satisfactory and attended the specifications of Geo-referencing Rural Parcel.
Resumo:
O pesquisador científico necessita de informações precisas, em tempo hábil para conclusão de seus trabalhos. Com o advento da INTERNET, o processo de comunicação em linha, homem x máquina, mediado pelos mecanismos de busca, tornou-se, simultaneamente, um auxílio e uma dificuldade no processo de recuperação de informações. O pesquisador teve que adaptar-se ao modo de operar da INTERNET e incluiu conhecimentos de diferenças idiomáticas, de terminologia, além de utilizar instrumentos que lhe forneçam parâmetros para obter maior pertinência e relevância nos dados. O uso de agentes inteligentes para melhoria de resultados e a diminuição de ruídos semânticos têm sido apontados como soluções para aumento da precisão no resultado das buscas. O estudo de casos exploratório realizado analisa a pesquisa em linha a partir da teoria da informação e propõe duas formas de otimizar o processo comunicacional com vistas à pertinência e relevância dos dados obtidos: a primeira sugere a aplicação de algoritmos que utilizem o vocabulário controlado como mediador do processo de comunicação utilizando-se dos descritores para recuperação em linha. , e a segunda ressalta a importância dos agentes inteligentes no processo de comunicação homem-máquina.(AU)
Resumo:
O pesquisador científico necessita de informações precisas, em tempo hábil para conclusão de seus trabalhos. Com o advento da INTERNET, o processo de comunicação em linha, homem x máquina, mediado pelos mecanismos de busca, tornou-se, simultaneamente, um auxílio e uma dificuldade no processo de recuperação de informações. O pesquisador teve que adaptar-se ao modo de operar da INTERNET e incluiu conhecimentos de diferenças idiomáticas, de terminologia, além de utilizar instrumentos que lhe forneçam parâmetros para obter maior pertinência e relevância nos dados. O uso de agentes inteligentes para melhoria de resultados e a diminuição de ruídos semânticos têm sido apontados como soluções para aumento da precisão no resultado das buscas. O estudo de casos exploratório realizado analisa a pesquisa em linha a partir da teoria da informação e propõe duas formas de otimizar o processo comunicacional com vistas à pertinência e relevância dos dados obtidos: a primeira sugere a aplicação de algoritmos que utilizem o vocabulário controlado como mediador do processo de comunicação utilizando-se dos descritores para recuperação em linha. , e a segunda ressalta a importância dos agentes inteligentes no processo de comunicação homem-máquina.(AU)
Resumo:
Inclui notas explicativas, bibliográficas e bibliografia
Resumo:
O tema da transparência ganhou forte repercussão no noticiário e no debate público na última semana durante a troca de comando do Ministério da Transparência, Fiscalização e Controle, órgão responsável pelo combate à corrupção e pela promoção do controle social e do acesso à informação. Um levantamento realizado pela FGV/DAPP mostra que entre os dias 25 e 31 de maio houve um reforço do debate nas redes sociais sobre o tema, especialmente após a renúncia do então ministro Fabiano Silveira, o que pode indicar que a transparência vem se consolidando na pauta por uma governança mais ética e participativa.
Resumo:
O pesquisador científico necessita de informações precisas, em tempo hábil para conclusão de seus trabalhos. Com o advento da INTERNET, o processo de comunicação em linha, homem x máquina, mediado pelos mecanismos de busca, tornou-se, simultaneamente, um auxílio e uma dificuldade no processo de recuperação de informações. O pesquisador teve que adaptar-se ao modo de operar da INTERNET e incluiu conhecimentos de diferenças idiomáticas, de terminologia, além de utilizar instrumentos que lhe forneçam parâmetros para obter maior pertinência e relevância nos dados. O uso de agentes inteligentes para melhoria de resultados e a diminuição de ruídos semânticos têm sido apontados como soluções para aumento da precisão no resultado das buscas. O estudo de casos exploratório realizado analisa a pesquisa em linha a partir da teoria da informação e propõe duas formas de otimizar o processo comunicacional com vistas à pertinência e relevância dos dados obtidos: a primeira sugere a aplicação de algoritmos que utilizem o vocabulário controlado como mediador do processo de comunicação utilizando-se dos descritores para recuperação em linha. , e a segunda ressalta a importância dos agentes inteligentes no processo de comunicação homem-máquina.(AU)