965 resultados para Teoria de informação
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Neste livro, Rodolfo Augusto Daniel Vaz Valente debruça-se sobre a obra do compositor belga Henri Pousseur (1929-2009), um dos principais expoentes da música contemporânea ao lado de Luciano Berio, Karlheinz Stockhausen e Pierre Boulez. Valente discute, principalmente, a contribuição de Pousseur para a revisão teórica do serialismo, já que este recupera, no âmbito da música serial, a noção de periodicidade (ou fraseologia regular), que havia sido banida das experiências iniciais do serialismo em nome do princípio basilar da não repetição. Pousseur estava convencido de que era necessário retomar em alguma medida a periodicidade das estruturas. Chegou mesmo a experimentar a sua teoria na música eletrônica e a recorrer à teoria ondulatória proveniente da Acústica para repensar o discurso musical, especialmente no terreno da organização das durações. Valente também aborda a periodicidade conforme os preceitos de Abraham Moles, um dos principais teóricos da Teoria da Informação e que teve grande influência sobre o trabalho de Pousseur. Analisa ainda a obra Apostrophe et six réflexions, escrita pelo compositor na época em este que formulou o conceito de periodicidade generalizada, como chamou a fraseologia do serialismo revisado que já não recorria às estruturas musicais essencialmente não periódicas.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Ciências Biológicas (Zoologia) - IBRC
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
O pesquisador científico necessita de informações precisas, em tempo hábil para conclusão de seus trabalhos. Com o advento da INTERNET, o processo de comunicação em linha, homem x máquina, mediado pelos mecanismos de busca, tornou-se, simultaneamente, um auxílio e uma dificuldade no processo de recuperação de informações. O pesquisador teve que adaptar-se ao modo de operar da INTERNET e incluiu conhecimentos de diferenças idiomáticas, de terminologia, além de utilizar instrumentos que lhe forneçam parâmetros para obter maior pertinência e relevância nos dados. O uso de agentes inteligentes para melhoria de resultados e a diminuição de ruídos semânticos têm sido apontados como soluções para aumento da precisão no resultado das buscas. O estudo de casos exploratório realizado analisa a pesquisa em linha a partir da teoria da informação e propõe duas formas de otimizar o processo comunicacional com vistas à pertinência e relevância dos dados obtidos: a primeira sugere a aplicação de algoritmos que utilizem o vocabulário controlado como mediador do processo de comunicação utilizando-se dos descritores para recuperação em linha. , e a segunda ressalta a importância dos agentes inteligentes no processo de comunicação homem-máquina.(AU)
Resumo:
O pesquisador científico necessita de informações precisas, em tempo hábil para conclusão de seus trabalhos. Com o advento da INTERNET, o processo de comunicação em linha, homem x máquina, mediado pelos mecanismos de busca, tornou-se, simultaneamente, um auxílio e uma dificuldade no processo de recuperação de informações. O pesquisador teve que adaptar-se ao modo de operar da INTERNET e incluiu conhecimentos de diferenças idiomáticas, de terminologia, além de utilizar instrumentos que lhe forneçam parâmetros para obter maior pertinência e relevância nos dados. O uso de agentes inteligentes para melhoria de resultados e a diminuição de ruídos semânticos têm sido apontados como soluções para aumento da precisão no resultado das buscas. O estudo de casos exploratório realizado analisa a pesquisa em linha a partir da teoria da informação e propõe duas formas de otimizar o processo comunicacional com vistas à pertinência e relevância dos dados obtidos: a primeira sugere a aplicação de algoritmos que utilizem o vocabulário controlado como mediador do processo de comunicação utilizando-se dos descritores para recuperação em linha. , e a segunda ressalta a importância dos agentes inteligentes no processo de comunicação homem-máquina.(AU)
Resumo:
O pesquisador científico necessita de informações precisas, em tempo hábil para conclusão de seus trabalhos. Com o advento da INTERNET, o processo de comunicação em linha, homem x máquina, mediado pelos mecanismos de busca, tornou-se, simultaneamente, um auxílio e uma dificuldade no processo de recuperação de informações. O pesquisador teve que adaptar-se ao modo de operar da INTERNET e incluiu conhecimentos de diferenças idiomáticas, de terminologia, além de utilizar instrumentos que lhe forneçam parâmetros para obter maior pertinência e relevância nos dados. O uso de agentes inteligentes para melhoria de resultados e a diminuição de ruídos semânticos têm sido apontados como soluções para aumento da precisão no resultado das buscas. O estudo de casos exploratório realizado analisa a pesquisa em linha a partir da teoria da informação e propõe duas formas de otimizar o processo comunicacional com vistas à pertinência e relevância dos dados obtidos: a primeira sugere a aplicação de algoritmos que utilizem o vocabulário controlado como mediador do processo de comunicação utilizando-se dos descritores para recuperação em linha. , e a segunda ressalta a importância dos agentes inteligentes no processo de comunicação homem-máquina.(AU)
Resumo:
The great interest in nonlinear system identification is mainly due to the fact that a large amount of real systems are complex and need to have their nonlinearities considered so that their models can be successfully used in applications of control, prediction, inference, among others. This work evaluates the application of Fuzzy Wavelet Neural Networks (FWNN) to identify nonlinear dynamical systems subjected to noise and outliers. Generally, these elements cause negative effects on the identification procedure, resulting in erroneous interpretations regarding the dynamical behavior of the system. The FWNN combines in a single structure the ability to deal with uncertainties of fuzzy logic, the multiresolution characteristics of wavelet theory and learning and generalization abilities of the artificial neural networks. Usually, the learning procedure of these neural networks is realized by a gradient based method, which uses the mean squared error as its cost function. This work proposes the replacement of this traditional function by an Information Theoretic Learning similarity measure, called correntropy. With the use of this similarity measure, higher order statistics can be considered during the FWNN training process. For this reason, this measure is more suitable for non-Gaussian error distributions and makes the training less sensitive to the presence of outliers. In order to evaluate this replacement, FWNN models are obtained in two identification case studies: a real nonlinear system, consisting of a multisection tank, and a simulated system based on a model of the human knee joint. The results demonstrate that the application of correntropy as the error backpropagation algorithm cost function makes the identification procedure using FWNN models more robust to outliers. However, this is only achieved if the gaussian kernel width of correntropy is properly adjusted.
Resumo:
Information extraction is a frequent and relevant problem in digital signal processing. In the past few years, different methods have been utilized for the parameterization of signals and the achievement of efficient descriptors. When the signals possess statistical cyclostationary properties, the Cyclic Autocorrelation Function (CAF) and the Spectral Cyclic Density (SCD) can be used to extract second-order cyclostationary information. However, second-order cyclostationary information is poor in nongaussian signals, as the cyclostationary analysis in this case should comprise higher-order statistical information. This paper proposes a new mathematical tool for the higher-order cyclostationary analysis based on the correntropy function. Specifically, the cyclostationary analysis is revisited focusing on the information theory, while the Cyclic Correntropy Function (CCF) and Cyclic Correntropy Spectral Density (CCSD) are also defined. Besides, it is analytically proven that the CCF contains information regarding second- and higher-order cyclostationary moments, being a generalization of the CAF. The performance of the aforementioned new functions in the extraction of higher-order cyclostationary characteristics is analyzed in a wireless communication system where nongaussian noise exists.
Resumo:
Internet users consume online targeted advertising based on information collected about them and voluntarily share personal information in social networks. Sensor information and data from smart-phones is collected and used by applications, sometimes in unclear ways. As it happens today with smartphones, in the near future sensors will be shipped in all types of connected devices, enabling ubiquitous information gathering from the physical environment, enabling the vision of Ambient Intelligence. The value of gathered data, if not obvious, can be harnessed through data mining techniques and put to use by enabling personalized and tailored services as well as business intelligence practices, fueling the digital economy. However, the ever-expanding information gathering and use undermines the privacy conceptions of the past. Natural social practices of managing privacy in daily relations are overridden by socially-awkward communication tools, service providers struggle with security issues resulting in harmful data leaks, governments use mass surveillance techniques, the incentives of the digital economy threaten consumer privacy, and the advancement of consumergrade data-gathering technology enables new inter-personal abuses. A wide range of fields attempts to address technology-related privacy problems, however they vary immensely in terms of assumptions, scope and approach. Privacy of future use cases is typically handled vertically, instead of building upon previous work that can be re-contextualized, while current privacy problems are typically addressed per type in a more focused way. Because significant effort was required to make sense of the relations and structure of privacy-related work, this thesis attempts to transmit a structured view of it. It is multi-disciplinary - from cryptography to economics, including distributed systems and information theory - and addresses privacy issues of different natures. As existing work is framed and discussed, the contributions to the state-of-theart done in the scope of this thesis are presented. The contributions add to five distinct areas: 1) identity in distributed systems; 2) future context-aware services; 3) event-based context management; 4) low-latency information flow control; 5) high-dimensional dataset anonymity. Finally, having laid out such landscape of the privacy-preserving work, the current and future privacy challenges are discussed, considering not only technical but also socio-economic perspectives.
Resumo:
O objetivo desta tese é analisar a aplicação da Teoria das Opções Reais (TOR) como método para avaliação de projetos de investimentos em prestação de serviços de Tecnologia da Informação (TI), comparando seus conceitos e características, com o método tradicional do cálculo do Valor Presente Líquido (VPL). O estudo apresenta os conceitos básicos, e ilustra através de exemplo numérico, o método de avaliação da TOR aplicado a projetos de prestação de serviços de TI, analisando criticamente suas características, vantagens e limitações. Por meio desta tese, pretende-se mostrar que a Teoria das Opções Reais é uma alternativa mais adequada do que o método do VPL como método de avaliação de projetos de investimentos em serviços de Tecnologia da Informação, integrando estratégia e finanças, ao considerar as opções de flexibilidade operacionais - adiar, expandir, contrair, abandonar, etc. - e o posicionamento estratégico da empresa, ao longo da vida útil do projeto de investimento; opções estas, que não são devidamente tratadas pelo método tradicional do VPL.
Resumo:
The choice of accounting standards capable of defining the recognition, measurement and publicizing of financial and economic information to the general public constitutes one of the accounting community¿s greatest challenges. So, the analysis of the Fundamental Principles of Accounting and of the Conceptual Structure of Accounting becomes relevant because of its direct relation to the normative process and because it represents the essence of doctrines and theories relating to the Science of Accounting. Each country¿s set of rules diverges when it comes to creating and evidencing Accounting Statements, and that¿s why the harmonization of the International Accounting Rules is becoming more important among accountants: as an answer to the world qualitative and quantitative demand for information. When managers, answering a great variety of incentives, manipulate or manage the disclosure of accounting information, they show that the management of accounting information begins to represent a purposeful intervention in the process of elaboration of financial and economic statements with the intention of obtaining some private benefit. In this context, Accounting Regulation performs an important function in the technical procedure of professionals in the area and in the development of practices convergent with international standards, which, in their turn, are already in force. The present study, which is exploratory and non-experimental, aims at presenting and analyzing the process of accounting regulation under the perspective of rules and of the choice of accounting practices as an answer by regulated entities on a tridimensional perspective. The establishment of interaction among diverse fields, through interdisciplinarity, aims at bridging the gap between the fields of law and accounting by articulating concepts and cognitive schemes in a process of mutual enrichment. The research concludes that it is possible to apply concepts from Miguel Reale¿s Tridimensional Theory of Law in the study of accounting regulation.
Resumo:
À medida que as Organizações desenvolveram a sua habilidade em implementar sistemas de Tecnologia da Informação o foco da análise de sua implementação mudou da Tecnologia da Informação voltada para otimização da produção para a compreensão dos efeitos desta nos indivíduos, Organizações e sistemas econômicos. Através deste estudo busca-se uma nova análise dos efeitos da Tecnologia da Informação nos indivíduos, no ambiente, nas relações internas e externas às Organizações através da análise, à luz da Teoria dos Custos de Transação e Teoria da Agência, aborda-se como esses efeitos resultam em modificações em diversos atributos da Firma. Este trabalho traz como contribuição à área apresentar o estudo do impacto na Tecnologia da Informação nas Organizações utilizando a Teoria da Agência aplicada à modelagem de Galbraith (1977) para análise dos impactos internos a Firma e Teoria dos Custos de Transação aplicada à modelagem de Straub e Watson (2000) para análise dos impactos externos a mesma. A análise dos impactos de TI sob a ótica deste dois modelos constitui trabalho inédito na literatura científica especializada ao tema.