996 resultados para Blum, RobertBlum, RobertRobertBlum
Resumo:
Approximate Bayesian computation (ABC) methods make use of comparisons between simulated and observed summary statistics to overcome the problem of computationally intractable likelihood functions. As the practical implementation of ABC requires computations based on vectors of summary statistics, rather than full data sets, a central question is how to derive low-dimensional summary statistics from the observed data with minimal loss of information. In this article we provide a comprehensive review and comparison of the performance of the principal methods of dimension reduction proposed in the ABC literature. The methods are split into three nonmutually exclusive classes consisting of best subset selection methods, projection techniques and regularization. In addition, we introduce two new methods of dimension reduction. The first is a best subset selection method based on Akaike and Bayesian information criteria, and the second uses ridge regression as a regularization procedure. We illustrate the performance of these dimension reduction techniques through the analysis of three challenging models and data sets.
Resumo:
Bioaccessibility tests can be used to improve contaminated land risk assessments. For organic pollutants a ‘sink’ is required within these tests to better mimic their desorption under the physiological conditions prevailing in the intestinal tract, where a steep diffusion gradient for the removal of organic pollutants from the soil matrix would exist. This is currently ignored in most PBET systems. By combining the CEPBET bioaccessibility test with an infinite sink, the removal of PAH from spiked solutions was monitored. Less than 10% of spiked PAH remained in the stomach media after 1 h, 10% by 4 h in the small intestine compartment and c.15% after 16 h in the colon. The addition of the infinite sink increased bioaccessibility estimates for field soils by a factor of 1.2–2.8, confirming its importance for robust PBET tests. TOC or BC were not the only factors controlling desorption of the PAH from the soils.
Resumo:
Giant planets helped to shape the conditions we see in the Solar System today and they account for more than 99% of the mass of the Sun’s planetary system. They can be subdivided into the Ice Giants (Uranus and Neptune) and the Gas Giants (Jupiter and Saturn), which differ from each other in a number of fundamental ways. Uranus, in particular is the most challenging to our understanding of planetary formation and evolution, with its large obliquity, low self-luminosity, highly asymmetrical internal field, and puzzling internal structure. Uranus also has a rich planetary system consisting of a system of inner natural satellites and complex ring system, five major natural icy satellites, a system of irregular moons with varied dynamical histories, and a highly asymmetrical magnetosphere. Voyager 2 is the only spacecraft to have explored Uranus, with a flyby in 1986, and no mission is currently planned to this enigmatic system. However, a mission to the uranian system would open a new window on the origin and evolution of the Solar System and would provide crucial information on a wide variety of physicochemical processes in our Solar System. These have clear implications for understanding exoplanetary systems. In this paper we describe the science case for an orbital mission to Uranus with an atmospheric entry probe to sample the composition and atmospheric physics in Uranus’ atmosphere. The characteristics of such an orbiter and a strawman scientific payload are described and we discuss the technical challenges for such a mission. This paper is based on a white paper submitted to the European Space Agency’s call for science themes for its large-class mission programme in 2013.
Resumo:
Pinheiros River (Brazil) plays a pivotal role in supplying water to Billings Reservoir, which presents multiple uses (human drinking, energy generation, irrigation, navigation, fishing and leisure) An intense monitoring program was performed during the years 2007 and 2008 to find out whether on site flotation is a feasible solution or not for improving the water quality of this urban river, attenuating the pollutants load caused by the water pumping to the reservoir (approximately 10 m(3)s(-1)) The monitoring of 18 variables (13,429 laboratorial analysis during the period of 490 days), suggested that despite the convenience of the on site approach for water treatment, especially for rivers located in fully urbanized areas, the flotation system is not enough itself to recover Pinheiros River water quality, given the several constraints that apply Total phosphorus removal was high in percentage terms (about 90%), although the remaining concentrations were not so low (mean of 0 05 mg L(-1)) The removal efficiency of some variables was insufficient, leading to high final mean concentrations of metals [e g aluminium (0 29 mg L(-1)), chromium (0 02 mg L(-1)) and iron (1 1 mg L(-1))] as well as nitrogen-ammonia (25 8 mg L(-1)) and total suspended solids (18 mg L(-1)) in the treated water
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
A Análise Financeira dos Índices tem sido usada largamente, desde o fim do século passado na avaliação das demonstrações financeiras; no entanto, encontrou-se desacreditada por volta dos anos 60. Assim, por essa época, Beaver; baseando-se na literatura existente, testa empiricamente muitas crenças tidas como verdadeiras e chega a resultados diferentes. Para isso, utilizou-se de metodologia estatística univariada, isto é, analisou cada índice isoladamente. Altman refuta a metodologia usada por Beaver e cria um modelo utilizando se da estatística multivariada, isto é, vários Índices são estudados, estabelecendo um score limite. Outros autores, baseando-se nestes dois estudos, ora criticando, ora comparando, montam outros modelos. Assim temos: Deakin, Blum, Libby, Kennedy, Kanitz, Zappa, Collongues, Conan, Holder, C.E.S.A. e outros que não foram mencionados neste trabalho. Este estudo mostrou o trabalho de cada autor individualmente e, num segundo momento, apresentou críticas e comparações sofridas por esses modelos, procurando evidenciar que essas críticas e comparações serviram para estimular o desenvolvimento da Análise Financeira, a tal ponto que pode-se citar Altman que, devido a críticas e também ao seu interesse em atualizar os dados, reformula o seu modelo original (1968), criando o modelo Zeta (1977). A segunda preocupação deste trabalho foi evidenciar alguns pontos que puderam ser colhidos do material disponível. Assim, procurou-se responder quais os Índices que mais foram usados pelos modelos e, como conclusão, chegou-se a evidência de que não existem alguns poucos índices que melhor discriminem uma empresa falida e não falida. Outra indagação foi, se esses modelos serviriam para todos os tipos e tamanhos de empresas, e concluiu-se que servem, desde que o analista os adapte às suas necessidades peculiares. E, por fim, procurou-se verificar a que finalidade esses modelos podiam corresponder. E, assim, apontou-se a análise de crédito comercial, para investimento, para decisões internas, para compra e venda de ações etc. Conclui-se, pois, que os vários modelos desenvolvidos nestes últimos anos, realmente trouxeram progresso à Análise Financeira, mas que esses resultados devem ser cuidadosa mente adaptados às diversas realidades e mais, dado ao desenvolvimento de outras ciências, podem somar-se esforços com intuito de alcançar um maior desenvolvimento.
Resumo:
Analisa a intervenção do Estado, quando consideradas as suas diferentes esferas de governo, e do Capital Multinacional, na evolução urbana do Município de São Bernardo do Campo. Trata-se de um estudo descritivo com hipóteses, servindo-se do método empírico, compreendendo análise interpretativa de fatos e dados primários em torno do tema apresentado, buscando reconstituir o urbano da cidade com base nos momentos e eventos mais significa ti vos que se tornaram os parâmetros do desenvolvimento local. A crítica enfoca o Planejamento e a Autonomia, correlacionando os conceitos e pressupostos adotados com a ocorrência dos eventos abordados, procurando identificar e qualificar a ação do Estado e do Capital Multinacional no âmbito do Município, bem como as consequências dessa ação no urbano, quando considerados todos os aspectos inerentes à sua dinâmica: físico, econômico, social e politico.
Resumo:
Esse estudo objetiva compreender como são tratados os problemas de agência nos contratos de gestão com as Organizações Sociais de Saúde pelo Estado do Rio de Janeiro. Para tanto, realiza-se a revisão da literatura permitindo a construção da fundamentação teórica, referente à Nova Gestão Pública e ao paradigma pós-burocrático da contratação de parcerias pela esfera pública, identificando problemas na contratualização com foco nos problemas de agência. O contexto de estudo descreve, com base em pesquisa documental, o campo de análise da dissertação, a contratualização com Organizações Sociais pela Secretaria de Saúde do Estado do Rio de Janeiro. A análise dos resultados na perspectiva da teoria da agência, aplicada ao conteúdo do contrato de gestão e aos eventos do contexto de estudo, leva à conclusão de que a Secretaria de Saúde adota na delegação da gestão, de forma padronizada, salvaguardas contratuais que incorporam grande número de contingências, identificadas como problemas de agência, e exerce forte pressão como principal da relação, impondo custos de obrigação aos agentes e suportando custos de monitoramento e custos residuais. Privilegiam-se mecanismos de governança consistentes, apostando em sistemas de informação e no controle e acompanhamento permanente dos contratos por estrutura organizacional dedicada, com o monitoramento do comportamento para o alcance de resultado vinculado à remuneração do agente, sem a utilização de incentivos por recompensas. Não há uma substituição do clássico controle de meios pelo controle de fins, apregoado pela administração pública gerencial. Há, sim, um duplo controle, no qual a prestação de contas é uma obrigação e os resultados são um critério de avaliação para o repasse dos recursos e sustentabilidade da parceria, agregando qualidade ao gasto público.
Resumo:
Teve-se o objetivo de verificar a influência da velocidade de deslocamento na semeadura de milho, variando de 3,0 a 9,0 km h-1, em quatro condições. As variáveis analisadas foram: população de plantas emergidas, distribuição longitudinal, população com espigas e os componentes de rendimento. Concluiu-se que há aumento na percentagem de espaçamentos falhos e múltiplos e queda de espaçamentos aceitáveis ao se elevar a velocidade de semeadura. A produtividade só foi afetada quando a população de plantas com espigas foi reduzida pelo incremento de velocidade.
Resumo:
A matemática intervalar é uma teoria matemática originada na década de 60 com o objetivo de responder questões de exatidão e eficiência que surgem na prática da computação científica e na resolução de problemas numéricos. As abordagens clássicas para teoria da computabilidade tratam com problemas discretos (por exemplo, sobre os números naturais, números inteiros, strings sobre um alfabeto finito, grafos, etc.). No entanto, campos da matemática pura e aplicada tratam com problemas envolvendo números reais e números complexos. Isto acontece, por exemplo, em análise numérica, sistemas dinâmicos, geometria computacional e teoria da otimização. Assim, uma abordagem computacional para problemas contínuos é desejável, ou ainda necessária, para tratar formalmente com computações analógicas e computações científicas em geral. Na literatura existem diferentes abordagens para a computabilidade nos números reais, mas, uma importante diferença entre estas abordagens está na maneira como é representado o número real. Existem basicamente duas linhas de estudo da computabilidade no contínuo. Na primeira delas uma aproximação da saída com precisão arbitrária é computada a partir de uma aproximação razoável da entrada [Bra95]. A outra linha de pesquisa para computabilidade real foi desenvolvida por Blum, Shub e Smale [BSS89]. Nesta aproximação, as chamadas máquinas BSS, um número real é visto como uma entidade acabada e as funções computáveis são geradas a partir de uma classe de funções básicas (numa maneira similar às funções parciais recursivas). Nesta dissertação estudaremos o modelo BSS, usado para se caracterizar uma teoria da computabilidade sobre os números reais e estenderemos este para se modelar a computabilidade no espaço dos intervalos reais. Assim, aqui veremos uma aproximação para computabilidade intervalar epistemologicamente diferente da estudada por Bedregal e Acióly [Bed96, BA97a, BA97b], na qual um intervalo real é visto como o limite de intervalos racionais, e a computabilidade de uma função intervalar real depende da computabilidade de uma função sobre os intervalos racionais
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)