1000 resultados para Modelos loglineares de Poisson
Resumo:
The aim of this study was to establish a digital elevation model and its horizontal resolution to interpolate the annual air temperature for the Alagoas State by means of multiple linear regression models. A multiple linear regression model was adjusted to series (11 to 34 years) of annual air temperatures obtained from 28 weather stations in the states of Alagoas, Bahia, Pernambuco and Sergipe, in the Northeast of Brazil, in function of latitude, longitude and altitude. The elevation models SRTM and GTOPO30 were used in the analysis, with original resolutions of 90 and 900 m, respectively. The SRTM was resampled for horizontal resolutions of 125, 250, 500, 750 and 900 m. For spatializing the annual mean air temperature for the state of Alagoas, a multiple linear regression model was used for each elevation and spatial resolution on a grid of the latitude and longitude. In Alagoas, estimates based on SRTM data resulted in a standard error of estimate (0.57 degrees C) and dispersion (r(2) = 0.62) lower than those obtained from GTOPO30 (0.93 degrees C and 0.20). In terms of SRTM resolutions, no significant differences were observed between the standard error (0.55 degrees C; 750 m - 0.58 degrees C; 250m) and dispersion (0.60; 500 m - 0.65; 750 m) estimates. The spatialization of annual air temperature in Alagoas, via multiple regression models applied to SRTM data showed higher concordance than that obtained with the GTOPO30, independent of the spatial resolution.
Resumo:
The perfect mixing model (PMM) is based on parameters derived from the equipment characteristics as well as ore breakage characteristics. Ore characteristics are represented through the appearance function. This function may be determined using JKMRC laboratorial methods or by standard functions. This work describes the model fitting process of the Carajas grinding circuit, using the JKSimMet simulator Two scenarios were used in model fitting exercises: 1) standard appearance function; and 2) appearance fund ion based on testing carried out on samples taken at circuit feed. From this assessment, the appearance function`s influence in the PMM,fit and it`s relation with the breakage rate were determined. The influence of the appearance function on the respective breakage rate distribution was assessed.
Resumo:
In this paper, three single-control charts are proposed to monitor individual observations of a bivariate Poisson process. The specified false-alarm risk, their control limits, and ARLs were determined to compare their performances for different types and sizes of shifts. In most of the cases, the single charts presented better performance rather than two separate control charts ( one for each quality characteristic). A numerical example illustrates the proposed control charts.
Resumo:
In this paper we proposed a new two-parameters lifetime distribution with increasing failure rate. The new distribution arises on a latent complementary risk problem base. The properties of the proposed distribution are discussed, including a formal proof of its probability density function and explicit algebraic formulae for its reliability and failure rate functions, quantiles and moments, including the mean and variance. A simple EM-type algorithm for iteratively computing maximum likelihood estimates is presented. The Fisher information matrix is derived analytically in order to obtaining the asymptotic covariance matrix. The methodology is illustrated on a real data set. (C) 2010 Elsevier B.V. All rights reserved.
Resumo:
Motor unit action potentials (MUAPs) evoked by repetitive, low-intensity transcranial magnetic stimulation can be modeled as a Poisson process. A mathematical consequence of such a model is that the ratio of the variance to the mean of the amplitudes of motor evoked potentials (MEPs) should provide an estimate of the mean size of the individual MUAPs that summate to generate each MEP. We found that this is, in fact, the case. Our finding thus supports the use of the Poisson distribution to model MEP generation and indicates that this model enables characterization of the motor unit population that contributes to near-threshold MEPs. Muscle Nerve 42: 825-828, 2010
Resumo:
Refletindo sobre modelo de carreira mais adequado para a Administra????o P??blica nesta era de economia globalizada e de maiores exig??ncias de efici??ncia e flexibilidade na gest??o dos aparatos governamentais, questiona-se aqui a id??ia de que o modelo burocr??tico deva ser substitu??do pelo modelo gerencial. Considerando essa id??ia apenas parcialmente verdadeira, nossa argumenta????o vai na seguinte dire????o: como a burocracia ?? a forma espec??fica de organiza????o do aparato administrativo do Estado de Direito, este modelo n??o pode ser rejeitado, sob pena de comprometimento desse Estado. Mas ele precisa ser flexibilizado, superando e reduzindo o formalismo excessivo e a rigidez que sua realiza????o hist??rica possa ter gerado nos diferentes pa??ses. Igualmente, deve ser aperfei??oado em seus mecanismos de controle, at?? como condi????o para sua manuten????o eficaz nos governos democr??ticos contempor??neos.
Resumo:
Este artigo apresenta diferentes vis??es sobre burocracia e efici??ncia, fazendo o contraponto com alguns modelos de gest??o p??blica, tais como o tradicional ou ortodoxo, o liberal e o chamado empreendedorismo estatal. Discute o relacionamento entre burocracia e efici??ncia, com um exemplo extra??do do gerencialismo brit??nico, orientador de reformas administrativas em diversos pa??ses. Elenca algumas quest??es recorrentes, que norteiam diversos modelos de gest??o p??blica em sua busca por efici??ncia e que t??m indiscut??vel import??ncia no ??mbito da administra????o p??blica.
Resumo:
A no????o de gest??o por compet??ncias ?? muito propagada nos estudos sobre a gest??o dos recursos humanos. Certos pesquisadores evocam at?? uma transfer??ncia do modelo de organiza????o fundado na no????o de fun????o, para outro, baseado na no????o de compet??ncia (LAWLER, 1994). De um ponto de vista hist??rico, a id??ia de considerar-se a compet??ncia foi desenvolvida inicialmente ??? como a maior parte das inova????es nos recursos humanos ??? no setor privado, onde a gest??o por compet??ncias tinha por objetivo principal assegurar melhor competitividade no meio concorrencial. Do ponto de vista sem??ntico, as palavras competi????o e compet??ncia s??o similares. No setor p??blico, a concorr??ncia ?? menos expl??cita, mas n??o menos presente: ela acontece pelo recrutamento, pela reten????o de talentos, pelo acesso aos recursos, pelo fechamento de contratos no mercado ou, ainda, pela busca de resultados. ?? nesse contexto que se explica, em parte, a atra????o das institui????es p??blicas pela gest??o por compet??ncias.
Resumo:
O artigo rev??, com base na bibliografia especializada, as reformas e tentativas de reformas administrativas realizadas no pa??s, desde o Estado Novo, passando pelas tentativas dos governos militares e pelas propostas mais recentes da Nova Rep??blica, e chegando at?? a reforma Bresser Pereira. O balan??o cr??tico ?? bastante negativo, sobretudo, porque as grandes reformas, precisamente pela sua abrang??ncia, nunca foram efetivamente implementadas. O sistema do m??rito no servi??o p??blico federal ?? um bom exemplo. As dificuldades de implementa????o das grandes reformas, advindas principalmente de sua grande complexidade, resultam tamb??m de sua intera????o negativa com o contexto pol??tico mais geral, pela carga ret??rica de que se fazem acompanhar, e pelo fato de subestimarem os aspectos t??cnicos necess??rios ?? sua implementa????o.
Resumo:
A integração de tecnologias de informação e comunicação no contexto educacional tem sido tema de diversos congressos e simpósios ao redor do mundo e no Brasil. Neste sentido, vários estudos têm sido realizados com o objetivo de se obter metodologias que tornem efetivo o emprego das novas tecnologias no ensino. Este artigo mostra um estudo que investigou a interação entre estudantes universitários da área de ciências exatas e um ambiente de modelagem computacional qualitativo em atividades de modelagem expressiva. Os resultados obtidos mostram que os estudantes foram capazes de criar e modificar o modelo do sistema proposto a partir de suas próprias concepções.
Resumo:
O número de municípios infestados pelo Aedes aegypti no Estado do Espírito Santo vem aumentando gradativamente, levando a altas taxas de incidência de dengue ao longo dos anos. Apesar das tentativas de combate à doença, esta se tornou uma das maiores preocupações na saúde pública do Estado. Este estudo se propõe a descrever a dinâmica da expansão da doença no Estado a partir da associação entre variáveis ambientais e populacionais, utilizando dados operacionalizados por meio de técnicas de geoprocessamento. O estudo utilizou como fonte de dados a infestação pelo mosquito vetor e o coeficiente de incidência da doença, as distâncias rodoviárias intermunicipais do Estado, a altitude dos municípios e as variáveis geoclimáticas (temperatura e suficiência de água), incorporadas a uma ferramenta operacional, as Unidades Naturais do Espírito Santo (UNES), representadas em um único mapa operacionalizado em Sistema de Informação Geográfica (SIG), obtido a partir do Sistema Integrado de Bases Georreferenciadas do Estado do Espírito Santo. Para análise dos dados, foi realizada a Regressão de Poisson para os dados de incidência de dengue e Regressão Logística para os de infestação pelo vetor. Em seguida, os dados de infestação pelo mosquito e incidência de dengue foram georreferenciados, utilizando como ferramenta operacional o SIG ArcGIS versão 9.2. Observou-se que a pluviosidade é um fator que contribui para o surgimento de mosquito em áreas não infestadas. Altas temperaturas contribuem para um alto coeficiente de incidência de dengue nos municípios capixabas. A variável distância em relação a municípios populosos é um fator de proteção para a incidência da doença. A grande variabilidade encontrada nos dados, que não é explicada pelas variáveis utilizadas no modelo para incidência da doença, reforça a premissa de que a dengue é condicionada pela interação dinâmica entre muitas variáveis que o estudo não abordou. A espacialização dos dados de infestação pelo mosquito e incidência de dengue e as Zonas Naturais do ES permitiu a visualização da influência das variáveis estatisticamente significantes nos modelos utilizados no padrão da introdução e disseminação da doença no Estado.
Resumo:
O presente trabalho objetiva avaliar o desempenho do MECID (Método dos Elementos de Contorno com Interpolação Direta) para resolver o termo integral referente à inércia na Equação de Helmholtz e, deste modo, permitir a modelagem do Problema de Autovalor assim como calcular as frequências naturais, comparando-o com os resultados obtidos pelo MEF (Método dos Elementos Finitos), gerado pela Formulação Clássica de Galerkin. Em primeira instância, serão abordados alguns problemas governados pela equação de Poisson, possibilitando iniciar a comparação de desempenho entre os métodos numéricos aqui abordados. Os problemas resolvidos se aplicam em diferentes e importantes áreas da engenharia, como na transmissão de calor, no eletromagnetismo e em problemas elásticos particulares. Em termos numéricos, sabe-se das dificuldades existentes na aproximação precisa de distribuições mais complexas de cargas, fontes ou sorvedouros no interior do domínio para qualquer técnica de contorno. No entanto, este trabalho mostra que, apesar de tais dificuldades, o desempenho do Método dos Elementos de Contorno é superior, tanto no cálculo da variável básica, quanto na sua derivada. Para tanto, são resolvidos problemas bidimensionais referentes a membranas elásticas, esforços em barras devido ao peso próprio e problemas de determinação de frequências naturais em problemas acústicos em domínios fechados, dentre outros apresentados, utilizando malhas com diferentes graus de refinamento, além de elementos lineares com funções de bases radiais para o MECID e funções base de interpolação polinomial de grau (um) para o MEF. São geradas curvas de desempenho através do cálculo do erro médio percentual para cada malha, demonstrando a convergência e a precisão de cada método. Os resultados também são comparados com as soluções analíticas, quando disponíveis, para cada exemplo resolvido neste trabalho.
Resumo:
Esta tese se propôs investigar a lógica inferencial das ações e suas significações em situações que mobilizam as noções de composição probabilística e acaso, bem como o papel dos modelos de significação no funcionamento cognitivo de adultos. Participaram 12 estudantes adultos jovens da classe popular, voluntários, de ambos os sexos, de um curso técnico integrado ao Ensino Médio da Educação de Jovens e Adultos. Foram realizados três encontros, individualmente, com registro em áudio e planilha eletrônica, utilizando-se dois jogos, o Likid Gaz e o Lucky Cassino, do software Missão Cognição (Haddad-Zubel, Pinkas & Pécaut, 2006), e o jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012). Os procedimentos da tarefa foram adaptados de Silva e Frezza (2011): 1) apresentação do jogo; 2) execução do jogo; 3) entrevista semiestruturada; 4) aplicação de três situações-problema com intervenção segundo o Método Clínico; 5) nova partida do jogo; e 6) realização de outras duas situações-problema sem intervenção do Método Clínico. Elaboraram-se níveis de análise heurística, compreensão dos jogos e modelos de significação a partir da identificação de particularidades de procedimentos e significações nos jogos. O primeiro estudo examinou as implicações dos modelos de significação e representações prévias no pensamento do adulto, considerando que o sujeito organiza suas representações ou esquemas prévios relativos a um objeto na forma de modelos de significação em função do grau de complexidade e novidade da tarefa e de sua estrutura lógico matemática, que evoluem por meio do processo de equilibração; para o que precisa da demanda a significar esse aspecto da 13 realidade. O segundo estudo investigou a noção de combinação deduzível evidenciada no jogo Likid Gaz, identificando o papel dos modelos de significação na escolha dos procedimentos, implicando na rejeição de condutas de sistematização ou enumeração. Houve predominância dos níveis iniciais de análise heurística do jogo. O terceiro estudo examinou a noção de probabilidade observada no jogo Lucky Cassino, no qual a maioria dos participantes teve um nível de compreensão do jogo intermediário, com maior diversidade de modelos de significação em relação aos outros jogos, embora com predominância dos mais elementares. A síntese das noções de combinação, probabilidade e acaso foi explorada no quarto estudo pelo jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012), identificando-se que uma limitação para adequada compreensão das ligações imbricadas nessas noções é a implicação significante – se aleatório A, então indeterminado D (notação A D), com construção de pseudonecessidades e pseudo-obrigações ou mesmo necessidades locais, generalizadas inapropriadamente. A resistência ou obstáculos do objeto deveria provocar perturbações, mas a estrutura cognitiva, o ambiente social e os modelos culturais, e a afetividade podem interferir nesse processo.
Resumo:
A literatura internacional que analisa os fatores impactantes das transações com partes relacionadas concentra-se no Reino Unido, nos EUA e no continente asiático, sendo o Brasil um ambiente pouco investigado. Esta pesquisa tem por objetivo investigar tanto os fatores impactantes dos contratos com partes relacionadas, quanto o impacto dessas transações no desempenho das empresas brasileiras. Estudos recentes que investigaram as determinantes das transações com partes relacionadas (TPRs), assim como seus impactos no desempenho das empresas, levaram em consideração as vertentes apresentadas por Gordon, Henry e Palia (2004): (a) de conflitos de interesses, as quais apoiam a visão de que as TPRs são danosas para os acionistas minoritários, implicando expropriação da riqueza deles, por parte dos controladores (acionistas majoritários); e (b) transações eficientes que podem ser benéficas às empresas, atendendo, desse modo, aos objetivos econômicos subjacentes delas. Esta pesquisa apoia-se na vertente de conflito de interesses, com base na teoria da agência e no fato de que o cenário brasileiro apresenta ter como característica uma estrutura de propriedade concentrada e ser um país emergente com ambiente legal caracterizado pela baixa proteção aos acionistas minoritários. Para operacionalizar a pesquisa, utilizou-se uma amostra inicial composta de 70 empresas com ações listadas na BM&FBovespa, observando o período de 2010 a 2012. Os contratos relacionados foram identificados e quantificados de duas formas, de acordo com a metodologia aplicada por Kohlbeck e Mayhew (2004; 2010) e Silveira, Prado e Sasso (2009). Como principais determinantes foram investigadas proxies para captar os efeitos dos mecanismos de governança corporativa e ambiente legal, do desempenho das empresas, dos desvios entre direitos sobre controle e direitos sobre fluxo de caixa e do excesso de remuneração executiva. Também foram adicionadas variáveis de controle para isolar as características intrínsecas das firmas. Nas análises econométricas foram estimados os modelos pelos métodos de Poisson, corte transversal agrupado (Pooled-OLS) e logit. A estimação foi feita pelo método dos mínimos quadrados ordinários (MQO), e para aumentar a robustez das estimativas econométricas, foram utilizadas variáveis instrumentais estimadas pelo método dos momentos generalizados (MMG). As evidências indicam que os fatores investigados impactam diferentemente as diversas medidas de TPRs das empresas analisadas. Verificou-se que os contratos relacionados, em geral, são danosos às empresas, impactando negativamente o desempenho delas, desempenho este que é aumentado pela presença de mecanismos eficazes de governança corporativa. Os resultados do impacto das medidas de governança corporativa e das características intrínsecas das firmas no desempenho das empresas são robustos à presença de endogeneidade com base nas regressões com variáveis instrumentais.
Resumo:
O objetivo principal deste trabalho foi o estudo do transporte atmosférico de PM10 e SO2 em regiões costeiras urbanas usando modelos WRF/CMAQ. Duas regiões foram contempladas neste estudo. Uma é a Região da Grande Vitória (RGV), no estado do Espírito Santo, Brasil; a outra é a Região da Grande Dunkerque (RGD), no Departamento Nord Pas-de-Calais, França. A RGV é cercada por uma cadeia de montanhas paralela à costa, resultando num topografia complexa e acidentada. Já a RGD possui uma topografia muito mais suave. As entradas de dados para os modelos WRF/CMAQ englobaram o inventário de emissões de poluentes atmosféricos do IEMA-ES para a RGV, e o inventário de emissões no nível do solo de Nord Pas-de-Calais denominado ―Cadastre_totaux_3km_A2008 _M2010_V2_SNAPN2‖ para a RGD. Ambos os inventários apresentaram restrições, todavia. O inventário da RGV apresentou valores de ressuspensão em vias de tráfego elevados, em comparação com diversos estudos, e teve esses dados modificados. Os dados no nível do solo e a grande área de das células da grade (9 km2) do inventário da RGD não permitiram resultados satisfatórios de modelagem. A validação dos modelos foi realizada por comparação com resultados obtidos em duas campanhas experimentais: uma na cidade de Dunkerque, no norte da França, em setembro de 2009; a outra na cidade de Vitória, no sudeste do Brasil, em julho de 2012. Esses dados foram obtidos pelo uso de sistemas de Light Detection and Ranging (LIDAR) e Sonic Detection and Ranging (SODAR), bem como de Estações Meteorológicas de Superfície (EMS) e de monitoramento atmosférico. Os resultados deste trabalho mostraram que: a) existe uma necessidade de melhorias contínuas nos inventários regionais de emissões, adaptando-os para condições locais específicas e focando na obtenção de parâmetros necessários para modelagem fotoquímica; b) os valores de módulo e direção das velocidades obtidas na modelagem meteorológica influenciam fortemente os resultados da modelagem de concentração de poluentes; c) a qualidade do ar tanto na RGV quanto na RGD merece atenção, sobretudo no que diz respeito às concentrações de MP10. De acordo com os dados das estações de monitoramento, a situação parece mais crítica na RGD; d) a modelagem da RGV apresentou resultados mais satisfatórios do que a da RGD, de acordo com os resultados das validações; e) a entrada da brisa do mar provocou alterações significativas na concentração dos poluentes, o que pôde ser observado na análise da dinâmica da dispersão de MP10 e SO2. Esse fenômeno foi mais marcante na RGV, onde a entrada da brisa marítima provocou um movimento oscilatório na pluma de poluição, levando-a para os bairros mais densamente povoados do conglomerado urbano. Na RGD, a entrada da brisa não foi cotidiana e, no dia em que ela aconteceu, houve uma alteração de quase 180º na direção do movimento da pluma de poluição. Além do aumento da turbulência vertical, o qual já foi estudado por diversos autores, este estudo focou também na influência brisa do mar na dinâmica da pluma de dispersão de poluentes atmosféricos em regiões costeiras.