906 resultados para one way delay


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Large-eddy simulation (LES) has emerged as a promising tool for simulating turbulent flows in general and, in recent years,has also been applied to the particle-laden turbulence with some success (Kassinos et al., 2007). The motion of inertial particles is much more complicated than fluid elements, and therefore, LES of turbulent flow laden with inertial particles encounters new challenges. In the conventional LES, only large-scale eddies are explicitly resolved and the effects of unresolved, small or subgrid scale (SGS) eddies on the large-scale eddies are modeled. The SGS turbulent flow field is not available. The effects of SGS turbulent velocity field on particle motion have been studied by Wang and Squires (1996), Armenio et al. (1999), Yamamoto et al. (2001), Shotorban and Mashayek (2006a,b), Fede and Simonin (2006), Berrouk et al. (2007), Bini and Jones (2008), and Pozorski and Apte (2009), amongst others. One contemporary method to include the effects of SGS eddies on inertial particle motions is to introduce a stochastic differential equation (SDE), that is, a Langevin stochastic equation to model the SGS fluid velocity seen by inertial particles (Fede et al., 2006; Shotorban and Mashayek, 2006a; Shotorban and Mashayek, 2006b; Berrouk et al., 2007; Bini and Jones, 2008; Pozorski and Apte, 2009).However, the accuracy of such a Langevin equation model depends primarily on the prescription of the SGS fluid velocity autocorrelation time seen by an inertial particle or the inertial particle–SGS eddy interaction timescale (denoted by $\delt T_{Lp}$ and a second model constant in the diffusion term which controls the intensity of the random force received by an inertial particle (denoted by C_0, see Eq. (7)). From the theoretical point of view, dTLp differs significantly from the Lagrangian fluid velocity correlation time (Reeks, 1977; Wang and Stock, 1993), and this carries the essential nonlinearity in the statistical modeling of particle motion. dTLp and C0 may depend on the filter width and particle Stokes number even for a given turbulent flow. In previous studies, dTLp is modeled either by the fluid SGS Lagrangian timescale (Fede et al., 2006; Shotorban and Mashayek, 2006b; Pozorski and Apte, 2009; Bini and Jones, 2008) or by a simple extension of the timescale obtained from the full flow field (Berrouk et al., 2007). In this work, we shall study the subtle and on-monotonic dependence of $\delt T_{Lp}$ on the filter width and particle Stokes number using a flow field obtained from Direct Numerical Simulation (DNS). We then propose an empirical closure model for $\delta T_{Lp}$. Finally, the model is validated against LES of particle-laden turbulence in predicting single-particle statistics such as particle kinetic energy. As a first step, we consider the particle motion under the one-way coupling assumption in isotropic turbulent flow and neglect the gravitational settling effect. The one-way coupling assumption is only valid for low particle mass loading.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coastal managers need accessible, trusted, tailored resources to help them interpret climate information, identify vulnerabilities, and apply climate information to decisions about adaptation on regional and local levels. For decades, climate scientists have studied the impacts that short term natural climate variability and long term climate change will have on coastal systems. For example, recent estimates based on Intergovernmental Panel on Climate Change (IPCC) warming scenarios suggest that global sea levels may rise 0.5 to 1.4 meters above 1990 levels by 2100 (Rahmstorf 2007; Grinsted, Moore, and Jevrejeva 2009). Many low-lying coastal ecosystems and communities will experience more frequent salt water intrusion events, more frequent coastal flooding, and accelerated erosion rates before they experience significant inundation. These changes will affect the ways coastal managers make decisions, such as timing surface and groundwater withdrawals, replacing infrastructure, and planning for changing land use on local and regional levels. Despite the advantages, managers’ use of scientific information about climate variability and change remains limited in environmental decision-making (Dow and Carbone 2007). Traditional methods scientists use to disseminate climate information, like peer-reviewed journal articles and presentations at conferences, are inappropriate to fill decision-makers’ needs for applying accessible, relevant climate information to decision-making. General guides that help managers scope out vulnerabilities and risks are becoming more common; for example, Snover et al. (2007) outlines a basic process for local and state governments to assess climate change vulnerability and preparedness. However, there are few tools available to support more specific decision-making needs. A recent survey of coastal managers in California suggests that boundary institutions can help to fill the gaps between climate science and coastal decision-making community (Tribbia and Moser 2008). The National Sea Grant College Program, the National Oceanic and Atmospheric Administration's (NOAA) university-based program for supporting research and outreach on coastal resource use and conservation, is one such institution working to bridge these gaps through outreach. Over 80% of Sea Grant’s 32 programs are addressing climate issues, and over 60% of programs increased their climate outreach programming between 2006 and 2008 (National Sea Grant Office 2008). One way that Sea Grant is working to assist coastal decision-makers with using climate information is by developing effective methods for coastal climate extension. The purpose of this paper is to discuss climate extension methodologies on regional scales, using the Carolinas Coastal Climate Outreach Initiative (CCCOI) as an example of Sea Grant’s growing capacities for climate outreach and extension. (PDF contains 3 pages)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The initial objective of Part I was to determine the nature of upper mantle discontinuities, the average velocities through the mantle, and differences between mantle structure under continents and oceans by the use of P'dP', the seismic core phase P'P' (PKPPKP) that reflects at depth d in the mantle. In order to accomplish this, it was found necessary to also investigate core phases themselves and their inferences on core structure. P'dP' at both single stations and at the LASA array in Montana indicates that the following zones are candidates for discontinuities with varying degrees of confidence: 800-950 km, weak; 630-670 km, strongest; 500-600 km, strong but interpretation in doubt; 350-415 km, fair; 280-300 km, strong, varying in depth; 100-200 km, strong, varying in depth, may be the bottom of the low-velocity zone. It is estimated that a single station cannot easily discriminate between asymmetric P'P' and P'dP' for lead times of about 30 sec from the main P'P' phase, but the LASA array reduces this uncertainty range to less than 10 sec. The problems of scatter of P'P' main-phase times, mainly due to asymmetric P'P', incorrect identification of the branch, and lack of the proper velocity structure at the velocity point, are avoided and the analysis shows that one-way travel of P waves through oceanic mantle is delayed by 0.65 to 0.95 sec relative to United States mid-continental mantle.

A new P-wave velocity core model is constructed from observed times, dt/dΔ's, and relative amplitudes of P'; the observed times of SKS, SKKS, and PKiKP; and a new mantle-velocity determination by Jordan and Anderson. The new core model is smooth except for a discontinuity at the inner-core boundary determined to be at a radius of 1215 km. Short-period amplitude data do not require the inner core Q to be significantly lower than that of the outer core. Several lines of evidence show that most, if not all, of the arrivals preceding the DF branch of P' at distances shorter than 143° are due to scattering as proposed by Haddon and not due to spherically symmetric discontinuities just above the inner core as previously believed. Calculation of the travel-time distribution of scattered phases and comparison with published data show that the strongest scattering takes place at or near the core-mantle boundary close to the seismic station.

In Part II, the largest events in the San Fernando earthquake series, initiated by the main shock at 14 00 41.8 GMT on February 9, 1971, were chosen for analysis from the first three months of activity, 87 events in all. The initial rupture location coincides with the lower, northernmost edge of the main north-dipping thrust fault and the aftershock distribution. The best focal mechanism fit to the main shock P-wave first motions constrains the fault plane parameters to: strike, N 67° (± 6°) W; dip, 52° (± 3°) NE; rake, 72° (67°-95°) left lateral. Focal mechanisms of the aftershocks clearly outline a downstep of the western edge of the main thrust fault surface along a northeast-trending flexure. Faulting on this downstep is left-lateral strike-slip and dominates the strain release of the aftershock series, which indicates that the downstep limited the main event rupture on the west. The main thrust fault surface dips at about 35° to the northeast at shallow depths and probably steepens to 50° below a depth of 8 km. This steep dip at depth is a characteristic of other thrust faults in the Transverse Ranges and indicates the presence at depth of laterally-varying vertical forces that are probably due to buckling or overriding that causes some upward redirection of a dominant north-south horizontal compression. Two sets of events exhibit normal dip-slip motion with shallow hypocenters and correlate with areas of ground subsidence deduced from gravity data. Several lines of evidence indicate that a horizontal compressional stress in a north or north-northwest direction was added to the stresses in the aftershock area 12 days after the main shock. After this change, events were contained in bursts along the downstep and sequencing within the bursts provides evidence for an earthquake-triggering phenomenon that propagates with speeds of 5 to 15 km/day. Seismicity before the San Fernando series and the mapped structure of the area suggest that the downstep of the main fault surface is not a localized discontinuity but is part of a zone of weakness extending from Point Dume, near Malibu, to Palmdale on the San Andreas fault. This zone is interpreted as a decoupling boundary between crustal blocks that permits them to deform separately in the prevalent crustal-shortening mode of the Transverse Ranges region.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar o efeito do selamento dentinário imediato na cimentação definitiva de restaurações cerâmicas (Empress2Ivoclar Vivadent), levando em consideração a influência de diferentes métodos de remoção dos restos de cimento provisório da superfície dentinária previamente selada. Para isso foram utilizados 72 molares, hígidos, conseguidos no banco de dentes da Universidade do Estado do Rio de Janeiro. Os dentes foram divididos em nove grupos, os três primeiros serviram como grupo controle, onde não houve contaminação com nenhum cimento provisório, sendo eles: G1, onde o selamento e a cimentação definitiva foram feitas 15 dias após a confecção dos preparos cavitários; G2, onde o selamento dentinário foi feito imediatamente após o preparo e a cimentação definitiva após 15 dias; G3, onde o preparo, selamento e cimentação definitiva foram feitos no mesmo momento. Os próximos grupos foram os do selamento tardio, onde o sistema adesivo foi aplicado somente no momento da cimentação. Nestes grupos, após o preparo foram cimentadas restaurações provisórias com um cimento livre de eugenol (Temp BondNE) e após 15 dias as restaurações provisórias foram removidas e os restos de cimento limpos com diferentes métodos: G4: remoção com instrumento manual; G5: remoção com jato de bicarbonato; G6: remoção com pontas de ultra-som; após esta limpeza o sistema adesivo foi aplicado e as restaurações cerâmicas cimentadas. Por último foram os grupos do selamento dentinário imediato, onde o sistema adesivo foi aplicado imediatamente após a confecção dos preparos cavitários e em seguida foi feita a cimentação das restaurações provisórias. Após 15 dias as restaurações provisórias foram removidas, os restos de cimento foram limpos com os diferentes métodos: G7: remoção com instrumento manual; G8: remoção com jato de bicarbonato; G9: remoção com pontas de ultra-som. Após a limpeza as restaurações cerâmicas foram cimentadas. Para todos os grupos o sistema adesivo utilizado foi o Optibond FL Kerr e o cimento resinoso foi o Rely X ARC3M/ESPE. Vinte e quatro horas após as cimentações cerâmicas os corpos de prova foram submetidos ao ensaio mecânico de push out em uma máquina de ensaios universais EMIC DL. Os valores de resistência de união foram obtidos em KgF, convertidos em MPa e analisados estatisticamente. O teste de ANOVA mostrou que houve diferença estatisticamente significante entre os grupos (p≤0,05) e em seguida o t-teste mostrou que a técnica do selamento imediato resultou nos melhores valores de resistência de união. Por último, o teste de comparações múltiplas Student-Newman-Keuls (Teste SNK) mostrou que o método de limpeza dos restos de cimento provisório da superfície dentinária apresenta influência na resistência de união das restaurações cerâmicas. Com base nos resultados pôde-se concluir que a técnica do selamento imediato promoveu maior resistência adesiva para as restaurações cerâmicas e quanto ao método de limpeza, o melhor resultado, independente da técnica adesiva utilizada, foi a remoção com as pontas de ultrasson.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A exploração, processamento, transporte, armazenamento e utilização do petróleo e seus derivados têm resultado em acidentes e vazamentos de proporções variadas e existe uma demanda crescente por soluções técnica, ambiental e economicamente viáveis. É nesse contexto que a fitorremediação ganha evidência e se mostra adequada por aliar um custo-benefício atraente. A fitorremediação utiliza espécies vegetais para extrair, conter, imobilizar ou degradar contaminantes do solo e da água. Além disso, a possibilidade de crescer espécies de valor comercial em solos contaminados que, de outra forma, não teriam qualquer uso, torna-se uma alternativa atraente. O presente trabalho tem por objetivo avaliar a capacidade de fitorremediação de Mentha x Villosa e as alterações fisiológicas e morfológicas em decorrência da contaminação dos solos por petróleo em quatro concentrações (0%, 2%, 4% e 6% p/p) com seis repetições. As variáveis analisadas foram: taxa de sobrevivência, biomassa total seca e fresca, dimensão foliar, densidade de estômatos e densidade de tricomas. Foram feitas análises de hidrcarbonetos totais de petróleo - HTPs presntes no solo no início do experimento e após 90 dias de cultivo. As plantas crescidas em solo contaminado tiveram uma taxa de sobrevivência de 100%. Houve uma tendência ao xeromorfismo nas plantas mantidas em solo contaminado. De acordo com a análise one-way ANOVA (Tukey, I.C. 95%), houve redução significativa da biomassa fresca em plantas crescidas na presença de petróleo em qualquer concentração quando compradas ao controle e, também, redução significativa entre as concentrações 2% versus 4% e 2% versus 6%. Entretanto plantas crescidas em 4% e em 6% não diferiam entre si. Como não houve diferença significativa da biomassa seca para nenhum par, conclui-se que as diferenças observadas em biomassa fresca decorrem da menor absorção e/ou retenção de água por plantas crescidas na presença de petróleo. A presença do petróleo em qualquer concentração resultou em aumento significativo da densidade dos estômatos quando comparada ao controle (0%), particularmente aos 90 dias. Entretanto, não houve diferença significativa entre as plantas crescidas em petróleo nas diferentes concentrações. Aos 30 dias observou-se aumento significativo da densidade dos tricomas apenas em plantas na concentração 6%, comparadas ao controle (0%) e às demais concentrações (2% e 4%). Aos 60 dias, um aumento significativo da densidade de tricomas foi observado em plantas crescidas em todas as concentrações de petróleo (2%, 4% e 6%), quando comparadas ao controle e aos 90 dias, tais diferenças foram mantidas. Mentha x Villosa mostrou ser uma planta com potencial para crescer em solo contaminado com petróleo, sendo que aos 90 dias foi observada uma remoção de 99,90% de HTPs no solo contaminado a 2% (p/p) e de 99,98% de remoção de HTPs no solo contaminado a 4% (p/p).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A evolução da sociedade e da economia requer adaptações necessárias dos profissionais visando atender uma nova demanda do mercado e novas exigências sociais. A contabilidade é uma ciência que acompanha esta evolução. Desta forma, os profissionais da área devem se adequar às novas necessidades, assim como os cursos de graduação. Neste sentido, esta pesquisa teve por objetivo avaliar, se há relação entre os conteúdos sugeridos pelo CFC para a disciplina de contabilidade pública e a prática profissional na visão dos contadores que atuam na área. Para isto foi realizada uma pesquisa descritiva, com a adoção do método quantiqualitativo no tratamento dos dados. Os dados foram obtidos através de um questionário auto-aplicável a um grupo de participantes de dois eventos importantes para contabilidade pública no ano de 2010, o que gerou uma amostra de 156 contadores da área pública respondentes da pesquisa. Os resultados mostram que 52% dos profissionais acreditam que os conteúdos propostos pelo CFC para compor esta disciplina são suficientes para um bom exercício da profissão e que estes devem ser tratados com grande profundidade na graduação, sendo que os que acreditam nesta assertiva completamente são 35% dos entrevistados. Desta forma, observa-se a relação dos conteúdos sugeridos pelo CFC e a prática profissional. Entretanto, 52% dos respondentes acreditam que alguns detalhes deveriam ser ajustados nestes conteúdos mínimos, o que gera a necessidade de uma revisão do currículo desta disciplina.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This research is concerned with block coding for a feedback communication system in which the forward and feedback channels are independently disturbed by additive white Gaussian noise and average power constrained. Two coding schemes are proposed in which the messages to be coded for transmission over the forward channel are realized as a set of orthogonal waveforms. A finite number of forward and feedback transmissions (iterations) per message is made. Information received over the feedback channel is used to modify the waveform transmitted on successive forward iterations in such a way that the expected value of forward signal energy is zero on all iterations after the first. Similarly, information is sent over the feedback channel in such a way that the expected value of feedback signal energy is also zero on all iterations after the first. These schemes are shown to achieve a lower probability of error than the best one-way coding scheme at all rates up to the forward channel capacity, provided only that the feedback channel capacity be greater than the forward channel capacity. These schemes make more efficient use of the available feedback power than existing feedback coding schemes, and therefore require less feedback power to achieve a given error performance.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objetivo: Comparar a composição corporal total e regional e a distribuição de gordura de homens com lesão medular LM cervical fisicamente ativos e não ativos, e sua relação com a concentração de proteína C reativa ultra-sensível (PCR-us). Além disso, identificar um protocolo de impedância bioelétrica (BIA) que forneça resultados de percentual de massa gorda (MG) total concordantes com os obtidos pelo método de referência, absorciometria de dupla emissão de raios-X (DXA). Métodos: Os participantes possuíam lesão medular entre C5-C7 e foram classificados em ativos (n=15) e não ativos (n=10). Consideraram-se ativos os indivíduos que praticavam exercícios físicos há pelo menos três meses, três vezes por semana ou mais, totalizando tempo mínimo de 150 minutos de atividades físicas por semana. A determinação da composição corporal total e regional (braços, pernas e tronco) foi realizada por DXA. A PCR-us foi mensurada por imunoturbidimetria. Os protocolos de BIA testados foram: a) para indivíduos com LM (KOCINA & HEYWARD, 1997); b) para grupos que incluem idosos (GRAY et al 1989); c) validado para idosos brasileiros (DEY et al, 2003). A análise estatística dos dados incluiu ANCOVA para comparar a massa corporal total, composição corporal e PCR-us entre os grupos; e correlação parcial com correção pelo tempo de lesão (TL) para identificar a associação de exercício físico com MG e da PCR-us com exercício físico e MG tronco. A comparação dos resultados de percentual de gordura obtidos por DXA e cada um dos protocolos de BIA foi realizada por ANOVA one way e Dunnet pós teste. A análise de Bland-Altman foi realizada para verificação da concordância entre os métodos testados. Conclusão: O exercício físico praticado de forma contínua e controlada é importante para manter menores valores de MG e evitar acúmulo de gordura na região do tronco. A melhor composição corporal e distribuição de gordura corporal observadas no grupo ativo possivelmente levaram à menor concentração de PCR-us sérica. Juntas, estas adaptações provavelmente contribuíram para a redução dos riscos de desenvolvimento de doenças cardiometabólicas. A semelhança na modificação da composição corporal entre idosos e indivíduos com LM sugere que protocolos de BIA propostos para idosos podem ser adequados para avaliação da composição corporal de indivíduos com lesão medular cervical.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A competição atualmente vivida pelas organizações tem despertado o interesse em desenvolver formas de superar a concorrência e com isso, prosperar no mercado. Uma das formas de superar a concorrência é gerir os custos de forma estratégica para que seja possível superar a concorrência. A gestão estratégica de custos tem por finalidade ampliar os horizontes da análise de custos, ou seja, ela visa cobrir as deficiências existentes nos sistemas tradicionais de custeio, pois em sua análise irá considerar a cadeia de valor como um todo e não somente os processos internos em que há agregação de valor por parte da empresa. Assim, o objetivo da presente pesquisa foi investigar as características dos sistemas de custos e como as empresas da indústria de construção naval do Estado do Rio de Janeiro estão utilizando informações de custos para dar suporte à gestão estratégica, procurando investigar aspectos relativos a esta prática; assim, tem-se como propósito verificar a aplicação da teoria no setor. Para isso, foram realizados estudos casos em cinco empresas da indústria de construção naval, as empresas estudadas, constituem uma amostra não probabilística, ou seja, amostra por acessibilidade. O estudo constatou que mesmo às empresas não utilizando o método de custeio recomendando pela literatura, é dada uma especial atenção nas transações ocorridas ao longo da cadeia de valor, o que permite gerir os custos de maneira eficiente. Isso mostra a proximidade de diversas ações tomadas pelas empresas estudadas e a literatura sobre gestão estratégica de custos

Relevância:

80.00% 80.00%

Publicador:

Resumo:

No âmbito da organização do espaço, os cemitérios efetivam-se como artefatos de grande relevância e suscetíveis a diversas análises e interpretações. Na realidade, os cemitérios presentes nas cidades apresentam vívidas e vibrantes geografias. Marcas impressas pelo homem, refletem a estrutura social, cultural, religiosa, identitária da comunidade que os criaram, sendo impregnados de valores e significados, compondo, desta maneira, um rico e denso quadro cultural e de experiências. Mais do que isso, os campos santos apresentam particularidades e singularidades, uma vez que contemplam morfologias, estilos arquitetônicos e significados diferentes. Em outras palavras, compõem pontos singulares no espaço das cidades e, ao mesmo tempo, seus domínios internos compõem singulares cidades com seus traçados, monumentos e túmulos. Nestes termos, a dissertação tem como objetivo explorar/traduzir o Cemitério São João Batista, localizado no município do Rio de Janeiro. Pretende-se abordar e analisar os usos que ocorrem no espaço interno da necrópole em questão, compreendendo que, através destes, serão revelados os conteúdos das práticas sociais, espaciais e simbólicas. Diante do exposto, a pesquisa torna-se relevante por abarcar os afamados campos dos mortos do Rio de Janeiro, priorizando um tema negligenciado pelas análises geográficas no Brasil. De tal sorte, a dissertação transforma-se em um veio para que outros pesquisadores ousem na mesma linha, isto é, enveredando por um assunto tão rico no qual a geografia, com suas vertentes, permite de forma extraordinária a sua compreensão.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste estudo foi avaliar o efeito do fator C na resistência adesiva à dentina humana de um compósito à base de silorano, comparando-o com um compósito à base de metacrilato. Foram utilizados 40 molares humanos hígidos. Em metade da amostra foi realizado um preparo do tipo Classe I, com dimensões de 4x4 mm e 2 mm de profundidade, enquanto na outra metade foi realizado um preparo virtual (flat) com auxílio de uma matriz de teflon branco, com as mesmas dimensões da cavidade (4x4x2 mm), apoiada na superfície de dentina exposta. Cada grupo foi divido em dois, de acordo com o sistema restaurador: Sistema Adesivo P90 e resina Filtek P90; Adper Scotchbond Multiuso e resina Filtek Z350 XT (3M ESPE). Após a aplicação do sistema adesivo segundo as especificações do fabricante, as cavidades (real e virtual) foram preenchidas com as resinas (Z350 XT e P90) em dois incrementos. Foi realizada a fotoativação de cada incremento durante 25s. Após uma semana, as coroas foram seccionadas, obtendo-se espécimes constituídos de resina/dente na forma de um paralelepípedo (palitos). Estes palitos foram utilizados para o teste de microtração (Emic), onde a resistência adesiva na unidade MPa foi calculada. Os resultados foram avaliados estatisticamente pelo teste de análise de variância ANOVA One-Way (p = 0,05), e pelo teste de múltiplas comparações Student Newman Keuls. Foi observada uma diferença estatística entre a resina P90 (flat= 16,137,7 MPa e Cavidade= 16,759,0 MPa) e a Z350 XT (flat= 25,8211,6 MPa e Cavidade=24,4713,5 MPa), independentemente do tipo de cavidade restaurada. E não foi possível observar diferença estatística entre os tipos de cavidades (real ou virtual) restauradas com a mesma resina. Através dos testes realizados, foi possível concluir que: o fator C não afetou a resistência adesiva dos dois sistemas restauradores utilizados, e o tipo de sistema restaurador afeta a resistência adesiva, sendo que o sistema à base de silorano apresenta resultados inferiores ao de metacrilato.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta pesquisa aborda a aplicação da Teoria da Agência, a relação estabelecida entre as agências reguladoras e as entidades que exploram os serviços públicos sob sua tutela. A Teoria baseia-se na premissa de que a existência de separação entre a titularidade (propriedade) e o controle conduz à existência de conflitos de interesses entre as partes, e que uma das formas de se evitar esses conflitos é o estabelecimento de controles. Assim, haja vista a prerrogativa conferida pela lei a tais entidades, procurou-se verificar neste estudo o grau de regulação contábil empregado pelas agências reguladoras federais no desempenho de suas atribuições legais, que perpassam o controle de atividades econômicas específicas. Realizou-se estudo de casos de natureza exploratória em que se utilizou a fonte primária dos poderes das agências, a lei e os instrumentos de delegação de serviços públicos, visando verificar as características do sistema de controle por elas estabelecido. Os resultados obtidos apontam enormes distorções qualitativas e quantitativas na forma como as agências utilizam a informação contábil enquanto instrumento de controle. As contribuições desse estudo alcançam não apenas a comunidade científica e as agências, mas toda a sociedade, haja vista que as decisões das agências impactam diretamente o bem estar de toda a coletividade, sem exceções. Para a comunidade contábil, especialmente, o estudo aponta para um novo, pujante e praticamente inexplorado mercado de trabalho: a contabilidade regulatória.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[ES] Los recursos de naturaleza intangible se han convertido en los bienes más importantes que poseen las empresas para generar riqueza de manera sostenible, en concreto el Capital Humano. Sin embargo, el éxito y supervivencia de la empresa se encuentra sometida a la aprobación de sus grupos de interés (stakeholders). Por ello, las empresas deben adoptar medidas para garantizar que sus actuaciones sean percibidas por sus stakeholders como legítimas; una manera para legitimarse es mediante el suministro de información voluntaria. Por tanto, bajo el marco de la Teoría de la Legitimidad y de los Stakeholders, nuestro objetivo es analizar cómo las empresas españolas están informando de manera voluntaria sobre su Capital Humano en los informes anuales, desde una doble perspectiva informativa: la generación de intangibles (conocimiento) y la responsabilidad social. Así, usando la metodología del análisis de contenido, la evidencia empírica muestra que las empresas españolas suministran escasa información acerca de su Capital Humano, siendo los temas relacionados con la formación y el desarrollo de los empleados los más divulgados. No obstante, y con respecto a la responsabilidad social, hay que destacar la tendencia alcista por parte de las empresas a suministrar información relativa a la política de igualdad y diversidad, la prevención de riesgos laborales y las relaciones entre empleadores y empleados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A teoria do capital humano preconiza que o conjunto de habilidades, conhecimento e aptidões contribuem para o aumento da produtividade, que por sua vez, aumenta a renda dos indivíduos, possibilitando uma melhora no nível de qualidade de vida e nas oportunidades profissionais e sociais. Uma forma de potencializar os investimentos realizados em desenvolvimento humano é o próprio investimento em desenvolvimento infantil. Devido ao reconhecimento da importância que a educação e saúde infantil têm para o crescimento econômico dos países, a literatura que trata desses temas já é bastante ampla. Com base nesse reconhecimento, buscamos avaliar o impacto que o desenvolvimento infantil tem na educação primária. Para tanto, foram utilizados modelos de fronteira estocástica com o auxílio do programa R, no qual as variáveis independentes representam o desenvolvimento infantil, as variáveis dependentes, a educação primária e as unidades tomadoras de decisão são os Estados brasileiros.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Uma forma de generalizar a teoria de Einstein da gravitação é incorporar na lagrangiana termos que dependem de escalares formados com os tensores de Ricci e Riemann, tais como (Ricci)2, ou (Riemann)2. Estas teorias tem sido estudadas intensamente nos últimos anos, já que elas podem ser usadas para descrever a expansão acelerada do universo no modelo cosmológico standard. Entre os desfios de modificar a teoria de Einstein, se encontra o de limitar a ambiguidade na escolha da dependência da lagrangiana com os escalares antes mencionados. A proposta desta dissertação é a de colocar limites sobre as possíveis lagrangianas impondo que as ondas (isto é, perturbações lineares) se propaguem no vácuo sem que apareça, shocks.