905 resultados para Princípio multiplicativo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação expõe a fundamentação do conceito de bem comum no pensamento de JOHN MITCHELL FINNIS. Este jusfilósofo tem como ponto de partida para sua reflexão uma reinterpretação da ética tomista. Dela interessa o tratamento dado à separação das quatro ordens de conhecimento, particularmente a separação entre ordem natural e prática. A ordem prática de conhecimento tem suas próprias diretrizes. Logo, assim como na ordem natural de conhecimento a primeira diretriz é o princípio da não contradição, na ordem prática o primeiro princípio é o bem é para ser feito e buscado e o mal evitado. Estes postulados não são imperativos e nem indicativos, mas diretivos; e, no caso da ordem prática, uma diretiva para ação. A implicação epistemológica está em que a fundamentação imediata do agir humano não reside na natureza humana, mas na percepção prática de bens a serem realizados e dos males a serem evitados. Há um número determinado de bens humanos básicos, que são as razões primeiras para o agir humano. Eles são objetivos, incomensuráveis, auto-evidentes e pré-morais. O rol que FINNIS propõe é vida, conhecimento, matrimônio, excelência na realização, sociabilidade/amizade, razoabilidade prática e ‘religião’. O conteúdo da moral resulta destes bens humanos e tem como princípio supremo toda a escolha deve favorecer e respeitar o bem humano integral. Além de sintetizar a correção para o agir individual, a moral também fundamenta e demanda um agir social correto, que está expresso no conceito de bem comum. FINNIS define bem comum nos seguintes termos: um conjunto de condições que tornam aptos os membros de uma comunidade a alcançar por si mesmos objetivos razoáveis, ou realizar razoavelmente por si mesmos o(s) valor(es) pelos quais eles têm razão em colaborar uns com os outros (positiva e/ou negativamente) em uma comunidade. O conteúdo específico do bem comum da comunidade política é constituído pela justiça. O direito é o objeto da justiça e, assim, meio pelo qual o Estado a realiza e, por conseqüência, o bem comum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tem se intensificado, na atualidade, as iniciativas voltadas à construção de parcerias e ao desenvolvimento do princípio de subsidiariedade. Junto ao campo econômico, atividades de filantropia empresarial tem sido enfatizadas desde meados dos anos 90, no Brasil, sendo que, entre suas estratégias, está a valorização/disseminação da prática voluntária em moldes profissionalizados, com vistas a resultados da ação. Neste ínterim, esta pesquisa foi elaborada no intuito de identificar como a gestão de voluntariado, instaurada a partir de filantropia empresarial, tem contribuído para a construção de redes de ação voluntária e para a ampliação da competitividade de organizações sem fins lucrativos. Seguindo o referencial de Pierre Bourdieu, o trabalho analisa os capitais disponibilizados em torno de práticas de filantropia empresarial/responsabilidade social no Brasil atualmente, configurando o contexto social de atuação para as unidades de pesquisa: a Unidade PV-POA (ONG-Parceiros Voluntários) e o Albergue João Paulo II. Através da análise documental, da observação e de entrevistas com voluntários e gestores, as organizações selecionadas são abordadas como campos de ação, reconstituindo-se interesses e capitais em interação/conflito, identificando-se práticas de gestão que contribuem para o fortalecimento da competitividade de organizações sem fins lucrativos. A construção da rede, formação social estruturada em relações dinâmicas e flexíveis, foi observada, aqui, como a configuração organizacional instauradora de criatividade na gestão e potencializadora de diferenciais competitivos entre as atividades da Unidade PVPOA e do Albergue, gerando condições, ademais, de fortalecer laços em torno da ação voluntária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objeto desse estudo foram vidas humanas, sujeitos auto-eco-organizadores que possuem em comum o trabalho com o lixo. Seu suporte empírico foram as experiências de trabalho de catadores do antigo lixão da zona norte de Porto Alegre, hoje organizados em associação, a Associação dos Recicladores de Resíduos da Zona Norte. A partir desse universo, buscou-se compreender como esta atividade acabou sustentando – ou ressignificando - certos valores que, mesmo sem eliminá-la, transcenderam a vida individual, culminando num processo educativo de todos os envolvidos; como esses sujeitos, no convívio cotidiano acabaram tecendo um movimento transformador e organizador de mudanças transcendendo à ordem da sua realidade prática. Ou seja, como, ao coexistirem coletivamente com representações de desordem (o lixo, o mal, a miséria), subverteram o esperado e anunciado, explorando possibilidades e organizando-se a partir delas As experiências dos recicladores culminaram na construção e vivência de um conhecimento-emancipação, oriundo das interações, da possibilidade obsedante do estar-junto (Maffesoli,1996). A ajuda associativa, a divisão do trabalho e as sociabilidades de vizinhanças interagiram na emergência de um sujeito ético, político e estético, detentor de uma subjetividade não conformista. Tais experiências - vividas dentro de um contexto em que predominam determinadas representações de moral, do belo e de poder – transformaram o acontecer cotidiano numa instância de alianças “entre o bem e o mal, da conformidade e do nefasto, da ordem e da desordem” (Balandier,1997a:102), onde o todo, que circunda o significado do lixo, se configura enquanto um valor meta-positivo, capaz de contribuir não apenas na emancipação individual, mas também coletiva A vivência e a compreensão dessas experiências oportunizaram que as aproximações teóricas sobre homem e trabalho direcionassem à idéia de que, no âmago dessa socialidade, estão presentes o princípio da solidariedade (pela dimensão ética), o princípio da participação e do redimensionamento do espaço de ação da cidadania (pela dimensão política) e o princípio do prazer, da emoção compartilhada (pela dimensão da estética), transformando o estar-junto cotidiano como aquilo que promove o enraizamento, permitindo um entrecruzamento de microvalores sejam eles sociais, culturais ou produtivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho visou a utilização da energia solar na cura de pré-fabricados de concreto. Para tanto, foi utilizado dois modelos. O primeiro modelo constou da utilização de coletores solares planos, ligados até uma câmara de cura por um sistema de dutos; A radiação direta do sol incide sobre os coletores, que acumulam energia, que é removida pela água que circula pelos mesmos, levando essa energia através do sistema de distribuição (dutos) até a câmara de cura; Essa câmara, possui uma pista metálica em sua base, onde a energia é cedida para os pré-fabricados de concreto; Esse ciclo de captação distribuição e consumo é repetido a cada hora do dia, onde há radiação solar; Um segundo modelo constou de uma heliocâmara, princípio de um destilador solar convencional, onde a radiação incide diretamente sobre a câmara de cura; A radiação, penetra pela cobertura e forma-se um efeito estufa no interior da câmara, aquecendo seu interior e consequentemente os pré-fabricados de concreto; Avaliou-se os dois sistemas para as estações de verão e inverno na cidade de Porto Alegre (dias típicos) e concluiu-se que para o verão, tanto o sistema com coletores solares quanto o sistema com heliocâmaras poderão ser utilizados. No período de inverno, nenhum destes sistemas serão satisfatórios, porém suas utilizações serão viáveis em conjunto com uma fonte de energia alternativa; A energia solar constitui-se assim numa importante fonte de energia a ser utilizada em pré-fabricados de concreto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho apresenta-se um estudo numérico do escoamento de ar em um ambiente interno tridimensional típico, sujeito a um sistema de ventilação por deslocamento. O estudo numérico consiste na obtenção dos campos de velocidade e temperatura presentes no interior deste ambiente. A determinação dos campos de velocidade e temperatura é necessária na avaliação precisa das condições de conforto térmico, produzidas por um determinado sistema de climatização. Este tipo de estudo não serve somente para determinar a viabilidade da aplicação de um determinado sistema de distribuição de ar, mas através dele também se pode determinar as condições ótimas de uso deste sistema. De forma crescente observa-se o interesse dos projetistas de ar condicionado em aperfeiçoar as suas técnicas de cálculo, de modo que a simulação numérica poderá tornar-se uma técnica usual em pouco tempo. Atualmente duas técnicas estão disponíveis para o estudo do escoamento de ar em ambientes internos: investigação experimental e simulação numérica. Em princípio, medidas diretas dão informações mais realísticas relativas ao escoamento do ar interno, contudo, medições experimentais são muito caras e consomem muito tempo, inviabilizando a sua aplicação caso a caso. Devido às limitações da investigação experimental e à disponibilidade de computadores cada vez mais rápidos, o uso da simulação numérica surge como uma opção considerável nos dias de hoje O método de solução numérica, utilizado no presente trabalho, baseia-se na resolução das equações de conservação de massa, de quantidade de movimento e de energia, em um domínio de cálculo discretizado com o uso do Método dos Volumes Finitos. Os efeitos da turbulência são levados em conta através da utilização do modelo de turbulência K- ε e de um modelo de turbulência simplificado. Resultados bem convergidos para o problema abordado somente são obtidos com a utilização do modelo de turbulência simplificado. As simulações numéricas apresentadas no presente trabalho foram realizadas com o uso do código Fluent. Com base na comparação dos resultados numéricos obtidos no presente trabalho e os resultados experimentais de Yuan et al., 1999a, pode-se concluir que o modelo simplificado é adequado, ao menos provisoriamente, para determinar a distribuição de velocidade e de temperatura no escoamento de ar em ambientes internos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As transformações sociais, políticas e econômicas verificadas em escala global têm influenciado sensivelmente na definição de um novo papel e nova conformação do município enquanto ente integrante da federação. Neste contexto, busca-se investigar, em particular, a efetiva adequação das estruturas de cargos de provimento efetivo vigentes numa amostra de três pequenos municípios situados na região da Grande Porto Alegre - RS. A verificação desta adequação toma por orientação as necessidades efetivas da administração pública, bem como as realidades observadas no ambiente local. Buscando captar a percepção de pessoas envolvidas diretamente com a formulação, gerenciamento e controle das estruturas de cargos vigentes nos municípios pesquisados, realiza-se um estudo que parte de uma coleta de dados baseada em fontes secundárias e avança para uma pesquisa in loco, que tem o propósito de levantar as necessidades e a natureza das atividades efetivamente desenvolvidas pelos servidores públicos nas prefeituras. O estudo evidencia contradições entre proposições legais e orientações teóricas, acerca da definição das estruturas de cargos, e necessidades reais das administrações municipais quanto a pessoas e postos de trabalho. Verifica-se, assim, um confronto entre as estruturas formais e as estruturas reais em vigor. Os resultados alcançados na pesquisa apontam para a existência de desconformidades entre as estruturas de cargos administrativos e operacionais definidas em lei e as reais necessidades dos municípios. Pôde-se perceber, nos três casos estudados, que a prática administrativa atual reflete um paradoxo. De um lado, existem sólidas orientações e pressupostos burocráticos e legalistas (princípio da legalidade administrativa) e, de outro, realidades permeadas de ilegalidades e desvios de função, que se justificam pela efetiva realidade dos governos municipais, que são pressionados por novas, muitas e diferentes demandas sociais. A partir da análise das realidades encontradas nos três casos estudados, sugeremse estruturas mais flexíveis e adequadas às necessidades dos respectivos municípios, evidenciando, assim, que os seus quadros de pessoal podem ser conformados a um novo e mais moderno papel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa objetiva buscar parâmetros que permitam avaliar a eficiência relativa de uma instituição, assim considerada a administração pública direta, de forma a subsidiar as decisões do gestor atendendo ao princípio da eficiência insculpido no artigo 37, caput, da Constituição Federal, considerado o tema oportuno, haja vista a tramitação do projeto de reforma do Judiciário, reforma esta que não pode desconsiderar os princípios que regem a atuação do gestor público, entre eles o da eficiência. O objetivo central da pesquisa, então, foi a estruturação de um modelo de avaliação da eficiência relativa das Varas do Trabalho no Paraná, desdobrado em objetivos específicos. Para alcance de tais objetivos foi adotado o método de pesquisa operacional e, na busca da solução, optou-se pelo modelo matemático oferecido pela DEA – Análise Envoltória de Dados, mais as técnicas como a TGN – Técnica Grupo Nominal, combinada com a de brainstorming e o Método de Análise Hierárquica, para refinamento dos dados obtidos, num total de 14h de reunião, divididas em sete encontros, um a cada semana, com o Corregedor e ex-corregedores da Justiça do Trabalho no Paraná. Os resultados finais foram confirmados, ainda que tenham surpreendido aos profissionais da instituição onde se validou o modelo, através de entrevista semi-estruturada, ficando patente, entre outras situações, a de que o gestor público não se socorre de técnicas de gestão e, em muitas situações, em face do princípio da estrita legalidade, vê -se constrangido na ação em busca de melhor eficiência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O treinamento de força é praticado por adultos e idosos que visam ao melhoramento do rendimento desportivo ou ao aprimoramento da aptidão física, sendo consensual, no meio científico, as adaptações musculares e ósseas proporcionadas por essa prática. No entanto, a treinabilidade da força em crianças é discutida, principalmente, em função das controvérsias existentes entre estudos, referentes às adaptações provocadas pelo treinamento em nível muscular, bem como sobre as diferenças existentes entre os estágios de maturação. Sendo assim, as crianças são treináveis em relação à força muscular? O objetivo deste estudo foi avaliar a treinabilidade das forças de flexão do cotovelo e extensão do joelho em meninos escolares prépúberes e púberes submetidos a um programa de treinamento de força dinâmico e individualizado e comparálos com um grupo controle. O treinamento foi realizado 3 vezes por semana, durante 12 semanas, com 3 séries de 10-12 repetições, a uma intensidade de 60% a 85% do 1-RM. Também foi avaliada a especificidade do treinamento, comparando-se os ganhos obtidos nas forças dinâmica e estática dos membros superiores e inferiores. Os resultados indicaram que meninos pré-púberes e púberes submetidos ao treinamento apresentaram ganhos significativos na força muscular dinâmica (1-RM), tanto na flexão do cotovelo (88,9% e 44,4%, respectivamente) como na extensão do joelho (36,1% e 32,2%, respectivamente). O grau de treinabilidade da força, avaliado pelo ganho em quilogramas (∆) ocorrido nesses exercícios, foi semelhante nos dois grupos maturacionais. No entanto o treinamento dinâmico não alterou a força muscular estática, pois não houve alteração significativa das forças de flexão do cotovelo e extensão do joelho em 90° e 130°. Estes dados confirmam o princípio da especificidade entre os métodos de treinamento e de avaliação da força muscular. Palavras-chave: treinamento de força, força dinâmica, força estática, pré-púberes e púberes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A atrazina (ATZ) foi utilizada em experimentos de laboratório para estudos de mineralização e dessorção em amostras de Argissolo Vermelho (PV) e Vertissolo Ebânico (VE), sob campo nativo, com o intuito de identificar os atributos do solo que afetam estes processos. A influência da umidade do solo sobre a atividade microbiana foi avaliada variando-se os teores de umidade em 20, 40, 65 e 85% da capacidade de água disponível do solo (CAD) e aplicando-se 1,5 kg de princípio ativo ha-1 (menor dose recomendada (DR)). Para a avaliação do efeito das doses do herbicida ATZ sobre a atividade microbiana e sobre a taxa de degradação do herbicida foram feitas aplicações de 1x, 2x, 4x, 7x e 10x a DR. Na avaliação do efeito da matéria orgânica sobre a atividade microbiana e sobre a taxa de degradação da ATZ foi feita a aplicação de 10x a DR. Num estudo adicional foram testados quatro métodos de desinfestação de solos (fumigação, tindalização, autoclavagem e irradiação em forno de microondas). A determinação da ATZ na solução foi feita por cromatografia gasosa em extratos de metanol. A atividade microbiana foi monitorada pela evolução de CO2 e a microbiota foi avaliada pela contagem de unidades formadoras de colônias Os resultados indicam que a população microbiana apresenta maior atividade entre 65 e 85% de umidade da CAD e que o aumento das doses de aplicação da ATZ não provoca alterações relevantes na atividade microbiana. Aproximadamente 70% do herbicida aplicado fica sorvido ao solo, independentemente de dose de ATZ aplicada e da classe de solo estudada (PV e VE). As taxas de degradação da ATZ lábil foram baixas e dependentes de doses e tipos de solos, sendo maiores em doses mais elevadas e em solos com maior teor de C. Dentre os métodos de desinfestação, a irradiação em forno de microondas foi o mais adequado, uma vez que apresentou um comportamento similar à testemunha quanto à sorção do herbicida e foi eficiente na redução da população microbiana do solo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na realização de atividades físicas o corpo humano exerce forças contra o solo. Em atividades tais como correr e saltar as forças são exercidas através dos pés. Atualmente, sabe-se que estudos da magnitude e direção destas forças, e das maneiras de suas mudanças no tempo, fornecem valiosas informações sobre a performance alcançada no movimento, podendo indicar medidas corretivas que possam aprimorá-la. Na obtenção destas variáveis determinantes no desempenho do movimento utilizam-se instrumentos denominados plataformas de forças, capazes de medir a força de ação realizada sobre sua superfície de contato, e o respectivo momento, permitindo a determinação das três componentes ortogonais de força (Fx, Fy, Fz) e os momentos em torno dos três eixos ortogonais (Mx, My, Mz) simultaneamente. Este trabalho descreve o desenvolvimento teórico de uma plataforma de forças específica para aplicação na decolagem do salto em distância, bem como as alternativas de projeto geradas neste desenvolvimento. Foram buscadas soluções para a realização dos experimentos sob condições naturais de treinamento, visando a construção do instrumento e sua instalação na pista de saltos atléticos. Para isso é proposta a substituição da tábua de impulsão original pela plataforma de forças desenvolvida. Nas alternativas geradas foi utilizado o princípio extensométrico resistivo de medição de forças, que representa uma diminuição substancial no custo de manufatura estimado frente às unidades comercialmente avaliadas. Nestas alternativas, os sensores resistivos “strain gages” são localizados estrategicamente em estruturas metálicas que sustentam uma tampa de material composto com a função de superfície de contato Para a análise estrutural das alternativas estudadas foi utilizado o Método dos Elementos Finitos. Para comparar e escolher a melhor entre as diversas alternativas, foram propostos índices de desempenho. Ao final do trabalho são apresentadas conclusões sobre a metodologia empregada no estudo realizado e sobre o novo modelo de plataforma de forças desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tecnologia de workflow vem apresentando um grande crescimento nos últimos anos. Os Workflow Management Systems (WfMS) ou Sistemas de Gerenciamento de Workflow oferecem uma abordagem sistemática para uniformizar, automatizar e gerenciar os processos de negócios. Esta tecnologia requer técnicas de engenharia de software que facilitem a construção desse tipo de sistema. Há muito vem se formando uma consciência em engenharia de software de que para a obtenção de produtos com alta qualidade e que sejam economicamente viáveis torna-se necessário um conjunto sistemático de processos, técnicas e ferramentas. A reutilização está entre as técnicas mais relevantes desse conjunto. Parte-se do princípio que, reutilizando partes bem especificadas, desenvolvidas e testadas, pode-se construir software em menor tempo e com maior confiabilidade. Muitas técnicas que favorecem a reutilização têm sido propostas ao longo dos últimos anos. Entre estas técnicas estão: engenharia de domínio, frameworks, padrões, arquitetura de software e desenvolvimento baseado em componentes. Porém, o que falta nesse contexto é uma maneira sistemática e previsível de realizar a reutilização. Assim, o enfoque de linha de produto de software surge como uma proposta sistemática de desenvolvimento de software, baseada em uma família de produtos que compartilham um conjunto gerenciado de características entre seus principais artefatos. Estes artefatos incluem uma arquitetura base e um conjunto de componentes comuns para preencher esta arquitetura. O projeto de uma arquitetura para uma família de produtos deve considerar as semelhanças e variabilidades entre os produtos desta família. Esta dissertação apresenta uma proposta de arquitetura de linha de produto para sistemas de gerenciamento de workflow. Esta arquitetura pode ser usada para facilitar o processo de produção de diferentes sistemas de gerenciamento de workflow que possuem características comuns, mas que também possuam aspectos diferentes de acordo com as necessidades da indústria. O desenvolvimento da arquitetura proposta tomou como base a arquitetura genérica e o modelo de referência da Workflow Management Coalition (WfMC) e o padrão de arquitetura Process Manager desenvolvido no contexto do projeto ExPSEE1. O processo de desenvolvimento da arquitetura seguiu o processo sugerido pelo Catalysis com algumas modificações para representar variabilidade. A arquitetura proposta foi descrita e simulada através da ADL (Architecture Description Language) Rapide. A principal contribuição deste trabalho é uma arquitetura de linha de produto para sistemas de gerenciamento de workflow. Pode-se destacar também contribuições para uma proposta de sistematização de um processo de desenvolvimento de arquitetura de linha de produto e também um melhor entendimento dos conceitos e abordagens relacionados à prática de linha de produto, uma vez que esta tecnologia é recente e vem sendo largamente aplicada nas empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.