105 resultados para Fluxo óptico
Resumo:
o estudo da distribuição de extinção na Galáxia e nas Nuvens de Magalhães é feito através da análise dos mapas de avermelhamento derivados da emissão 100f-Lmda poeira E(B- V)FIR de Schlegel et ai. (1998). Comparamos valores de avermelhamento E(B- V)FIR com os derivados do conteúdo estelar de 103 aglomerados abertos velhos e 150 aglomerados globulares da Galáxia. As diferenças entre os dois avermelhamentos, quando significativas, ocorrem principalmente em baixas latitudes galáticas, no sentido de que os valores E(B-V)FIR são mais altos devido à contribuição do fluxo 100f-Lmda poeira que se encontra atrás dos aglomerados. As diferenças também podem surgir por um valor de E(B-V)FIR superestimado devido aos grãos de poeira terem temperatura T> 21 K o que parece ocorrer principalmente na direção do Centro da Galáxia. Construímos um catálogo geral de nebulosas escuras unificando 15 catálogos da literatura reunindo~ 6300 itens. Após cruzamentos, o catálogo unificado contém 4956 nebulosas escuras. Medimos valores de E(B-V)PIR no centro destas nebulosas escuras e amostramos seus arredores. Encontramos contraste preferencialmente para nebulosas escuras a médias e altas latitudes galáticas. Nebulosas escuras próximas ao Plano Galático apresentam flutuações maiores nos valores de E(B- V)FIR nos arredores, devido às contribuições de densidade de coluna de poeira das nebulosas e meio difuso acumulados em profundidade ao longo da linha de visada. Utilizamos a fotometria JHKs do 2MASS para obter mapas de extinção em regiões candidatas a regiões de baixa extinção (janelas) na direção do Bojo Galático Confirmamos a existência das janelas e encontramos uma grande semelhança entre os mapas de extinção na banda K derivados a partir do conteúdo estelar e os derivados da emissão da poeira. Tal semelhança na distribuição do avermelhamento nos mapas se deve à maior parte das nuvens de poeira estar localizada entre nós e as estrelas do Bojo. Realizamos a busca de aglomerados infravermelhos jovens compactos (semelhantes aos aglomerados Arches e Quintuplet) próximo ao Centro Galático utilizando o Atlas de imagens JHKs do 2MASS. Encontramos 58 candidatos a aglomerados, importantes alvos para grande telescópios. Nas direções das Nuvens de Magalhães, testamos os valores de E(B- V)FIR nas linhas de visada de galáxias de fundo comparando esses valores com os avermelhamentos derivados através dos espectros observados das galáxias. A obtenção do avermelhamento foi feita comparando a distribuição de contínuo dos espectros das galáxias observadas na direção das Nuvens com o contínuo de espectros médios de semelhante população estelar (formados por galáxias em altas latitudes galáticas) corrigidos por extinção . O avermelhamento foi derivado para 36 galáxias projetadas sobre as Nuvens de Magalhães e obtivemos um avermelhamento médio total (galático + interno) de E(B-V) = 0.12 para a Grande Nuvem e E(B-V) = 0.05 para Pequena Nuvem, sendo o avermelhamento interno estimado em E(B- V)i = 0.06 e E(B- V)i = 0.04 para Grande e Pequena Nuvem respectivamente. Para 86 % da amostra obtivemos uma boa concordância entre os valores de avermelhamento espectroscópicos e os derivados da emissão da poeira Os casos de diferenças significativas foram interpretados como devidos à distribuição de poeira ter uma escala menor que a resolução dos mapas de avermelhamento E(B-V)FIR ou ao superaquecimento da poeira, como ocorre principalmente na direção do Centro Galático. As presentes análises da extinção através da Galáxia e das Nuvens de Magalhães fornecem evidências da importância, utilidade e algumas limitações dos mapas de poeira de Schlegel et aI. (1998) para estudos galáticos e extragaláticos.
Resumo:
Existe um interesse crescente pelo controle das condições de cultivo necessárias para a expansão de células-tronco de indivíduos adultos devido ao grande potencial para o desenvolvimento de pesquisa básica e de aplicações terapêuticas apresentado pelas mesmas. Atualmente, a literatura apresenta poucos trabalhos que detalhem a biologia da célula-tronco mesenquimal (MSC) de camundongo, revelando a necessidade de estudos voltados para este tema. Quatro culturas de longa duração foram produzidas com células da medula óssea de camundongos normais e IDUA knock-out através de técnicas de cultivo relativamente simples. Estas culturas puderam ser mantidas por até 40 passagens, e demonstraram ser morfologicamente homogêneas. Células dessas culturas puderam ser induzidas a diferenciarem-se ao longo de vias de diferenciação adipogênica e osteogênica, e revelaram ser capazes de suportar o crescimento e a proliferação de células-tronco hematopoiéticas. Por apresentarem tais características funcionais, essas populações celulares foram operacionalmente definidas como MSCs. Quando o repertório de marcadores de superfície dessas células foi observado por meio de citometria de fluxo, verificou-se que elas eram positivas para Sca-1, CD29, CD44 e CD49e, e eram negativas para CD11b, CD13, CD18, CD19, CD31, CD45, CD49d e Gr-1 Este perfil de moléculas de superfície assemelha-se àquele descrito para a MSC humana, e indica ausência de contaminantes hematopoiéticos. Uma verificação preliminar da freqüência da MSC na medula óssea de camundongo foi realizada, trazendo a estimativa de que uma MSC está presente numa faixa de 11.000 – 27.000 células. Finalmente, os dados revelaram que não há diferenças imediatamente perceptíveis entre camundongos normais e do modelo murino de MPS I no tocante à MSC, o que indica que os trabalhos futuros visando à correção da deficiência de α-L-iduronidase neste modelo utilizando a MSC são viáveis. O estabelecimento da metodologia para o cultivo e expansão da MSC murina através de técnicas simples vem preencher uma lacuna existente no campo dos modelos experimentais animais, trazendo novas perspectivas para o desenvolvimento de estratégias de terapia celular/genética em modelos experimentais murinos.
Resumo:
Este trabalho analisa os efeitos que a formação da Área de Livre Comércio das Américas (ALCA) poderá exercer sobre o fluxo de comércio de um grupo de países que farão parte deste bloco, a partir da utilização de um modelo gravitacional. Inicialmente, apresentamos a fundamentação teórica sobre a formação de blocos econômicos, enfatizando os principais conceitos como criação de desvio de comércio. Um breve relato sobre o andamento das negociações para a formação da ALCA é apresentado a seguir, com ênfase no seu desenvolvimento histórico e temas ainda pendentes. A terceira parte do trabalho destina-se comentar alguns estudos sobre o mesmo tema que utilizaram metodologias diferentes para analisar o mesmo tema. Na quarta parte, são estimados os efeitos sobre o comércio de três importantes blocos já em vigor na região (Pacto Andino, MERCOSUL e NAFTA) através do modelo gravitacional. Este modelo permite identificar os efeitos sobre o comércio que podem ser atribuídos exclusivamente a formação dos blocos, separando-os dos demais fatores que influenciam o padrão de comércio. Os resultados obtidos por meio da equação gravitacional servem de base para a criação de cenários prospectivos da ALCA. No cenário mais otimista, o comércio do Brasil com os principais parceiros da ALCA cresceria significativamente, assim como os fluxos comerciais entre os demais países analisados.
Resumo:
O presente trabalho tem por objetivo desenvolver e implantar um sistema gerencial voltado à manutenção. Atualmente, é inadmissível imaginar que seja possível gerenciar um setor sem haver criado um sistema que gere informações e meios de se atingir metas – pré-definidas. Para fundamentar o projeto, foi realizada uma revisão bibliográfica nas ferramentas gerenciais, nos sistemas de gestão da manutenção e na relação entre a estratégia produtiva e a estratégia de atuação da manutenção. Primeiramente, será apresentada uma proposta do sistema gerencial da manutenção, demonstrando sua lógica de estruturação. A idéia consiste em criá-lo levando-se em consideração alguns aspectos básicos que agem como pilares, dando suporte ao modelo gerencial. Os denominados pilares do Sistema de Implantação e Gestão da Manutenção são os 5S’s, o fluxo organizado de informações, a manutenção planejada, a padronização, os colaboradores capacitados e motivados, a determinação de indicadores e metas e o aplicativo. A partir dos pilares foi desenvolvida a Estrutura o Sistema Gerencial em forma de diagrama de árvore, contendo todas as tarefas necessárias a sua implantação. Posteriormente, apresentar-se-á a aplicação prática do sistema através de um estudo de caso em um hospital. Este estudo de caso contém a descrição minuciosa do realizado em cada tarefa, esclarecendo e ampliando a compreensão do leitor diante do sistema gerencial.
Resumo:
Neste trabalho o método LTSN é utilizado para resolver a equação de transporte de fótons para uma placa plana heterogênea, modelo de multigrupo, com núcleo de espalhamento de Klein-Nishina, obtendo-se o fluxo de fótons em valores discretos de energia. O fluxo de fótons, juntamente com os parâmetros da placa foram usados para o cálculo da taxa de dose absorvida e do fator de buildup. O método LTSN consiste na aplicação da transformada de Laplace num conjunto de equações de ordenadas discretas, fornece uma solução analítica do sistema de equações lineares algébricas e a construção dos fluxos angulares pela técnica de expansão de Heaviside. Essa formulação foi aplicada ao cálculo de dose absorvida e ao fator de Buildup, considerando cinco valores de energia. Resultados numéricos são apresentados.
Resumo:
O presente trabalho estuda o reaproveitamento do efluente alcalino do branqueamento da polpa, da indústria de celulose, através de processos de separação com membranas. Para tanto, foram realizados testes com o efluente industrial para diferentes membranas e, simultaneamente, foi pesquisada a aplicação do processo de flotação como pré-tratamento para retirada de fibras do efluente. A avaliação dos resultados foi realizada por meio de determinações analíticas e monitoramento de alguns parâmetros. Os experimentos foram executados em equipamentos de bancada e piloto. A etapa de separação com membranas envolveu os processos de ultrafiltração, nanofiltração, osmose reversa e combinações destas operações. De forma a escolher um processo com retenção e fluxo permeado adequados variou-se durante os testes a pressão através das membranas e a temperatura. As análises realizadas para a caracterização do efluente foram: pH, condutividade elétrica, turbidez, sólidos totais (ST), demanda química de oxigênio (DQO), compostos organo-halogenados (AOX), ferro, magnésio, cálcio, sódio, potássio e manganês. A DQO foi o principal critério utilizado para avaliar a qualidade do permeado. Os ensaios de flotação foram realizados com e sem adição de compostos químicos auxiliares. A eficiência do processo foi avaliada através das análises de ST, condutividade elétrica, pH, recuperação de fibras, teor de alumínio, turbidez e visualmente Os resultados indicaram que todos os processos testados trouxeram uma melhoria nas características do efluente, incluindo reduções de até 90% no valor de DQO em alguns casos. O processo que apresentou a melhor performance foi a combinação UF5+ORP. A investigação preliminar sobre a flotação das fibras mostrou que, apesar de ter atingido uma remoção de fibras de 95% ainda havia a presença de partículas grosseiras, as quais poderiam causar danos aos processos com membranas. Mais estudos devem ser realizados no sentido de otimizar o processo de flotação.
Resumo:
Resumo não disponível.
Resumo:
Este estudo foi desenvolvido dentro do projeto de pesquisa “Micrometeorologia da Mata Atlântica alagoana (MICROMA)” do Departamento de Meteorologia da Universidade Federal de Alagoas, que busca avaliar modificações no sistema solo-planta-atmosfera provocadas pela substituição da Mata Atlântica pela cultura da cana-de-açúcar, na Zona da Mata alagoana. O objetivo principal do presente estudo foi o ajuste do modelo de Penman-Monteith para o cálculo da evapotranspiração da cultura da cana-de-açúcar, na zona canavieira de Alagoas, a partir de determinações micrometeorológicas pelo método do balanço de energia, em diferentes estádios de desenvolvimento da cultura e em diferentes condições de demanda evaporativa atmosférica. A evapotranspiração foi estimada pelo método de Penman-Monteith e comparada com valores calculados através do balanço de energia, pela razão de Bowen, considerando este como método padrão. Medições micrometeorológicas foram feitas nos anos agrícolas de 1997/98 e 1998/99, em um área de 12,5ha de cultivo contínuo de cana-deaçúcar, cultivar SP 70-1143, sob condições de lavoura comercial, na Fazenda Vila Nova, município de Pilar, Alagoas (9o36´S, 35o53´W, 107m de altitude). Durante o período experimental, foram tomadas amostras quinzenais para determinar altura do dossel, comprimento de colmo, índice de área foliar e acúmulo de matéria seca (este apenas em 1998/99). Os parâmetros aerodinâmicos da cultura zo (comprimento de rugosidade) e d (deslocamento do plano zero) foram determinados a partir de perfis de vento, em condições de atmosfera neutra, e relacionados com a altura do dossel. Foram ajustados modelos para estimar o índice de área foliar e a altura do dossel da cultura em função do comprimento do colmo. O fracionamento do saldo de radiação no chamado “período potencial”, sem deficiência hídrica e com a cultura cobrindo completamente o solo, foi de 78% para o fluxo de calor latente de evaporação, 21% para o fluxo de calor sensível na atmosfera e aproximadamente 0,1% para o luxo de calor no solo. A estimativas pelo método de Penman-Monteith se ajustaram ao valores calculados pelo método do balanço de energia, tanto para médias qüinqüidiais (r = 0,93) como para valores diários (r = 0,91). Assim, dados confiáveis de evapotranspiração da cultura de cana-de-açúcar podem ser obtidos pelo método de Penman-Monteith ajustado neste trabalho, para a zona canavieira de Alagoas, em períodos sem deficiência hídrica e com cobertura completa do solo. O uso deste método apresenta a vantagem prática de requerer apenas dados meteorológicos, medidos em apenas um nível, em estações meteorológicas convencionais.
Resumo:
Este estudo busca a compreensão de uma rede social através da Teoria dos Sistemas Vivos. Por sistema vivo entende-se aquele que, mantendo sua organização distinta por um observador (identidade sistêmica), realiza câmbios em sua estrutura (elementos constituintes) no processo de produção de si mesmo (autopoiese). Por serem abertos ao fluxo de matéria e energia, os sistemas autopoiéticos realizam seus câmbios estruturais a partir de interações com outros sistemas, ou acoplamentos estruturais. É feita uma breve contextualização teórica a respeito das descobertas da física contemporânea até a noção de redes autopoiéticas seu uso na psicologia social e institucional. Foi escolhida como objeto de estudo a Rede Integrada de Serviços do Bairro Restinga, em Porto Alegre, através da observação de suas reuniões (diários de campo) e transcrições de suas atas, bem como documentos enviados pela e para a Rede como sistema. São analisados três momentos de sua autopoiese: sua constituição como espaço aberto e múltiplo, seus movimentos com fins organizativos (auto-regulação) e um acoplamento com outro sistema. Por fim, discute-se a importância da pesquisa, pela sua integração entre a teoria dos sistemas vivos e a possibilidade de uma nova sociedade.
Resumo:
O principal objetivo dessa tese consiste em determinar uma solução numéricada equação bidimensional do transporte de nêutrons para elevadas ordens de quadratura angular. Diagonalizando a matriz de transporte LTSN bidimensional , construímos dois algoritmos que se diferenciam pela forma de representar os termos de fuga transversal, que surgem nas equações LTSN integradas transversalmente. Esses termos no método LTSN2D − Diag são expressos como combinação linear dos autovetores multiplicados por exponenciais dos respectivos autovalores. No método LTSN2D − DiagExp os termos de fuga transversal são representados por uma função exponencial com constante de decaimento heuristicamente identificada com parâmetros materiais característicos do meio. A análise epectral desenvolvida permite realizar a diagonalização. Um estudo sobre o condicionamento é feito e também associamos um número de condicionamento ao termo de fuga transversal. Definimos os erros no fluxo aproximado e na fórmula da quadratura, e estabelecemos uma relação entre eles. A convergência ocorre com condições de fronteira e quadratura angular adequadas. Apresentamos os resultados numéricos gerados pelos novos métodos LTSN2D − Diag e LTSN2D − DiagExp para elevadas ordens de quadratura angular para um problema ilustrativo e comparamos com resultados disponíveis na literatura.
Resumo:
A hiperprolinemia tipo II é um erro inato do metabolismo de aminoácido causado pela deficiência na atividade da Ä1 pirrolino-5-carboxilato desidrogenase. O bloqueio dessa reação resulta no acúmulo tecidual de prolina. A doença caracteriza-se fundamentalmente por epilepsia, convulsões e um grau variável de retardo mental, cuja etiopatogenia ainda é desconhecida. No tecido nervoso, a Na+, K+ - ATPase controla o ambiente iônico relacionado com a atividade neuronal, regulando o volume celular, o fluxo de íons e o transporte de moléculas ligadas ao transporte de Na+, tais como, aminoácidos, neurotransmissores e glicose. Evidências na literatura mostram que recém nascidos humanos com baixos níveis de Na+, K+ -ATPase cerebral apresentam epilepsia e degeneração espongiforme. Alterações na atividade desta enzima têm sido associadas a várias doenças que afetam o sistema nervoso central, como isquemia cerebral e doença de Parkinson. Considerando que a inibição da Na+, K+ - ATPase por ouabaína tem sido associada com liberação de neurotransmissores, incluindo glutamato, em uma variedade de preparações neuronais, e que alguns autores sugerem que o efeito da prolina sobre a sinapse glutamatérgica possa ser, pelo menos em parte, responsável pelos sintomas neurológicos encontrados nos pacientes com hiperprolinemia, no presente trabalho verificamos efeitos dos modelos experimentais agudo e crônico de hiperprolinemia tipo II sobre a atividade da Na+, K+ - ATPase de membrana plasmática sináptica de córtex cerebral e hipocampo de ratos. No modelo crônico, a prolina foi administrada a ratos Wistar duas vezes ao dia do 6o ao 28o dia de vida, enquanto que no modelo agudo os animais, com 15 dias de vida, receberam uma única injeção de prolina e foram sacrificados 1hora após a administração da droga. Os animais tratados crônicamente com prolina não apresentaram alterações significativas no peso corporal, do encéfalo, do hipocampo e do córtex cerebral, bem como nas quantidades de proteínas do homogenizado cerebral e da membrana plasmática sináptica de córtex cerebral e hipocampo. Nossos resultados mostraram uma diminuição significativa na atividade da Na+, K+ - ATPase de membrana plasmática sináptica de cérebro de animais tratados aguda e crônicamente com prolina. Foram também testados os efeitos in vitro da prolina e do glutamato sobre a atividade da Na+, K+- ATPase. Os resultados mostraram que os dois aminoácidos, nas concentrações de 1,0 e 2,0 mM, inibiram significativamente a atividade da enzima. O estudo da interação cinética entre prolina e glutamato, sugere a existência de um sítio único de ligação na Na+, K+ - ATPase para os dois aminoácidos. É possível que a inibição na atividade da Na+, K+- ATPase possa estar envolvida nos mecanismos pelos quais a prolina é neurotóxica. Acreditamos que nossos resultados possam contribuir, pelo menos em parte, na compreensão da disfunção neurológica encontrada em pacientes com hiperprolinemia tipo II.
Resumo:
Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.
Resumo:
O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.
Resumo:
O presente trabalho visou analisar os efeitos da formação do Mercosul sobre o desempenho das exportações brasileiras da carne avícola. Na investigação do desempenho das exportações brasileiras de frango, buscouse identificar se o incremento dessas no comércio intrabloco ocorreu em virtude das vantagens comparativas brasileiras, ou se o setor, beneficiado por acordos setoriais, deslocou a oferta do produto de terceiros países, caracterizando um desvio de comércio. Para tanto, foram traçados os seguintes objetivos: descrever a cadeia de produção de aves de corte na região Sul do Brasil; identificar os principais mercados consumidores e os principais concorrentes da avicultura brasileira; analisar a intensidade de comércio no mercado de frangos em vista da formação do Mercosul e identificar as tendências para a avicultura brasileira frente ao aprofundamento do processo de integração. Para tanto, foram utilizados o Índice de Intensidade de Comércio, o Índice de Orientação Regional da Exportações Brasileiras de frango, juntamente com o Índice das Vantagens Comparativas Reveladas das Exportações Brasileiras de Frango para a determinação da intensidade e da orientação do mercado de carne de frango ocorrida com a implementação do Mercosul e para verificar se essa intensidade ocorreu em razão das vantagens comparativas da produção brasileira de frangos. Nesse caso, a análise está concentrada no fluxo comercial ocorrido entre o Brasil e a Argentina, a qual é o principal mercado do frango brasileiro no Mercosul. Além da Argentina, o Paraguai também foi incluído na análise, por ser o segundo parceiro do bloco em importância no mercado de frangos. Conclui-se que a constituição do bloco econômico apresentou como benefício a criação de comércio de frangos, sobretudo quando da constituição da zona de livre-comércio.
Resumo:
Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.