937 resultados para Equilíbrio eletrolítico
Resumo:
Segundo o Código de Processo Penal brasileiro, a Perícia é imprescindível, e não pode ser substituída pela confissão do acusado, nos crimes que deixem vestígios. Esta pesquisa inicia um estudo acerca da construção da identidade profissional do Perito Criminal Federal, o Perito que atua no âmbito da Polícia Federal no Brasil. A abordagem acadêmica foi adotada no sentido de serem identificadas as principais questões que contribuem na construção da identidade desse profissional. O objetivo principal do trabalho é o reconhecimento pelo Perito Criminal Federal do seu papel para a sociedade, de modo que se vislumbrem iniciativas que possam incentivar a busca de melhorias, de aprimoramento na formação e evolução dos profissionais, beneficiando não apenas a motivação e satisfação profissional, mas, sobretudo, a resposta que este produz para a sociedade. O resultado da pesquisa revelou que sua identidade, como a de qualquer profissional, está em constante metamorfose, e sofre a influência de sua história e verdades individuais e das influências do ambiente social e profissional. O estudo demonstrou que existem lacunas a serem preenchidas na visão do próprio profissional com relação ao retorno quanto ao resultado efetivo do seu trabalho, além da preocupação com o equilíbrio entre quantidade e qualidade na produção de Laudos Periciais Criminais. Observou-se ainda a existência de um ambiente organizacional desfavorável quanto ao cumprimento de leis e recomendações, internacionais e nacionais, que preconizam a necessidade de autonomia para a realização do trabalho pericial, de forma a garantir a prova isenta e neutra em busca da justiça. Também ficou nítida a necessidade de maior comunicação e discussão interna acerca da visão de futuro da profissão. É primordial para a efetivação de uma sociedade democrática, que respeita os direitos humanos e zela pela segurança pública, uma Perícia Criminal Federal consciente de sua identidade, efetiva, que possa atuar com motivação, celeridade e qualidade em prol da justiça para os cidadãos brasileiros.
Resumo:
O tratamento de modificação de óxidos (e sulfetos) com cálcio tornou-se usual na produção de aços de elevada limpeza interna. O conhecimento da composição química de inclusões, dependendo da composição do aço líquido, é requisito fundamental para garantir a lingotabilidade desses aços e propriedades mecânicas adequadas dependendo da aplicação dos mesmos. O objetivo deste trabalho foi o estudo da composição química de inclusões ao longo do processo de refino secundário, com enfoque no tratamento com cálcio. Para tanto, foram comparados dados experimentais (planta industrial) com simulações via termodinâmica computacional (software FactSage). A metodologia utilizada consistiu em: a) obtenção de dados experimentais para determinar os dados de entrada das simulações; b) utilizar os bancos de dados e a rotina de minimização da Energia de Gibbs do software FactSage, para calcular o equilíbrio entre as fases aço líquido (modelo associado) e inclusões (escória - modelo quase-químico modificado) e; c) comparar os resultados obtidos na planta industrial com os simulados via FactSage. O acompanhamento do processo de elaboração do aço na Gerdau Aços Especiais Piratini (AEP) foi fundamental para identificar eventuais desvios de processo, bem como para interpretar eventuais discrepâncias entre os resultados Na simulação de todas as provas, verificou-se que é fundamental um baixo desvio-padrão na análise dos elementos, se o objetivo é simular um padrão de elaboração de aço. Como resultado deste trabalho, verificou-se ainda que entre 10 e 14 ppm é a faixa ideal de cálcio para a formação de inclusões líquidas com teor mínimo de CaS, para os níveis de oxigênio, enxofre e alumínio do SAE 8620 na etapa final do processo de elaboração desse aço na AEP. É importante destacar que faixas mais amplas de cálcio podem ser utilizadas, dependendo do tipo de processo na aciaria e do tipo de produto requerido.
Resumo:
O principal objetivo deste trabalho é estabelecer caminhos apropriados para a estimativa da eficiência de pratos valvulados com downcomer e pratos dualflow em colunas de destilação industriais. O conhecimento da eficiência tem importância fundamental no projeto e na avaliação do desempenho de colunas de destilação. Pesquisando a literatura, pôde ser identificada uma árvore de alternativas para compor o modelo de eficiência de prato, dependendo dos modelos de transferência de massa, do modelo de distribuição das vazões de líquido e vapor sobre o prato, do modelo de arraste de líquido, do modelo de equilíbrio da mistura multi-componente, dos modelos de propriedades físicas, do modelo da altura da espuma sobre o prato e da definição de eficiência. Neste trabalho, diferentes métodos para a predição da eficiência em pratos valvulados e pratos dualflow foram compostos e comparados contra dados de três colunas de destilação industriais sob diferentes condições operacionais. Os modelos foram inseridos no simulador Aspen Plus 12.1, em linguagem Fortran, junto com dados geométricos dos pratos, propriedades dos fluidos e dados de operação das colunas de destilação industriais. Para cada coluna foi escolhido o melhor pacote termodinâmico pela verificação dos perfis de temperatura e composições de topo e fundo obtidos via simulação contra os valores reais correspondentes das colunas de destilação industriais. Foi feita uma modificação no parâmetro da fração de furos que estão em jetting no modelo hidráulico da dispersão acima do prato de Garcia (1999). Essa modificação produziu resultados melhores na predição da fração de furos em jetting e eficiência dos pratos dualflow e resultados similares aos de Garcia (1999) para a eficiência dos pratos valvulados.
Resumo:
O cenário de continuo aumento do consumo de derivados do petróleo aliado a conscientização de que é necessário existir um equilíbrio com relação a exploração de recursos naturais e preservação do meio ambiente, vem impulsionando a busca por fontes alternativas de energia. Esse crescente interesse vem se aplicando a geração de energia a partir de biomassa da cana de açúcar, que vem se tornando cada vez mais comuns no Brasil, porém ainda existe um imenso potencial a ser explorado. Dentro deste contexto, se torna relevante a tomada de decisão de investimentos em projetos de cogeração e este trabalho busca incrementar a analise e tomada de decisão com a utilização da Teoria das Opções Reais, uma ferramenta de agregação de valor às incertezas, cabendo perfeitamente ao modelo energético brasileiro, onde grandes volatilidades do preço de energia são observadas ao longo dos anos. O objetivo do trabalho é determinar o melhor momento para uma biorrefinaria investir em unidades de cogeração. A estrutura do trabalho foi dividida em três cenários de porte de biorrefinarias, as de 2 milhões de capacidade de moagem de cana-de-açúcar por ano, as de 4 milhões e as de 6 milhões, visando assim ter uma representação amostral das biorrefinarias do país. Além disso, analisaram-se três cenários de volatilidade atrelados ao preço futuro de energia, dado que a principal variável de viabilização deste tipo de projeto é o preço de energia. As volatilidades foram calculadas de acordo com histórico do ambiente regulado, o dobro do ambiente regulado e projeção de PLD, representando, respectivamente, níveis baixos, médios e altos, de volatilidade do preço de energia. Após isso, foram elaboradas as nove árvores de decisão, que demonstram para os gestores de investimento que em um cenário de baixa volatilidade cria-se valor estar posicionado e ter a opção real de investir ou adiar investimento para qualquer porte de usina. No cenário de média volatilidade de preço, aconselha-se ao gestor estar posicionado em usinas de médio a grande porte para viabilização do investimento. Por fim, quando o cenário de preços é de grande volatilidade, tem-se um maior risco e existe a maior probabilidade de viabilização do investimento em usinas de grande porte.
Resumo:
Esta tese tem por objetivo principal examinar a interação da política fiscal com a política monetária. A pergunta central a ser respondida por esse estudo é se a política fiscal tem efeitos sobre a regra de Taylor. Para responder a essa pergunta o estudo é conduzido com análise teórica e empírica. O modelo analítico é desenvolvido do framework novo keynesiano, apresentado por Gali (2008), adicionando-se papel do governo sobre a demanda agregada e a produtividade das firmas. A análise empírica é realizada com dados de 1990 a 2008, em um painel de países utilizando o System GMM (método generalizado dos momentos) desenvolvido por Blundell e Bond (1998). Os resultados obtidos nesse trabalho apontam para um impacto positivo do gasto fiscal na taxa de juros de curto prazo, tal que o aumento em 1 ponto percentual de gasto além do nível de equilíbrio leva a um aumento de aproximadamente 0,1 pontos percentuais na taxa de juros no curto prazo, já o impacto no longo prazo, na estimação preferida, varia de 0,5 a 1 ponto percentual. Ou seja, para efeito de recomendação de política fiscal, gastos governamentais têm efeitos na taxa de juros nominal de curto prazo.
Resumo:
Este trabalho tem por objetivo entender, no município do Rio de Janeiro, quais características são mais importantes para no mercado de imóveis residenciais novos. A abordagem de preços hedônicos foi utilizada para a elaboração deste estudo, uma vez que analisa o bem como um pacote de atributos para os quais o consumidor tem preferências. Diversos itens relacionados à caracterização do imóvel e do condomínio, bem como da localização na qual ele se insere, foram analisados. Como parte da metodologia, a econometria foi utilizada para que fosse possível compreender de que forma, e em qual proporção, as variáveis mapeadas se relacionam com o preço final do imóvel. O resultado final aponta que as variáveis mais importantes para o equilíbrio do mercado imobiliário no Rio de Janeiro são: o bairro onde o imóvel está localizado, o tamanho, número de quartos, a diferenciação entre ser apartamento ou casa e o número de unidades no condomínio.
Resumo:
A possibilidade da economia se tornar mais matematizada se iniciou com a revolução marginalista no final do século XIX. Entretanto, efetivamente, o processo de matematização do discurso econômico apenas teria se propagado, segundo MIROWSKI (1991), a partir de 1925. A fim de tentar elucidar como se deu esse processo e quando teria ocorrido no Brasil é que escrevemos três ensaios críticos sobre o tema. O objetivo do primeiro ensaio é o de tornar mais acessível aos estudantes e pesquisadores brasileiros uma questão que é tratada de maneira pouco orgânica em nosso país, e também incentivar novas pesquisas. Trata-se da discussão sobre as principais influências da crise da matemática e da física do final do século XX sobre o discurso econômico. Para verificar como isso se deu, investigamos os textos de alguns dos principais autores que tratam do tema. E daí buscamos elucidar as diferenças de rigor entre os diferentes modelos físicos matemáticos antes e depois da física quântica e da geometria não euclidiana, bem como seus impactos na teoria do equilíbrio geral. No segundo ensaio, iniciamos definindo os principais benefícios gerados pela matematização da economia, proclamados por alguns dos defensores do avanço do processo de formalização matemática sobre o discurso econômico. Em seguida, apontamos as críticas mais tradicionais a esse processo de matematização. Depois nos concentramos nas críticas mais recentes de GILLIES (2005) sobre a prevalência de números operacionais em economia. Para afinal, analisarmos a crítica de BRESSER-PEREIRA (2008) que considera o método hipotético-dedutivo utilizado pelo “mainstream” inadequado à economia. Por último, de maneira tentativa, tendo em mente as definições de BRESSER-PEREIRA (2008), buscamos associar a reprodução do método hipotético-dedutivo a um processo metateórico deflagrado pela teoria do equilíbrio geral. No nosso terceiro ensaio, buscamos verificar como a formalização matemática avançou na ciência econômica brasileira nas três últimas décadas. Para observar isso, classificamos em diversas categorias todos os artigos publicados em três das principais revistas de economia do país (Revista Brasileira de Economia, Estudos Econômicos e Revista de Economia Política), bem como as publicações efetuadas nos encontros da ANPEC (Associação Nacional dos Centros de Pós-graduação em Economia) desde 1981 até 2010, de acordo com o tipo de argumentação utilizada. O total de artigos analisados soma 5.733. Procuramos observar quando houve um ponto de inflexão na trajetória do discurso econômico, tornando-o mais matemático. Por fim, para atestar nossas conclusões, focamos o processo de matematização na observação da variável quantitativa: equações por artigo.
Resumo:
Este trabalho objetiva estimar uma série trimestral para a taxa de juros real neutra brasileira via modelo de Equilíbrio Geral Dinâmico Estocástico (DSGE), para o período compreendido entre o primeiro trimestre de 2000 e o último de 2011. O modelo representa uma economia fechada, com famílias maximizando utilidade do tipo CRRA, firmas maximizando lucro em um mercado de concorrência imperfeita e um governo com política fiscal de orçamento equilibrado e regra de política monetária à la Taylor, em um contexto de rigidez de preços. Neste arcabouço, a taxa de juros real neutra foi calculada com base nos choques de produtividade e de gastos de governo, que foram considerados os mais relevantes para a economia brasileira. Adicionalmente, analisou-se o impacto dos choques de produtividade e gastos do governo sobre a taxa neutra, assim como seu comportamento ao longo do período estimado e sua sensibilidade a calibragens alternativas. Por fim, ao comparar o comportamento do hiato de taxa de juros vis-à-vis à inflação, encontramos correlações negativas de 56% e 83% para todo o período estimado e para uma amostra mais recente (do primeiro trimestre de 2006 até o último de 2011), respectivamente, indicando certa consistência na série obtida.
Resumo:
A Doença do Xarope do Bordo (DXB) é um erro inato do metabolismo causado pela deficiência na atividade do complexo desidrogenase dos cetoácidos de cadeia ramificada, levando ao acúmulo de concentrações milimolares dos seguintes α-cetoácidos de cadeia ramificada (CACR): ácidos α-cetoisocapróico (CIC), α-ceto-β-metilvalérico (CMV), α-cetoisovalérico (CIV) e dos seus aminoácidos precursores, leucina, isoleucina e valina em tecidos de pacientes afetados. Essa doença é caracterizada por severos sintomas neurológicos que incluem edema e atrofia cerebral, entretanto, os mecanismos envolvidos na neuropatologia da DXB ainda não são bem estabelecidos. Neste trabalho utilizamos um modelo experimental de DXB com o objetivo de verificar os efeitos dos CACR que se acumulam nessa desordem neurodegenerativa sobre o citoesqueleto de células neurais de ratos. Nesse modelo fatias de córtex cerebral de ratos de diferentes idades, ou culturas de células neurais foram incubados com concentrações variando de 0,1 a 10 mM de cada metabólito. Inicialmente demonstramos que o CIC, CMV e CIV inibiram a captação de glutamato em fatias de córtex cerebral de ratos durante o desenvolvimento. O CIC inibiu a captação de glutamato em ratos de 9, 21 e 60 dias de idade, enquanto o CMV e o CIV inibiram a captação de glutamato em animais de 21 e 60 dias. Observamos que o CIC alterou a fosforilação de proteínas do citoesqueleto de um modo dependente do desenvolvimento através de receptores glutamatérgicos ionotrópicos em fatias de córtex cerebral de ratos. O metabólito causou diminuição da fosforilação dos filamentos intermediários (FI) em ratos de 9 dias de idade e aumento dessa fosforilação em animais de 21 dias de vida. Também demonstramos que em animais de 9 dias de idade o efeito do CIC foi mediado pelas proteínas fosfatases PP2A e principalmente pela PP2B, uma proteína fosfatase dependente de cálcio, enquanto que em animais de 21 dias de idade o efeito deste metabólito foi mediado pela proteína quinase dependente de AMP cíclico (PKA) e pela proteína quinase dependente de cálcio e calmodulina (PKCaMII). Além disso, verificamos que o CIC promoveu um aumento nos níveis intracelulares dos segundos mensageiros AMPc e Ca2+. O aumento do Ca2+ intracelular provocado pelo CIC foi demonstrado pelo uso de bloqueadores específicos de canais de cálcio dependentes de voltagem tipo L, por exemplo, nifedipina, canais de cálcio dependentes de ligantes, por exemplo, NMDA e de quelantes de cálcio intracelular, por exemplo, BAPTA-AM. Por outro lado, o CMV aumentou a fosforilação de FI somente em ratos de 12 dias de idade, sendo esse efeito mediado por receptores GABAérgicos do tipo A e B, desencadeando a ativação das proteínas quinases PKA e PKCaMII. É importante salientar que o CIV não alterou a atividade do sistema fosforilante em nenhuma das idades estudadas. Além dos efeitos causados pelos CACR que se acumulam na DXB sobre a atividade do sistema fosforilante associado aos FI em fatias de córtex cerebral de ratos, demonstramos que esses metabólitos foram capazes de alterar a fosforilação da proteína glial fibrilar ácida (GFAP) na linhagem de glioma C6. Essa alteração de fosforilação causou uma reorganização do citoesqueleto de GFAP e um aumento no imunoconteúdo da GFAP na fração citoesquelética. Também verificamos que o CIC, o CMV e o CIV, em concentrações encontradas em pacientes portadores de DXB, levaram a uma reorganização dos filamentos de GFAP e do citoesqueleto de actina de astrócitos em cultura, causando uma importante alteração na morfologia destas células. As alterações do citoesqueleto levaram a morte celular progressiva quando os astrócitos foram expostos por várias horas aos metabólitos. Demonstramos também que os efeitos dos CACR sobre a morfologia dos astrócitos foram desencadeados por mecanismos de membrana que diminuíram a atividade da Rho GTPase. Esse mecanismo foi evidenciado utilizando-se ácido lisofosfatídico (LPA), um ativador específico da RhoA, o qual preveniu os efeitos causados pelos CACR em culturas de astrócitos. É importante salientar que as alterações morfológicas e a morte celular induzida pelos CACR em culturas de astrócitos foram totalmente evitadas com a suplementação de creatina às culturas. Também verificamos que a atividade da creatina quinase foi inibida pelos metabólitos, indicando que a homeostase energética provavelmente estaria envolvida nos efeitos causados pelos CACR. XI Sabe-se que as alterações do citoesqueleto estão relacionadas com inúmeras doenças neurodegenerativas. Portanto, é provável que as alterações causadas pelos CACR nos mecanismos de membrana que regulam níveis de segundos mensageiros intracelulares e cascatas de sinalização celular, na perda do equilíbrio fisiológico do sistema fosforilante associado ao citoesqueleto e conseqüentemente na sua reorganização, possam ter importantes conseqüências para a função neural. Com base nos presentes resultados demonstramos que os CACR que se acumulam na DXB levam à desorganização do citoesqueleto em um modelo experimental podendo ser uma contribuição importante para o estudo da patogênese do sistema nervoso central característica dos pacientes portadores de DXB.
Resumo:
Esta pesquisa objetiva verificar de que forma, no Brasil, as políticas públicas relacionadas às ameaças químicas, biológicas, radiológicas, nucleares e explosivas (QBRNE) contribuem para o preparo de resposta a um incidente de tal natureza. No mundo contemporâneo há uma concentração das populações nos centros urbanos, tornando-as vulneráveis a desastres químicos, biológicos, radiológicos e nucleares, os quais podem ser desencadeados por eventos adversos, intencionais ou não, resultando em grandes impactos humanos, ambientais, materiais, sociais e econômicos à nação. O terrorismo é uma das possibilidades de ocorrência de um grande desastre, utilizando-se principalmente de atentados com explosivos e podendo se valer dos efeitos dos agentes contaminantes. Então, foram pesquisadas e apresentadas políticas públicas e ações do governo federal norte-americano para o trato de ameaças QBRNE, as quais são comparadas à situação prospectada no território brasileiro, por meio da legislação, políticas públicas, orçamento, documentos e bibliografia. Diversas instituições foram avaliadas quanto ao papel a ser desempenhado em uma situação emergencial, sendo os dados tratados por análise de conteúdo e historiografia. A literatura sobre política pública é ampla, com rica discussão sobre as boas práticas de gestão pública, a evolução do papel dos servidores públicos para um ser técnico e político simultaneamente e de que maneira é influenciada a concepção de uma política pública. O Modelo de Fluxos Múltiplos e a Teoria de Equilíbrio Pontuado são usados para compreender o processo dinâmico de construção da agenda decisória no governo federal para o tema estudado. Concluiu-se que as políticas públicas de resposta para ameaças QBRNE surgem dispersas em diversas instituições, promovidas pelas equipes técnicas, de maneira descentralizada e sem uma orientação do governo central, o que acarreta sobreposição de atividades, havendo casos de problemas não tratados, desprezando-se a complementação de recursos e efetivos.
Resumo:
O primeiro capítulo trata do problema de pesquisa consubstanciado na pergunta: como a crise financeira mundial de 2008 atingiu o equilíbrio de poder global e quais foram os desdobramentos no sistema internacional, e a respectiva argumentação de objetivos, delimitação e relevância do estudo. O capítulo dois aborda a questão metodológica do ponto de vista dos métodos de abordagem e da coleta e tratamento das informações. O capítulo terceiro apresenta a complexidade da interação entre ordem internacional e governança global, termos difíceis de serem definidos, porém constantes nas agendas da diplomacia e política internacional. O capítulo quarto introduz o conceito de governança multinível para expressar a interação de diversos atores em diversas camadas abaixo e acima do Estado. O capítulo quinto trata das crises pré-2008, buscando verificar possíveis características comuns entre elas. O capítulo sexto trata da crise de 2008 e alargamento e prolongamento para a Europa, articulando variáveis econômicas e financeiras globais. O capítulo sete procura relacionar a política externa brasileira à arquitetura da governança global, aspirando uma participação mais ativa nos fóruns internacionais. No capítulo nono é apresentada a conclusão do estudo em termos de dilemas e obstáculos comportamentais e/ou estruturais e os campos que devem ser melhor investigados e aprofundados.
Resumo:
O papel da gestão educacional é analisado, sob vários ângulos, a partir de dois programas implantados pela Secretaria da Educação do Estado de São Paulo e de entrevistas com educadores. O foco é verificar fragilidades e detectar alternativas para promover melhorias na qualidade do sistema de ensino público de educação básica. Aspectos como a continuidade de políticas comprovadamente eficazes, equilíbrio entre a autonomia escolar e as diretrizes do poder gestor central, acompanhamento dos programas e ações, inclusão de mecanismos de transparência ativa, e a participação dos vários agentes na formulação das ações, são abordados.
Resumo:
Trata da teoria de avaliação de empresas a partir do método do fluxo de caixa descontado, tecendo recomendações práticas para a sua aplicação. Aborda a geração de valor em um contexto de equilíbrio econômico. Estabelece a ligação entre criação de valor e planejamento estratégico. Discute os efeitos da alavancagem financeira.
Resumo:
O quanto e como a estrutura tributária adotada por um país pode afetar seu produto de longo prazo? Para tentar responder essa pergunta, usamos um modelo de crescimento neoclássico com plantas heterogêneas desenvolvido por Restuccia e Rogerson (2008). Separando as plantas em três diferentes subgrupos, as pequenas, as médias e as grandes, definimos estrutura tributária como sendo o conjunto de taxas cobradas sobre a receita de cada um dos tipos de planta. Partindo-se então de um equilíbrio de estado estacionário onde as plantas pequenas tem sua receita taxada em 18%, as médias em 30% e as grande em 50%, essa dissertação faz uma série de exercícios numéricos com o intuito de identificar possíveis ganhos/perdas de se alterar a estrutura tributária vigente.
Resumo:
Examina o modelo de seleção de portfólios desenvolvido por Markowitz, principalmente no que concerne: as suas relações com a teoria da utilidade de Von Neumann-Morgenstern; aos algo ritmos de solução do problema de Programação Quadrática paramétrica dele decorrente; a simplificação proporcionada pelo Modelo Diagonal de Sharpe. Mostra que a existência de um título sem risco permite a especificação do Teorema da Separação e a simplificação do problema de seleção de portfólios. Analisa o modelo denominado por CAPM, de equilíbrio no Mercado de Capitais sob condições de incerteza, comparando os processos dedutivos empregados por Lintner e Mossin. Examina as implicações decorrentes do relaxamento dos pressupostos subjacentes ã esse modelo de equilíbrio geral, principalmente a teoria do portfólio Zero-Beta desenvolvida por Black.