782 resultados para Modelagem de separação debiotecnológicos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O agronegócio da soja, caracterizado como investimento em atividade produtiva, envolve problemas de incertezas com o comprometimento definitivo de recursos, com a impossibilidade de reverter decisões tomadas e, também, com o esforço de prever a renda a ser obtida com a colheita. A questão relevante para o sojicultor é como avaliar o rendimento esperado de grãos em um contexto de incertezas, base para o cômputo da taxa de retorno do investimento na produção de soja. Este trabalho teve como objetivo estabelecer uma metodologia que associa um modelo estocástico de precipitação a um modelo de predição do rendimento da cultura de grãos de modo a permitir a atribuição de probabilidades aos rendimentos esperados de soja. Foram utilizados dados meteorológicos diários referentes à precipitação pluvial, temperatura máxima, mínima e média do ar, umidade relativa do ar, radiação solar global e velocidade do vento a 2 metros, bem como o rendimento de soja de Cruz Alta(RS) do período 1/1/1975-31/12/1997 A precipitação pluvial diária foi ajustada à cadeia de Markov de primeira ordem e dois estados e na função gama com variação sazonal para os meses de outubro a abril. Os resultados indicaram que a metodologia associando a geração de séries de precipitação pluvial, evapotranspiração da soja e evapotranspiração real, aplicadas como variáveis de entrada no modelo de predição do rendimento de grãos, possibilitou a definição da densidade de probabilidade do rendimento esperado de soja e, por conseguinte, a quantificação do risco na forma da distribuição de probabilidade acumulada do rendimento. O risco de ocorrência de um valor de rendimento de soja, menor que um valor mínimo de aceitação, quantiifcado pela sua distribuição de probabilidade acumulada, fundamentada em um fenômeno da natureza - a precipitação pluvial - que não depende da vontade humana. A obtenção do rendimento desejado envolve um processo que depende de organização, isto é, depende de fatores subjetivos, de decisões e escolhas. Enfim, um processo que comporta alternativas e depende de iniciativas humanas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata do problema da utilização dos resultados gerados pelos modelos de gestão de portfólio de crédito utilizados por instituições financeiras, para fins de estabelecimento do capital baseado em risco que é exigido pelos órgãos reguladores. Aborda inicialmente a fundamentação teórica das divergências, que se verificam entre as definições de capital econômico e capital regulamentar, discutindo, em relação a este último conceito, a regulação prudencial que se originou a partir do Acordo de Capital firmado no âmbito do Comitê da Basiléia para Supervisão Bancária, em 1988, e as propostas atualmente discutidas para a implantação do que virá a ser o Novo Acordo de Capital. Discute ainda as bases conceituais da atual geração de modelos de gestão de portfólio de crédito, em especial no que conceme à metodologia de cálculo do capital econômico em risco, avaliando em que medida e sob que condições esses modelos poderiam ser admitidos na regulamentação bancária, para fins de cálculo do requerimento mínimo de capital das instituições financeiras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O reator seqüencial em batelada (RSB) é uma variante de lodos ativados capaz de promover a remoção da matéria orgânica, a remoção dos nutrientes e a separação da fase sólida da líquida em uma unidade. A valorização das áreas urbanas, a carência de tratamento terciário e a crescente necessidade de redução nas dimensões de estações de tratamento de esgoto devem impulsionar o desenvolvimento de pesquisas sobre RSB em curto espaço de tempo. A partir deste cenário, o presente trabalho teve como objetivo modelar o comportamento do reator seqüencial em batelada a partir da teoria desenvolvida por Marais e colaboradores. Dentro deste contexto, a cinética de oxidação dos compostos orgânicos e do nitrogênio na forma amoniacal foi descrita e modelada. O trabalho experimental foi realizado em duas escalas: bancada e piloto. O experimento em escala de bancada foi dividido em duas fases. Foram utilizados dois RSBs e um sistema de fluxo contínuo. Um reator seqüencial em batelada (RSB1) foi operado com idade de lodo. O outro reator em batelada (RSB2) foi operado em função da relação F/M e o sistema de fluxo contínuo (FC1) por idade de lodo. Estes reatores foram utilizados como controle no monitoramento do RSB1 Na primeira fase, os três sistemas removeram apenas matéria orgânica. Na fase seguinte, removeram matéria orgânica e nitrogênio. A partir dos resultados obtidos em escala de bancada, foi possível concluir que o modelo desenvolvido pode ser aplicado ao reator seqüencial em batelada operando com idade de lodo, permitindo determinar a qualidade do efluente, a produção de lodo e o consumo de oxidante. Além disso, foi possível descrever o comportamento da taxa de consumo de oxigênio em função da oxidação da matéria orgânica biodegradável e da oxidação do nitrogênio na forma amoniacal. O reator seqüencial em batelada operado com idade de lodo (RSB1) alcançou remoção média de matéria orgânica de 90 % nas idades de lodo de 30, 20, 10 e 5 dias. A remoção média de nitrogênio mais elevada foi obtida na idade de lodo de 20 dias e atingiu 87 %. Nas demais idades de lodo a remoção média de nitrogênio variou entre 79 e 42 %. A modelagem do comportamento do reator seqüencial em batelada resultou numa proposta de metodologia para o dimensionamento que tem como finalidade abolir critérios obsoletos e inadequados para o dimensionamento de lodos ativados em batelada No experimento em escala piloto, foram utilizados um reator seqüencial em batelada, denominado RSB, e um sistema de fluxo contínuo com a configuração Bardenpho, denominado FC. Os sistemas de lodos ativados sob investigação foram monitorados em duas idades de lodo: 30 e 10 dias. Os dados do experimento em escala piloto mostraram que os processos físico-químicos e biológicos envolvidos na remoção de matéria orgânica e nitrogênio no RSB foram mais eficientes do que no Bardenpho quando trataram o mesmo esgoto doméstico e foram submetidos às mesmas condições operacionais. No RSB, obteve-se 88 e 89 % de remoção de matéria orgânica nas idades de lodo de 10 e 30 dias, respectivamente. Nesta seqüência das idades de lodo, a eficiência do Bardenpho caiu de 87 para 76 %. O sistema de fluxo contínuo removeu 66 e 52 % do nitrogênio total afluente nas idades de lodo de 10 e 30 dias, respectivamente. A eficiência do RSB na remoção de nitrogênio foi determinada apenas na idade de lodo de 10 dias e alcançou 69 %. A partir dos resultados obtidos em escala de bancada e piloto, constata-se que o reator seqüencial em batelada operando com idade de lodo pode ser utilizado no tratamento de esgoto doméstico e obter eficiência na remoção de matéria orgânica e nitrogênio igual ou superior ao sistema de fluxo contínuo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata-se de uma pesquisa de campo que abrange 21 empresas, onde se procurou identificar estruturas de dados comuns nos modelos de dados das mesmas. A base teórica para o trabalho são os conceitos de abstração existentes na literatura de Projeto de Banco de Dados, agregação (é-parte-de) e generalização (é-um). Foram identificadas aplicações destes conceitos, mas a pesquisa também mostra que ainda há poucas ferramentas disponíveis para implementação dos mesmos e pouca familiaridade dos técnicos com os conceitos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho é uma pesquisa exploratória da experiência brasileira de transferências intergovernamentais de recursos, com o objetivo de identificar perspectivas de inovação no federalismo, que colaborem para o desenvolvimento humano no Brasil, num processo nacional, acelerado, contínuo e sustentado. Analisa a legislação de transferências tributárias a municípios no Brasil, aplicando a Teoria do Agenciamento (relação "Principal X Agente"), visando a articulação de uma rede complexa de relações ("contratos"), formada pelas três esferas de governo e mais a sociedade (setor privado, terceiro setor e cidadão individual), em que todos os participantes têm interesses distintos, muitas vezes contraditórios. Sintetiza uma modelagem das transferências intergovernamentais de recursos, capaz de induzir a convergência dos interesses dos participantes daquela rede complexa de relações para o objetivo comum do desenvolvimento, designada como "Tipo Ótimo de Indução". Finalmente, formula diretrizes para a revisão da sistemática de transferências de recursos no Brasil, recomendando a adoção de uma "cesta de critérios" e de "condições de acompanhamento e controle"

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo geral deste trabalho é desenvolver estudos relacionados à dispersão de poluentes, considerando a queima de carvão para geração de energia nas Usinas Termoelétricas de Charqueadas e São Jerônimo. O período de estudo foi do dia 17 a 23 de junho de 2003. Neste período houve a passagem de um sistema frontal. Sendo possível avaliar a dispersão dos poluentes em condições pré-frontal, frontal e pós-frontal. Para simular o comportamento dos poluentes neste período, foi utilizada uma subrotina de dispersão acoplada ao modelo RAMS (Regional Atmospheric Modeling System). Os resultados mostraram que nos dias classificados como pré-frontal e pós-frontal as concentrações do material particulado, dióxido de enxofre e do óxido de nitrogênio, atingiram seus valores máximos, pelo fato da umidade relativa do ar estar bastante baixa em torno de 60%, pressão atmosférica da ordem de 1021 hPa e a intensidade dos ventos fraca. No dia classificado como frontal, as concentrações estavam praticamente nulas, devido à passagem do sistema frontal que causou a queda na pressão atmosférica, aumento da umidade relativa e também pelo fato da ocorrência de precipitação atmosférica neste dia. As comparações dos resultados simulados, com os dados observados na estação de qualidade do ar mostraram-se satisfatórios. Com exceção do dia 22 de junho, que apresentou uma diferença da ordem de 90%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é o estudo da utilização da modelagem quantitativa para apoio às decisões na gestão de operações. Através da apresentação de casos práticos (Sadia, AMO e Philips), conclui-se que a aplicação dos conceitos de Pesquisa Operacional, além de auxiliar significativamente nas tomadas de decisões na produção, pode levar a excelentes resultados financeiros para uma empresa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata da análise das principais ferramentas quantitativas para a tomada de decisão e análise de investimentos, em particular de análise por árvore de decisão e teoria de precificação de opções aplicada a casos de investimentos em ativos não financeiros. Mostra as vantagens e desvantagens de cada metodologia, em especial as limitações de aplicação prática da TPO. Propõe uma metodologia para calcular o valor das "opções reais" utilizando árvores de decisão

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Dinâmica dos Sistemas vem expandindo seu leque de aplicações por diversas áreas do conhecimento humano, dentre as quais está a Administração de Empresas. Este trabalho mostra que esta disciplina pode ser utilizada como uma ferramenta que fornece subsídios para negociações post mortem de projetos de grande porte. Dentro deste âmbito, o ponto principal é avaliar qual foi a influência do comportamento do cliente no resultado final do projeto. Interferências do tipo: ingerência nas decisões de projeto, alterações de escopo, atraso na aprovação de documentos e solicitações para que sejam realizadas atividades adicionais não diretamente relacionadas ao projeto podem contribuir para o aumento do prazo e do custo de realização de um empreendimento. A abordagem deste problema através da Dinâmica dos Sistemas fornece a possibilidade de criar modelos de simulação em que possam ser incorporados fatores importantes, porém subjetivos, que contribuem para o entendimento do projeto como o moral da equipe de engenharia e a confiança do cliente na empresa contratada. Este trabalho traz uma parte teórica que é fruto da pesquisa sobre a ' literatura existente nesta área específica de aplicação. Nela são explicados os ciclos de paralelismo, de retrabalho e de interferência do cliente. Na segunda parte, um caso real de um projeto de engenharia é apresentado e modelado. Os resultados são então analisados de forma a fornecer informações confiáveis sobre atraso e custos adicionais de responsabilidade do cliente. Estes dados são a base para a elaboração pela contratada de um documento pleiteando compensação pela interferência do cliente. Esta abordagem por Dinâmica dos Sistemas é pouco conhecida e ainda pode ser bastante explorada

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata do problema da seleção de Sistemas Integrados, ou ERP (Enterprise Resource Systems), investigando o processo especificamente sob o ponto de vista da Análise de Decisões. Procura analisar a associação entre a satisfação tanto com o Sistema Integrado selecionado quanto com a forma em que foi estruturado o próprio processo de seleção, com variáveis especificamente selecionadas para tal, representativas, entre outros, de grupos de critérios de decisão e características específicas do processo de seleção, relacionadas, estas últimas, a questões como o tratamento dado ao fator risco e ao possível caráter coletivo da decisão. Questiona a possibilidade de modelagem do processo de seleção de Sistemas Integrados, a partir da proposta normativa oferecida pela Teoria da Utilidade, e da suposta existência de um gap ou distância entre esta proposta e a prática naquele processo de seleção. Propõe um modelo mental genérico que procura explicar o modo como os agentes decisórios abordam o problema de seleção de sistemas integrados. Apresenta e propõe um modelo dinâmico que justificaria a existência do gap acima mencionado a partir da incapacidade do modelo mental genérico em apreender toda a complexidade inerente ao problema de seleção de sistemas integrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A popularização da Internet e o crescimento da educação à distância tornaram possível a criação de softwares e cursos à distância, disponíveis na WWW. Atualmente, a Inteligência Artificial (IA) vem sendo utilizada para aumentar a capacidade de ambientes de educação à distância, diminuindo a desistência pela falta de estímulos externos e de interação entre colegas e professores. Este trabalho encontra-se inserido no ambiente colaborativo suportado por computador, definido no projeto “Uma Proposta de Modelo Computacional de Aprendizagem à Distância Baseada na Concepção Sócio-Interacionista de Vygotsky” chamado MACES (Multiagent Architecture for an Collaborative Educational System). Sua principal proposta, como parte do projeto do grupo, é desenvolver e implementar a interface animada do personagem para os agentes pedagógicos animados Colaborativo e Mediador que operam no ambiente de aprendizado colaborativo proposto pelo grupo. O personagem desenvolvido chama-se PAT (Pedagogical and Affective Tutor). A interface do personagem foi desenvolvida em Java, JavaScript e usa o Microsoft Agent para a movimentação. O Resin 2.1.6 (semelhante ao Tomcat que também foi usado de teste) é o compilador de servlet usado na execução de Java Servlet’s e tecnologias jsp – que monta páginas HTML dinamicamente. Esta montagem é feita no servidor e enviada para o browser do usuário. Para definir a aparência do personagem foram feitas entrevistas com pedagogas, psicólogas, psicopedagogas e idéias tiradas de entrevistas informais com profissionais que trabalham com desenho industrial, propaganda, cartoon e desenho animado. A PAT faz parte da interface do MACES e promove a comunicação entre esse ambiente e o usuário. Portanto, acredita-se que a PAT e os recursos da Inteligência artificial poderão aumentar a capacidade de ambientes de educação à distância, tornando-os mais agradáveis, assim como diminuir a desistência pela falta de estímulos externos e de interação com colegas e professores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem conjunta de média e variância tem se mostrado particularmente relevante na obtenção de processos e produtos robustos. Nesse contexto, deseja-se minimizar a variabilidade das respostas simultaneamente com o ajuste dos fatores, tal que se obtenha a média da resposta próxima ao valor alvo. Nos últimos anos foram desenvolvidos diversos procedimentos de modelagem conjunta de média e variância, alguns envolvendo a utilização dos Modelos Lineares Generalizados (GLMs) e de projetos fatoriais fracionados. O objetivo dessa dissertação é apresentar uma revisão bibliográfica sobre projetos fatoriais fracionados e GLM, bem como apresentar as propostas de modelagem conjunta encontradas na literatura. Ao final, o trabalho enfatiza a proposta de modelagem conjunta de média e variância utilizando GLM apresentada por Lee e Nelder (1998), ilustrando-a através de um estudo de caso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet tem expandido a área de atuação das empresas aproximando mercados, empresas, pessoas e gerando mudanças significativas no paradigma das relações de trabalho. Juntamente, a chamada “revolução da informação” e a expansão da competitividade entre as empresas no mercado global ocasionaram um movimento de reformulação nas próprias estruturas administrativas das organizações de forma que a informação e o conhecimento passaram a ser vistos como recursos organizacionais tão importantes quanto a mão-de-obra ou a matéria-prima. Estas mudanças revolucionaram os mais diversos processos organizacionais, sobretudo aqueles relacionados com a gestão do conhecimento e da informação. Neste contexto, a problemática do gerenciamento de informação pode ser identificada como desafio crucial, o qual tem sido abordado tanto no cenário acadêmico quanto no cenário empresarial. Assim, o desenvolvimento de meios e métodos para operacionalização do gerenciamento de conteúdos é tema desta dissertação, que objetiva, através da aplicação da metodologia de pesquisa-ação, apresentar a descrição funcional um sistema modular para gerenciamento de conteúdo em ambiente web. Também são discutidos aspectos relacionados com a aplicação prática do sistema em diferentes websites, e realizada uma avaliação onde se constatou que os gestores estão satisfeitos, não apresentando dificuldade de uso, e ainda obtiveram resultados positivos com o uso da ferramenta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.