74 resultados para Modelos de capacitação e maturidade (Software)
Resumo:
A remoção de compostos sulfurados da gasolina é um assunto de grande interesse na indústria de refino de petróleo em função das restrições ambientais cada vez mais rígidas em relação ao teor máximo de enxofre de produtos acabados. A solução mais comum para remoção de contaminantes são as unidades de hidrotratamento que operam a alta pressão e possuem alto custo de instalação e de operação além de levarem à perda de octanagem do produto acabado. O uso de membranas é uma alternativa promissora para a redução do teor de enxofre de correntes de gasolina e possui diversas vantagens em relação ao hidrotratamento convencional. O conhecimento aprofundado dos parâmetros que influenciam as etapas de sorção e difusão é crítico para o desenvolvimento da aplicação. Este trabalho avalioua seletividade e sorção do sistema formado por n-heptano e tiofeno em polímeros através de modelos termodinâmicos rigorosos, baseados em contribuição de grupos. O modelo UNIFAC-FV, variante do tradicional modelo UNIFAC para sistemas poliméricos, foi o modelo escolhido para cálculo de atividade dos sistemas estudados. Avaliou-se ainda a disponibilidade de parâmetros para desenvolvimento da modelagem e desenvolveu-se uma abordagem com alternativas para casos de indisponibilidade de parâmetros UNIFAC. Nos casos com ausência de parâmetros, o cálculo do termo residual da atividade das espécies é feito na forma proposta por Flory-Hugginsutilizando-se parâmetros de solubilidade obtidos também por contribuição de grupos. Entre os métodos de contribuição de grupos existentes para cálculo de parâmetros de solubilidade, o método de Hoy mostrou menores desvios para os sistemas estudados. A abordagem utilizada neste trabalho permite, ao final, uma análise de alterações da configuração da cadeia principal de polímeros de forma a influenciar sua seletividade e sorção para dessulfurização de naftas
Resumo:
Como forma de impulsionar o crescimento econômico, governos de diversos países incentivam o empreendedorismo, a inovação e o desenvolvimento tecnológico. Para isto, se utilizam de programas governamentais por meio de políticas de incentivo ou subvenção econômica a empreendimentos com este perfil. No Brasil, o capital de risco público vem sendo oferecido à empresas inovadoras através dos fundos da série Criatec, com recursos do BNDES. Estas empresas possuem, principalmente, ativos intangíveis, que devem ser considerados pelos investidores em suas avaliações que antecedem o aporte de recursos. Neste contexto, esta pesquisa foi desenvolvida com o objetivo de analisar como a metodologia de avaliação de intangíveis utilizada pelo Fundo Criatec I do BNDES, como ferramenta de apoio de decisão de investimento de capital de risco público, considera os indicadores de inovação frente aos modelos teóricos propostos na literatura contábil. Para isto foi realizado estudo de campo através de entrevistas realizadas com os gestores do Fundo e com diversas empresas investidas por este. Por meio da pesquisa foi observado que é realizada profunda análise das empresas candidatas ao aporte de recursos através da avaliação de três fatores de risco. Foi possível verificar indicadores de inovação presentes nas metodologias de avaliação de intangíveis propostas na literatura contábil na análise de um destes fatores. Contudo foi possível identificar que os indicadores de inovação não são avaliados de forma pré definida e parametrizada no modelo utilizado pelo Fundo.
Resumo:
Este trabalho avalia o comportamento dos multiplicadores fiscais no Brasil entre 1999-2012. Para tanto, utiliza a metodologia desenvolvida por Sims, Waggoner e Zha (2008), que é um procedimento Bayesiano de estimação no qual os parâmetros do modelo mudam com alterações no estado da economia e os estados (regimes) seguem um processo de mudança de regime markoviano. Ou seja, foi estimado um modelo VAR Estrutural Bayesiano com mudança de regimes Markoviana (Markov Switching Structural Bayesian Vector Autoregression - MS-SBVAR). A base de dados é composta pelo consumo da administração pública, pela formação bruta de capital fixo da administração pública, pela carga tributária líquida e pelo Produto Interno Bruto (PIB), das três esferas do governo (federal, estadual, incluindo o Distrito Federal, e municipal). O software MATLAB/Dynare foi utilizado na estimação dos modelos e os resultados sugerem a ocorrência de 2 ou 3 regimes nos dois modelos que melhor se ajustaram aos dados. Os multiplicadores estimados apresentaram os sinais esperados e os diferentes tipos de multiplicadores fiscais calculados apresentaram valores maiores para a resposta do PIB a choques na formação bruta de capital fixo da administração pública que são eficazes, uma vez que possuem valores maiores do que um e impacto de longo prazo no PIB - quando comparado aos choques no consumo da administração pública, que possuem pouca persistência e são ineficazes (menores do que um), além de uma resposta negativa e persistente do PIB a choques na carga tributária líquida. Os resultados obtidos não indicam, ainda, multiplicadores fiscais maiores em regimes com maior variância nos resíduos do modelo.
Resumo:
Um dos temas mais estudados na área de finanças, em especial na análise de créditos, são os modelos que buscam prever a capacidade das empresas em se manterem solventes. Via de regra, tais estudos buscam, dentre vários indicadores, aqueles que se mostram mais apropriados para realizar tal predição. Nesse trabalho propõe-se um outro olhar sobre os modelos de previsão. Partindo de modelos já consagrados na literatura, escolheram-se os indicadores contábeis mais utilizados, que foram comparados, através da Análise Discriminante e da Regressão Logística, com os indicadores oriundos do Modelo Dinâmico. O objetivo do estudo foi verificar se os indicadores do Modelo Dinâmico oferecem melhores resultados que os indicadores tradicionais. O trabalho se baseia numa amostra com 48 empresas, composta de 24 insolventes e as outras 24 ditas como saudáveis, tratadas como pares das insolventes, escolhidas dentro do mesmo setor econômico de cada uma das insolventes. Além disso, foi incluída no estudo a classificação de empresas de Fleuriet como variável qualitativa. Os resultados obtidos não apresentam evidências sobre a superioridade de um ou outro conjunto de indicadores, mas, os melhores resultados alcançados derivam da inclusão da classificação de empresas de Fleuriet, seja através da Análise Discriminante, seja através da Regressão Logística, conseguindo no melhor dos resultados, um percentual de acerto total de 83,3%. A análise minuciosa dos erros de classificação ensejou uma proposta de reordenação dos tipos de situação de liquidez originalmente propostos por Fleuriet.
Resumo:
Com o passar dos anos a engenharia estrutural passou a lidar com a exigência cada vez maior de estruturas que ocupem menos espaço e sejam consideravelmente mais leves. No caso de passarelas de pedestres, a esbeltez da estrutura aliada a um baixo peso pode acarretar em problemas de vibrações devido à ressonância com o caminhar dos pedestres. Estes problemas podem variar desde uma simples sensação de desconforto até problemas mais graves como o colapso estrutural. Com base nestas premissas, esta dissertação visa investigar dois modelos estruturais, um em concreto armado e outro misto, do tipo aço concreto, onde os modelos serão estudados mediante o emprego do método dos elementos finitos através do programa ANSYS. Os modelos numéricos permitem determinar as frequências naturais da estrutura e consequentemente estudar as respostas dos modelos mediante análises de vibrações forçadas. As respostas dinâmicas da estrutura serão obtidas em termos dos valores dos deslocamentos máximos e das acelerações de pico. Os resultados obtidos foram comparados com os principais guias que regem o conforto humano no caso de caminhar de pessoas em passarelas de pedestres, de forma que houve indicativos de possíveis desconfortos após a análise dos resultados obtidos ao longo da investigação. Finalmente, foi feito um estudo considerando-se movimentos aleatórios dos pedestres sobre as passarelas, objetivando estudar os níveis da resposta dinâmica das estruturas nestas situações.
Resumo:
Os recentes desastres ocorridos no país, como o rompimento da adutora em Campo Grande e os desastres relacionados às enchentes urbanas, mostram a necessidade de desenvolvimento de pesquisas científicas que auxiliem na compreensão e no dimensionamento das estruturas projetadas para atender a demanda da população. Os métodos analíticos e experimentais mais utilizados possuem algumas limitações de ordem teórica ou prática. Por outro lado, os métodos numéricos, capazes de simular etapas construtivas e envolver materiais com diferentes modelos constitutivos numa mesma análise, buscam atender às necessidades práticas dos projetos de geotecnia e, ao mesmo tempo, complementam os modelos analíticos e experimentais. Nesse trabalho foram realizadas comparações entre resultados obtidos em ensaios experimentais e resultados extraídos do modelo computacional, buscando aumentar a compreensão sobre a interação solo-estrutura em relação à distribuição de tensões mobilizadas e aos deslocamentos e deformações provocados. A simulação numérica foi feita com a utilização do PLAXIS/3D, software de análise geotécnica baseado no método dos elementos finitos. Os ensaios foram confeccionados na Escola de Engenharia de São Carlos/USP por Costa (2005) e envolveram dutos enterrados submetidos à perda de apoio ou elevação localizada. O estudo experimental foi realizado através de modelos físicos compostos por um maciço de areia pura, contendo um tubo repousando sobre um alçapão no centro do vão. Os modelos físicos foram equipados com instrumental capaz de medir as deflexões e as deformações específicas ao longo do duto, além das tensões totais no maciço de solo circundante e na base do equipamento.
Resumo:
A obesidade, cuja origem é multifatorial e a prevalência é crescente em diferentes regiões no mundo, está geralmente associada à produção desregulada de adipocinas, ao aumento do estresse oxidativo e à ocorrência de distúrbios metabólicos como dislipidemia, intolerância à glicose e hipertensão. A Programação Metabólica ou Plasticidade Ontogenética tem sido proposta como um importante fator na etiologia da obesidade. Este fenômeno sugere que alterações nutricionais, hormonais e ambientais durante períodos críticos do desenvolvimento, tais como gestação e lactação, podem alterar a fisiologia e o metabolismo de um organismo provocando o desenvolvimento de distúrbios metabólicos na vida adulta. Neste trabalho foram estudados dois modelos de plasticidade ontogenética que programam ratos Wistar para obesidade na vida adulta: a supernutrição na lactação e o desmame precoce. A supernutrição na lactação provocada pela redução da ninhada causou obesidade, hiperfagia, aumento do estresse oxidativo, resistência hepática à ação da insulina e esteatose nas proles na idade adulta. A desnutrição, provocada pelo desmame precoce, também se associou na idade adulta com obesidade visceral, aumento do estresse oxidativo e esteatose, assim como dislipidemia, resistência à insulina, hipertensão arterial e resistência central à leptina. No modelo de programação pelo desmame precoce, os animais adultos foram tratados com resveratrol (30mg/kg/MC), um polifenol encontrado nas uvas e conhecido por seus efeitos antioxidante e hipoglicemiante, por 30 dias. Os animais programados pelo desmame precoce que receberam resveratrol tiveram massa corporal, gordura visceral e morfologia hepática semelhantes aos animais controles. Ainda, o resveratrol normalizou a pressão arterial, a dislipidemia, a glicemia e as concentrações de adiponectina e leptina. A normalização da leptinemia esteve associada à correção da resistência central à leptina nestes animais, uma vez que o resveratrol normalizou além da ingestão, o conteúdo hipotalâmico de JAK2, pSTAT3 e NPY. Portanto, os animais programados pela supernutrição na lactação ou pelo desmame precoce apresentaram aumento do estresse oxidativo associado à obesidade e alterações metabólicas como esteatose. O tratamento com resveratrol nos animais programados pelo desmame precoce preveniu o aumento de estresse oxidativo, obesidade visceral, resistência à insulina, dislipidemia e esteatose. Além disso, o resveratrol causou normalização da leptinemia nestes animais, assim como da ação deste hormônio no hipotálamo, controlando a hiperfagia característica deste modelo.
Resumo:
A asma é um distúrbio crônico pulmonar caracterizado por inflamação, obstrução e remodelamento brônquico, levando a sintomas como sibilo, tosse e falta de ar. A terapia antiasmática consiste em corticosteroides inalados e agonistas β2 de curta ou longa duração. O tratamento é limitado por efeitos colaterais e refratariedade de alguns pacientes, justificando a necessidade de novas terapias. Estudos demonstram que a 15-deoxy-delta- 12,14-prostaglandina J2 (15d-PGJ2), um ligante endógeno de receptores ativados por proliferadores de peroxissomos do tipo gama (PPAR-γ), é capaz de reduzir a expressão de citocinas pró-inflamatórias, o que pode resultar em benefícios no tratamento de doenças com esse perfil. O objetivo deste estudo foi avaliar o potencial anti-inflamatório e antiasmático da 15d-PGJ2 em modelos experimentais de asma. Camundongos A/J machos foram sensibilizados nos dias 0 e 7 através de injeção subcutânea (s.c.), contendo ovoalbumina (OVA) e Al(OH)3, e desafiados com 4 instilações intranasais (i.n.) de OVA em intervalos semanais. O tratamento com 15d-PGJ2 (30 e 100 g/Kg, s.c.) foi realizado 30 min antes dos desafios a partir da terceira provocação antigênica. Em outro modelo, camundongos A/J foram desafiados intranasalmente com extrato de ácaro 3 vezes por semana durante 3 semanas. As administrações de 15d-PGJ2 (30, 70 e 100 g/Kg, s.c. e 0,65; 1,5 e 2,3 g/animal, i.n.) foram realizadas a partir da 3 semana, 30 min antes dos desafios. As análises ocorreram 24 h após o último desafio. Nossos resultados mostraram que, em camundongos previamente sensibilizados e desafiados com OVA, a administração de 15d-PGJ2 limitou significativamente o influxo peribrônquico de eosinófilos e neutrófilos, bem como a produção de muco por células caliciformes e fibrose sub-epitelial, além da hiperreatividade das vias aéreas e produção de IL-5. A redução do epitélio brônquico e das citocinas IL-13 e TNF-α foram observadas somente na maior dose administrada. No modelo HDM a inflamação e o remodelamento foram atenuados em todas as doses administradas do composto, enquanto que a hiperresponssividade brônquica foi inibida apenas nas doses de 70 e 100 μg/Kg (via sistêmica) e na dose intermediária dada topicamente (1,5 μg/animal, i.n.). Os níveis de citocinas foram atenuados pelo tratamento subcutâneo, porém somente os níveis de IL-17, eotaxina-1 e TNF-α foram inibidos com a dose intranasal de 0,65 g/animal. O aumento da expressão de NF-κB, induzido por provocação com HDM também foi reduzido significativamente pela administração de 15d-PGJ2. Em conjunto, nossos dados indicam que o tratamento com 15d-PGJ2 inibe alterações cruciais associadas à patogênese da asma, em modelos experimentais distintos da doença, demonstrando possuir grande potencial para controlar e reverter inflamação, hiperreatividade e remodelamento pulmonar desencadeados por provocação alérgica.
Resumo:
As simulações computacionais tem sido amplamente empregadas no estudo do escoamento darciano e não-darciano em meios porosos consolidados e não-consolidados. Neste trabalho, através de uma nova formulação para a equação de Forchheimer, foram identificadas duas novas propriedades denominados fator de comportamento do fluido, que atua paralelamente a permeabilidade, e permeabilidade equivalente global, resultado da relação anterior. Este comportamento foi estudado e validado através da implementação de um aparato experimental e um código computacional baseado no modelo de regressão-linear que, além disso, demonstrou que o escoamento, ainda que em regime não darciano, comporta-se linearmente como a equação de Darcy, ainda que o coeficiente angular desta diminuiu de acordo com a faixa do número de Reynolds atingida, sendo esta dependente do tipo de leito empregado. Ainda neste trabalho, foi implementado o método de otimização R2W para estimar os parâmetros da equação de Kozeny-Carman a partir de dados experimentais obtidos por Dias et al, a fim de simular o escoamento darciano em meios porosos. Por fim, foi alcançada excelente concordância entre os dados simulados pelo método R2W / equação de Kozeny-Carman e os dados reais.
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
A realização da Internet das Coisas (Internet of Things, IoT) requer a integração e interação de dispositivos e serviços com protocolos de comunicação heterogêneos. Os dados gerados pelos dispositivos precisam ser analisados e interpretados em concordância com um modelo de dados em comum, o que pode ser solucionado com o uso de tecnologias de modelagem semântica, processamento, raciocínio e persistência de dados. A computação ciente de contexto possui soluções para estes desafios com mecanismos que associam os dados de contexto com dados coletados pelos dispositivos. Entretanto, a IoT precisa ir além da computação ciente de contexto, sendo simultaneamente necessário soluções para aspectos de segurança, privacidade e escalabilidade. Para integração destas tecnologias é necessário o suporte de uma infraestrutura, que pode ser implementada como um middleware. No entanto, uma solução centralizada de integração de dispositivos heterogêneos pode afetar escalabilidade. Assim esta integração é delegada para agentes de software, que são responsáveis por integrar os dispositivos e serviços, encapsulando as especificidades das suas interfaces e protocolos de comunicação. Neste trabalho são explorados os aspectos de segurança, persistência e nomeação para agentes de recursos. Para este fim foi desenvolvido o ContQuest, um framework, que facilita a integração de novos recursos e o desenvolvimento de aplicações cientes de contexto para a IoT, através de uma arquitetura de serviços e um modelo de dados. O ContQuest inclui soluções consistentes para os aspectos de persistência, segurança e controle de acesso tanto para os serviços de middleware, como para os Agentes de Recursos, que encapsulam dispositivos e serviços, e aplicações-clientes. O ContQuest utiliza OWL para a modelagem dos recursos e inclui um mecanismo de geração de identificadores únicos universais nas ontologias. Um protótipo do ContQuest foi desenvolvido e validado com a integração de três Agentes de Recurso para dispositivos reais: um dispositivo Arduino, um leitor de RFID e uma rede de sensores. Foi também realizado um experimento para avaliação de desempenho dos componentes do sistema, em que se observou o impacto do mecanismo de segurança proposto no desempenho do protótipo. Os resultados da validação e do desempenho são satisfatórios
Resumo:
Além dos elementos que integram a estrutura dos processos de democratização, este trabalho aborda o conjunto de medidas existentes para lidar com os problemas resultantes dos períodos de transição política, a partir da análise crítica dos modelos utilizados no curso da genealogia da justiça de transição. Na parte dedicada à crítica ao modelo de transição negociada, verificamos que, durante a segunda fase da genealogia, os estudos sobre os processos de transição adotaram como parâmetro de avaliação uma noção procedimental e elitista de democracia. Já na crítica aos modelos de primeira e terceira fases, observamos uma ênfase excessiva em um modelo retributivo de justiça de transição, que é encarado como ideal absoluto. Por fim, aplicamos as conclusões teóricas parciais a um estudo de caso, debruçando-nos sobre os mecanismos de justiça de transição manejados no Brasil.
Resumo:
Este artigo compara a habilidade preditiva foradaamostra de um modelo DSGE (DynamicStochastic General EquilibriumModel)Novo-Keynesiano, especificado e estimado para o Brasil, com a de um modelo Autorregressivo Vetorial (VAR) e com a de um modelo AutorregressivoVetorial Bayesiano (BVAR). O artigo inova em relação a outros trabalhos similares feitos para o Brasil (Castro et al. (2011) e Caetano e Moura (2013)), ao escolher uma especificação para o modelo DSGE que, ao permitir o uso de um conjunto de informação mais rico, tornou possível computar-se a habilidade preditiva do DSGE a partir de previsões que são,verdadeiramente,previsõesfora da amostra. Ademais, diferentemente de outros artigos que utilizaram dados brasileiros, avalia-se em que medida as respostas das variáveis aos choques na política monetária e no câmbio, obtidas pelo modelo DSGE, se assemelham àquelas de um BVAR estimado através de procedimentos bayesianos desenvolvidos de forma consistente. O modelo DSGE estimado é similar ao utilizado por Justiniano e Preston (2010) e Alpanda (2010). O modelo BVAR foi estimado utilizando uma metodologia semelhante à desenvolvida por Sims e Zha (1998), Waggoner e Zha (2003) e Ramírez, Waggoner e Zha (2007).Os resultados obtidos mostram que o modelo DSGE é capaz de gerar, para algumas variáveis, previsões competitivas em relação às dos outros modelos rivais VAR e BVAR. Além disso, as respostas das variáveis aos choques nas políticas monetária e cambial, nos modelos DSGE e BVAR, são bastante similares.
Resumo:
A teoria magneto-hidrodinâmicos permite a estruturação de modelos computacionais, designados modelos MHDs, que são uma extensão da dinâmica dos fluidos para lidar com fluidos eletricamente carregados, tais como os plasmas, em que se precisa considerar os efeitos de forças eletromagnéticas. Tais modelos são especialmente úteis quando o movimento exato de uma partícula não é de interesse, sendo que as equações descrevem as evoluções de quantidades macroscópicas. Várias formas de modelos MHD têm sido amplamente utilizadas na Física Espacial para descrever muitos tipos diferentes de fenômenos de plasma, tais como reconexão magnética e interações de ventos estelares com diferentes objetos celestiais. Neste trabalho, o objetivo é analisar o comportamento de diversos fluxos numéricos em uma discretização de volumes finitos de um modelo numérico de MHD usando um esquema de malha entrelaçada sem separação direcional considerando alguns casos testes. Para as simulações, utiliza-se o código Flash, desenvolvido pela Universidade de Chicago, por ser um código de amplo interesse nas simulações astrofísicas e de fenômenos no espaço próximo à Terra. A metodologia consiste na inclusão de um fluxo numérico, permitindo melhoria com respeito ao esquema HLL.