932 resultados para Catalisadores : Complexos de paládio
Resumo:
Neste trabalho foram sintetizados e caracterizados polietilenos de alta densidade (PEAD) obtidos via homopolimerização de eteno e copolimerização de eteno com 1-buteno, utilizando-se dois sistemas catalíticos baseados em um catalisador Z-N heterogêneo suportado, sintetizado a partir de TiCl4 e etilato de magnésio, que leva à geração in situ de cloreto de magnésio. O objetivo foi avaliar o efeito do 1-buteno sobre as propriedades do PEAD obtido através do catalisador supracitado e IPRA ou TEA como cocatalisadores (estes sistemas catalíticos foram identificados como ZN1-IPRA e ZN1- TEA). Como esperado, observou-se aumento de atividade catalítica quando 1-buteno foi usado como comonômero, conhecido como “efeito comonômero”. Houve redução da densidade do PEAD com a concentração do comonômero no meio reacional na seguinte ordem: homopolímero > copolímero sintetizado com pressão de 1-C4 de 0,5 bar > copolímero sintetizado com pressão de 1-C4 de 0,9 bar. Esta redução da densidade foi acompanhada de um aumento do MFR, de redução de massa molar e polidispersão, esta última também constatada pelas medidas reológicas em reômetro rotacional. Também constatou-se redução de Tc, Tf, cristalinidade, tensão no escoamento, módulo secante a 2 %, resistência à tração por impacto e ESCR. A razão de inchamento foi maior nos homopolímeros obtidos com ambos os sistemas catalíticos, provavelmente devido à maior polidispersão destas resinas, aliado ao fato de também apresentarem maior massa molar. A deconvolução das curvas de GPC e a caracterização das frações de polímero obtidas através do fracionamento preparativo (PREP) provou a existência de uma maior fração de moléculas com alta massa molar no PEAD obtido com o sistema catalítico ZN1-IPRA. Esta fração permitiu explicar, ao menos em parte, as maiores razões de inchamento e a melhor recuperação no teste de fluência dos polímeros obtidos com este sistema catalítico. Não foi possível identificar diferenças significativas na distribuição do comonômero nas cadeias poliméricas dos copolímeros obtidos com ambos os sistemas catalíticos estudados, somente indícios de incorporação diferenciada através da determinação do teor de metilas totais nas frações obtidas por PREP.
Resumo:
Neste trabalho, estudamos a posição de átomos de F na estrutura cristalina do Si. As amostras foram pré-amorfizadas utilizando um feixe de Si de 200 keV e, após, implantadas com F. Então recristalizamos a camada amorfa através do processo de Epitaxia de Fase Sólida (EFS). Empregamos as técnicas de Espectrometria de Retroespalhamento Rutherford, na condição de canalização iônica, e de Análise por Reação Nuclear (NRA), através da reação ressonante ( ) O p F 16 19 , αγ , à 5 , 340 keV, para determinar a posição dos átomos de F e, depois, reproduzimos os resultados experimentais através do programa de simulação computacional chamado Simulação Adaptada de Canalização de Íons Rápidos em Sólidos (CASSIS - Channeling Adapted Simulation of Swift Ions in Solids). Os resultados obtidos apontam para duas possíveis combinações lineares distintas de sítios. Uma delas concorda com a proposta teórica de Hirose et al. (Materials Science & Engineering B – 91-92, 148, 2002), para uma condição experimental similar. Nessa configuração, os átomos de F estão na forma de complexos entre átomos de flúor e vacâncias (F-V). A outra combinação ainda não foi proposta na literatura e também pode ser pensada como um tipo de complexo F-V.
Resumo:
Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico
Resumo:
O presente estudo visa, a partir de uma noção dos componentes da sustentabilidade, aliada ao paradigma moriniano da complexidade e dos pressupostos da teoria neoinstitucional, analisar o papel do Programa Pró-Guaíba na estruturação de um campo organizacional sustentável. Para isso, buscou-se na análise do conteúdo de evidências empíricas, obtidas em fontes de dados primárias (entrevistas em profundidade) e secundárias (pesquisa documental), elementos que propiciassem uma melhor compreensão dos principais aspectos subjacentes a essa questão. Assim, o conceito de sustentabilidade proposto pelo Programa pôde ser melhor evidenciado possibilitando a sua avaliação, tanto no âmbito dos Subprogramas, como na análise do Programa como um todo. Da mesma forma, o arcabouço teórico adequado à compreensão do papel do Programa Pró-Guaíba na estruturação do campo organizacional foi desenvolvido propiciando, uma perspectiva complexificada dos processos institucionais, assim como, uma solução alternativa aos paradoxos da abordagem neoinstitucionalista. Assim, os aspectos que confirmam a estruturação do campo organizacional em decorrência das ações do Programa são evidenciados, contudo, não como um “fato dado como certo” como pressupõe alguns autores da análise neoinstitucional, mas como elementos que compõem um “campo organizacional ativo”, concebido dialogicamente a partir de interações que integram a unidade complexa Programa/campo/sustentabilidade a qual, por sua vez, institucionaliza/desinstitucionaliza recursiva e retroativamente os componentes do sistema por intermédio de processos complexos e dialógicos de adaptação e seleção, de forma a aumentar suas perspectivas de permanência e sobrevivência na ecoorganização mais ampla da qual faz parte.
Resumo:
Para avaliar associação entre infarto do miocárdio e a presença no eletrocardiograma de extra-sístoles supraventriculares ou ventriculares com morfologia QR, foi realizado um estudo de caso-controle aninhado em um estudo transversal. No período de janeiro de 2000 a maio de 2004 foram realizados 6244 exames de cateterismo cardíaco na Unidade de Hemodinâmica do Serviço de Cardiologia do Hospital de Clínicas de Porto Alegre. Deste grupo foram selecionados 35 pacientes com infarto do miocárdio (IM) e 11 sem IM, sendo que destes 46 pacientes 33 já apresentavam extra-sístoles espontaneamente e os outros 13 tiveram suas extra-sístoles obtidas em estimulação elétrica programada. Deste modo, nosso estudo constitui-se 35 casos de IM com extra-sistoles espontâneas ou provocadas e 11 controles sem IM. Com extra-sistolia (espontânea ou provocada). Os traçados eletrocardiográficos foram estudados, e observaram-se, quais os pacientes que apresentaram nas extra-sístoles morfologia tipo QR (QRS, QRs, Qrs) com duração maior ou igual a 0,04 segundos, considerando-se este sinal como positivo para IM. A utilização do eletrocardiograma em ritmo sinusal para o diagnóstico de IM em nosso estudo levou a uma estimativa de sensibilidade em torno de 86% e uma especificidade de 91%.Como conseqüência direta destes achados, temos que do ponto de vista do eletrocardiograma em ritmo sinusal havia 31 pacientes supostamente com IM e 15 livres do desfecho. Não obstante, dos 31 supostos pacientes com IM, 30 eram verdadeiros positivos e 1 falso negativo. Por outro lado, dos 15 pacientes supostamente sem IM, havia 5 falsos negativos e 10 verdadeiramente negativos. Tomando o grupo de pacientes supostamente livres de IM, como foco de ação corretiva para diagnóstico do ECG em ritmo sinusal, tem-se a necessidade de reverter uma taxa de falsos negativos de 14% Aplicando-se os critérios diagnósticos de IM no ECG obtido em extra-sístoles verifica-se que, apesar de ocorrer uma queda na especificidade, temos uma estimativa de sensibilidade em torno de 100%. Assim, a utilização combinada do ECG em extra-sístoles seguindo o ECG em ritmo sinusal promove a redução da taxa de falsos negativos de 14% para 0% enquanto que enquanto que a proporção de falsos positivos ficou em torno de 27%. Desta forma, a análise da morfologia das extra-sístoles supraventriculares e ventriculares podem ser de utilidade no diagnóstico de IM quando a morfologia dos batimentos sinusais é não diagnostica
Resumo:
O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.
Resumo:
Este trabalho aborda o desenvolvimento de uma arquitetura de controle em tempo real para servoposicionadores pneumáticos, baseada em computadores pessoais (PCs). Os servoposicionadores pneumáticos são de baixo custo, leves, não poluentes e de fácil utilização. Como apresentam boa relação entre peso e força, são bastante atraentes em aplicações de robótica. Entretanto, devido a suas não linearidades, os servoposicionadores pneumáticos apresentam dificuldades em seu controle. Visando compensá-las, são desenvolvidos algoritmos de controle cada vez mais complexos, necessitando de ferramentas mais robustas quanto ao poder de processamento. Ferramentas com características necessárias para o desenvolvimento de algoritmos e para o controle em tempo real de sistemas custam caro, o que dificulta o desenvolvimento de novas tecnologias de controle de servoposicionadores pneumáticos. Este trabalho apresenta uma revisão das soluções utilizadas na construção de sistemas pneumáticos de posicionamento e daquelas adotadas no controle digital de sistemas automáticos. Descrevese o processo de construção de uma bancada experimental, e o desenvolvimento das soluções em hardware e software para o controle digital é discutido. Visando uma solução economicamente atraente, são utilizados unicamente softwares de código aberto e de livre utilização, assim como hardwares de baixo custo.Para verificar a eficiência da solução proposta, a arquitetura de controle é utilizada para realizar a identificação dos parâmetros do sistema pneumático. Dentre eles, destacam-se a vazão mássica e o atrito, informações importantes para simulação e controle do sistema. Também são utilizados controladores do tipo Proporcional-Integral-Derivativo, implementados para apoiar o estudo do desempenho da arquitetura no controle do servoposicionador pneumático.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
Neste estudo buscou-se entender as relações dos Jatos de Nível Baixo (JNB) na geração de convecção em escala sinótica e a sua associação com eventos de intensa precipitação. Observou-se o perfil vertical do vento através de radiossondagens realizadas no Aeroporto Internacional Salgado Filho em Porto Alegre e em Uruguaiana no interior do estado do Rio Grande do Sul, Brasil. Analisou-se a sua variabilidade sazonal, intra e inter-sazonalidade. Estimaram-se suas escalas e intensidades predominantes, descrevendo a interação dos JNB's e o seu importante papel na circulação geral da atmosfera e no transporte de vapor de água e calor das regiões equatoriais para regiões de latitudes médias, influenciando diretamente o balanço hídrico de extensas bacias hidrográficas interligadas neste transporte. Os JNB's associados neste intenso transporte apresentam uma tendência de estarem ligados a eventos convectivos noturnos e na geração de Complexos Convectivos de Mesoescala (CCM), que geram elevados índices pluviométricos que podem causar importante impacto econômico Utilizam-se várias técnicas estatísticas para realização deste estudo, como a Análise das Componentes Principais, Classificação Não-Hierárquica dos JNB's, cálculo das correlações dos sinais das séries temporais dos JNB's e as precipitações, com a utilização de técnicas "Bootstrap", uso de técnicas geoestatísticas, com o cálculo do variograma da precipitação máxima e dos seus dias de evento com ajustamento de um modelo para o variograma teórico. Realiza-se a modelagem com o uso do modelo meteorológico "Model Mesoscale Five" (MM5) para estudar a estrutura e caracterizar o transporte realizado pelo JNB. O emprego destas metodologias facilita o entendimento da complexidade das interações de diferentes escalas meteorológicas envolvidas nos processos sinóticos de macro e mesoescala. Em tal complexidade, o trabalho realizado pelos JNB's nesta interação é o de ser a escala efetiva de transporte na baixa atmosfera, que realiza o importante papel de acoplar a meteorologia regional e o ciclo hidrológico em escala continental.
Resumo:
Este trabalho teve como objetivo desenvolver novas metodologias para as reações de acoplamento C-C e C-O para a obtenção de olefinas. Na primeira etapa do trabalho foi desenvolvido um procedimento simples e eficiente para a preparação de estirenos funcionalizados, a partir de reações de acoplamento catalisadas por paládio entre ácidos arilborônicos e o brometo de vinila, gerado in situ a partir do 1,2-dibromoetano. A reação utiliza condições brandas e uma variedade de grupos funcionais é tolerada. Os ácidos arilborônicos contendo grupos eletrodoadores mostraram-se mais reativos na reação de acoplamento. O sistema é muito simples quando comparado com outros sistemas propostos para a obtenção de vinilarenos, não tem o inconveniente de usar etileno sob pressão ou reagentes tóxicos de estanho. Os ésteres α-arilacrílicos são precursores para os ácidos α-arilpropiônicos, importantes não esteroidais, e podem ser obtidos pela reação de acoplamento catalisada por paládio do 2-bromoacrilato de butila com ácidos arilborônicos. Nesse trabalho foram realizados vários experimentos para determinar as melhores condições reacionais. Os melhores resultados foram obtidos com a utilização de Pd(OAc)2 como catalisador, a PCy3 como fosfina ligante, o Cs2CO3 como base e DMA como solvente. Utilizando essas condições, a uma temperatura de 120 oC durante 1.5 h, o produto de acoplamento, o 2-fenilacrilato de butila, foi obtido com 83% de rendimento Na última parte foi investigada a formação de ligações C-O catalisadas por metais. A reação de acoplamento entre o 2-bromoacrilato de butila com fenóis possibilita a obtenção de precursores insaturados para os ácidos α-ariloxipropanóicos, uma importante classe de herbicidas.O sistema catalítico baseado em cloreto de cobre mostrou-se mais ativo do que os sistemas com paládio. O melhor sistema catalítico foi obtido com cloreto de cobre como catalisador, na presença de Cs2CO3 como base e tolueno como solvente. Utilizando essas condições para o acoplamento entre o 2-bromoacrilato de butila e t-butilfenol foi possível obter o 2-(p-tbutilfenoxi)acrilato de butila com 37% de rendimento.
Resumo:
A dinâmica de propagação da ruptura durante terremotos é um dos assuntos mais relevantes e complexos em Sismologia. Um critério constitutivo para a falha que descreva corretamente a relação das variáveis estáticas (tensões normais e tangenciais) com as variáveis cinéticas (deslocamentos e velocidades) na interface é necessário para efetuar uma análise dinâmica confiável. A fim de determinar um critério constitutivo para o deslizamento com atrito ao longo da falha sísmica, primeiramente apresentam-se métodos para caracterizar as superfícies deslizantes e discutem-se os principais critérios constitutivos que têm sido usados. Também são apresentados os resultados de um estudo experimental realizado, evidenciando, para sólidos metálicos em contato, uma lei constitutiva de variação do atrito com a velocidade. Um modelo numérico tridimensional baseado no Método dos Elementos Discretos (DEM) é usado para representar a região de rocha adjacente à falha. O modelo consiste de uma estrutura tridimensional periódica com massas concentradas nos nós, interconectadas por elementos visco-elásticos unidimensionais. Inicialmente, de acordo com modelos usuais em Sismologia, admite-se que o material é elástico, linear e homogêneo. Em uma segunda análise, a influência da não-homogeneidade do material é avaliada considerando que a massa específica, o módulo de Young e o coeficiente de atrito são campos aleatórios Gaussianos correlacionados. Na análise seguinte, o efeito da fratura na região de rocha adjacente à falha é também numericamente avaliado. Por fim, a influência de ruptura de micro-asperezas nas superfícies deslizantes é analisada. Através de simulação de Monte Carlo, as relações constitutivas macro (ou globais) para a falha são obtidas, admitindo como leis constitutivas micro (ou locais) os dois critérios mais usados em Sismologia: a lei de variação do atrito com a velocidade e a lei de variação do atrito com o deslizamento. Quando os blocos de rocha são admitidos serem elásticos e homogêneos não há um efeito de escala. Novamente, quando a rocha é considerada não-homogênea não há um efeito de escala significativo, apenas pequenas variações nos parâmetros das leis constitutivas macro em relação às leis micro são percebidas, exceto pela influência do campo aleatório do coeficiente de atrito, o qual apresenta um efeito de escala perceptível. A ocorrência de fratura nas proximidades da falha não causa modificações significativas nas leis constitutivas macro, apenas causa algumas oscilações em torno da lei sem fratura. Finalmente, obtém-se um critério constitutivo macro que leva em consideração a ruptura por cisalhamento das micro-asperezas nas superfícies deslizantes. O modelo é chamado lei modificada de variação do atrito com a velocidade e é considerado um critério constitutivo mais geral.
Resumo:
Até os dias de hoje, a abordagem estática tem sido a usualmente empregada para a avaliação da resposta de cabos de Linhas de Transmissão (LTs), apesar da resposta dinâmica ser, em muitos casos, reconhecidamente importante na avaliação do desempenho dos cabos. Para uma análise completa, não se pode desconhecer a natureza dinâmica da maioria dos fenômenos a que as LTs estão submetidas, sendo exemplos típicos as excitações mecânicas causadas pela ação do vento (carregamentos de baixa e alta freqüência) e a ruptura de cabos. Cabe salientar que mesmo a análise estática empregada tem sido simplificada, considerando normalmente apenas casos contemplados com soluções analíticas. A justificativa para emprego da análise estática baseia-se no menor esforço numérico exigido. Entretanto, essa justificativa já não se sustenta dado os grandes avanços na área computacional, possibilitando o estudo do desempenho de LTs na ocorrência de fenômenos que provocam carregamentos dinâmicos. Adicionalmente, há uma crescente demanda para que se obtenha um melhor entendimento de muitas questões relativas ao comportamento dinâmico das LTs, que possam explicar desempenhos observados e/ou sustentar o desenvolvimento de novas alternativas mais arrojadas de projeto e construção Entre os diversos métodos utilizados na engenharia estrutural, a integração direta das equações do movimento, através de métodos numéricos como as diferenças finitas centrais, se constitui numa poderosa ferramenta de cálculo. Esta ferramenta possibilita o tratamento de problemas envolvendo não linearidades geométricas e do material, como são os casos onde se avalia a resposta de cabos suspensos submetidos a carregamentos variáveis no tempo. Esta pesquisa objetiva a aplicação do método da integração direta das equações do movimento na análise de feixes de cabos de LT, quando submetidos à ação de carregamentos mecânicos variáveis no tempo, principalmente à excitação de ventos oriundos de fenômenos com natureza complexa (tormentas elétricas, por exemplo). É apresentado um método para determinar a resposta dinâmica de feixes que considera a interação entre o vento incidente e o movimento do condutor. A solução é obtida por integração numérica, no domínio do tempo, das equações de movimento de um modelo tridimensional não-linear discreto de feixe, as quais definem as forças nos espaçadores e cabos através de coeficientes aerodinâmicos obtidos experimentalmente. Também são apresentados modelos dos fenômenos meteorológicos mais comuns em nosso país (Brasil): tormenta extratropical (EPS) e tormenta elétrica (TS) Como ilustração, são apresentados exemplos de modelagem de vãos de LTs com condutor singelo e com feixes de condutores. Os exemplos demonstram a capacidade de avaliação de Estados Limites relacionados à distância relativa entre subcondutores, à estabilidade do feixe, à representação das suas propriedades e ao comportamento dinâmico, bem como aos carregamentos transmitidos às estruturas. A análise emprega conhecidas relações constitutivas para representar o comportamento tensão-deformação dos cabos. O enfoque utilizado possibilita a avaliação mais precisa de casos reais que ainda não podiam ser convenientemente tratados, além de permitir a extensão para estudos bem mais complexos, tais como feixes com disposições assimétricas.
Resumo:
Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.
Resumo:
O conceito de gestão de cadeia de suprimentos tem atraído empresas e pesquisadores, visto como uma forma de coordenar as ações das empresas com outras empresas que influenciam o sucesso de seu negócio. Esta qualidade parece ser especialmente relevante no contexto da construção civil, onde o sucesso dos projetos usualmente depende da cooperação entre várias empresas distintas. No entanto, a aplicação deste conceito à construção civil tem sido bastante limitada até o presente momento. De acordo com estudos recentes, as principais razões para tanto são a pobre compreensão do conceito pelas empresas de construção, e as peculiaridades que caracterizam a atividade dessa indústria. Na base destas questões, pesquisadores identificaram a necessidade de um maior desenvolvimento teórico quanto ao tema. A orientação deste estudo se dá nesta direção, buscando propor um modelo teórico para descrever o fenômeno da coordenação inter-organizacional entre as empresas que constituem a cadeia de suprimentos do empreendimento. Neste sentido, o conceito de gestão de cadeia de suprimentos é analisado, e a sua aplicação ao contexto da construção civil e de seus projetos é discutida. Após, três diferentes abordagens teóricas para a coordenação inter-organizacional são aplicadas conjuntamente na construção do modelo, cuja aplicação em dois empreendimentos complexos é posteriormente discutida Em cada um deles, o modelo contribuiu para proporcionar meios para a descrição e análise da cadeia de suprimentos do empreendimento no que se refere ao aspecto da coordenação inter-organizacional. Ao mesmo tempo, o modelo auxiliou na compreensão de como as três abordagens de coordenação adotadas podem contribuir uma com a outra. Ainda, os resultados obtidos indicam que a pesquisa pode contribuir para auxiliar a preencher a lacuna teórica existente no que se refere à aplicação do conceito de gestão de cadeias de suprimentos a outros contextos específicos, como das empresas que desenvolvem produtos sob encomenda e de outros tipos de projetos que empregam múltiplas empresas.
Resumo:
Nowadays, the popularity of the Web encourages the development of Hypermedia Systems dedicated to e-learning. Nevertheless, most of the available Web teaching systems apply the traditional paper-based learning resources presented as HTML pages making no use of the new capabilities provided by the Web. There is a challenge to develop educative systems that adapt the educative content to the style of learning, context and background of each student. Another research issue is the capacity to interoperate on the Web reusing learning objects. This work presents an approach to address these two issues by using the technologies of the Semantic Web. The approach presented here models the knowledge of the educative content and the learner’s profile with ontologies whose vocabularies are a refinement of those defined on standards situated on the Web as reference points to provide semantics. Ontologies enable the representation of metadata concerning simple learning objects and the rules that define the way that they can feasibly be assembled to configure more complex ones. These complex learning objects could be created dynamically according to the learners’ profile by intelligent agents that use the ontologies as the source of their beliefs. Interoperability issues were addressed by using an application profile of the IEEE LOM- Learning Object Metadata standard.