107 resultados para Demonstrativos complexos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O câncer colorretal é um dos tumores humanos mais freqüentes e a terceira causa de morte relacionada ao câncer no mundo. Apesar de importantes progressos terapêuticos, os resultados na doença avançada ainda são muito modestos. Isto deve-se ao fato de que a droga mais utilizada nesta neoplasia, o antimetabólito 5-fluorouracil (5-FU), foi desenvolvido a mais de 40 anos produzindo taxas de respostas de somente 10-15%. Recentemente, o inibidor da topoisomerase I irinotecan (CPT-11) demonstrou, em carcinoma de cólon avançado, respostas comparáveis tanto em pacientes não tratados quanto naqueles que tiveram recaída após terapia com 5-FU. Estes resultados justificam a avaliação da combinação 5-FU/CPT-11 nesta doença. Apesar das respostas dos estudos clínicos serem promissoras, a melhor seqüência de administração destes agentes ainda não foi determinada. Neste estudo, avaliamos a combinação CPT-11/5-FU quanto ao aumento da inibição do crescimento celular quando comparada com os agentes sozinhos nas linhagens celulares de carcinoma de cólon humano SW620, HT-29 e SNU-C4. Para isto, as células foram expostas às drogas sozinhas ou a várias combinações e seqüências de dose baixa e fixa (IC20) de um dos agentes na presença de dose alta e seriada do outro. As células foram avaliadas imediatamente após os tratamentos e/ou cultivadas por mais 2 dias em meio de cultura sem drogas através de coloração com sulforodamina B. As interações entre CPT-11 e 5-FU foram avaliadas por um programa de computador que permite calcular os índices de combinação (CIs) das drogas indicando sinergismo, adição, ou antagonismo (CI < 1, = 1, ou > 1, respectivamente). As respostas celulares foram relacionadas com as atividades das enzimas timidilato sintase, topoisomerase I e carboxil esterase, que foram determinadas através de ensaio que mede os sítios de ligação e atividade catalítica da enzima, ensaio de decatenação do DNA e método espectrofotométrico, respectivamente. Estando a toxicidade no DNA envolvida no mecanismo de ação das duas drogas, também relacionamos as respostas celulares com a introdução de danos ao DNA por método fluorescente. Para melhor entendermos as interações entre as drogas, examinamos os efeitos da exposição à IC20, IC50 e/ou IC80 do CPT-11 ou 5-FU por 2 h ou 24 h em alvos celulares possivelmente relacionados com a citotoxicidade destes agentes. Estes incluem: capacidade de reparo por excisão do 10 DNA, distribuição das células nas fases do ciclo celular, integridade da membrana plasmática e formação de complexos DNA-topoisomerase I. Para isto, utilizamos método de incorporação de [3H-metil]timidina, citometria de fluxo, liberação de lactato desidrogenase (LDH) no meio de cultura e ensaio de precipitação com SDS, respectivamente. Os estudos de inibição do crescimento celular revelaram valores de IC50 do 5-FU nas linhagens SW620, HT-29 e SNU-C4 de aproximadamente 15, 8 e 2 µM, respectivamente, e do CPT-11 próximos a 2, 2 e 4 µM, respectivamente. As diferentes sensibilidades ao 5-FU nas três linhagens foram determinadas principalmente pela diferença na afinidade ao substrato. As respostas comparáveis obtidas pela exposição ao CPT-11 podem ser explicadas pelo equilíbrio entre as diferentes atividades das enzimas topoisomerase I e carboxil esterase, entre as linhagens. O programa de análise da combinação das drogas mostrou adição ou sinergismo após exposição a IC20 do CPT-11 seguido do 5-FU, nas três linhagens celulares. Por outro lado, o pré-tratamento com IC20 do 5-FU antagonizou a inibição do crescimento mediada pelo CPT-11. Nenhum dos tratamentos simultâneos determinou um aumento na inibição do crescimento nas linhagens SW620 e HT-29; mas mostraram adição ou antagonismo na linhagem SNU-C4. Observamos um significativo acréscimo na introdução de danos ao DNA nas linhagens celulares SW620 e HT-29 somente quando a IC20 do CPT-11 precedeu a IC50 do 5-FU. Já na linhagem SNU-C4, não somente este tratamento, mas também a utilização simultânea dos agentes introduziu mais dano ao DNA. Os tratamentos por 2 h ou 24 h com IC20, IC50, e/ou IC80 do 5-FU ou CPT-11 não causaram mudanças significativas na distribuição das células nas fases do ciclo celular, concentração de LDH no meio de cultura, ou formação de complexos DNA-topoisomerse I. Indicando que alterações nestes processos não estão envolvidas com os efeitos modulatórios dos pré-tratamentos na citotoxicidade das drogas. Entretanto, a incorporação de [3H-metil]timidina no DNA de células tratadas com CPT-11, aumentou em função da dose e tempo de exposição à droga. Este resultado sugere que o dano ao DNA introduzido pelo CPT-11 depende da dose e tempo de exposição podendo ser reparado por mecanismos de excisão. Somente foi observada significativa incorporação de [3H-metil]timidina em células tratadas com IC20 do 5-FU por 2 h, sugerindo que o reparo por excisão só ocorre após exposição por curto período e à doses baixas deste agente. Juntos, os resultados deste estudo mostraram que tanto os efeitos anti-proliferativos quanto a introdução de danos ao DNA pela combinação CPT-11/5-FU em dose baixa e fixa de um agente junto com dose alta do outro, nas linhagens celulares de carcinoma de cólon humano SW620, HT-29 e SNU-C4, dependem da seqüência de administração das drogas. Estes achados podem ter sido determinados pelos diferentes efeitos do tratamento com uma dose baixa dos agentes nos mecanismos de reparo por excisão do DNA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

pós-infarto agudo do miocárdio (IAM) têm mostrado baixo valor preditivo positivo quando estudados isoladamente. A possibilidade da Eletrocardiografia Dinâmica de 24 horas (ECGD) fornecer dados referentes a isquemia silenciosa (IS), arritmias ventriculares e modulação autonômica do coração pelo estudo da variabilidade da freqüência cardíaca (VFC), levou o autor a empregar este método em pacientes acometidos de IAM com o objetivo de avaliar se estas três variáveis estariam relacionadas a presença de eventos desfavoráveis em evolução a médio prazo. Material e Métodos – Foram selecionados 91 pacientes acometidos de um primeiro IAM não-complicado e realizados exames de ECGD de 24 h por dois dias consecutivos, antes da alta hospitalar. Os parâmetros pesquisados nos exames foram: isquemia silenciosa, identificação e quantificação de arritmias ventriculares e determinação dos índices de VFC pelos métodos do domínio do tempo e do mapa de retorno tridimensional. Foram considerados como desfechos: re-infarto, angina instável, taquicardia ventricular sustentada e morte. Resultados – No seguimento médio de 27,7 meses (DP=15,45), 23 (25%) dos pacientes apresentaram eventos, sendo nove fatais. Os eventos foram mais freqüentes entre os pacientes que apresentaram extra-sístoles ventriculares ≥10/hora (p=0,01) e também naqueles com IS (p=0,02). Em modelo de análise multifatorial, a presença de dislipidemia elevou o valor preditivo positivo dessas variáveis. Nenhum dos índices de VFC esteve significativamente relacionado ao surgimento de eventos. Conclusões – Em pacientes pós-IAM de baixo risco, a presença de arritmias ventriculares freqüentes ou de isquemia silenciosa está relacionada a um prognóstico desfavorável. O estudo da VFC não mostrou utilidade na estratificação de risco destes pacientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em um ambiente em que as mudanças são constantes, as organizações se voltam, cada vez mais, para a adoção de estratégias competitivas, implementando novos métodos de produção e distribuição dos produtos e/ou serviços, novas maneiras de se relacionar com fornecedores e clientes e novas formas de gerenciar pessoas. A flexibilização da remuneração, pela participação dos empregados nos lucros, busca o envolvimento do empregado com os objetivos organizacionais e visando à produtividade. Existem estudos sobre planos de participação nos lucros nas áreas de recursos humanos e direito, havendo uma lacuna, sobre o assunto, na área de finanças. A pesquisa buscou reunir modelos quantitativos de avaliação de empresas, existentes na área de finanças, com esta variável qualitativa. O estudo evidenciou o a performance econômico-financeira das organizações que adotam participação dos empregados nos lucros, comparativamente com aquelas que não adotam, tendo como base a avaliação por indicadores. Foi utilizada uma amostra de 134 empresas, escolhidas aleatoriamente, por sorteio, dentre uma população de 709, que compõe o banco de dados da Comissão de Valores Mobiliários - CVM. A metodologia utilizada foi de caráter exploratória quantitativa descritiva, na qual estabeleceu-se relações entre as variáveis com e sem participação, em uma série temporal de 4 anos. Os dados foram coletados nos demonstrativos contábeis das empresas da amostra e analisados através do estabelecimento de relações dentre valor e volume de distribuição de lucros, com indicadores de avaliação. Como resultados da pesquisa foi observado que são poucas, apenas 18 % do número de empresas que possuem PLR (Participação dos Empregados nos Lucros ou Resultados) e a maioria, 66 % não adotam esta forma de remuneração. Existem ainda 16% que usam PLR de forma alternada. O programa traz vantagens para a empresa pelo benefício fiscal da não inclusão na folha de pagamento. As pequenas empresas distribuem mais lucros aos empregados. Até mesmo em situações de prejuízo operacional, 29% das empresas distribuem lucros. De outro lado, os administradores recebem participação somente quando há lucros, sendo portanto, responsáveis pelos resultados da organização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho analisamos os efeitos causados pela migração dependente da densidade em metapopulações, modelada como um sisitema de n sítios discretos no tempo e no espaço. A análise em diferentes funções que descrervem a dinâmica local do sistema e para configurações da rede na forma unidimensional (anéis cíclicos) e na forma bidimensional (superfície toroidal). Para os anéis cíclicos, obtemos os padrões espaciais causados pela migração dependente da densidade. Além disso, observamos que padrões mais irregulares e complexos aparecem de forma mais intensa em uma das funçoes analisadas na descrição do processo de dinâmica local. Através de várias evidências numéricas determinamos, para dinâmica local, descrita pela função exponencial logística, a região onde a migração dependente da densidade induz caóticos no sistema. esta região é crescente conforme ocorre o crescimento na fração migratória máxima. Para redes bidimentsionais na forma vizinhança de Moore apresentamos as instabilidades causadas pela migração dependente da densidade nas mesmas funções utilizadas para deescrever o processo de dinâmica local do caso anterior. Através do cálculo do espectro de Lyapunov confirmamos os padrões caóticos encontrados, classificando-os como caos espaço temporal completamente desenvolvido e supressão de caos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho buscou analisar a utilização da cláusula de exclusividade no aprovisionamento inserida por operadora de telefonia celular no Estado do Rio Grande do Sul em contratos de credenciamento de canais de distribuição caracterizados por redes de lojas de varejo multimarcas, utilizando-se nesta análise de conceitos de marketing e jurídicos, procurando na literatura das duas ciências as assertivas que embasassem suas conclusões. Todos os aspectos disponíveis na literatura, utilizáveis a juízo do autor para justificar os prejúizos sofridos pelas operadoras entrantes no mercado relevante retro referido foram abordados, de forma a dar sustenção às premissas de conclusão do trabalho. Preocupou-se este trabalho também em demonstrar a importância do Marketing como ciência complementar do Direito, especializado na obtenção de dados e métricas capazes de alicerçar as decisões a serem proferidas pelos profissionais do Direito na solução de práticas alegadamente restritivas à concorrência ou colusórias. A demonstração se faz através da busca dos conceitos que espelhem a realidade dos mercados e fatos econômicos que clamam pela incidência de normas jurídicas, conceitos estes que explicam o uso do poder nos canais de distribuição analisados na ótica do marketing, bem como no conflito dentro destas estruturas organizacionais de mercado, que medidos, na forma sugerida no trabalho, se constituem em preciosa referência a ser utilizada pelo direito, para declarar se determinada prática é legal ou ilegal. Todos os aspectos disponíveis na literatura, que seriam utilizáveis a juízo do autor para justificar os prejuízos sofridos ou eficiências ganhas pelas operadoras que atuavam ou pelas que estavam entrando ou viriam a entrar no mercado analisado, foram abordados, algumas vezes de forma até bem sucinta. Para tanto, foram analisadas as condições de mercado, a posição dominante, o mercado relevante, para definir se era todo o Estado, ou se algum dos municípios, a eficiência alcançada na transação resultante da inserção da cláusula de exclusividade, as práticas utilizadas nos países com alta industrialização e por conseqüência envolvidos em mercados bem mais sofisticados e complexos para resolver problemas equivalentes, e, até mesmo, considerados os custos da operadora entrante em desenvolver alternativas comerciais aos canais obstaculizados, para avaliar a capacidade de resposta eficiente ao problema e custos atinentes ao desenvolvimento destas alternativas. Ao final, procurou-se dar uma conclusão ao trabalho, utilizando-se as métricas indicadas, de forma a concretizar a possibilidade de utilização do marketing como uma das mais eficientes ciências para metrificar coerentemente o suporte fático sobre o qual devem incidir os juízos de valor a serem emitidos pela ciência do Direito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Engenharia de Software tornou-se uma das principais áreas de concentração do mundo da Ciência da Computação, pois ela abrange métodos para construir sistemas, ferramentas que fornecem apoio a construção e os procedimentos a seguir para que os métodos estejam de acordo com as ferramentas usadas [PRE 95]. No desenvolvimento de sistemas cada vez mais complexos vê-se a necessidade da utilização de equipes de pessoas no projeto e implementação. Essas pessoas podem estar geograficamente dispersas e portanto possuem a necessidade de troca de informações para que os sistemas desenvolvidos sejam adequados com o objetivo inicial e de qualidade. Assim, os sistemas cooperativos, chamados de groupware, tornaram-se uma importante ferramenta utilizada por esse grupo de profissionais para que as tarefas desenvolvidas em grupo se tornem interativas e eficientes. A interação entre as pessoas que estão trabalhando cooperativamente deve ser a mais produtiva possível, sendo semelhante ao trabalho em grupo em um único local. Assim, a percepção das atividades que estão sendo realizadas devem estar disponíveis para cada profissional, através da Interface Homem-Computador do sistema groupware que estão utilizando. Este trabalho apresenta uma “biblioteca” de Componentes de Percepção que fornecem as informações necessárias para que as pessoas que estão participando da tarefa cooperativa tenham a percepção das atividades que estão sendo realizadas, como também quem e como as estão fazendo. Esses componentes são uma extensão do Ambiente PROSOFT Cooperativo, fornecendo assim uma especificação formal de forma a garantir completeza, corretude e ausência de ambigüidades que são muito difíceis de se conseguir com uma descrição informal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos estudos sobre análise do risco de crédito foram feitos até recentemente, tendo como principal foco a previsão de falência. A insolvência das empresas devedoras, sem dúvida, é um grande problema para os concedentes de crédito, no entanto, a inadimplência não é um fato exclusivo do processo falimentar. Neste sentido, a presente investigação se propôs a prognosticar a ocorrência da inadimplência - aqui definida como a cobrança que está sendo realizada por via judicial - com as informações disponíveis no momento da análise de crédito, neste caso, os três últimos demonstrativos contábeis. A pesquisa foi realizada com uma amostra constituída de empresas industriais, especificamente da indústria de transformação, clientes de uma instituição financeira que receberam financiamento durante o período de 1996 a 1997, dividida entre adimplentes e inadimplentes; mediante o uso de dois métodos estatísticos de análise múltipla de dados, já consolidados em estudos desta natureza: análise discriminante linear e regressão logística; e com emprego de quocientes financeiros obtidos a partir das demonstrações contábeis. Os resultados demonstraram que há uma lacuna no que tange a análise financeira tradicional no processo de exame de crédito, que pode ser suprida com modelos quantitativos setoriais estimados com auxilio de métodos estatísticos, contribuindo para uma melhor qualidade de análise, com intuito de evitar a inadimplência, melhorando o resultado das instituições financeiras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O setor residencial no Brasil consome cerca de 24% do total da energia elétrica consumida no país, e a maior parcela desta demanda se concentra nos grandes centros urbanos. Os fatores atrelados à demanda de energia elétrica deste setor são extremamente complexos e variados. A atualização de dados, o seu conhecimento, entendimento e verificação de suas relações são de extrema importância para a programação de ações, tanto visando o suprimento deste mercado, como para aquelas que busquem a otimização do uso de energia elétrica. O presente trabalho de pesquisa envolve a análise e o estudo do consumo de energia elétrica do setor residencial, onde são analisados os múltiplos aspectos relacionados ao consumo de energia elétrica de dez diferentes tipologias de edificação de uso residencial, escolhidas em uma área de 1.500 ha, situada na zona sul da cidade de Porto Alegre. Procurou-se também estabelecer relações entre as tipologias de edificação escolhidas para análise e os respectivos consumos de energia elétrica. Buscou-se ainda verificar qual o peso desta relação frente aos demais aspectos relacionados com o consumo de energia elétrica, tais como renda familiar, densidade habitacional e hábitos de uso entre outros. Concluiu-se que a correlação, entre as variáveis relacionadas com as tipologias e o consumo de energia elétrica se apresentou muito baixa. No entanto a correlação entre os valores médios das diversas variáveis estudadas e o consumo de energia elétrica se apresentou bastante alto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo primordial desse trabalho está concentrado no estudo de Curvas NURBS (B-spline Racional N˜ao-Uniforme). A literatura em português sobre NURBS é escassa, pouco difundida e os textos e artigos existentes tendem a ser rigorosos, longos e teóricos. Assim, o presente estudo está direcionado para os conceitos matemáticos de NURBS, para o qual foi utilizado uma ferramenta chamada DesignMentor com a finalidade de testar os algoritmos desses conceitos. NURBS são funções paramétricas que podem representar qualquer tipo de curva. NURBS são usadas em computação gráfica na indústria de CAD/CAM e estão sendo consideradas um padrão para criar e representar objetos complexos (indústria automobilística, aviação e embarcação). As ferramentas de criação gráfica mais sofisticadas provêem uma interface para usar NURBS, que são flexíveis suficiente para projetar uma grande variedade de formas. Hoje é possível verificar o uso expandido de NURBS, modelando objetos para as artes visuais, arte e escultura; também estão sendo usados para modelar cenas para aplicações de realidade virtual. NURBS trabalha bem em modelagem 3D, permitindo facilidade para manipular e controlar vértices, controlar curvatura e suavidade de contornos. NURBS provêm uma base matemática, unificada para representar formas analíticas e livres além de manter exatidão e independência de resolução matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilidade de alguns polímeros depende principalmente de suas propriedades elétricas, ópticas, bioquímicas e térmicas, porém na maioria dos exemplos a propriedade fundamental para as aplicações reside em suas propriedades mecânicas. Os mecanismos de deformação em polímeros semi-cristalinos são em geral complexos e dependem do arranjo e do tamanho dos cristais. A deformação plástica de polímeros semi-cristalinos é produzida pela força aplicada ao sistema, com modificações de suas propriedades termodinâmicas e morfológicas, obtendo-se materiais com novas propriedades e aplicações. Os sistemas estudados neste trabalho, consistem de amostras de polipropileno isotático, (i-PP) comercial, fornecidas pela OPP Petroquímica (III Pólo Petroquímico – Triunfo / RS). As amostras, na forma de grânulos, foram moldadas pelo processo de injeção onde duas massas molares diferentes foram investigadas. As placas moldadas por injeção, com espessura de aproximadamente 3,0 mm, foram cortadas nas dimensões padrões de 17,2 mm X 4,7 mm e após, deformadas plasticamente por compressão plana uniaxial à temperatura ambiente. A análise da morfologia e cristalinidade deste material foram realizadas utilizando as técnicas de difração raios-X em alto ângulo (WAXD), espalhamento de raios-X em baixo ângulo (SAXS), Microscopia Eletrônica de Varredura (MEV), e Microscopia Eletrônica de Transmissão (MET). Através da técnica de WAXD foi possível a identificação das diferentes fases cristalinas α e β do i-PP, antes e depois das amostras serem deformadas por compressão uniaxial. A determinação da cristalinidade foi realizada via difração de raios-X, utilizando as geometrias θ - 2θ e de Debye Scherrer, sendo a quantificação realizada a partir da área dos picos cristalinos obtidos a partir da indexação das reflexões de Bragg, utilizando o programa FULLPROF. Como resultado obtido, foi verificado uma significativa diminuição da cristalinidade com o aumento da deformação por compressão aplicada sobre as amostras. Com as medidas de SAXS, foram observados os perfis de espalhamento anisotrópicos e isotrópicos para as amostras sem deformação para maior e menor massa molar, respectivamente. O período longo (L) do material, definido pela soma da espessura lamelar do cristal (dc) e a espessura da camada amorfa (da), também foi obtido para estas amostras. A deformação causou uma diminuição do L, o que levou a diminuição da dc, seguido pelo aumento da da. Porém, com o aumento da deformação observa-se uma diminuição das intensidades espalhadas em torno do eixo azimutal. Este efeito pode ser atribuído ao aumento da fase amorfa seguido pela diminuição da fase cristalinidade. As modificações morfológicas ocorridas nas estruturas esferulíticas e lamelares foram avaliadas utilizando a Microscopia Eletrônica de Varredura (MEV), e a Microscopia Eletrônica de Transmissão (MET). O efeito da deformação plana por compressão ficou registrado nas imagens de XXIX MEV e MET, onde verificou-se o alongamento das estruturas esferulíticas na direção de fluxo, seguido da destruição parcial da mesma em deformação por compressão maiores. As imagens obtidas em MEV e MET, foram tratadas a fim de se verificar o grau de orientação e a distribuição da orientação em nível microestrutural por meio do método direto das secantes em um plano e da rosa dos interceptos. Neste caso, quando a rosa apresenta duas pétalas, tem-se um eixo de orientação; com quatro pétalas, dois eixos de orientação, e assim sucessivamente.Em um sistema isométrico sem nenhuma orientação, a rosa dos interceptos apresentará como resultado uma circunferência. Os resultados obtidos para as imagens de MEV e MET em nível esferulítico mostraram que a rosa dos interceptos parte de uma estrutura simétrica com baixo grau de orientação para uma estrutura orientada definida por um sistema de duas pétalas, seguido pelo aumento do grau de orientação para pressões de deformações maiores. Para as imagens de MET em nível lamelar observou-se o aumento do grau de orientação devido o aumento da deformação até 10 MPa. Neste caso, a rosa dos interceptos parte de uma estrutura definida por quatro pétalas (sistema dois eixos de orientação) para uma estrutura de duas pétalas, apresentando um sistema com um eixos de orientação. Porém, para pressões de deformações entre 20-3200 MPa observou-se a diminuição do grau de orientação, pois uma maior desordem é observado nas estruturas devido a amorfização do material, sendo a rosa dos interceptos demostrada por uma estrutura simétrica. Medidas com termopar foram realizadas para verificação do comportamento térmico no momento da deformação. Neste caso, foi verificado um aumento significativo da temperatura com o aumento da deformação. Porém, para as amostras deformadas com 3200 MPa foi observado dois picos de temperatura. Onde o primeiro pico foi atribuído ao comportamento adiabático seguido pela relaxação do material, enquanto o segundo pico foi verificado com grande aumento de temperatura no momento da explosão do material.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Espectroscopia de Transientes de Níveis Profundos (DLTS – Deep Level Transient Spectroscopy) foi, detalhadamente, descrita e analisada. O processo de isolação por implantação em GaAs foi estudado. Sua dependência com a sub-rede, do As ou do Ga, em que o dopante é ativado foi investigada para material tipo-p. Semelhantes doses de implantação de prótons foram necessárias para se tornar semi-isolantes camadas de GaAs dopadas com C ou com Mg possuindo a mesma concentração de pico de lacunas livres. A estabilidade térmica da isolação nestas amostras foi medida. Diferenças no comportamento de recozimento destas apontaram a formação, provavelmente durante a referida etapa térmica, de uma estrutura diferente de defeitos em cada caso. Medidas de DLTS foram realizadas em amostras de GaAs tipo-n e tipo-p implantadas com prótons de 600 keV. A estrutura de picos observada apresentou, além de boa parte dos defeitos introduzidos para o caso de irradiação com elétrons, defeitos mais complexos. Um novo nível, com energia superior em ~0,64 eV ao valor correspondente ao topo da banda de valência, foi identificado nos espectros medidos em material tipo-p. A variação da concentração dos centros de captura introduzidos com diferentes etapas de recozimento foi estudada e comparada com o comportamento previamente observado para a resistência de folha em camadas de GaAs implantadas com prótons. Simulações foram feitas, indicando que a interpretação adotada anteriormente, associando o processo de isolação diretamente à formação de defeitos relacionados a anti-sítios, pode não estar completa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antigamente as informações que as organizações utilizavam durante a sua gestão eram suficientemente armazenadas em arquivos. A própria aplicação era responsável pela manipulação dos dados e pela função de guardá-los de maneira segura. No entanto, a sociedade evoluiu com tamanha rapidez que as organizações começaram a gerar uma quantidade cada vez maior de informação e, também, a rapidez de acesso às informações armazenadas tornou-se cada vez mais importante. Os antigos sistemas de arquivos tornaram-se complexos sistemas de armazenamento de informações responsáveis por gerir grandes volumes de dados, chamados Sistemas Gerenciadores de Banco de Dados - SGBD’s. Devido à complexidade dos bancos de dados e à necessidade de sua operação ininterrupta surge a tarefa do Administrador, cuja função é assegurar que os bancos de dados permaneçam operantes, íntegros e rápidos. Para realizar suas tarefas o Administrador precisa contar com boas ferramentas de modo a tornar as intervenções no banco de dados rápidas e seguras. Existem no mercado, boas ferramentas para administração de banco de dados. No entanto, são todas proprietárias, possuem custo elevado e apresentam deficiências quando o DBA e o BD estão localizados logicamente em redes de dados distintas. Para tentar resolver este problema, este trabalho se propõe a desenvolver uma ferramenta de administração de banco de dados que o DBA possa utilizar para gerenciar os bancos de dados, utilizando a Web como instrumento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.